DesInfSoc
DesInfSoc

DesInfSoc
DesInfSoc
 : 
Characterization and quantification of disinformation in social media content
Characterization and quantification of disinformation in social media content

A Project coordinated by IIIA.

Web page:

Principal investigator: 

Collaborating organisations:

Funding entity:

MICINN
MICINN

Funding call:

Funding call URL:

Project #:

PIE009
PIE009

Total funding amount:

100.000,00€
100.000,00€

IIIA funding amount:

Duration:

01/May/2023
01/May/2023
30/Apr/2025
30/Apr/2025

Extension date:

Las plataformas de redes sociales son hoy día unos de los medios más comúnes de conexión entre las personas. La convivencia permanente con estas plataformas hace que indefectiblemente el contenido que éstas proporcionan (ya sea producido por otros humanos o generado de manera automática) intervenga en las creencias y decisiones cotidianas de los seres humanos. Son sin duda herramientas muy útiles pero también vulnerabilizan a los usuarios exponiéndolos a desinformación, contenido tóxico o abusivo, con el potencial de causar un gran daño tanto individual como colectivo.
La tarea de identificar y analizar este tipo de fenómenos , ha recibido gran interés por parte de la comunidad científica en los últimos años, con algunos avances utilizando herramientas de aprendizaje automático (provenientes sobre todo de las propias compañías que administran las plataformas); sin embargo la complejidad del análisis elude las capacidades de las herramientas que el estado del arte provee, debido en gran medida a la subjetividad necesaria para comprender el contenido, que en la mayoría de los casos requiere de conocimiento previo del dominio, información contextual y sentido común. Estos fenómenos son multi dimensionales, es decir, existe una variedad de aspectos que los caracterizan y que imprimen diferentes tipos de riesgos en los usuarios. Por ejemplo, podemos hablar del nivel de toxicidad y/o violencia que expresa el contenido, el grado de incoherencia o inconsistencia en la información que éste provee, la calidad de la argumentación que utiliza (e.g., los discursos de odio muchas veces son de tipo argumentivo pero utilizan premisas falsas o corresponden a algún tipo de falacia), el tipo de argumentación que se utiliza (e.g., si impone la opinion de un experto, apela a la emoción, autoridad o la moral), etc. La capacidad de poder identificar estas dimensiones y cuantificarlas de manera automática, podría ser de gran ayuda tanto para moderadores de plataformas de contenido como para los mismos usuarios, proveyendo una guía sobre la calidad del contenido que se les presenta.

El objetivo general de este proyecto es profundizar en el desarrollo de modelos de Inteligencia Artificial (IA) basadas en conocimiento que combinadas con métodos del estado del arte de Procesamiento de Lenguaje Natural (PLN) permitan tanto identificar de manera automática componentes relacionadas a dichas dimensiones como así también utilizarlos para proporcionar información cuantitativa sobre ellas. Nos enfocaremos específicamente es estudiar instancias particulares de contenido en redes sociales de manera de poder medir diferentes dimensiones que caracterizan la desinformación.

Para lograr el objetivo general proponemos los siguientes objetivos especificos:
1. Formalización computacional de un conjunto de componentes y dimensiones que caracterizan contenido de redes sociales que aportan al fenómeno de la desinformación.
2. Detección automatizada de las dimensiones de desinformación en contenido en redes sociales por medio de herramientas híbridas, es decir aquellas que combinan modelos lógicos basados en conocimiento y modelos conducidos por datos.
3. Definición de métricas específicas que permitan cuantificar de manera efectiva las diferentes dimensiones de desinformación en contenido de redes sociales.

Las plataformas de redes sociales son hoy día unos de los medios más comúnes de conexión entre las personas. La convivencia permanente con estas plataformas hace que indefectiblemente el contenido que éstas proporcionan (ya sea producido por otros humanos o generado de manera automática) intervenga en las creencias y decisiones cotidianas de los seres humanos. Son sin duda herramientas muy útiles pero también vulnerabilizan a los usuarios exponiéndolos a desinformación, contenido tóxico o abusivo, con el potencial de causar un gran daño tanto individual como colectivo.
La tarea de identificar y analizar este tipo de fenómenos , ha recibido gran interés por parte de la comunidad científica en los últimos años, con algunos avances utilizando herramientas de aprendizaje automático (provenientes sobre todo de las propias compañías que administran las plataformas); sin embargo la complejidad del análisis elude las capacidades de las herramientas que el estado del arte provee, debido en gran medida a la subjetividad necesaria para comprender el contenido, que en la mayoría de los casos requiere de conocimiento previo del dominio, información contextual y sentido común. Estos fenómenos son multi dimensionales, es decir, existe una variedad de aspectos que los caracterizan y que imprimen diferentes tipos de riesgos en los usuarios. Por ejemplo, podemos hablar del nivel de toxicidad y/o violencia que expresa el contenido, el grado de incoherencia o inconsistencia en la información que éste provee, la calidad de la argumentación que utiliza (e.g., los discursos de odio muchas veces son de tipo argumentivo pero utilizan premisas falsas o corresponden a algún tipo de falacia), el tipo de argumentación que se utiliza (e.g., si impone la opinion de un experto, apela a la emoción, autoridad o la moral), etc. La capacidad de poder identificar estas dimensiones y cuantificarlas de manera automática, podría ser de gran ayuda tanto para moderadores de plataformas de contenido como para los mismos usuarios, proveyendo una guía sobre la calidad del contenido que se les presenta.

El objetivo general de este proyecto es profundizar en el desarrollo de modelos de Inteligencia Artificial (IA) basadas en conocimiento que combinadas con métodos del estado del arte de Procesamiento de Lenguaje Natural (PLN) permitan tanto identificar de manera automática componentes relacionadas a dichas dimensiones como así también utilizarlos para proporcionar información cuantitativa sobre ellas. Nos enfocaremos específicamente es estudiar instancias particulares de contenido en redes sociales de manera de poder medir diferentes dimensiones que caracterizan la desinformación.

Para lograr el objetivo general proponemos los siguientes objetivos especificos:
1. Formalización computacional de un conjunto de componentes y dimensiones que caracterizan contenido de redes sociales que aportan al fenómeno de la desinformación.
2. Detección automatizada de las dimensiones de desinformación en contenido en redes sociales por medio de herramientas híbridas, es decir aquellas que combinan modelos lógicos basados en conocimiento y modelos conducidos por datos.
3. Definición de métricas específicas que permitan cuantificar de manera efectiva las diferentes dimensiones de desinformación en contenido de redes sociales.

2023
Dami{\'{a}}n Ariel Furman,  Pablo Torres,  Jos{\'{e}}A. Rodr{í}guez,  Diego Letzen,  Maria Vanina Martinez,  & Laura Alonso Alemany (2023). High-quality argumentative information in low resources approaches improve counter-narrative generation. Houda Bouamor, Juan Pino, & Kalika Bali (Eds.), Findings of the Association for Computational Linguistics: {EMNLP} 2023, Singapore, December 6-10, 2023 (pp. 2942--2956). Association for Computational Linguistics. https://doi.org/10.18653/V1/2023.FINDINGS-EMNLP.194. [BibTeX]
Stephanie Malvicini
PhD Student
María Vanina Martinez
Tenured Scientist
Phone Ext. 431817