Un criterio que refrendan expertos reunidos en Santiago de Compostela, Galicia, donde concluye hoy el evento denominado European Conference on Artificial Intelligence (ECAI 2024).
Promovido por la Asociación Europea de Inteligencia Artificial (EurAI), la Sociedad Española de Inteligencia Artificial (AEPIA) y organizado por la Universidad de Santiago de Compostela, la cita reúne a más de mil 600 especialistas del mundo en la materia.
Los buenos argumentos son armas en contraposición a la censura o el bloqueo, porque ayuda a difundir un mensaje contra el odio que llegará a gente que no está necesariamente convencida.
La censura y el bloqueo de los usuarios, son según los analistas, herramientas ineficaces para combatir el delito de odio en las redes sociales, por lo que es más recomendable apostar por la “argumentación y la contranarrativa”.
María Vanina Martínez, científica titular del Instituto de Investigación en Inteligencia Artificial del Consejo Superior de Investigaciones Científicas, aseveró que “la argumentación es mejor que la censura”.
La investigadora del Instituto de Inteligencia Artificial de Catalunya (IIAC) apuntó que las redes sociales son una de las “principales formas de conectar y comunicarse” en la actualidad y su contenido, “generado automáticamente o no, influye en nuestras creencias en las decisiones que tomamos”.
“Son herramientas útiles, pero también nos exponen a amenazas como la desinformación, contenido abusivo o tóxico, mensajes de odio, manipulación, y esto es peligroso teniendo en cuenta que las redes y la IA reproducen y multiplican sus efectos”, agregó.
Señaló el caso del negacionismo histórico o los conflictos bélicos como la Guerra de Ucrania o la de Israel con Palestina. A modo de ejemplo, citó el trabajo que se está realizando en Argentina con aficionados de fútbol y organizaciones sociales, en un país muy polarizado y en un ambiente general de crisis.
Iryna Gurevych, profesora de Procesamiento de Conocimiento Ubicuo de Ciencias de la Computación de la Universidad de Darmstadt, Alemania, presentó Missci, un novedoso modelo teórico de argumentación para razonamientos falaces y desmantelar las narrativas engañosas.
Basadas en interpretaciones falsas de publicaciones científicas, la catedrática desarrolló una ponencia titulada Hacia la verificación de hechos en el mundo real con modelos lingüísticos de gran tamaño.
Gurevych alertó de que la «desinformación plantea una amenaza creciente para nuestra sociedad y que se extiende muy rápidamente».
El volumen de información y la relevancia de su contenido están en el centro del asunto y puso como ejemplo el grave impacto en la salud pública de las fake news relacionadas con la Covid-19, con el uso de la cloroquina como tratamiento, o informaciones que sembraban dudas sobre las vacunas.
mem/ft