Saltar la navegación

2.4. Ética y responsabilidad en el Periodismo con IA: alucionaciones y sesgos

“ChatGPT can make mistakes. Consider checking important information”. Cualquiera que haya accedido a ChatGPT (la versión inicial gratuita) habrá visto este pequeño texto a modo de nota al pie. Tal vez sea la forma más directa de hacernos ver que, aunque la IA ha revolucionado los medios de comunicación, avances como la automatización de tareas y la personalización de contenidos no están exentos de riesgos. Del reto de la sostenibilidad medioambiental y la necesidad de regular la propiedad intelectual y los derechos de autor a desafíos muy específicos en el campo del periodismo como las alucinaciones y los sesgos.

Las alucinaciones, que se mencionan en la unidad, hacen referencia a la creación de contenido falso, engañoso o inexacto que puede parecer verdadero. En los medios, esto puede implicar la generación de noticias falsas o la manipulación de imágenes y videos. Las IA, especialmente las que se basan en el aprendizaje profundo (deep learning), pueden producir resultados que parecen auténticos pero que son completamente inventados. Es lo que hemos visto con ejemplos que, evidentemente, dañan la credibilidad de las fuentes y la confianza del público en la información. Pero también hay alucinaciones intrínsecas más peligrosas incluso que tienen que ver con la generación de contenidos inventados: ChatGPT, por ejemplo, no sabe diferenciar entre lo real y lo imaginado. Genera contenidos creíbles sin que haya una barrera entre la ficción y la no-ficción. Ni siquiera si se le interpela directamente: fabrica fuentes y personajes sin saber si son reales o no.

En paralelo, el problema de los sesgos se refiere a la tendencia de los algoritmos a favorecer ciertos grupos o tipos de información sobre otros. Estos sesgos pueden surgir de los datos utilizados para entrenar la IA, que a menudo reflejan los prejuicios y desigualdades presentes en nuestra propia sociedad. En el contexto mediático, esto puede traducirse en la amplificación de ciertos puntos de vista, la marginalización de voces menos representadas y la perpetuación de estereotipos. Como resultado final, llegamos de nuevo con el creciente problema de desinformación, la percepción distorsionada, el daño a la reputación y hasta la polarización

¿Qué hacer? Con carácter general, aplicar sentido común, sentido crítico y prudencia en la utilización de la IA. De forma más aplicada, contrastar (utilizar datos e informaciones diversas para minimizar riesgos), defender siempre la verificación humana de todos los contenidos y, por supuesto, abogar por el uso responsable de la IA con transparencia y rendición de cuentas

Hay personas  que presentan a ChatGPT como ese cuñado insolente que lo sabe todo, pero todos sabemos que es solo en apariencia... La IA tampoco es ningún oráculo. Y debemos ser conscientes de que todos nosotros estamos actuando como “beta testers” a medida que los algoritmos aprenden, se perfeccionan y avanzan. Hablamos además de Inteligencia Artificial, no inteligencia emocional,  y ahí el periodismo, los medios, siguen teniendo una dimensión y responsabilidad social y muchas historias que contar.

Creado con eXeLearning (Ventana nueva)