News

Desinformación e inteligencia artificial: ¿la revolución industrial?

La investigación de NewsGuard muestra que las innovaciones tecnológicas permitirán en poco tiempo que la IA propague “noticias falsas” a una escala sin precedentes, en volúmenes increíbles y apoderándose de los ingresos publicitarios de los medios de comunicación mientras plagia su contenido.

by Elena Perotti elena.perotti@wan-ifra.org | February 27, 2024

La última investigación de NewsGuard muestra que las innovaciones tecnológicas permitirán en poco tiempo que la IA propague “noticias falsas” a una escala sin precedentes, en volúmenes increíbles y apoderándose de los ingresos publicitarios de los medios de comunicación mientras plagia su contenido.

Chine Labbe y Virginia Padovese  Vicepresidentas de NewsGuard responsables conjuntamente de Europa, Canadá, Australia y Nueva Zelanda- fueron invitadas recientemente a intervenir en una de las sesiones informativas periódicas sobre política de medios que organiza WAN-IFRA para los directores de las asociaciones miembro. Explicaron los resultados de una investigación que muestra cómo la Inteligencia Artificial se utilizará probablemente para amplificar la desinformación de tres formas distintas y extremadamente preocupantes.

La imagen que ilustra este artículo procede de AI MEDIAWATCH, una lista de lectura pública sobre las últimas tendencias en materia de Inteligencia Artificial en la industria informativa elaborada por WAN-IFRA.

1. “Fake news” a una escala sin precedentes y bajo coste.
La mejora continua de las herramientas de IA está destinada a destruir las barreras de entrada en la industria de la desinformación. La difusión de vídeo, audio e imágenes generados por IA se ha acelerado enormemente en los últimos meses, en conjunción con la guerra en la franja de Gaza. De hecho, el conflicto ha sido bautizado como “la primera guerra de la IA”, al igual que la guerra de Vietnam fue calificada como “la primera guerra televisada”.

Las herramientas no son nuevas, pero se han vuelto mucho más avanzadas y generalizadas desde el 7 de octubre. Hace sólo tres meses, las falsificaciones profundas presentaban errores evidentes, sobre todo en la reproducción de extremidades, manos y pies. Ahora son mucho más precisas y se difunden aún más rápido. En particular, la tecnología ha tenido verdaderos avances en lo que respecta a la liberación de herramientas para la sincronización labial y la “voz en off”, lo que hace posible utilizar medios disponibles públicamente para clonar voces sin permiso.

La aceleración de los “deep fakes” también ha repercutido en el conflicto entre Rusia y Ucrania: Los analistas de NewsGuard encontraron en un lapso de diez días en noviembre cinco vídeos extremadamente realistas en los que aparecía el presidente Zelensky dando órdenes falsas a los soldados para que llevaran las armas a sus comandantes, bajo logotipos de medios de noticias ucranianos legítimos. Todo esto es especialmente preocupante en un año como 2024, en el que más de la mitad de la población mundial participará en elecciones nacionales.

Mientras tanto, destacadas herramientas de IA siguen siendo alarmantemente propensas a difundir desinformación. En agosto, NewsGuard dio a conocer los resultados de la auditoría realizada a GPT-4 y Google Bard, en la que se alimentó a los modelos con 100 falsas narrativas bien conocidas y desacreditadas. ChatGPT-4 respondió con textos que incorporaban esas conocidas teorías conspirativas el 98% de las veces, mientras que Bard lo hizo ligeramente mejor, con un 80%.

2. Proliferación de granjas de contenidos de nueva generación
Ha surgido una nueva generación de granjas de contenidos en forma de webs de información impulsadas por IA. Apenas cuentan con supervisión humana y producen grandes cantidades de contenidos de baja calidad con el único propósito de posicionarse en los primeros puestos de los motores de búsqueda, producir grandes cantidades de artículos “clickbait” y optimizar los ingresos por publicidad.

En mayo de 2023 NewsGuard lanzó su centro de rastreo de IA, con el doble objetivo de identificar granjas de contenidos y rastrear falsas narrativas producidas por herramientas de inteligencia artificial. Se considera que un sitio web es un sitio de noticias no fiable generado por IA (UAINS) cuando cumple estas cuatro condiciones:

  • Hay pruebas claras de que una parte sustancial del contenido del sitio está producido por IA.
  • Hay indicios claros de que el contenido se publica sin una supervisión humana significativa. Por ejemplo, numerosos artículos pueden contener mensajes de error u otro tipo de lenguaje específico de las respuestas de chatbot, lo que indica que el contenido ha sido producido por herramientas de IA sin una edición adecuada.
  • Intento evidente de engañar al lector haciéndole creer que el sitio web de noticias es legítimo y está producido por redactores o periodistas humanos (diseño, nombre genérico o benigno, dirección, temas).
  • El sitio no revela claramente que su contenido está producido por IA.

En el momento del lanzamiento del rastreador, en mayo de 2023, NewsGuard había identificado cuarenta y nueve granjas de contenidos que cumplían estos criterios. Desde entonces, ese número ha crecido exponencialmente hasta alcanzar los 731 en quince idiomas diferentes en febrero de 2024. Casi la mitad de estos sitios web (328 a fecha de 5 de enero de 2023) llevan publicidad programática de marcas conocidas, probablemente ajenas a este fenómeno.

3. Los bots plagiadores
En un estudio de agosto de 2023, NewsGuard descubrió treinta y siete webs que utilizaban IA para reempaquetar artículos de las principales fuentes de noticias sin atribuirles el copyright, como CNN, The New York Times y Reuters. Estas granjas de contenidos incluían anuncios programáticos de marcas de primera línea, que, sin saberlo, están ayudando a financiar la práctica de utilizar IA para reproducir engañosamente contenidos de fuentes de noticias establecidas. La implicación de la competencia desleal se explica por sí misma: estas webs extraen contenidos, los revuelven hasta hacerlos irreconocibles y publican cientos de artículos al día prácticamente en tiempo real a coste cero.

Los analistas sólo pudieron identificar como plagios los sitios web que publicaban contenidos que incluían mensajes de error reveladores como “como modelo lingüístico de inteligencia artificial no puedo reescribir este artículo” o “no puedo determinar el contenido que necesita ser reescrito”. Por supuesto, el problema es fácil de solucionar y cabe esperar que pronto los “malhechores” encuentren la forma de borrar automáticamente la cadena sin dejar de robar contenido. Los detectores de plagio fallaron el 79% de las veces a la hora de detectar el texto copiado por la IA. Jen Dakin, portavoz de Grammarly, dijo a NewsGuard en un correo electrónico que la herramienta de plagio de la compañía puede “detectar contenido que fue extraído textualmente de canales online” pero “[no puede] identificar texto generado por IA.”

Share via
Copy link