“
Jaap Arriens | NurPhoto via Getty Images
OpenAI se está convirtiendo cada vez más en una plataforma de elección para actores cibernéticos que buscan influir en elecciones democráticas en todo el mundo.
En un informe de 54 páginas publicado el miércoles, el creador de ChatGPT dijo que ha interrumpido “más de 20 operaciones y redes engañosas de todo el mundo que intentaron utilizar nuestros modelos.” Las amenazas iban desde artículos de sitios web generados por IA hasta publicaciones en redes sociales por cuentas falsas.
La compañía dijo que su actualización sobre “influencia y operaciones cibernéticas” tenía la intención de proporcionar una “instantánea” de lo que está viendo e identificar “un conjunto inicial de tendencias que creemos que pueden informar el debate sobre cómo se ajusta la IA al panorama de amenazas más amplio.”
El informe de OpenAI llega menos de un mes antes de las elecciones presidenciales de EE. UU. Más allá de EE. UU., es un año significativo para las elecciones en todo el mundo, con concursos que afectan a más de 4 mil millones de personas en más de 40 países. El aumento del contenido generado por IA ha llevado a serias preocupaciones de desinformación relacionadas con las elecciones, con el número de deepfakes creados aumentando un 900% año tras año, según datos de Clarity, una firma de aprendizaje automático.
La desinformación en las elecciones no es un fenómeno nuevo. Ha sido un problema importante que se remonta a la campaña presidencial de EE. UU. de 2016, cuando los actores rusos encontraron formas baratas y fáciles de difundir contenido falso en las plataformas sociales. En 2020, las redes sociales se vieron inundadas de desinformación sobre vacunas contra el Covid y fraude electoral.
Las preocupaciones de los legisladores hoy están más centradas en el aumento de la IA generativa, que despegó a finales de 2022 con el lanzamiento de ChatGPT y que ahora está siendo adoptada por empresas de todos los tamaños.
OpenAI escribió en su informe que los usos de la IA relacionados con las elecciones “iban desde simples solicitudes de generación de contenido, hasta esfuerzos complejos y de múltiples etapas para analizar y responder a publicaciones en redes sociales.” El contenido en redes sociales se relacionaba principalmente con elecciones en EE. UU. y Ruanda, y en menor medida, elecciones en India y la UE, dijo OpenAI.
A finales de agosto, una operación iraní utilizó los productos de OpenAI para generar “artículos de larga duración” y comentarios en redes sociales sobre las elecciones de EE. UU., así como otros temas, pero la compañía dijo que la mayoría de las publicaciones identificadas recibieron pocos o ningún me gusta, compartido y comentario. En julio, la compañía prohibió cuentas de ChatGPT en Ruanda que estaban publicando comentarios relacionados con las elecciones en X. Y en mayo, una empresa israelí utilizó ChatGPT para generar comentarios en redes sociales sobre elecciones en India. OpenAI escribió que pudo abordar el caso en menos de 24 horas.
En junio, OpenAI abordó una operación encubierta que utilizaba sus productos para generar comentarios sobre las elecciones al Parlamento Europeo en Francia, y la política en EE. UU., Alemania, Italia y Polonia. La compañía dijo que aunque la mayoría de las publicaciones en redes sociales que identificó recibieron pocos me gusta o compartidos, algunas personas reales respondieron a las publicaciones generadas por IA.
Ninguna de las operaciones relacionadas con las elecciones pudo atraer un “compromiso viral” o construir “audiencias sostenidas” mediante el uso de ChatGPT y otras herramientas de OpenAI, escribió la compañía.
VER: La perspectiva de las elecciones podría ser positiva o muy negativa para China
“