La gran mayoría de los europeos apoyan el uso de la inteligencia artificial para operaciones policiales y militares, según un nuevo informe de la Universidad IE de Madrid compartido con CNBC.
European Tech Insights, que midió las actitudes de más de 3,000 personas en Europa, encontró que el 75% apoya el uso de tecnologías de IA como el reconocimiento facial y datos biométricos por parte de la policía y el ejército con fines de vigilancia.
El nivel de apoyo es sorprendente, ya que Europa cuenta con algunas de las regulaciones de privacidad de datos más estrictas del mundo. En 2018, la Unión Europea introdujo el Reglamento General de Protección de Datos, o GDPR, un marco que rige la forma en que las organizaciones almacenan y procesan la información de los usuarios.
Las empresas enfrentan fuertes multas por violar las normas. Una empresa que infrinja las leyes de GDPR puede ser multada con hasta el 4% de sus ingresos globales anuales o 20 millones de euros ($21.7 millones), el monto que sea mayor.
No está claro que el público haya pensado en las ramificaciones de estas aplicaciones [de IA], dijo Ikhlaq Sidhu, decano de la Escuela de Ciencia y Tecnología de la Universidad IE, a CNBC.
El nivel de apoyo para el uso de la IA en tareas de servicio público, como la optimización del tráfico, fue aún mayor, llegando al 79%, según el informe.
Sin embargo, cuando se trata de asuntos sensibles, como decisiones de libertad condicional, la mayoría de los europeos (64%) se oponen al uso de la IA.
Manipulación de elecciones por IA
A pesar del apoyo a la IA en la administración pública y asuntos de seguridad, las personas parecen estar mucho más preocupadas por su papel en el proceso democrático.
El informe de la Universidad IE encontró que la gran mayoría de los europeos (67%) temen la manipulación de la IA en las elecciones.
La IA puede usarse como un amplificador de desinformación, con algunos usuarios tratando deliberadamente de utilizar información falsa para subvertir las opiniones de otros. Una preocupación clave es que los llamados deepfakes, imágenes, videos o clips de audio sintéticos creados con IA, podrían usarse para tergiversar las opiniones de los políticos o difundir otros tipos de desinformación.
Plataformas de IA generativa, como Dall-E de OpenAI y Midjourney de Stability AI, pueden usarse para crear imágenes con solo unos pocos textos de instrucciones, por ejemplo. CNBC se ha puesto en contacto con OpenAI y Stability para obtener comentarios.
La IA y los deep fakes son los últimos ejemplos de una tendencia de desinformación y pérdida de verificabilidad, dijo Sidhu a CNBC. Esta tendencia ha ido creciendo desde el comienzo de Internet, las redes sociales y los algoritmos de búsqueda impulsados por IA.
De hecho, un 31% de los europeos piensan que la IA ya ha influido en sus decisiones de voto, según el informe. Esto ocurre mientras las elecciones de 2024 en EE. UU. se acercan rápidamente, con la actual vicepresidenta Kamala Harris compitiendo contra el ex presidente Donald Trump en la votación programada para el 5 de noviembre.
División generacional
El informe de la Universidad IE también encontró una división generacional en cuanto a la IA en Europa.
Aproximadamente un tercio (34%) de las personas de entre 18 y 34 años confiarían en una aplicación con IA para votar por los políticos en su nombre. Esta cifra disminuye al 29% para las personas de 35 a 44 años y solo al 9% para las personas de 65 años en adelante.