Investigación del supervisor europeo de protección de datos sobre el uso de datos de Google para modelo de IA.

Desbloquea el Digest del Editor de forma gratuita

Google está siendo investigado por el organismo europeo de protección de datos por su procesamiento de datos personales en el desarrollo de uno de sus modelos de inteligencia artificial, a medida que los reguladores intensifican su escrutinio de las ambiciones de IA de las grandes tecnológicas.

La Comisión de Protección de Datos de Irlanda, responsable de hacer cumplir el Reglamento General de Protección de Datos (GDPR) de la Unión Europea, dijo que había iniciado una investigación sobre el modelo de lenguaje Pathways Language Model 2, o PaLM 2, de la tecnológica.

PaLM 2 fue lanzado en mayo de 2023 y precede a los últimos modelos Gemini de Google, que alimentan sus productos de IA. Gemini, lanzado en diciembre del mismo año, es ahora el modelo principal detrás de su oferta de generación de texto e imágenes.

La investigación evaluará si la empresa ha incumplido sus obligaciones bajo el GDPR en el procesamiento de los datos personales de los ciudadanos de la UE y del Espacio Económico Europeo.

Según el marco, las empresas deben realizar una evaluación de impacto en la protección de datos antes de empezar a manejar dicha información cuando la naturaleza o la forma en que se utiliza pueda suponer un alto riesgo para los derechos y libertades de las personas.

Esto se aplicaba en particular a las nuevas tecnologías y era “de crucial importancia para garantizar que los derechos y libertades fundamentales de las personas sean adecuadamente considerados y protegidos”, dijo el regulador en un comunicado.

LEAR  Medicamentos para bajar de peso de Novo Nordisk vinculados a rara condición ocular: estudio.

La evaluación está siendo examinada en la investigación. Google no respondió de inmediato a una solicitud de comentarios.

Esta es la última de una serie de acciones de la DPC contra las grandes tecnológicas que están construyendo grandes modelos de lenguaje.

En junio, Meta pausó sus planes de entrenar su modelo Llama con contenido público compartido por adultos en Facebook e Instagram en toda Europa, tras discusiones con el regulador irlandés. Meta posteriormente limitó la disponibilidad de algunos de sus productos de IA para usuarios en la región.

Un mes después, los usuarios descubrieron que estaban siendo “optados” para que sus publicaciones en el sitio fueran utilizadas para entrenar sistemas en la start-up de xAI de Elon Musk.

La plataforma suspendió su procesamiento de los datos de los usuarios europeos en agosto para entrenar su modelo de IA Grok, tras acciones legales de la DPC. Fue la primera vez que el regulador usaba sus poderes para tomar medidas contra una empresa tecnológica.