Mochis NoticiasTecnologíaGenAI de Google se enfrenta a un escrutinio de evaluación de riesgos de privacidad en Europa
Mochis NoticiasTecnologíaGenAI de Google se enfrenta a un escrutinio de evaluación de riesgos de privacidad en Europa
Tecnología

GenAI de Google se enfrenta a un escrutinio de evaluación de riesgos de privacidad en Europa

GenAI de Google se enfrenta a un escrutinio de evaluación de riesgos de privacidad en Europa

El principal regulador de privacidad de Google en la Unión Europea ha abierto una investigación sobre si cumplió o no con las leyes de protección de datos del bloque con respecto al uso de la información de las personas para entrenar la IA generativa.

Específicamente, está analizando si el gigante tecnológico necesitaba llevar a cabo una evaluación de impacto de la protección de datos (DPIA) para considerar de manera proactiva los riesgos que sus tecnologías de inteligencia artificial podrían representar para los derechos y libertades de las personas cuya información se utilizó para entrenar los modelos. .

Las herramientas de IA generativa son famosas por producir falsedades plausibles. Esa tendencia, combinada con la capacidad de entregar información personal a pedido, crea un gran riesgo legal para sus creadores. La Comisión de Protección de Datos de Irlanda (DPC), que supervisa el cumplimiento por parte de Google del Reglamento General de Protección de Datos (GDPR) del bloque, tiene poderes para imponer multas de hasta el 4% de la facturación anual global de Alphabet (la entidad matriz de Google) por cualquier infracción confirmada.

Google ha desarrollado varias herramientas de inteligencia artificial generativa, incluida una familia completa de modelos de lenguaje grande (LLM) de propósito general que lleva la marca Gemini (anteriormente Bard). Utiliza tecnología para impulsar chatbots de IA, incluso para mejorar la búsqueda web. Debajo de estas herramientas de inteligencia artificial orientadas al consumidor se encuentra un LLM de Google llamado PaLM2, que lanzó el año pasado en su conferencia de desarrolladores de E/S.

La forma en que Google desarrolló este modelo fundamental de IA es lo que la DPC irlandesa dice que está investigando, en virtud de la Sección 110 de la Ley de Protección de Datos de Irlanda de 2018, que transpuso el RGPD a la ley nacional.

La capacitación de modelos GenAI generalmente requiere grandes cantidades de datos, y los tipos de información que obtuvieron los desarrolladores de LLM, así como cómo y dónde la obtuvieron, se analizan cada vez más en relación con una variedad de preocupaciones legales, incluidos los derechos de autor y la privacidad. .

En este último caso, los datos utilizados como fuente de entrenamiento de IA que contienen datos personales de personas de la UE están sujetos a las normas de protección de datos del bloque, ya sea que hayan sido extraídos o no de la Internet pública o adquiridos directamente por los usuarios. Esta es la razón por la que varios LLM ya se han enfrentado a preguntas (y a cierta aplicación del RGPD) relacionadas con el cumplimiento de la privacidad, incluido OpenAI, el productor de GPT (y ChatGPT); y Meta, que desarrolla el modelo Llama AI.

Elon Musk, propiedad de X, también ha atraído quejas sobre el RGPD y la ira del DPC por el uso de datos de personas para entrenar IA, lo que ha llevado a procedimientos judiciales y al compromiso de X de limitar el procesamiento de sus datos, pero sin sanción. Aunque X aún podría enfrentar sanciones GDPR si la DPC determina que su procesamiento de datos de usuario para entrenar su herramienta de inteligencia artificial, Grok ha violado el régimen.

La investigación DPIA de la DPC sobre GenAI de Google es la última acción regulatoria en esta área.

«La investigación legal se refiere a la cuestión de si Google ha cumplido alguna obligación que podría haber llevado a cabo una evaluación, según el artículo 35 del Reglamento General de Protección de Datos (Evaluación de Impacto de la Protección de Datos -Datos), antes de comenzar el procesamiento de datos personales. de los interesados ​​de la UE/EEE asociados con el desarrollo de su modelo fundamental de IA, Pathways Language Model 2 (PaLM 2)», escribió el DPC en un comunicado de prensa.

Señala que la DPIA puede ser de «crucial importancia para garantizar que los derechos y libertades fundamentales de las personas sean considerados y protegidos adecuadamente cuando el procesamiento de datos personales pueda generar un alto riesgo».

«Esta investigación legal forma parte de los esfuerzos más amplios del DPC, trabajando junto con su UE/EEE [European Economic Area] reguladores pares, en la regulación del procesamiento de datos personales de los interesados ​​de la UE y el EEE en el desarrollo de modelos y sistemas de IA», añadió el DPC, refiriéndose a los esfuerzos en curso de la red de encargados del cumplimiento del RGPD del bloque para alcanzar algún tipo de consenso sobre cuál es la mejor manera de aplicar la ley de privacidad en las herramientas GenAI.

Se ha contactado a Google para obtener una respuesta a la consulta del DPC.

Source link

Hi, I’m Corina Guzman

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *