Mochis NoticiasTecnologíaEl impacto de GenAI en la prevención de pérdida de datos
Mochis NoticiasTecnologíaEl impacto de GenAI en la prevención de pérdida de datos
Tecnología

El impacto de GenAI en la prevención de pérdida de datos

El impacto de GenAI en la prevención de pérdida de datos

Los datos son esenciales para cualquier organización. Este no es un concepto nuevo, y no debería sorprendernos, pero es una afirmación que vale la pena repetir.

¿Por qué? En 2016, la Unión Europea introdujo el Reglamento General de Protección de Datos (GDPR). Para muchos, esta fue la primera vez que la regulación de datos se convirtió en un problema, imponiendo estándares sobre cómo cuidamos los datos y obligando a las organizaciones a tomar en serio su responsabilidad como recolectores de datos. El RGPD, y una serie de regulaciones que le siguieron, provocaron un aumento masivo de la demanda para comprender, clasificar, regular y proteger los datos. Esto ha convertido a las herramientas de seguridad de datos en el tema candente de la ciudad.

Pero, como ocurre con la mayoría de las cosas, las preocupaciones sobre las fuertes multas que pueden causar las violaciones del RGPD han disminuido, o al menos han dejado de ser parte de todas las conversaciones sobre tecnología. Esto no significa que continuáramos aplicando los principios introducidos por estas regulaciones. De hecho, habíamos mejorado y ya no era un tema interesante.

Ingrese a la IA generativa

Si avanzamos rápidamente hasta 2024, existe un nuevo impulso para analizar los datos y la prevención de pérdida de datos (DLP). Esta vez, no por las nuevas regulaciones sino por el nuevo juguete tecnológico favorito de todos: la IA generativa. ChatGPT ha abierto una gama completamente nueva de posibilidades para las organizaciones, pero también ha generado nuevas preocupaciones sobre cómo compartimos datos con estas herramientas y qué hacen esas herramientas con esos datos. Estamos viendo que esto ya se manifiesta en mensajes de los proveedores sobre cómo la IA está lista y cómo están construyendo barreras de seguridad para garantizar que los modelos de entrenamiento de IA solo utilicen los datos que tienen.

¿Qué significa esto para las organizaciones y sus enfoques en materia de seguridad de datos? Todos los riesgos existentes de pérdida de datos siguen existiendo, pero se han visto ampliados por las amenazas que presenta la IA. Muchas regulaciones actuales se centran en datos personales, pero cuando se trata de IA, también debemos considerar otras categorías, como información comercial sensible, propiedad intelectual y código. Antes de compartir los datos, debemos considerar cómo los utilizarán los modelos de IA. Y cuando entrenamos modelos de IA, debemos considerar los datos con los que los entrenamos. Ya hemos visto casos en los que se utilizó información incorrecta o desactualizada para entrenar un modelo, lo que llevó a que una IA mal entrenada generara importantes errores comerciales por parte de las organizaciones.

Entonces, ¿cómo pueden las organizaciones garantizar que estas nuevas herramientas se puedan utilizar de manera efectiva y al mismo tiempo permanecer alerta contra los riesgos tradicionales de pérdida de datos?

El enfoque DLP

Lo primero que hay que tener en cuenta es que un enfoque DLP no se trata sólo de tecnología; también involucra personas y procesos. Esto sigue siendo cierto a medida que afrontamos estos nuevos desafíos de seguridad de datos impulsados ​​por la IA. Antes de centrarnos en la tecnología, debemos crear una cultura de concienciación en la que cada empleado comprenda el valor de los datos y su papel en su protección. Se trata de tener políticas y procedimientos claros que orienten el uso y manejo de los datos. Una organización y sus empleados deben comprender el riesgo y cómo el uso de datos incorrectos en un motor de IA puede provocar una pérdida de datos involuntaria o errores comerciales costosos y vergonzosos.

Por supuesto, la tecnología también juega un papel importante porque, con la cantidad de datos y la complejidad de la amenaza, las personas y los procesos por sí solos no son suficientes. La tecnología es necesaria para proteger los datos para que no se compartan inadvertidamente con modelos públicos de IA y para ayudar a controlar los datos entrantes con fines de capacitación. Por ejemplo, si utiliza Microsoft Copilot, ¿cómo controla qué datos utiliza para entrenarse?

El objetivo sigue siendo el mismo.

Estos nuevos desafíos aumentan el riesgo, pero no debemos olvidar que los datos siguen siendo el principal objetivo de los ciberdelincuentes. Es la razón por la que vemos intentos de phishing, ransomware y extorsión. Los ciberdelincuentes se dan cuenta de que los datos tienen valor y es importante que nosotros también lo sepamos.

Por lo tanto, ya sea que esté analizando nuevas amenazas a la seguridad de los datos planteadas por la IA o tomándose un momento para reevaluar su postura de seguridad de los datos, las herramientas DLP siguen siendo increíblemente valiosas.

Los próximos pasos

Si está considerando DLP, consulte las últimas investigaciones de GigaOm. Contar con las herramientas adecuadas permite a una organización lograr un delicado equilibrio entre la utilidad y la seguridad de los datos, garantizando que los datos sirvan como catalizadores para el crecimiento en lugar de una fuente de vulnerabilidad.

Para obtener más información, eche un vistazo a los informes de radar y criterios clave de DLP de GigaOm. Estos informes brindan una descripción general completa del mercado, describen los criterios que debe considerar en una decisión de compra y evalúan el desempeño de varios proveedores en función de esos criterios de decisión.

Si aún no eres suscriptor de GigaOm, regístrate aquí.



Source link

Hi, I’m Corina Guzman

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *