Mochis NoticiasTecnología¿Cómo afectará la IA al mundo de la ciberseguridad?
Mochis NoticiasTecnología¿Cómo afectará la IA al mundo de la ciberseguridad?
Tecnología

¿Cómo afectará la IA al mundo de la ciberseguridad?

¿Cómo afectará la IA al mundo de la ciberseguridad?

¿Cómo afectará la IA al mundo de la ciberseguridad?

En la conferencia anual de ciberseguridad de Cyber ​​​​Ireland, los expertos discutieron las implicaciones de la IA en el panorama de amenazas y el poder de los datos.

Ayer (26 de septiembre), Cyber ​​​​Ireland organizó su conferencia anual de ciberseguridad para 2024 en el Lyrath Estate Hotel en Kilkenny. La Conferencia Nacional Cyber ​​​​Ireland (CINC), de un día de duración, contó con una serie de presentaciones y paneles de una variedad de figuras de gran prestigio del mundo de la ciencia tecnológica, todas ellas relacionadas con las principales tendencias actuales en ciberseguridad.

Un tema popular en ciberseguridad en estos momentos es cómo afectará la inteligencia artificial al sector, tanto en términos de amenazas como de defensa. Un informe de Techopedia de principios de este año destacó la complicada relación entre la IA y la ciberseguridad, ya que la tecnología disruptiva se puede utilizar para impulsar las capacidades de ciberataque y al mismo tiempo ayudar a los defensores a identificar amenazas de forma más rápida y eficaz.

Para profundizar en esta complicada relación, un panel de expertos en CINC exploró temas como la importancia de la conciencia y cómo la inteligencia artificial, particularmente la IA generativa, puede cambiar el panorama de amenazas.

Baja la barrera

«La historia del cibercrimen siempre ha sido una carrera», dijo Senan Moloney, director global de fusión de cibercrimen y ciberfraude de Barclays. Esta carrera entre atacantes y defensores, según Moloney, se basa en dos parámetros: ritmo y escala.

Una de las principales formas en que la IA puede dar a los ciberdelincuentes una ventaja en esta carrera es su capacidad para reducir la barrera de entrada del ciberdelito. Como explicó Moloney, los actores de amenazas pueden eludir los requisitos tradicionales del ciberdelito, como un amplio conocimiento de lenguajes o sistemas de programación, a través de una comunicación simple y «natural» con una IA avanzada.

En cuanto a los métodos de ataque en sí, el panel discutió cómo los ciberataques basados ​​en IA, como los deepfakes, están ganando sofisticación.

Stephen Begley, jefe de servicios proactivos para el Reino Unido e Irlanda en Mandiant, describió cómo él y su equipo llevaron a cabo un ejercicio de equipo rojo (una simulación de ciberataque para probar las capacidades de defensa de la organización) en el que replicaron la voz de un alto ejecutivo utilizando Tecnología de inteligencia artificial e hice llamadas a varios colegas con solicitudes. Begley dijo que el ciberataque simulado fue exitoso, ya que los empleados objetivo se enamoraron de la voz deepfake.

Este incidente resalta la importancia de educar y mejorar las habilidades de los empleados para que reconozcan las capacidades de los ataques impulsados ​​por IA y cómo se pueden utilizar para infiltrarse en una organización. Como dijo Moloney, sin la educación adecuada sobre esta tecnología, «no podrás confiar en tus sentidos».

Alfabetización en IA

La importancia de una educación adecuada, específicamente la alfabetización en IA, fue uno de los puntos de discusión más destacados del panel. Begley advirtió que, sin la alfabetización y el conocimiento adecuados sobre la IA, las personas podrían caer en la trampa de antropomorfizar estos sistemas. Explicó que debemos centrarnos en comprender cómo funciona la IA y evitar atribuir características humanas a las herramientas de IA.

La atención debería centrarse en comprender las limitaciones de la IA y cómo se puede abusar de ella.

Comprender las limitaciones y los riesgos de la IA también debe ser un requisito para toda la organización. Según la Dra. Valerie Lyons, los altos ejecutivos y los consejos de administración necesitan conocer los riesgos tanto como cualquiera.

Lyons, director y COO de BH Consulting, habló de cómo los líderes de las empresas tienden a subirse al carro de la IA sin comprender completamente la tecnología o su necesidad. «La IA no es una estrategia», explicó, añadiendo que las empresas deben centrarse en incorporar la IA a la estrategia en lugar de convertirla en el punto focal.

Preciso, no inteligente

Como ocurre con cualquier debate en profundidad sobre la IA, siempre existe el riesgo de que cunda el pánico. Por supuesto, la IA es una gran preocupación para muchas personas, especialmente teniendo en cuenta las predicciones de que la tecnología reemplazará algunos trabajos humanos.

A pesar de las diferentes opiniones sobre la magnitud de las posibles pérdidas de empleos, hubo acuerdo en que, como mínimo, la IA cambiará ciertos empleos. Moloney habló de su creencia de que algunos roles tradicionales de ciberseguridad cambiarán, prediciendo la «muerte» del rol de analista, que cree que pasará a algo más parecido a un ingeniero o «conductor» debido a la integración de la IA.

El profesor Barry O’Sullivan también habló sobre los temores que rodean a la IA y los LLM, comparando con humor la tecnología con «el hombre borracho al final de un bar» que te hablará sobre todo lo que quieres de la manera que lo quieres, aunque te falte. Conciencia plena e inteligencia avanzada.

Para O’Sullivan, director del Insight Center for Data Analytics, la principal preocupación sobre la IA debería estar en relación con las regulaciones y las consecuencias de los fallos. Habló de cómo la atención debería centrarse en los riesgos para los «derechos fundamentales» de las personas y mencionó las preocupaciones sobre aplicaciones controvertidas como la vigilancia biométrica y cómo pueden ser mal utilizadas.

Añadió que si bien algunos sistemas de IA actuales pueden parecer muy inteligentes, al final del día son herramientas que están entrenadas con datos y no pueden «pensar» en su estado actual. También destacó cómo estos sistemas dependen actualmente de datos producidos por humanos y se refirió a cómo los estudios han demostrado que los sistemas de IA tienden a degradarse cuando se entrenan con su propia producción.

«[AI is] No es inteligente, exactamente», afirmó. «Es preciso porque los datos son poderosos».

No te pierdas el conocimiento que necesitas para tener éxito. Regístrese para el Resumen diarioEl resumen de noticias científicas de Silicon Republic que necesita saber.

Source link

Hi, I’m Corina Guzman

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *