En un mundo cada vez más digital y automatizado, la inteligencia artificial (IA) se ha convertido en una herramienta clave para empresas de todos los sectores. Sin embargo, su uso también conlleva riesgos significativos en términos de ciberseguridad.

Las amenazas están evolucionando rápidamente, y los atacantes aprovechan las capacidades de la IA para lanzar ataques más sofisticados y veloces.

En esta entrevista, Pablo Dubois, Gerente de Producto de Cirion Technologies, analiza los retos actuales y las mejores prácticas para proteger la información en esta nueva era tecnológica, en el contexto del Foro Cirion Chile 2024.

¿Cómo ves la evolución de la ciberseguridad en un mundo cada vez más impulsado por la IA, y qué papel juega Cirion en este escenario?

R: “La inteligencia artificial definitivamente vino a cambiarnos la forma de trabajar, pero obviamente tenemos que pensarlo también en un entorno seguro. Al usar IA, no debemos olvidarnos que hay varias cosas que tenemos que seguir teniendo en cuenta. La inteligencia artificial pasa a ser, para los atacantes o para los ciberdelincuentes, una nueva superficie de ataque, donde actúa como una nueva plataforma que pueden utilizar para sacar información. Por lo mismo, debemos seguir teniendo en cuenta, qué subimos, qué información compartimos y qué información trabajamos con esta herramienta.

Este mismo riesgo tendrán las empresas que van a empezar a usar la IA y, por lo tanto, tienen que hacerlo de una forma segura. Desde Cirion trabajamos mucho con las compañías para entender y mostrarles cuáles son los desafíos para proteger esa plataforma y también la información tanto de sus usuarios, como de sus clientes.

Una de las amenazas que hemos visto, por ejemplo, es que con la inteligencia artificial se están realizando campañas de phishing mucho más sofisticadas. Antes el phishing lo detectábamos solo con leer el texto, porque estaba mal escrito, por ejemplo, pero ahora la IA escribe superbién. Entonces, ya esa forma que teníamos de darnos cuenta quedó obsoleta. Además, la IA está siendo muy utilizada para crear o mutar malwares y crear así nuevos vectores de ataque.

En tu opinión, ¿cuáles son los desafíos más importantes que enfrenta la ciberseguridad en relación con la inteligencia artificial, y cómo crees que deben abordarse?

R: “Este año asistí al RSA Security Conference, el evento comercial de ciberseguridad más grande del mundo. Ahí me pude dar cuenta que el tema central del debate en el área, está en cuánto tiempo un atacante vulnera la seguridad de una empresa, que actualmente son unas horas, y ahora con la ayuda de la IA, pasará a ser de unos pocos minutos. Existe un consenso en las empresas acerca de la necesidad de protegerse, pero al mismo tiempo, creo que cada compañía debería ponerse en la posición de ‘ya me vulneraron mis sistemas’, y en función de eso, ¿cómo respondo?”. En definitiva, el desafío es siempre pensar que ya te ocurrió y no decir “voy a tener todas estas soluciones para que nunca me pase”. El “nunca”, no va a pasar.

Este desafío aumenta su complejidad si consideramos la variable del tiempo en la ocurrencia de los ataques, que va a ir aumentando más y más. Ahí también la IA va a jugar un rol preponderante. Sin inteligencia artificial no hay forma de poder responder a eso con la celeridad necesaria. En el tema de la seguridad ya no hay una discusión de si tengo que usar IA o no, o por qué. Es un hecho que para estar al frente de los nuevos ataques no quedará de otra.

En la industria es conocido el caso de una empresa muy grande de producción y distribución de contenido audiovisual de alta calidad (películas, series, documentales), que fue vulnerada y los atacantes en medio de un foro los felicitaron por el nivel de seguridad que tenía su servicio. Sin embargo, lograron acceder a la información a través de un tercero que trabajaba con ellos.

Este ejemplo nos dice que hoy la seguridad no solo depende de uno, sino también de todas aquellas otras empresas con las que interactuamos en el día a día. Lo importante aquí es también tener una visión de seguridad sobre la cadena de suministros. 

¿Qué consideras que son las mejores prácticas para proteger los datos personales en un entorno donde la IA está cada vez más integrada, y cómo está contribuyendo Cirion en este aspecto?

R: “Hay que entender que la IA es una plataforma y que, como todas, puede ser vulnerada. Entonces, se hace necesario pensarlo exactamente igual como si pensáramos en una plataforma nueva, donde voy a tener que almacenar información. Entonces, primero debo considerar que todo el desarrollo de código fuente tiene que ser realizado teniendo a la seguridad como primera prioridad (DevSecOps), como lo debería hacer con cualquier aplicación.

Luego, están los datos que subimos a la plataforma, tanto los datos de entrenamiento, como los propios algoritmos del modelo, como así también los datos de las nuevas consultas que se van realizando. Todos estos datos tienen que ser asegurados.

Hay que tomar los mismos recaudos que uno utiliza a nivel de información personal. El Reglamento General de Protección de Datos (GDPR, por sus siglas en inglés) da un marco de cómo utilizar esa información personal, y lo mismo hay que aplicarlo a las inteligencias artificiales.

Luego, el monitoreo continuo y en tiempo real de los sistemas de IA permite la detección rápida de anomalías o comportamientos sospechosos, lo que es esencial para responder a amenazas emergentes. El uso de IA para mejorar las capacidades de detección de amenazas también fortalece la postura de seguridad de la empresa.

Y finalmente también se hace necesario contar con una auditoría continua de la IA como así también estar claros en las normativas que debemos cumplir.

Con la creciente dependencia de la IA, ¿cómo crees que evolucionarán las amenazas a la privacidad y qué medidas consideras cruciales para mitigar estos riesgos?

R: “Hoy está muy de moda el deepfake. Esto nos hace replantearnos un montón de cosas, porque solemos creer mucho en lo que vemos, y lo concreto en realidad es que ahora estamos empezando a ver cosas que no son reales. Entonces, como la inteligencia artificial está generando o ayudando a generar ese tipo de cambios, tenemos que aprender a utilizarla para defendernos también a ese nivel.

¿Y cómo podemos protegernos de ese tipo de situaciones? Hay métodos de análisis que se utilizan para detectar inconsistencias visuales, como pueden ser inconsistencias en la textura de la piel, sombras, reflejos y otros artefactos virtuales.

Otras herramientas se centran en la detección de variaciones del audio como diferencias en el tono, ritmo y timbre de la voz.

También están haciéndose pruebas de entrenamiento de la IA para que detecte modificaciones o alteraciones a nivel de deepfake donde se analizan casos genuinos y casos modificados por otra IA, para ir mejorando así su nivel de detección y fiabilidad.

En ese sentido, desde Cirion tenemos nuestra área de Data Centers, donde estamos instalando infraestructuras para que los clientes puedan montar sus propias IA ‘s desde ahí, en un entorno más controlado, privado y seguro.

Obviamente, el tema del transporte de toda esa información o el volumen de esta también va a ser crítico. Cada vez va a haber mayor necesidad de transporte de datos y ahí también estamos para ayudar a las empresas. Y desde el lado de la seguridad, nuestro aporte está en cómo podemos brindarles a las empresas estos centros de seguridad avanzados y hacer frente a estos desafíos, a la vez que les entregamos soluciones que los puedan ayudar en su camino de transformación digital”.