Los cibercriminales han logrado explotar la inteligencia artificial generativa a través de diferentes métodos para realizar sus campañas maliciosas, por lo que es necesario tomar acciones tanto regulatorias como de educación para mantener protegidas a las personas.
De acuerdo con Sergey Shykevich, gerente del grupo de inteligencia de amenazas de Check Point, se pueden identificar dos periodos de la inteligencia artificial generativa en la red oscura, mejor conocida como dark web y que es frecuentada por los cibercriminales.
El primero es conocido como exploración y ocurrió entre diciembre de 2022 y octubre de 2023, el cual estuvo marcado por la aparición de ChatGPT de OpenAI.
Fue una de las aplicaciones más rápido adoptadas porque en sólo tres meses tuvo más de 100 millones de usuarios y muchos de éstos eran cibercriminales”, detalló en el marco de Check Point CPX México 2024.
Esto último porque empezaron a explorar los usos de ChatGPT con fines maliciosos, por ejemplo, preguntarle cómo hacer un fraude o cómo evitar los sistemas biométricos e, incluso, desarrollaron la primera herramienta de código malicioso gracias a ChatGPT, por lo que OpenAI tuvo que implementar barreras de seguridad extras para prevenir esto.
La segunda fase conocida como implementación ocurrió entre noviembre de 2023 y junio de este año, siendo su principal característica la suplantación.
Esto porque los cibercriminales están usando la inteligencia artificial generativa para desarrollar, por ejemplo, plataformas para suplantar a empresas en correos maliciosos o para desarrollar deepfake de video y audio bajo servicio.
También existen aquellos que usan dicha tecnología para automatizar el desarrollo de perfiles falsos para redes sociales y venden este servicio o, bien, generan herramientas también bajo servicio para distribuir spam personalizado.
¿QUÉ SIGUE?
Al platicar con Excélsior, el experto consideró que los piratas informáticos están experimentando con varias herramientas de inteligencia artificial generativa, sin embargo, su favorita es ChatGPT porque es más fácil de usar, más barata y todavía es fácil de engañar.
Añadió que, si bien todavía no hay grandes avances con estas herramientas en el desarrollo de código malicioso, esto puede cambiar a finales de este año porque empresas del sector como OpenAI han invertido en mejorar las capacidades de desarrollo de sus plataformas.
Así que creo que nos acercamos, que veremos más familias de código malicioso creadas con inteligencia artificial generativa”, advirtió.
El especialista de Check Point consideró que será difícil parar esta tendencia a menos que se establezcan fuertes medidas. Por ejemplo, que se tenga que autenticar la identidad al crear una cuenta en plataformas como ChatGPT.
Para lograr lo anterior aceptó que quizá se requiera de una nueva regulación, aunque está consciente de que ésta siempre va más lenta que la evolución tecnológica y que en el camino pueden surgir otro tipo de normativas.