Este sitio web utiliza cookies para mejorar su experiencia de navegación y compilar estadísticas sobre el tráfico.
Más información sobre cómo usamos las cookies y de qué manera puede cambiar su configuración.
En julio de 2023, se ha dado a conocer una inteligencia artificial, WormGPT, capaz de desarrollar malware a partir de las consultas de los usuarios que interactúan con esta.
Y es que la inteligencia artificial, que ha llegado para quedarse, continúa avanzando, desarrollando y demostrando su potencial en una amplia gama de aplicaciones y sectores. A medida que se han desarrollado nuevas técnicas y modelos de IA, se ha observado un aumento significativo en la adopción y los avances en esta área, incluso en ciberamenazas.
Es por esto que es vital implementar políticas de privacidad, puesto que la IA depende en gran medida de grandes cantidades de datos para funcionar correctamente. Además, esto plantea serias preocupaciones sobre la privacidad y seguridad de los datos personales.
Por otra parte, ante el crecimiento y el aumento de las IAs, se hace necesario tener un control e implementar medidas efectivas de seguridad con el fin de limitar la información ofrecida a los usuarios con el objetivo de que esta se utilice éticamente y exista una concienciación y buenas prácticas en cuanto a su uso, así como restricciones a la información proporcionada a los usuarios.
Eludir esas restricciones éticas se ha convertido en el propósito de muchos, logrando que la IA nos ofrezca cualquier tipo de información. Incluso desde empresas de ciberseguridad se han revelado diferentes métodos para bypassear esas limitaciones.
Con esta base, era cuestión de tiempo la optimización de la IA para la creación de malware y, aquí, nace WormGPT, una alternativa a los modelos GPT como ChatGPT o Google Bard, los cuales restringen y rechazan este tipo de solicitudes.
Esta IA, promocionada en los últimos días en la Dark Web, no cuenta con restricciones éticas de seguridad, ofreciendo de esta forma su uso indiscriminado a actores malintencionados, creando código malicioso y siendo optimizado para realizar ciberataques.
Una de las áreas en las que se ha observado el uso de la IA por parte de los ciberdelincuentes es en la creación de malware. Los algoritmos de aprendizaje automático pueden ayudar a los atacantes a desarrollar malware más sigiloso y evasivo, que es capaz de eludir las defensas de seguridad convencionales.
Uno de los principales vectores de ataque se basa en comprometer correos electrónicos empresariales, donde la inteligencia tiene la capacidad de generar lenguaje que se acerca sobremanera al humano, elevando de esta manera la efectividad del ataque. Y así lo ha demostrado WormGPT, donde se le pidió realizar un correo de phishing empresarial y los resultados fueron más que inquietantes. Tanto como el saber que, llegados a este punto, cualquier persona con conocimientos mínimos en ciberseguridad, puede perpetrar ataques complejos.
De acuerdo a los datos de computerworld nada más que en 2021 el 83% de las organizaciones sufrió un ataque de phishing con éxito y, de estos, más de la mitad acabaron en una violación de los datos de los clientes, y en el 48% de los casos se vieron comprometidas tanto credenciales como cuentas.” Se espera que mediante Worm GPT estas cifras aumenten en 2023 así como la perfección de los mismos.
Otra de las funcionalidades de esta inteligencia es el malware capaz de ofrecer, donde un usuario sin conocimientos en programación o informática puede pedir que la IA genere un código malicioso con una serie de condiciones. Y así lo ha demostrado a través de diferentes consultas donde se le pide, por ejemplo, que recopile información de un sistema, aportando los datos de navegación de un usuario o el historial de contraseñas almacenados en el navegador.
La inteligencia artificial orientada a la ciberseguridad sigue su evolución, y ante la preocupación extendida de esta, se hace vital adoptar controles y medidas de seguridad con respecto al contenido ofrecido a los usuarios.