
Un informe alerta sobre cómo modelos disponibles en internet pueden ser inducidos a producir software malicioso sin conocimientos técnicos avanzados.
El potencial de la inteligencia artificial no deja de expandirse. Lo que antes se presentaba como una herramienta para automatizar tareas, generar texto o crear imágenes artísticas, ahora empieza a mostrar una faceta mucho más inquietante.
Investigadores en ciberseguridad han advertido que, mediante el uso de comandos cuidadosamente diseñados, conocidos como prompts, es posible inducir a ciertos modelos de lenguaje a producir resultados con implicaciones peligrosas, como la creación de malware o el robo de contraseñas.
Los modelos de IA pueden generar malware con simples comandos

El informe CTRL 2025 de Cato Networks, una de las alertas más recientes en esta materia, refleja el grado de preocupación que se extiende entre expertos del sector tecnológico. La posibilidad de explotar los sistemas de inteligencia artificial a través de ingeniería de prompts ya no es hipotética. Lo que comenzó como una curiosidad técnica, se ha convertido en una amenaza real.
Algunos modelos, entre ellos ChatGPT, DeepSeek o Claude, fueron puestos a prueba por especialistas en seguridad digital sin necesidad de recurrir a foros clandestinos, herramientas avanzadas ni conocimientos profundos en programación.
El resultado fue preocupante, lograron que las inteligencias artificiales generaran instrucciones completas para el desarrollo de virus informáticos, simplemente utilizando estructuras narrativas cuidadosamente redactadas.
Este hallazgo ha encendido las alarmas, no solo por lo que representa hoy, sino por lo que podría significar en los próximos años si no se refuerzan las barreras de control.

La advertencia de expertos en ciberseguridad sobre el uso malicioso de la IA
Etay Maor, estratega jefe de seguridad de Cato Networks, expresó su inquietud durante una entrevista. “Convencimos a las IA de que vivimos en un mundo donde crear virus y malware es, en realidad, algo bueno”, señaló, al describir el método utilizado para lograr que los modelos evadieran sus propios filtros internos.
Esta técnica de manipulación, que aprovecha la lógica conversacional de los asistentes virtuales, demuestra que incluso sistemas supuestamente seguros pueden ser vulnerables a un tipo de ataque que no se basa en romper barreras técnicas, sino narrativas.
La situación actual supera otros riesgos conocidos de la inteligencia artificial, como los deepfakes o las facturas falsas, que si bien representan fraudes preocupantes, no alcanzan el grado de sofisticación ni el nivel de automatización que se puede lograr con este nuevo tipo de amenazas.
Aquí no se trata de replicar una cara o una firma, sino de construir desde cero programas capaces de robar datos, acceder a sistemas o manipular información, sin que el creador necesite escribir una sola línea de código.

Por qué la inteligencia artificial puede facilitar ataques sin saber programar
Una de las razones por las cuales este escenario es especialmente alarmante es que las herramientas utilizadas están disponibles de forma pública. Son accesibles para cualquier usuario que tenga conexión a internet y una idea clara de lo que quiere lograr.
La barrera de entrada para la ciberdelincuencia se reduce drásticamente, abriendo un camino para que individuos sin formación técnica puedan, con el prompt adecuado, generar software malicioso en cuestión de minutos.
Según el informe de Cato Networks, este tipo de ataques basados en inteligencia artificial se van a volver más comunes.

De hecho, se anticipa una evolución hacia modelos específicamente diseñados para recopilar contraseñas u otro tipo de información sensible, sin que necesariamente se trate de herramientas creadas con ese propósito original. Esto obliga a repensar las prácticas de seguridad digital en todos los niveles.
Cómo protegerse de las estafas con IA
Como medida preventiva, los expertos recomiendan aplicar técnicas básicas pero efectivas: evitar almacenar contraseñas en lugares accesibles, borrar cookies con frecuencia y utilizar gestores de claves que generen credenciales robustas.
Además, se espera un aumento en los ataques de phishing, ya que la IA facilita la creación de páginas falsas, correos apócrifos y documentos digitales que imitan de manera casi perfecta a entidades legítimas.