PromptFix: la nueva técnica que convierte a la IA en cómplice accidental de ciberataques
La seguridad digital enfrenta un nuevo desafío: los intentos de manipular a los asistentes de Inteligencia Artificial para ejecutar acciones sin que el usuario lo note.
La compañía de ciberseguridad ESET alerta sobre una técnica emergente llamada PromptFix, una variante del conocido prompt injection, que aprovecha instrucciones ocultas para engañar a los modelos de IA integrados en navegadores. En un contexto donde la IA es aliada para detectar amenazas, también puede convertirse —irónicamente— en una vía para potenciarlas.
PromptFix funciona como un “truco silencioso”. Mediante órdenes incrustadas en páginas o contenidos aparentemente legítimos, los atacantes consiguen que los asistentes de IA interactúen con sitios maliciosos o de phishing. El nombre deriva de ClickFix, un método que inducía a usuarios humanos a hacer clic en verificaciones falsas. La diferencia es que ahora el objetivo ya no es el usuario, sino la propia Inteligencia Artificial.
Según explica Martina Lopez, investigadora de Seguridad Informática de ESET Latinoamérica, los cibercriminales pueden ocultar estas instrucciones en texto invisible, comentarios HTML, imágenes modificadas o incluso archivos que no muestran cambios visibles. La clave es que el asistente lea el contenido completo, sin distinguir entre información útil y comandos potencialmente dañinos.
El ataque se activa cuando un usuario visita un sitio comprometido y pide a su asistente de IA resumir, analizar o extraer información. El modelo procesa todo lo que encuentra y puede interpretar las instrucciones ocultas como solicitudes genuinas. El resultado: la IA podría hacer clic en botones invisibles, descargar archivos maliciosos o abrir enlaces fraudulentos, todo sin que la persona lo note.
Las consecuencias pueden ser graves. Un PromptFix exitoso puede inducir a la IA a bajar malware, evadir mecanismos de seguridad o incluso interactuar con páginas de phishing que expongan contraseñas. El peligro se amplifica porque el usuario no es quien ejecuta las acciones, sino su asistente, lo que dificulta detectar el ataque a simple vista.
Para minimizar el riesgo, ESET recomienda adoptar buenos hábitos digitales. Entre ellos: evitar que la IA realice acciones automáticas sin autorización explícita, limitar sus permisos de navegación, revisar imágenes y archivos antes de procesarlos y usar listas de sitios confiables para que el asistente sólo interactúe con páginas verificadas. En un mundo donde la IA es cada vez más autónoma, la supervisión humana sigue siendo esencial.