Un grupo de investigadores de seguridad ha revelado un nuevo método de ciberataque capaz de comprometer a sistemas de inteligencia artificial como Gemini, utilizando imágenes aparentemente inofensivas para extraer información sensible de los usuarios.
La técnica, bautizada como “escalado de imágenes”, consiste en ocultar instrucciones maliciosas —conocidas como prompts— dentro de archivos visuales. Aunque estas indicaciones son invisibles para el ojo humano, se activan cuando la imagen se procesa y reduce de tamaño dentro de plataformas como Gemini CLI, Vertex AI Studio, la API de Gemini, Google Assistant y Genspark.
Según el equipo de Trail of Bits, responsable del hallazgo, el riesgo radica en que las IAs multimodales procesan automáticamente imágenes al integrarlas en flujos de trabajo. De este modo, los atacantes pueden aprovechar la vulnerabilidad para ejecutar órdenes encubiertas y, en algunos casos, automatizar acciones a través de servicios externos como Zapier, sin que el usuario lo perciba.
Expertos advierten que este hallazgo pone en evidencia los desafíos de seguridad que aún enfrentan las inteligencias artificiales, especialmente aquellas capaces de interpretar texto e imágenes de manera simultánea. Google y otras compañías trabajan ya en reforzar sus defensas frente a este tipo de amenazas emergentes.