Investigadores revelan cómo ataques sofisticados logran engañar a asistentes de IA y acceder a información confidencial de usuarios. Un método avanzado ha mostrado cómo actores maliciosos pueden aprovechar vulnerabilidades en los asistentes de inteligencia artificial para extraer información personal y empresarial. La técnica consiste en enviar correos electrónicos diseñados con técnicas de ingeniería social y HTML oculto, que contienen instrucciones para que el modelo recopile datos específicos de la bandeja de entrada y los envíe a servidores controlados por los atacantes. Al interactuar con estos correos, los sistemas basados en modelos de lenguaje pueden ejecutar órdenes cuidadosamente construidas, permitiendo que datos sensibles como nombres, direcciones y credenciales sean enviados sin que el usuario tenga conciencia de ello. Esto se logra mediante instrucciones en el contenido del mensaje, que mantienen la apariencia de correos legítimos y confían en la capacidad del sistema para procesar tareas automáticas. Las investigaciones recientes evidencian que estas técnicas tienen una efectividad del 100%, según pruebas realizadas por expertos en seguridad. La aparición de estas amenazas refleja una creciente sofisticación en la ingeniería social que afecta también a otros asistentes digitales integrados a plataformas como Gmail y GitHub, especialmente cuando están conectados a datos personales y corporativos. La comunidad tecnológica advierte sobre la necesidad de reforzar los controles y realizar auditorías constantes para evitar que estos ataques se vuelvan comunes y peligrosos, poniendo en riesgo la privacidad y seguridad de millones de usuarios. Desde la introducción de nuevas funciones en los asistentes de IA, como la posibilidad de realizar búsquedas en línea y acceder a información en tiempo real, surgen preocupaciones sobre su posible explotación. La comunidad de seguridad destaca que, aunque las plataformas líderes ya han implementado medidas correctivas,
