El Congresista
Nacional

Nuevas técnicas para vulnerar ChatGPT y robar datos vía correos falsos

Descubre cómo ataques sofisticados engañan a asistentes de IA para robar información mediante correos falsos con técnicas de ingeniería social y HTML oculto.

Por Redacción1 min de lectura
Compartir
Compartir esta nota

Investigadores revelan cómo ataques sofisticados logran engañar a asistentes de IA y acceder a información confidencial de usuarios. Un método avanzado ha mostrado cómo actores maliciosos pueden aprovechar vulnerabilidades en los asistentes de inteligencia artificial para extraer información personal y empresarial. La técnica consiste en enviar correos electrónicos diseñados con técnicas de ingeniería social y HTML oculto, que contienen instrucciones para que el modelo recopile datos específicos de la bandeja de entrada y los envíe a servidores controlados por los atacantes. Al interactuar con estos correos, los sistemas basados en modelos de lenguaje pueden ejecutar órdenes cuidadosamente construidas, permitiendo que datos sensibles como nombres, direcciones y credenciales sean enviados sin que el usuario tenga conciencia de ello. Esto se logra mediante instrucciones en el contenido del mensaje, que mantienen la apariencia de correos legítimos y confían en la capacidad del sistema para procesar tareas automáticas. Las investigaciones recientes evidencian que estas técnicas tienen una efectividad del 100%, según pruebas realizadas por expertos en seguridad. La aparición de estas amenazas refleja una creciente sofisticación en la ingeniería social que afecta también a otros asistentes digitales integrados a plataformas como Gmail y GitHub, especialmente cuando están conectados a datos personales y corporativos. La comunidad tecnológica advierte sobre la necesidad de reforzar los controles y realizar auditorías constantes para evitar que estos ataques se vuelvan comunes y peligrosos, poniendo en riesgo la privacidad y seguridad de millones de usuarios. Desde la introducción de nuevas funciones en los asistentes de IA, como la posibilidad de realizar búsquedas en línea y acceder a información en tiempo real, surgen preocupaciones sobre su posible explotación. La comunidad de seguridad destaca que, aunque las plataformas líderes ya han implementado medidas correctivas,

¿Te gustó esta nota?
Compartir esta nota