El Congresista
CDMX

La IA y el sesgo de género en consejos profesionales

La inteligencia artificial puede perpetuar desigualdades de género en sus recomendaciones sobre carreras y liderazgo, mostrando un sesgo preocupante.

Por Redacción1 min de lectura
La inteligencia artificial refleja desigualdades históricas en sus recomendaciones según género.
La inteligencia artificial refleja desigualdades históricas en sus recomendaciones según género.
Compartir
Compartir esta nota

{ "@context": "https://schema.org", "@type": "NewsArticle", "headline": "La IA y el sesgo de género en consejos profesionales", "description": "La inteligencia artificial puede perpetuar desigualdades de género en sus recomendaciones sobre carreras y liderazgo, mostrando un sesgo preocupante.", "datePublished": "2026-03-19T08:33:35.984851", "dateModified": "2026-03-19T08:33:35.984872", "author": { "@type": "Organization", "name": "Redacción" } } Ciudad de México. – Estudios recientes revelan que los sistemas de inteligencia artificial no solo asisten en la toma de decisiones, sino que reproducen patrones de desigualdad de género presentes en la sociedad. Este fenómeno plantea preocupaciones sobre el futuro de la equidad en las recomendaciones profesionales. Las interacciones entre jóvenes y sistemas de inteligencia artificial han aumentado, especialmente en temas como elecciones de carrera y liderazgo . Sin embargo, ese diálogo no está exento de sesgos, donde las recomendaciones varían según el género de la persona que consulta. Se observa que a los hombres se les guía más hacia áreas como liderazgo y tecnología, mientras que a las mujeres se les dirige hacia disciplinas más relacionadas con el cuidado y lo social . Un análisis reciente demuestra que las respuestas proporcionadas por la inteligencia artificial a hombres y mujeres presentan diferencias significativas. Las mujeres reciben sugerencias relacionadas con el ámbito relacional hasta tres veces más que los hombres en algunos contextos vocacionales, lo que evidencia un sesgo profundo y preocupante. Este fenómeno no es resultado de intenciones maliciosas en la programación, sino de datos históricos que perpetúan estereotipos culturales. Cuando el sesgo es generado por una máquina considerada "neutral", se corre el riesgo de que este se internalice más fácilmente en la sociedad. Las expectativas derivadas de estas recomendaciones pueden influir en decisiones profesionales y personales. El tono de las respuestas

¿Te gustó esta nota?
Compartir esta nota