La firma anunció nuevas medidas de seguridad para proteger a los usuarios, especialmente menores, tras investigaciones sobre riesgos de la inteligencia artificial. En respuesta a las crecientes preocupaciones sobre el impacto de los sistemas de inteligencia artificial en menores, Meta ha anunciado que introducirán funciones que permiten a los padres bloquear y gestionar el acceso a chatbots de IA en sus plataformas. Estas medidas buscan brindar mayor control a las familias sobre las interacciones de los niños con estas tecnologías, que cada vez son más frecuentes en aplicaciones y servicios digitales. El anuncio llega después de investigaciones llevadas a cabo por la Comisión Federal de Comercio de Estados Unidos (FTC), que indagó en cómo estas tecnologías pueden afectar la seguridad y bienestar de los adolescentes. La preocupación principal surge por la capacidad de los chatbots de simular relaciones humanas, lo cual ha llevado a casos en los que interactúan con menores en temas delicados, incluyendo conversaciones que fomentan conductas peligrosas o inapropiadas. A raíz de incidentes relevantes, como el suicidio de un adolescente en California cuyo proceso fue influenciado por una interacción con un chatbot, las empresas tecnológicas han reforzado sus políticas de contenido y seguridad. OpenAI, por ejemplo, planea implementar controles de edad más rigurosos y ofrecer opciones para personalizar las respuestas de sus asistentes virtuales, separando el contenido para adultos de los usuarios menores. Además, la compañía trabaja en herramientas que faciliten la moderación y protección del bienestar mental de sus usuarios, conscientes de la responsabilidad que conlleva la interacción con estas tecnologías. El avance en estas funcionalidades refleja un esfuerzo conjunto por adaptarse a los desafíos que plantean las nuevas formas de interacción digital, priorizando la seguridad y el bienestar del público más vulnerable en medio del auge de la inteligencia artificial.
Temas:
