Meta desactiva los personajes de IA para adolescentes mientras rediseña una experiencia más segura
Durante años las redes sociales operaron sin mucha supervisión, pero las preocupaciones siempre han estado ahí. Hoy el mundo demanda un mayor control.
Las opiniones expresadas por los colaboradores de Entrepreneur son personales.
Conclusiones Clave
- La compañía desactivará temporalmente sus personajes de inteligencia artificial para menores de edad a nivel global mientras rediseña la experiencia con más controles parentales, límites de contenido y respuestas adecuadas a la edad.
- La decisión coincide con demandas, escrutinio regulatorio y creciente preocupación por el impacto de las redes sociales y sistemas conversacionales de IA en la salud mental de los adolescentes.
Las redes sociales están enfrentando una presión global. Problemas relacionados con la salud mental asociados a estas plataformas, especialmente entre el público adolescente, generan debate.
La preocupación es tal que Meta decidió frenar de forma global el acceso de los adolescentes a sus personajes de inteligencia artificial (IA) en todas sus aplicaciones, según informó TechCrunch.
El anuncio llega en un momento especialmente sensible para la empresa. En los próximos días, Meta enfrentará un juicio en Nuevo México en el que se le acusa de no haber hecho lo suficiente para proteger a menores de la explotación sexual dentro de sus plataformas.
A esto se suma un creciente escrutinio sobre el impacto de las redes sociales en la salud mental de los adolescentes, un tema que la compañía ha intentado manejar con cautela, incluso limitando la divulgación de algunos hallazgos internos, según revelaciones de WIRED.
La compañía asegura que no se trata de un retroceso definitivo, sino de una pausa estratégica mientras desarrolla una versión actualizada de estos personajes, diseñada específicamente para responder a las preocupaciones de padres, reguladores y expertos en bienestar digital.
“Proteger a los adolescentes mientras les permiten acceder a los beneficios de las redes sociales es uno de los retos más importantes que nuestra industria debe afrontar”, dijo Meta en una publicación reciente en su blog.
Según el informe, Meta explicó que, a partir de las próximas semanas, los adolescentes dejarán de tener acceso a los personajes de inteligencia artificial (IA) hasta que la nueva experiencia esté lista. La medida no solo afectará a quienes hayan declarado una edad adolescente, sino también a usuarios que figuren como adultos, pero que, según los sistemas de predicción de edad de la empresa, probablemente sean menores.
La compañía reconoce que, tras escuchar a padres y tutores, quedó claro que existía una demanda de mayor transparencia y control sobre las interacciones entre adolescentes y sistemas conversacionales basados en IA. Esa retroalimentación fue clave para acelerar la decisión de desactivar por completo esta función mientras se rediseña.
Relacionado: Estudio revela que millones de usuarios de ChatGPT muestran señales de problemas de salud mental
Controles parentales y respuestas “adecuadas a la edad”
Meta había anunciado controles parentales para los personajes de IA el pasado mes de octubre, lo que permitiría a padres y tutores supervisar temas de conversación, bloquear determinados personajes o incluso desactivar por completo las conversaciones con estos chatbots de inteligencia artificial con personalidades.
Aunque estas funciones estaban previstas para lanzarse este año, la empresa optó por ir más allá y suspender el acceso a los jóvenes mientras implementa un paquete más robusto de protecciones. Según Meta, los nuevos personajes de IA incluirán controles parentales integrados desde el inicio y estarán diseñados para ofrecer respuestas acordes a la edad del usuario. Los temas se centrarán en áreas consideradas seguras y constructivas, como educación, deporte y hobbies, alejándose de contenidos potencialmente problemáticos.
Conclusiones Clave
- La compañía desactivará temporalmente sus personajes de inteligencia artificial para menores de edad a nivel global mientras rediseña la experiencia con más controles parentales, límites de contenido y respuestas adecuadas a la edad.
- La decisión coincide con demandas, escrutinio regulatorio y creciente preocupación por el impacto de las redes sociales y sistemas conversacionales de IA en la salud mental de los adolescentes.
Las redes sociales están enfrentando una presión global. Problemas relacionados con la salud mental asociados a estas plataformas, especialmente entre el público adolescente, generan debate.
La preocupación es tal que Meta decidió frenar de forma global el acceso de los adolescentes a sus personajes de inteligencia artificial (IA) en todas sus aplicaciones, según informó TechCrunch.
El anuncio llega en un momento especialmente sensible para la empresa. En los próximos días, Meta enfrentará un juicio en Nuevo México en el que se le acusa de no haber hecho lo suficiente para proteger a menores de la explotación sexual dentro de sus plataformas.
A esto se suma un creciente escrutinio sobre el impacto de las redes sociales en la salud mental de los adolescentes, un tema que la compañía ha intentado manejar con cautela, incluso limitando la divulgación de algunos hallazgos internos, según revelaciones de WIRED.
La compañía asegura que no se trata de un retroceso definitivo, sino de una pausa estratégica mientras desarrolla una versión actualizada de estos personajes, diseñada específicamente para responder a las preocupaciones de padres, reguladores y expertos en bienestar digital.
“Proteger a los adolescentes mientras les permiten acceder a los beneficios de las redes sociales es uno de los retos más importantes que nuestra industria debe afrontar”, dijo Meta en una publicación reciente en su blog.
Según el informe, Meta explicó que, a partir de las próximas semanas, los adolescentes dejarán de tener acceso a los personajes de inteligencia artificial (IA) hasta que la nueva experiencia esté lista. La medida no solo afectará a quienes hayan declarado una edad adolescente, sino también a usuarios que figuren como adultos, pero que, según los sistemas de predicción de edad de la empresa, probablemente sean menores.
La compañía reconoce que, tras escuchar a padres y tutores, quedó claro que existía una demanda de mayor transparencia y control sobre las interacciones entre adolescentes y sistemas conversacionales basados en IA. Esa retroalimentación fue clave para acelerar la decisión de desactivar por completo esta función mientras se rediseña.
Relacionado: Estudio revela que millones de usuarios de ChatGPT muestran señales de problemas de salud mental
Controles parentales y respuestas “adecuadas a la edad”
Meta había anunciado controles parentales para los personajes de IA el pasado mes de octubre, lo que permitiría a padres y tutores supervisar temas de conversación, bloquear determinados personajes o incluso desactivar por completo las conversaciones con estos chatbots de inteligencia artificial con personalidades.
Aunque estas funciones estaban previstas para lanzarse este año, la empresa optó por ir más allá y suspender el acceso a los jóvenes mientras implementa un paquete más robusto de protecciones. Según Meta, los nuevos personajes de IA incluirán controles parentales integrados desde el inicio y estarán diseñados para ofrecer respuestas acordes a la edad del usuario. Los temas se centrarán en áreas consideradas seguras y constructivas, como educación, deporte y hobbies, alejándose de contenidos potencialmente problemáticos.