Meta, la empresa dirigida por Mark Zuckerberg, está intensificando sus esfuerzos para crear entornos seguros en sus aplicaciones, con un enfoque particular en la protección de adolescentes. La compañía ha anunciado nuevas políticas destinadas a proporcionar a los usuarios más jóvenes contenidos apropiados para su edad.

En un comunicado, Meta expresó su compromiso con la seguridad y la adecuación a la edad de los adolescentes en sus aplicaciones. Han desarrollado más de 30 herramientas y recursos durante más de una década para abordar contenidos que infringen las normas o podrían considerarse delicados.

La empresa ha colaborado con expertos en desarrollo humano, psicología y salud mental para crear un espacio más seguro en sus plataformas.

Entre las nuevas medidas, Meta tiene como objetivo mejorar su comprensión de los contenidos potencialmente inapropiados para adolescentes. Esto incluye la eliminación de historias que narran experiencias personales, como la lucha constante con pensamientos de autolesión, reconociendo la complejidad de este tema y su posible inadecuación para todos los jóvenes.

Además de eliminar dicho contenido en Facebook e Instagram, Meta no recomendará estas publicaciones en áreas como Reels o Explorar, así como en el Feed y las Historias, incluso si son compartidas por personas seguidas.

Para respaldar a los usuarios más jóvenes, Meta continuará compartiendo recursos de organizaciones expertas como la National Alliance on Mental Illness. Cuando los usuarios busquen términos relacionados con el suicidio, autolesiones y trastornos alimentarios, Meta ocultará resultados relacionados y dirigirá a los usuarios a recursos de ayuda.

Estas políticas se están implementando inicialmente en cuentas de adolescentes menores de 18 años y estarán disponibles para todos los usuarios de Instagram y Facebook en los próximos meses.