Se alega (escrito publicado por la revista Time) que Meta estaba al tanto del comportamiento sexual depredador que ocurría en sus plataformas y tenía una comprensión precisa de cómo sus mecanismos de distribución de contenido exacerbaban los trastornos alimentarios, la dismorfia corporal e incluso el suicidio en adolescentes.“A pesar de comprender que el impacto puede ser muy negativo, no advirtieron al público”, declaró Previn Warren, abogado que representa a los demandantes en el caso, en una entrevista. “Básicamente, ocultaron los hallazgos de la investigación”.
En TikTok, los documentos internos indicaron que las funciones de seguridad de la aplicación para niños menores de 14 años eran más débiles que las proporcionadas en el equivalente chino de TikTok, Douyin, según una opinión experta incluida en la presentación que incluyó la revisión de evidencia sellada. “Les damos espinacas a los niños en China y opio a los niños en Estados Unidos”, dice el documento citado en la opinión experta, preparada por el profesor de comunicaciones de la Universidad de California, Davis Drew Cingel.
Meta, TikTok y YouTube han seguido defendiendo los feeds personalizados contra las iniciativas legislativas para imponer controles parentales, argumentando que utilizan recomendaciones personalizadas para mostrar contenido apropiado para la edad de los niños. Las empresas presentaron una demanda el mes pasado solicitando a los tribunales federales que bloqueen una ley de California de 2024 que exige que los menores obtengan el consentimiento de sus padres antes de ver feeds de contenido algorítmico como la página "Para ti" de TikTok.















