La suspensión de esos personajes para adolescentes ocurrió apenas unos días antes de que avanzara a juicio un caso judicial contra Meta en Nuevo México. En esa demanda, se acusaba a la empresa de no proteger adecuadamente a los menores en sus plataformas.
Meta terminó perdiendo el caso, un resultado especialmente relevante porque marcó la primera vez que un tribunal consideró legalmente responsable a la empresa por poner en peligro la seguridad infantil. El dato cambia el contexto de lectura del anuncio actual, ya que convierte la nueva herramienta en algo más que una mejora de producto.
La compañía enfrenta además otros litigios relacionados con protección de menores, un problema que no afecta solo a Meta, sino también a varias firmas tecnológicas de gran escala. En ese entorno, cada ajuste de política sobre adolescentes, IA y supervisión parental puede interpretarse como parte de una estrategia más amplia de mitigación de riesgos.
Por eso, no sorprende que Meta haya decidido frenar los personajes de IA para menores y, al mismo tiempo, avanzar con mecanismos que den más control o al menos más información a los padres. La señal de fondo es clara: la empresa busca demostrar que está incorporando resguardos visibles en uno de los ámbitos más sensibles de la adopción de IA de consumo.
También hay una dimensión reputacional. En un mercado donde la inteligencia artificial se integra cada vez más rápido en productos cotidianos, las compañías necesitan convencer a usuarios, reguladores y tribunales de que el crecimiento no se produce a costa de la seguridad infantil.


