SANTO DOMINGO, República Dominicana — Documentos judiciales citan resultados de pruebas internas que evidenciarían fallas significativas en los chatbots de inteligencia artificial de Meta Platforms, al no bloquear adecuadamente interacciones vinculadas a explotación sexual y contenido inapropiado para menores.
Según los datos divulgados en el proceso legal radicado en el estado de Nuevo México (Estados Unidos), las evaluaciones internas reflejaron altos niveles de error en escenarios relacionados con protección infantil, incluyendo respuestas que no activaron correctamente los filtros de seguridad establecidos por la propia compañía.
La demanda fue impulsada por el fiscal general Raúl Torrez, quien sostiene que las herramientas de IA integradas en plataformas como Facebook e Instagram no aplicaron restricciones efectivas en conversaciones potencialmente riesgosas para adolescentes, lo que —según la acusación— vulneraría estándares de seguridad digital.
Ante la controversia, Meta informó que ha implementado medidas correctivas, entre ellas la suspensión del acceso de menores a ciertos personajes de IA, así como ajustes en el entrenamiento de los modelos y en los protocolos de moderación automatizada.
El caso ha reavivado el debate internacional sobre la responsabilidad de las empresas tecnológicas en la protección de menores, especialmente en el desarrollo y despliegue de sistemas de inteligencia artificial capaces de sostener conversaciones abiertas con usuarios jóvenes.
