Roblox, una de las plataformas de videojuegos más populares entre niños y adolescentes, está bajo la lupa en Estados Unidos y el mundo debido a varias demandas por presunta negligencia en la protección de menores frente a redes de abuso sexual.
Familias de distintos estados acusan a la compañía de permitir que adultos con intenciones criminales interactúen con niños dentro del entorno virtual del juego.
Según las denuncias, los mecanismos de seguridad de Roblox serían insuficientes y la firma habría priorizado su crecimiento económico por sobre la seguridad de sus usuarios más jóvenes.
Entre los casos reportados se mencionan episodios de acoso prolongado, extorsión digital y manipulación emocional, donde los agresores habrían usado identidades falsas para ganarse la confianza de los menores.
Los relatos indican que muchos de estos contactos se trasladan desde Roblox a otras plataformas, como Discord o Snapchat, donde los controles de moderación son más limitados.
“El alza de solicitudes inapropiadas dirigidas a niños en entornos digitales es una alerta crítica que exige acción coordinada entre tecnología, educación y regulación”, advierte Zady Parra, subgerente Operacional y de Seguridad de Zenta Group, aceleradora tecnológica chilena.
“Hoy, los menores están expuestos a plataformas que, aunque diseñadas para entretenimiento, pueden convertirse en canales de riesgo”, añade.
El experto explica que lo que antes era una simple conversación en un videojuego ahora puede escalar hacia redes sociales o aplicaciones de mensajería, donde los agresores actúan con mayor libertad.
“En estos espacios, los depredadores han llegado a exigir imágenes íntimas a cambio de Robux, la moneda virtual del juego, aprovechando el deseo de los niños de personalizar sus avatares o acceder a contenido exclusivo”, agrega.
Por otra parte, Parra subraya que la inteligencia artificial podría ser una herramienta clave para prevenir este tipo de abusos.
Mediante análisis de texto en tiempo real, detección de frases sospechosas, patrones de acoso y moderación de contenido multimedia, los algoritmos podrían alertar sobre conductas inapropiadas antes de que escalen.
“La prevención no puede depender solo de los padres. Las empresas tecnológicas deben asumir una responsabilidad activa, integrando moderación en tiempo real y trazabilidad de interacciones sospechosas”, puntualizó el representante de Zenta Group.
Por otra parte, el especialista apuntó a que “los colegios deben enseñar alfabetización digital, instruyendo a niños y adolescentes sobre cómo reconocer señales de manipulación o grooming”, afirma Parra.
Más allá de los clásicos consejos
Zady Parra también señala la importancia de que los padres cuenten con herramientas y formación concretas, pudiendo complementar los típicos consejos.
“La conversación familiar debe ir más allá del clásico ‘no hables con extraños’. Es fundamental enseñar a los niños a identificar conductas inapropiadas, incluso si parecen amistosas”, indicó.
El bufete Dolman Law Group, con sede en Florida, lidera al menos cinco procesos judiciales contra Roblox. Su director, Matthew Dolman, asegura que hay más de 300 incidentes similares en investigación y que la compañía habría tergiversado públicamente la seguridad de su producto pese a conocer investigaciones policiales previas.
La situación plantea un desafío para la industria tecnológica, la educación y las familias, que deben articularse para garantizar entornos digitales más seguros para los menores.