Roblox aplicará verificación de edad y nuevos controles para frenar el grooming y proteger a millones de chicos que usan la plataforma.
La plataforma de videojuegos Roblox anunció un paquete de medidas de seguridad destinado a frenar el grooming y limitar el contacto entre menores y adultos, en medio de un escenario global marcado por denuncias judiciales y episodios que encendieron alarmas en la Argentina. La empresa implementará verificación de edad mediante reconocimiento facial o documento de identidad para habilitar los chats.
Roblox, que reúne a más de 350 millones de usuarios activos mensuales, se convirtió en el centro de un debate urgente sobre protección infantil. La novedad llega después de que varias jurisdicciones educativas argentinas, como Buenos Aires y Córdoba, bloquearan su acceso en redes escolares por casos de acoso digital y ofrecimientos de contenido sexual a menores dentro de la app.
Entre los episodios más graves se destacan el contacto de un adulto con un alumno en la Ciudad de Buenos Aires con fines sexuales, el caso de un niño de 9 años acosado en Cipolletti mediante ofertas de monedas virtuales, y el ingreso de niñas de Santa Fe a un grupo de WhatsApp con cientos de participantes donde circulaba material sexual explícito.
Verificación de edad y chats restringidos
La empresa confirmó que será la primera plataforma global en exigir verificación de edad para poder chatear. El sistema asignará a los usuarios a uno de seis rangos etarios (hasta 9 años; 9–12; 13–15; 16–17; 18–20; 21+). La implementación comenzará en diciembre en mercados piloto como Australia, Nueva Zelanda y Países Bajos, y se expandirá internacionalmente a partir de enero.
El objetivo central es impedir que usuarios adultos interactúen con niños, un riesgo que hoy se potencia por la facilidad para crear cuentas con edades falsas o migrar conversaciones hacia otras redes menos controladas.
Controles parentales reforzados
La empresa recordó que los padres pueden activar herramientas de control parental para limitar el tiempo de juego, bloquear chats con desconocidos y restringir contenidos no aptos. Especialistas en seguridad digital subrayan que estos filtros son esenciales ante la variedad de experiencias dentro de Roblox, donde conviven juegos infantiles con otros de contenido sexual o violento.
Los profesionales recomiendan también acuerdos entre familias, supervisión activa y establecer límites de tiempo de pantalla. Alertan que, sin filtros adecuados, los menores pueden acceder a contenidos inapropiados “con un simple cambio de edad” al crear su cuenta.
Un ecosistema masivo usado por niños argentinos
Roblox se mantiene como la plataforma de videojuegos más descargada en la Argentina, con más de 800.000 descargas en un solo trimestre, y es especialmente usada por niños de entre 8 y 11 años. Su gran atractivo radica en que los juegos son creados por los propios usuarios, generando un ecosistema que se expande día a día.
Ante este crecimiento, especialistas enfatizan que la educación digital y la prevención familiar son claves para minimizar riesgos.




Deja una respuesta