Roblox informó más de 13.000 incidentes de explotación infantil en 2023

Roblox, la popular plataforma de juegos en línea con 77 millones de usuarios diarios, enfrentó serias acusaciones en 2023 relacionadas con la explotación infantil

Roblox, la popular plataforma de juegos en línea con 77 millones de usuarios diarios, enfrentó serias acusaciones en 2023 relacionadas con la explotación infantil. Una investigación realizada por Bloomberg reveló que Roblox reportó más de 13,000 incidentes de explotación infantil el año pasado. Esta cifra alarmante marca un aumento significativo en comparación con los casi 3,000 casos reportados en 2022.

La profundidad del problema

Respuesta de Roblox a las acusaciones

En respuesta al informe de Bloomberg, un portavoz de Roblox destacó los esfuerzos de la plataforma para proteger a sus usuarios. Señalaron que Roblox representaba solo el 0.037% de los 36.2 millones de informes de sospecha de explotación sexual infantil recibidos por la CyberTipline del NCMEC el año pasado. El portavoz criticó el informe por no representar con precisión las complejidades de la seguridad infantil en línea y las experiencias positivas que muchos usuarios tienen en la plataforma.

Contexto histórico y mejoras

Antes de 2022, Roblox carecía de sistemas automatizados para detectar comportamientos de grooming más allá de simples filtros de texto. Según empleados actuales y anteriores, las solicitudes de más recursos a menudo fueron ignoradas, lo que llevó a una acumulación de informes de incidentes de seguridad. Sin embargo, Roblox ha hecho importantes avances en la mejora de sus medidas de seguridad. La empresa ha nombrado nuevos investigadores de seguridad infantil, establecido un equipo de moderación de explotación infantil y ha introducido un oficial de seguridad infantil que informa directamente al CEO.

Declaraciones del Director de Seguridad de Roblox

Matt Kaufman, director de seguridad de Roblox, rechazó firmemente las afirmaciones de peligro infantil generalizado o sistémico en la plataforma. En una detallada publicación de blog, Kaufman enfatizó que Roblox ha estado dedicado a crear un entorno seguro durante casi dos décadas. Mencionó que la empresa invierte continuamente en nuevas estrategias y tecnologías para mejorar la velocidad y efectividad de sus sistemas de seguridad y moderación.

Nuevas medidas de seguridad y actualizaciones

Roblox anunció recientemente varios cambios para proteger aún más a sus usuarios más jóvenes. A partir de este otoño, las experiencias en Roblox serán etiquetadas según el tipo de contenido que contienen en lugar de por edad. Por defecto, los usuarios menores de nueve años solo podrán acceder a experiencias etiquetadas como ‘Mínimo’ o ‘Leve’, a menos que se utilicen controles parentales para permitir el acceso a contenido más maduro. Estas etiquetas están diseñadas para brindar a los padres y usuarios una visión más clara del contenido disponible en Roblox.

Definiciones de etiquetas de contenido

  • Contenido Mínimo: Seguro para todas las edades, sin elementos violentos o groseros.
  • Contenido Leve: Puede contener violencia leve, sangre irrealista intensa, humor grosero leve y miedo leve.

El aumento de los incidentes reportados de explotación infantil en Roblox es preocupante. Sin embargo, la plataforma está trabajando activamente para mejorar sus medidas de seguridad. Al implementar nuevas funciones de seguridad y mejorar la etiquetación de contenido, Roblox tiene como objetivo crear un entorno más seguro para todos sus usuarios. A medida que la plataforma evoluciona, sigue comprometida a mantener un equilibrio entre el crecimiento y el bienestar de su comunidad.

Para enterarte de todo sobre el mundo de los videojuegos síguenos en las redes sociales como @vg3doficial y @videogaming3d.

×