La popular aplicación Discord, que ya cuenta con aproximadamente 150 millones de usuarios alrededor del mundo, aparentemente posee comunidades y salas de chat ocultas en las que se han registrado depredadores sexuales que usan los servidores para extorsionar y secuestrar niños, así como compartir material de explotación sexual infantil, de acuerdo con el portal de noticias NBC News.
Una investigación llevada a cabo por este portal identificó al menos 165 casos, incluyendo cuatro organizaciones de crimen organizado, en los que adultos fueron procesados por transmitir o recibir material relacionado con pornografía infantil, la cual es ilegal en Discord y en casi todas las jurisdicciones alrededor del mundo.
Asimismo, NBC News identificó al menos 35 casos, en los últimos 6 años, en los que adultos fueron acusados y arrestados por cargos de secuestro, abuso y asalto sexual que involucraba comunicaciones a través de Discord. 22 de estos casos ocurrieron durante la pandemia de COVID-19 o poco después de ella.
Al menos 15 de estos casos han resultado en que los acusados se han declarado culpables.
Stephen Sauer, director de la línea telefónica del Centro de Protección Infantil de Canadá, afirmó para NBC News que esto “es solo la punta del iceberg”, sugiriendo que la problemática es mucho más profunda de lo que se cree.
Los datos públicos parecen respaldar esta afirmación: un análisis hecho por el Centro Nacional de Niños Perdidos y Explotados (NCMEC, por sus siglas en inglés) indican que los reportes de pornografía infantil en Discord se incrementaron en un 474% solo entre los años 2021 y 2022.
Expertos consultados por NBC News han explicado que el hecho de que Discord cuente con una base de usuarios principalmente jóvenes, así como una estructura descentralizada (pues la moderación en Discord es hecha casi siempre por voluntarios) y múltiples herramientas de comunicación, ha hecho que esta aplicación se haya vuelto “atractiva” para los depredadores sexuales.
“Hay un problema de explotación infantil en esa plataforma. Eso es innegable“, dijo John Shaehan, vicepresidente de NCMEC, para NBC News.
Por su parte, Discord aseguró, en un reporte de transparencia empresarial, que desactivó 37,102 cuentas por violaciones a las cláusulas de seguridad infantil en el último cuarto de 2022.
ELDIARIONY