En un informe publicado el miércoles, el Comisionado de Seguridad Electrónica dijo que YouTube, junto con Apple, no rastrearon la cantidad de informes de usuarios que recibieron sobre abuso sexual infantil que aparecieron en sus plataformas y tampoco pudieron decir cuánto tiempo les tomó responder a dichos informes.
El organismo de control de Internet de Australia afirmó que las empresas de redes sociales más grandes del mundo todavía están “haciendo la vista gorda” ante el material de abuso sexual infantil en línea en sus plataformas, y dijo que YouTube, en particular, no ha respondido a sus consultas.
En un informe publicado el miércoles, el Comisionado de Seguridad Electrónica dijo que YouTube, junto con Apple, no rastrearon la cantidad de informes de usuarios que recibieron sobre abuso sexual infantil que aparecieron en sus plataformas y tampoco pudieron decir cuánto tiempo les tomó responder a dichos informes.
El gobierno australiano decidió la semana pasada incluir a YouTube en su primera prohibición de redes sociales del mundo para adolescentes, siguiendo el consejo de eSafety de revocar su exención planeada para el sitio para compartir videos Google, propiedad de Alphabet.
“Cuando se las deja a su suerte, estas empresas no priorizan la protección de los niños y parecen hacer la vista gorda ante los delitos que ocurren en sus servicios”, dijo la Comisionada de Seguridad Electrónica, Julie Inman Grant, en un comunicado.
“Ninguna otra industria orientada al consumidor tendría licencia para operar permitiendo crímenes tan atroces contra niños en sus instalaciones o servicios”.
Google ha declarado anteriormente que el material abusivo no tiene cabida en sus plataformas y que utiliza diversas técnicas estándar de la industria para identificarlo y eliminarlo. Meta, propietaria de Facebook, Instagram y Threads, tres de las plataformas más grandes con más de 3 mil millones de usuarios en todo el mundo, afirma que prohíbe los vídeos explícitos.
El Comisionado de Seguridad Electrónica, una oficina creada para proteger a los usuarios de Internet, ha ordenado a Apple, Discord, Google, Meta, Microsoft, Skype, Snap y WhatsApp que informen sobre las medidas que toman para abordar el material de explotación y abuso infantil en Australia.
El informe sobre sus respuestas hasta el momento encontró una “variedad de deficiencias de seguridad en sus servicios que aumentan el riesgo de que aparezcan en los servicios materiales y actividades de explotación y abuso sexual infantil”.
Las brechas de seguridad incluyeron fallas en la detección y prevención de la transmisión en vivo del material o el bloqueo de enlaces a material conocido de abuso infantil, así como mecanismos de denuncia inadecuados.
Afirmó que las plataformas tampoco utilizaban tecnología de “comparación de hash” en todos sus servicios para identificar imágenes de abuso sexual infantil comparándolas con una base de datos. Google ya había indicado que sus medidas contra el abuso incluyen tecnología de “comparación de hash” e inteligencia artificial.
El regulador australiano dijo que algunos proveedores no habían realizado mejoras para abordar estas brechas de seguridad en sus servicios a pesar de haberles notificado en años anteriores.
“En el caso de los servicios de Apple y YouTube de Google, ni siquiera respondieron a nuestras preguntas sobre cuántos informes de usuarios recibieron sobre abuso sexual infantil en sus servicios o detalles sobre cuánto personal de confianza y seguridad tienen Apple y Google en su plantilla”, dijo Inman Grant.