X necesita solucionar su problema de material de abuso sexual infantil

El material de abuso sexual infantil (CSAM) prolifera en X, y el National Center on Sexual Exploitation insta a la plataforma a tomar medidas al respecto.

NBC News informó que después de que Elon Musk asumiera el control de X (antes Twitter) en 2022, el CSAM “parece estar escalando, ya que cuentas anónimas y aparentemente automatizadas de X inundan los hashtags con cientos de publicaciones por hora anunciando la venta de material ilegal”.

Thorn, una organización sin fines de lucro con “la misión de crear un mundo donde cada niño pueda simplemente ser un niño” combatiendo el abuso sexual infantil, rompió lazos con X poco después de que Musk asumiera el control, revelando que X se negaba a pagar por su trabajo.

“Recientemente terminamos nuestro contrato con X debido a la falta de pago”, Cassie Coccaro, jefa de comunicaciones de Thorn, dijo a NBC News. “Y eso fue después de meses y meses de acercamiento, flexibilidad, tratando de que funcionara. Y, en última instancia, tuvimos que detener el contrato”.

Desde la salida de Thorn, el CSAM ha aumentado drásticamente en la plataforma.

Según NBC, “una revisión de muchos hashtags con términos conocidos por estar asociados con CSAM muestra que el problema es, si cabe, peor que cuando Musk asumió el control inicialmente. Lo que antes era un goteo de menos de una docena de publicaciones por hora es ahora un torrente impulsado por cuentas que parecen estar automatizadas, algunas publicando varias veces por minuto”.

Después de que NBC publicó el reportaje, un portavoz de X publicó el protocolo de la compañía para eliminar material de abuso infantil en su cuenta de seguridad.

“En X, tenemos tolerancia cero para la explotación sexual infantil en cualquier forma. Hasta hace poco, aprovechábamos las asociaciones que nos ayudaban en el camino. Estamos orgullosos de proporcionar una importante actualización sobre nuestro trabajo continuo en la detección de contenido de Material de Abuso Sexual Infantil (CSAM), anunciando hoy que hemos lanzado esfuerzos adicionales de coincidencia de hashes de CSAM”, comenzó la publicación.

“Este sistema permite a X hashear y hacer coincidir contenido multimedia de forma rápida y segura, manteniendo la plataforma más segura sin sacrificar la privacidad del usuario”, continuó la publicación. “Esto es posible gracias al increíble trabajo de nuestro equipo de ingeniería de seguridad, que ha construido sistemas de última generación para fortalecer aún más nuestras capacidades de aplicación.”

Cuando se denuncia CSAM en X, “actuamos rápidamente para suspender la cuenta y reportar el contenido a @NCMEC, que trabaja con las fuerzas del orden a nivel mundial para buscar justicia y proteger a los niños.”

Haley McNamara, Vicepresidenta Sénior de Iniciativas y Programas Estratégicos del National Center on Sexual Exploitation, insta a X a seguir tomando medidas contra este material.

“Es más que inquietante que el material de abuso sexual infantil esté inundando X, pero aún más flagrante es que X no esté haciendo lo suficiente para enfrentarlo”, dijo en un comunicado de prensa. “NBC News revela que el CSAM no solo prolifera desde ciertas cuentas, sino que los hashtags ‘identificados en 2023… como alojamiento de anuncios de explotación infantil todavía se utilizan con el mismo propósito hoy en día’. X debe rendir cuentas por perpetuar el abuso sexual infantil y aparentemente hacer la vista gorda ante este abuso devastador”.

“Hemos señalado el hecho de que X permite la pornografía en su plataforma como una de las razones principales por las que el CSAM ha florecido allí. Y la política de X que exige que los usuarios marquen su contenido pornográfico ‘producido con consentimiento’ como ‘sensible’ no logra evitar que el abuso sexual basado en imágenes prospere”, continuó McNamara. “Es difícil creer que X tenga algún interés o capacidad para enfrentar el CSAM en su plataforma, especialmente porque está comenzando a implementar la mensajería directa cifrada similar a WhatsApp, que se ha convertido en un refugio de CSAM y sextorsión. X ya ha fallado en controlar el abuso que ocurre en su plataforma pública, y sin duda fallará en controlar el abuso que ocurre en un sitio cifrado.”

X debería prestar atención a la advertencia urgente de NCOSE y tomar medidas contra el CSAM en la plataforma.

Read Next: New Bill Seeks to Change ‘Child Pornography’ to ‘Child Sexual Abuse Material’


Watch PRAYER NEVER FAILS
Quality: - Content: +1
Watch TOY STORY 2 IN 3D
Quality: - Content: +4