El nuevo chatbot de Pornhub tiene una tarea muy difícil, evitar que las personas encuentren Material de Abuso Sexual de niños o CSAM (Child Sexual Abuse Material).
Contrario a lo que nos pueden hacer creer películas como El sonido del silencio (2023), las personas que buscan material donde se abusa de menores de edad, no siempre lo buscan en la deep web o en lugares secretos.
Increíblemente, Pornhub, una de las 50 páginas más visitadas en el mundo y que en 2020 tuvo más visitas que Netflix, es el hogar de millones de videos de CSAM que están disponibles para todo el público.
No solo eso, Pornhub y las personas que lo suben, ganan dinero por ello.
No es un fenómeno reciente, por años se han recopilado denuncias a Pornhub de personas que encontraron videos suyos, siendo menores de edad, que alguien subió sin su consentimiento. También hay casos de tráfico infantil y de violaciones donde la víctima está claramente inconsciente, explica el New York Times.
Por eso, Pornhub se unió con las organizaciones Internet Watch Foundation (IWF) y la Fundación Lucy Faithfull para crear un chatbot que detiene este tipo de búsquedas. Te contamos cómo funciona.
¿Qué hace el chatbot de Pornhub?
De acuerdo al medio Wired, que fue el único medio con acceso a los reportes de esta chatbot, el proceso funciona así:
Si una persona busca uno de los 34 mil términos que Pornhub relaciona con CSAM, la búsqueda se detiene y no te muestra los videos. En su lugar aparece una especie de cuestionario sencillo que las personas responden y al final aparece un mensaje que explica por qué esa búsqueda puede ser ilegal.
El mensaje también aparece con información y links sobre lugares donde estas personas pueden buscar ayuda.
Parece que esta iniciativa sí funciona, pues al menos 1.7 millones de personas vieron este mensaje antes de abandonar Pornhub y buscar términos que ya se consideran legales, explica Wired.
Más de 1.500 personas pidieron más información, 490 dieron clic en la página web de la organización Stop It Now, y 68 personas llamaron o escribieron a la Fundación Lucy Faithfull para pedir ayuda.
Esto no es suficiente para el problema de Pornhub
Aunque el chatbot de Pornhub es parte de los esfuerzos de la empresa para la explotación de material de abuso a menores, la verdad es que su problema es muy, muy grande. Aunque una buena parte de las personas que vieron el anuncio de chatbot cambiaron su trayectoria, la búsqueda de CSAM es más grande que sus intentos por detenerla.
De acuerdo a Joel Scanlan, profesor de la Universidad de Tasmania que evaluó el chatbot, durante los años que hicieron las pruebas, la alerta del chatbot saltó más de 4 millones de veces.
Es decir, durante la prueba la búsqueda por material de abuso sexual a menores se hizo al menos 4 millones de veces. Sin contar los casos donde el chatbot no puede detectar si la búsqueda del contenido es ilegal.
Además, Pornhub sigue permitiendo algunas funciones que hacen que el CSAM no se detenga. Por ejemplo, permite que cualquier persona suba un video de abuso sexual, y también permite que la gente se descargue ese video, lo que hace posible que lo puedan volver a subir.
No solo eso, se estima que cada hora se sube más de un millón de horas de contenido a Pornhub. Gracias a la poca información que pudo conseguir el New York Times, se estima que sólo 160 personas están a cargo de revisar el material que se sube.
Es decir, es una tarea imposible.
El chat de Pornhub sí ha tenido un impacto positivo, pero lastimosamente aún seguimos muy lejos de proteger a los niños de las amenazas del internet.