Las disputas de Facebook sugieren que su inteligencia artificial tiene poco efecto en el discurso de odio

Sarah Teo / CNET

El domingo, Facebook respondió a un informe de noticias que su software de inteligencia artificial había tenido poco efecto en limitar y eliminar contenido violento de la red social. The Wall Street Journal citó documentos internos de 2019 en su informe estimado por ingenieros de redes sociales. Los algoritmos de la empresa solo eliminan una pequeña parte del contenido problemático que violan las reglas.

“El problema es que no tenemos y es posible que nunca tengamos un modelo que capture incluso la mayoría de los daños a la integridad, particularmente en áreas sensibles”, escribió un ingeniero senior y científico investigador en una nota de mediados de 2019, según la revista.

La compañía fue objeto de un mayor escrutinio para hacer un mejor trabajo modificando el contenido, especialmente después de los disturbios del 6 de enero en Capitol Hill, que subrayaron cómo el odio en línea puede extenderse en el mundo real.

Pero Facebook sostiene que la prevalencia del contenido de odio en la plataforma se ha reducido en aproximadamente un 50% en los últimos tres trimestres a aproximadamente el 0.05% de las vistas de contenido, o aproximadamente 5 de cada 10,000 visitas.

“Los datos extraídos de los documentos filtrados se utilizan para crear una narrativa de que la tecnología que usamos para combatir el discurso de odio es inadecuada y que estamos tergiversando deliberadamente nuestro progreso”, dijo el vicepresidente de integridad de Facebook, Guy Rosen. Escribió en una publicación de blog domingo. “esto no es verdad.

“No queremos ver odio en nuestra plataforma, ni tampoco nuestros usuarios o anunciantes, y somos transparentes sobre nuestro trabajo para eliminarlo”, escribió Rosen.

La compañía pasó más tiempo en las semanas desde que Frances Hogan, una ex empleada de Facebook que se convirtió en denunciante, reveló miles de documentos y comunicaciones internas que mostraban que Facebook estaba al tanto de los riesgos de sus productos, pero que públicamente minimizó esos efectos. Los legisladores de todo el espectro político han respondido hasta ahora con un interés renovado en responsabilizar a Facebook.

Haugen compareció ante un subcomité del Senado de Estados Unidos a principios de este mes y afirmó que los productos de Facebook “dañan a los niños, alimentan la división y debilitan nuestra democracia”. CEO de Facebook Mark Zuckerberg El testimonio de Haugen criticado, Diciendo que le dio una “imagen incorrecta” a la red social.

READ  Discord prueba la integración de YouTube

You May Also Like

About the Author: Pino Toribio

"Fanático de Internet en general. Gurú de Twitter sin complejos. Introvertido. Lector total. Ninja de la cultura pop. Entusiasta de las redes sociales".

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *