El sesgo de entrenamiento en AI "detector de discurso de odio" significa que los tuits de personas negras tienen muchas más probabilidades de ser censurados / Boing Boing

Más malas noticias para Google Asignado spinoff Jigsaw, cuyo proyecto principal es "Perspectiva", un sistema de aprendizaje automático diseñado para captar e interceptar el acoso, el discurso de odio y otros discursos en línea no deseados.

Desde el principio, la perspectiva ha sido plagado de problemas, pero el último es un desastre: los expertos de la Universidad de Washington han descubierto que Perspective clasifica erróneamente la escritura inofensiva como discurso de odio mucho más frecuentemente cuando el autor es negro.

Específicamente, los textos candidatos escritos en inglés afroamericano (AAE) tienen 1,5 veces más probabilidades de ser calificados como ofensivos que los textos escritos en "inglés alineado en blanco".

Los autores hacen un trabajo bastante bueno al señalar la causa: las personas que etiquetaron a mano los datos de entrenamiento para el algoritmo fueron sesgadas y, incorrectamente, identificaron erróneamente sistemáticamente la escritura AAE como ofensiva. Y dado que los modelos de aprendizaje automático no son mejores que sus datos de entrenamiento (¡aunque a menudo son peores!), El sesgo en los datos se propagó a través del modelo.

En otras palabras, Garbage In, Garbage Out sigue siendo la ley de hierro de la informática y no ha sido derogado por el despliegue de sistemas de aprendizaje automático.

Analizamos el sesgo racial en corpus de lenguaje tóxico anotado ampliamente utilizado, estableciendo correlaciones entre las anotaciones de ofensiva y el dialecto del inglés afroamericano (AAE). Mostramos que los modelos entrenados en estos corpus propician estos sesgos, ya que los tuits AAE tienen el doble de probabilidades de ser etiquetados como ofensivos en comparación con otros. Finalmente, presentamos dialecto y preparación racial, dos formas de reducir el sesgo del anotador al resaltar el dialecto de un tweet en la anotación de datos, y muestran que disminuye significativamente la probabilidad de que los tweets de AAE sean etiquetados como ofensivos. Encontramos pruebas contundentes de que se debe prestar especial atención a los efectos confusos del dialecto para evitar prejuicios raciales no intencionados en la detección del discurso de odio.

El riesgo de sesgo racial en la detección del discurso de odio [Maarten Sap, Dallas Card, Saadia Gabriel, Yejin Choi and Noah A. Smith/University of Washington]

(vía Capitalismo desnudo)

<! –

Cory Doctorow

Escribo libros. Mis últimos son: una novela gráfica de YA llamada En la vida real (con Jen Wang); un libro de no ficción sobre las artes e Internet llamado La información no quiere ser libre: leyes para la era de Internet (con presentaciones de Neil Gaiman y Amanda Palmer) y una novela de ciencia ficción de YA llamada Patria (es la secuela de Hermanito) yo hablar por todo el lugar y yo Pío y caída, también.

->


!function(f,b,e,v,n,t,s){if(f.fbq)return;n=f.fbq=function(){n.callMethod?n.callMethod.apply(n,arguments):n.queue.push(arguments)};if(!f._fbq)f._fbq=n;n.push=n;n.loaded=!0;n.version=’2.0′;n.queue=[];t=b.createElement(e);t.async=!0;t.src=v;s=b.getElementsByTagName(e)[0];s.parentNode.insertBefore(t,s)}(window,document,’script’,’https://connect.facebook.net/en_US/fbevents.js’);fbq(‘init’, ‘1174428159312267’);fbq(‘track’, ‘PageView’);

FUENTE ORIGINAL BOING BOING

Deja un comentario