“Blanco. Negro. Ataque. Amenaza”: cuando la IA cree por error que el ajedrez es racista

Los algoritmos no median con nadie. Algunos expertos dicen que hay pocas cosas en este mundo más confiables, más neutrales y menos ‘sesgados’ que un buen algoritmo. También ejercen como la policía de Internet, y quien ose interponerse entre ellos puede ser eliminado en cuestión de milisegundos.

El problema es que algunas veces pueden equivocarse. Bueno, realmente no equivocarse en el sentido de cometer errores, sino que pueden creer que sus acciones son las correctas cuando no lo son. Al final, detrás de ellos siempre está la mano del ser humano. Y ese tipo de confusiones tiene, como es obvio, consecuencias en los usuarios.

Ahora imagínate a un ordenador analizando un vídeo de ajedrez: “Blancas atacan, blanca mata a negra, las negras están amenazadas. Negra se come a blanca”. ¿Puede resultar confuso si no se conoce bien el contexto, verdad?

El caso. Con más de un millón de suscriptores, Agadmator es considerado el canal de ajedrez más popular en YouTube. En realidad, es el espacio del ajedrecista croata profesional Antonio Radic y fue cerrado el 28 de junio tras publicar un segmento de una partida comentada con el Gran Maestro Hikaru Nakamura, cinco veces campeón de Estados Unidos. YouTube no le dio ninguna razón al propietario tras bloquear el canal, pero su servicio se restableció en 24 horas.

¿El motivo? Radic cree que la Inteligencia Artificial de la plataforma pensó equivocadamente que los típicos comentarios “negro contra blanco” eran racistas.

Captura del canal de Agadmator.Captura del canal de Agadmator.

Inteligencia Artificial. Ashiqur R. KhudaBukhsh, un científico informático del Instituto de Tecnologías del Lenguaje de Carnegie Melon, sospechaba que Radic tenía razón y que YouTube activó accidentalmente los filtros de su IA. “No sabemos qué herramientas utiliza YouTube, pero si se basan en la inteligencia artificial para detectar el lenguaje racista, este tipo de accidente puede ocurrir y tendría mucho sentido”, decía KhudaBukhsh.

Al igual que otros programas de IA que dependen del aprendizaje automático, estos clasificadores se entrenan con una gran cantidad de ejemplos y su precisión puede variar según el conjunto de ejemplos utilizados. En el caso del ajedrez, muchos de los conjuntos de datos de entrenamiento probablemente incluyan ejemplos de charlas del juego, lo que puede llevar a una clasificación errónea, explicaba el experto.

El estudio. Los investigadores de Carnegie Mellon empezaron a estudiar el caso para entender el fenómeno. Para ello probaron dos de los mejores clasificadores de voz de Inteligencia Artificial para detectar ese “discurso de odio” en los vídeos. Usando el software en más de 680.000 comentarios tomados de cinco canales de ajedrez populares de YouTube, averiguaron que el 82% de los comentarios filtrados no incluían ningún lenguaje racista obvio o discurso de odio pero sí incluían términos de ajedrez como ‘negro’, ‘blanco’, ‘ataque’ y ‘amenaza’, lo que puede suponer un bloqueo del contenido dependiendo de cómo se usen dichas palabras.

“Si alguien tan conocido como Radic está siendo bloqueado por error bien puede estar sucediendo en silencio a muchas otras personas que no son tan conocidas”, explicaban.

No es la primera vez. No se trata del primer caso en el que los algoritmos meten la pata en sus criterios a la hora de bloquear o agregar contenido. En junio de 2015, un usuario de Google Photos descubrió que el buscador etiquetaba a sus amigos negros como gorilas. La inteligencia artificial de Google no era capaz de distinguir una tez oscura de humano de la de simios como gorilas y chimpancés. Ese sesgo racista de la plataforma obligó a disculparse a Google, que se comprometió a buscar una solución al error. Dos años más tarde decidieron eliminar a los gorilas del buscador, así como a los chimpancés o los monos y evitar cualquier tipo de confusión.

Tuit en el que un usuario se quejaba de que sus amigos aparecían etiquetados como Gorilas en Google.Tuit en el que un usuario se quejaba de que sus amigos aparecían etiquetados como Gorilas en Google.

Otro caso sonado fue cuando los usuarios podían buscar en Google Maps “La casa del negro” o “Rey Negro” en inglés y el buscador les redirigía a la Casa Blanca en Washington D.C, ocupada durante años por el primer presidente negro de los EEUU, Barack Obama, y su familia. Esa y otras búsquedas consideradas racistas han sido objeto de duras críticas en Estados Unidos y han llevado al gigante informático a pedir disculpas en repetidas ocasiones.

En esta ocasión, la de nuestro ajedrecista, los algoritmos han pecado de lo contrario, con tal de evitar el racismo en Internet terminaron bloqueando un simple canal de ajedrez. Una muestra de que el día en el que los algoritmos puedan funcionar con independencia sin ayuda humana aún no está del todo cerca.


La noticia

“Blanco. Negro. Ataque. Amenaza”: cuando la IA cree por error que el ajedrez es racista

fue publicada originalmente en

Magnet

por
Albert Sanchis

.

Advertisements

¡Anímate a comentar!

Comentarios