Un hombre calvo, de unos sesenta años, mueve con sus espátulas de madera unos trozos de carne dentro de una sartén. Lleva gafas de pasta, vaqueros y está frente a los fogones de su pequeña cocina, decorada en tonos claros. Al ver esta imagen, la inteligencia artificial lo tiene claro y gracias a su sofisticado aprendizaje etiqueta lo que ve: cocina, espátula, fogones, mujer. Si está en una cocina, entre fogones, debe ser una mujer. Un equipo de la Universidad de Virginia acaba de publicar un estudio en el que señala una vez más lo que muchos especialistas vienen denunciando: la inteligencia artificial no solo no evita el error humano derivado de sus prejuicios, sino que puede empeorar la discriminación y está reforzando muchos estereotipos.

Lee: La lista de las series y películas que llegan a Netflix en octubre

Las máquinas se hacen más sexistas, racistas o clasistas porque identifican la tendencia subyacente y apuestan por ella para atinar. Ya es bien conocido el caso de Tay, el robot inteligente que Microsoft diseñó para que se integrara en la conversación de Twitter aprendiendo de los demás usuarios: tuvo que retirarlo en menos de 24 horas porque empezó a hacer apología nazi, a acosar a otros tuiteros y a defender el muro de Trump. A estas alturas, los ejemplos de algoritmos que exacerban prejuicios o discriminaciones son innumerables y ponen en entredicho la gran promesa de estos sistemas: retirar de la ecuación el error humano. Los algoritmos nos condenan a repetir el pasado del que queríamos escapar al replicar los prejuicios que nos definían.

Google comenzó a etiquetar a personas negras como gorilas y Google Maps ubicaba la “casa del negro” en la Casa Blanca de la era Obama. Las fotos de los usuarios negros de Flickr se clasificaron como “chimpancés”. La inteligente Siri de Apple, que tiene respuesta para todo, no sabe qué decircuando la dueña del móvil le dice que ha sido violada. El software de Nikon advierte al fotógrafo de que alguien ha parpadeado cuando el retratado tiene rasgos asiáticos. Las webcam de HP no son capaces de identificar y seguir los rostros más morenos, pero sí los de blancos. El primer certamen de belleza juzgado por un ordenador colocó a una única persona de piel oscura entre los 44 vencedores. En EE UU, Amazon deja fuera de sus mejores promociones a los barrios de mayoría afroamericana (más pobres). Facebook permite a los anunciantes que excluyan de su target comercial a minorías étnicas y, en cambio, que incluyan a personas que se identifican explícitamente como antisemitas o a jóvenes que sus algoritmos han identificado como vulnerables y depresivos.

Lee: ¡Atención! Este es el nuevo trailer de Sonic Force #Videojuego

“Prometiendo eficiencia e imparcialidad, distorsionan la educación superior, aumentan la deuda, estimulan el encarcelamiento masivo, golpean a los pobres en casi todas las coyunturas y socavan la democracia”, denuncia Cathy O’Neil, especialista en datos y autora del revelador libro Armas de destrucción matemática (Weapons of Math Destruction, Crown), en el que desmenuza todos los desastres algorítmicos a partir de su formación como doctora en Matemáticas en Harvard y su experiencia laboral como data scientist en el mundo financiero. “Ir a la universidad, pedir prestado dinero, ser condenado a prisión o encontrar y mantener un trabajo. Todos estos campos de la vida están cada vez más controlados por modelos secretos que proporcionan castigos arbitrarios”, alerta.

Como dice O’Neil, los prejuicios de los algoritmos pueden ser mucho más peligrosos y trascendentales. Lo comprobó hace unos meses la redacción de ProPublica, al descubrir que un programa que se usa en la Justicia de EE UU para pronosticar la reincidencia de los presos era notablemente racista. Los acusados negros eran el doble de propensos a ser mal etiquetados como probables reincidentes (y tratados más duramente por el sistema penal), mientras que los acusados blancos que sí reincidieron fueron etiquetados como de bajo riesgo con el doble de probabilidad que los negros. Los ciudadanos, y por supuesto los convictos, ignoran que su futuro lo está decidiendo un programa informático viciado que va a ser tan racista como el juez más racista. Fría, sosegada y concienzudamente racista.

Lee: Taigaphone, un teléfono “a prueba” de hackers

Una investigación de la Universidad Carnegie Mellon descubrió que las mujerestienen menos posibilidades de recibir anuncios de trabajos bien pagados en Google. Los programas que se usan en los departamentos de contratación de algunas empresas han mostrado inclinación por nombres usados por blancos y rechazan los de negros. Las autoridades policiales de varias ciudades usan programas que les ayudan a pronosticar los lugares en los que es más probable que haya delincuencia; de este modo, acuden más a estas zonas, detienen de nuevo a más gente allí y refuerzan el ciclo negativo. Y los seguros son más caros y severos para residentes en barrios pobres de mayoría negra. “El resultado es que criminalizamos la pobreza, creyendo que nuestras herramientas no son solo científicas sino justas”, resume esta especialista.

Como señala O’Neil en su libro, en algunos casos, los problemas del algoritmo se deben a un problema en la selección de los datos. En otros, se debe al prejuicio subyacente en la sociedad, que el software simplemente hace suyo para acertar. Pero el mayor problema es el modelo económico: “Cuando se están construyendo sistemas estadísticos para encontrar clientes o manipular a deudores desesperados, los ingresos crecientes parecen mostrar que están en el camino correcto. El software está haciendo su trabajo. El problema es que los beneficios terminan sirviendo como un sustituto de la verdad”. O’Neil denuncia que esto es una “confusión peligrosa” que surge “una y otra vez”. Facebook deja que su algoritmo seleccione y venda anuncios a “gente que odia a los judíos” y “adolescentes vulnerables” porque se hace rico con ello; si les pagan, no pueden estar equivocados.

Seguir leyendo en:  El Pais