#5: La película a color.

Cuando el gobierno intervino para terminar con el monopolio de Kodak del procesamiento de películas a mediados de la década de 1950, abrió un mundo de oportunidades para los laboratorios de fotografía independientes. Kodak, forzada a aflojar su dominio de la industria, pero no queriendo dejarla respirar completamente, desarrolló una línea de impresoras para comercializar a dichos laboratorios de fotografía independientes. Claro, si las fotos producidas por la Choza Pendeja de Fotos de Juan Pueblo todavía iban a llevar el nombre Kodak, Kodak tenía que asegurarse que su calidad siguiese siendo consistente. Para hacerlo, proveyeron guías de calibración en la forma de “tarjetas Shirley”.



Las tarjetas fueron nombradas por Shirley Page, la modelo de estudio de Kodak, herramienta humana de calibración y poseedora de piel más blanca que la nieve fresca en una tienda de American Apparel. Como puedes imaginar, el equipo afinado para hacer a Shirley brillar más que nunca hizo que aquellos con piel más oscura parecieran “sosos y oscurecidos”, pero a nadie le importó una mierda hasta la década de 1970. Aquí es cuando el competidor de Kodak, Polaroid, entró, no con un nuevo tipo de impresora, sino con un nuevo tipo de flash para cámara diseñado para reflejar mejor la piel negra. Aplaudiríamos los esfuerzos de Polaroid… si no fuese por el hecho que sólo lo hicieron para ayudar a Sudáfrica a reforzar el apartheid.

Al final, no fue el humanismo, sino el consumismo lo que niveló el campo del desarrollo de películas. Cuando los productores de muebles de colores oscuros se quejaron que la película de Kodak hacía que sus productos luciesen como mierda, Kodak finalmente tomó nota. Tarjetas Shirley más modernas no presentaban sólo una Shirley blanca, sino una manada mestiza entera de ellas.

#4: El software de reconocimiento facial.

En 2009, la taiwanesa-estadounidense Joz Wang compró una cámara digital Nikon Coolpix como un regalo para su mamá. Pero primero, encendió la cámara y la llenó con retratos de ella y su hermano, porque ella es infinitamente mejor hija de lo que nosotros podemos esperar llegar a ser. Allí fue cuando descubrió que el código del software de la cámara tenía algunos problemas personales incorporados: cada vez que ella o su hermano sonreían, la cámara mostraba una advertencia de que alguien había cerrado sus ojos en la foto.



No es la única vez que una cámara mostró tendencias racistas más claramente que la página en Facebook de tu tío. En 2009, los colegas Wanda Zamen y Desi Cryer descubrieron que las cámaras con reconocimiento facial de HP tenían las mismas prioridades que un congresista de Texas:


HP emitió una disculpa pública explicando los defectos de la cámara respecto al reconocimiento de rostros negros, pero Google no estaba escuchando. Cuando revisaba su álbum de fotos en 2015, Oluwafemi J Alcine notó que el algoritmo de etiquetas automatizadas de Google Photos había etiquetado los autos como autos, las bicicletas como bicicletas… y a él y a su amiga afroamericana como gorilas.



#3: FaceApp.

Donde Snapchat te permite convertirte en un unicornio que vomita arcoíris o una caca de chipotle parlante, FaceApp promete manipulación de fotos más realista. Te permite “transformar tu cara usando Inteligencia Artificial”. Con sólo un golpecito, puedes envejecerte por décadas, cambiar géneros o hacerte más atractivo… palabras que, en el lenguaje de FaceApp, son sinónimos de “más blanco”.



Cuando se volvió aparente que el filtro “Hotness” de FaceApp no era nada más que un fabricante de caucásicos, el CEO Yaroslav Goncharov emitió una rápida disculpa: “lamentamos profundamente este problema indiscutiblemente serio. Es un efecto secundario desafortunado de la red neural subyacente causada por el entrenamiento imponiendo prejuicios, no comportamiento deliberado. Para mitigar el problema, hemos renombrado el efecto para excluir cualquier connotación positiva asociada por este”.

Sí, sólo renombraron el efecto (de “Hotness” a “Spark”) lo que obviamente era el mejor curso de acción, en lugar de, digamos, corregirlo o remover el filtro por completo.

#2: El redlining digital.

El término “redlining” data de la Ley Nacional de Viviendas de 1934 y se refiere a la práctica de negar oportunidades a ciertas áreas basada principalmente en su constitución racial. Aunque el redlining ha visto mucho declive en el mundo real, sus efectos todavía son perfectamente claros en el digital. Cuando Pokemon Go explotó en cada Smartphone en los Estados Unidos, los jugadores notaron algo peculiar: el número de PokeParadas y Gimnasios disponibles en vecindarios predominantemente blancos superaba vastamente a aquellos en vecindarios predominantemente negros.

Este PokeRedlining era un resultado de Niantic, el desarrollador del juego, reciclando los mapas de su juego previo Ingress, que presumía de jugadores en su mayoría varones blancos. Un error similar golpeó al monolito de las ventas Amazon, cuando un reporte Bloomberg descubrió que el servicio de entregas el mismo día de la compañía discriminaba a los vecindarios afroamericanos en ciudades desde Atlanta hasta Chicago y Boston. Al determinar la disponibilidad del servicio, Amazon dependió de factores como la proximidad a los centros de entrega del área y su número de miembros Prime… factores que, no lo creerías, favorecían mayormente a los vecindarios blancos.

#1: Los sensores de manos.

Hasta ahora las consecuencias de todos estos traspiés tecnológicos se reducían a “algunas personas no podían usar alguna app/característica adecuadamente”. ¿Pero qué tal con preocupaciones más del mundo real, como, por ejemplo, no ingerir materia fecal?


Ese es un video del asistente a la Dragon Con T.J. Fitzpatrick, quien descubrió que los dispensadores de jabón en un hotel Marriott de Atlanta funcionaban bien para su amigo blanco, mientras que ignoraban del todo sus manos negras. La tecnología depende fuertemente de la capacidad de la piel para reflejar la luz infrarroja… y, adivinaste, la piel negra refleja significativamente menos. No termina allí: los sistemas de rastreo de bienestar tales como el Fitbit dependen de un método de rastreo similar: proyectar luz sobre la piel y medir lo que es reflejado. Los tratamientos para la piel con láser para propósitos cosméticos y de remoción de tatuajes también son afectados, aunque de un modo más horrible: hasta muy recientemente, tales tratamientos estaban fuera del alcance para aquellos con complexiones más oscuras, a menos que se arriesgaran a una “piel permanentemente quemada”.

Como una consecuencia de tecnología chapucera y probada inadecuadamente como esta, la gente de color no podía jugar Pokemon en sus vecindarios, no podía remover ese lamentable tatuaje de Bob Esponja Sexy y ni siquiera podían lavar sus manos en una convención nerd. Ese último podría ser algún tipo de retorcido crimen de guerra.

Fuente:

5 Shocking Ways People Keep Making Technology Racist