La tecnología no es objetiva

Lo he dicho en repetidas ocasiones, con muchos detractores alrededor, pero es ingenuo creer que un algoritmo alimentado por los juicios y los criterios de un determinado grupo no influyen en los cálculos matemáticos de la computación actual.

Hace poco lo volví a repetir, esta vez en un modesto auditorio de la Universidad de la Sabana, al que fui invitada con ocasión del Día del Periodista para hablar sobre nuestro oficio y la inteligencia artificial. Esta vez, me pareció ver menos caras incrédulas.

Muchos recordarán el escándalo que cubrió el lanzamiento de la aplicación Google Photos, 2015, que con inteligencia artificial es capaz de identificar elementos de las fotos y organizar sus imágenes en esas categorías. El hecho de escribir en la aplicación la palabra playa y que salgan todas la imágenes que tiene el sistema de usted en la playa es por lo menos algo emocionante. Sin embargo, en el caso del joven Jacky Alcine, al revisar un álbum en la aplicación, se dio cuenta de que existían varias fotografías de él con una amiga (ambos afroamericanos) almacenadas en una carpeta con la etiqueta de Gorilas. Después de twittear la imagen, la polémica estalló.

La solución llegó dos años más tarde del incidente, 2017, pero dejó mucho por desear. La revista Wired reveló que la anhelada respuesta resultó siendo una solución poco elaborada. Eliminar las etiquetas gorila, chimpancé, mono.

Según el informe: Escribir “hombre negro”, “mujer negra” o “persona negra” hizo que el sistema de Google devolviera imágenes en blanco y negro de personas, correctamente ordenadas por sexo, pero no filtradas por raza. Los únicos términos de búsqueda con resultados que parecían seleccionar para personas con tonos de piel más oscuros eran “afro” y “africano”, aunque los resultados fueron mixtos.

Algunos afirman que es imposible que los algoritmos segreguen y que por el contrario su súper inteligencia ve realidades sin filtro, aunque no nos gusten. Como bien lo dijo Sandra Wachter, una investigadora de ética en los algoritmos de la Universidad de Oxford, la inteligencia artificial nos muestra los sesgos del mundo.

“The world is biased, the historical data is biased, hence it is not surprising that we receive biased results”: Sandra Wachter

Cabe recordar que los datos son la fracción mínima de las construcciones computacionales modernas. El buscador, las redes sociales y miles de páginas utilizan sistemas para analizar, perfilar y responder a las necesidades de los usuarios.

Aunque aseguran que los datos son anonimizados para evitar invadir la privacidad de las personas ciertamente si realizo una búsqueda de tiquetes para Sao Paulo seguramente recibiré publicidad de vuelos a través de Facebook. Si, soy yo, buscando algo y recibiendo una respuesta.

Algo que no es muy claro es si por ser etiquetada de forma masiva en miles de intereses y clasificaciones de edad, género, locación y hasta modelo de celular, el sistema no genera etiquetas impregnadas de las creencias de nuestra sociedad (muchas veces negativas). Rock para la que le gusta, juvenil por su grupo de edad, con hombres guapos por ser mujer y en español por su región. Por ejemplo, revisar cómo lo cataloga Facebook para ofrecerle sus anuncios es posible.

Existe una opción para explorar (sin poder entender muy bien cómo es que se ha consolidado esa información) cuáles son sus gustos y preferencias según Facebook. La sorpresa es que no es tan acertado como uno esperaría. Por ser mujer jóven exdeportista Facebook cree que me gusta el estilo de vida fitness, también dice que me gusta el maquillaje y las recetas de cocina. Independientemente del tipo de mujer que soy y de cuánto me gustan o no esas actividades, si trato de verlo como una tercera persona, sin pensar que ese es mi perfil facebookiano, termino sintiendo que es la representación típica de un estereotipo femenino más entre los miles que llenan la red con cómo y qué es ser mujer.

La hipersegmentación de las redes sociales puede llevarnos, como lo he dicho en otras ocasiones, a leer, comentar y consumir lo que nos agrada y es afín a nosotros mismos. Buscar activamente la diversidad es un reto diario que pocos adquieren como hábito.

El problema está en que la hipersegmentación también contiene las creencias del sistema sobre lo que supuestamente soy y si cree que soy literalmente un estereotipo más ¿qué previene que se sigan alimentando los estereotipos sociales (que nos persiguen desde hace siglos como el racismo, el sexismo y el clasismo) en las próximas generaciones y con un alcance masivo? francamente nada.

Ya en el hospital nacional de Dinamarca pidieron suspender los tratamiento con Watson Oncology, la inteligencia artificial creada por IBM que ha sido famosa por ser presentada en múltiples ocasiones como la posibilidad de curar el cáncer usando tecnología. El argumento fue que Watson ofrecía tratamientos “muy americanos”. En otras palabras, lo que ocurre no es que el sistema no sea capaz, sino que las soluciones estaban pensadas, probadas y analizadas en un entorno local estadounidense, con pacientes y doctores de este país y no contemplaban las variables etnográficas de otros terrenos. Este ejemplo resulta perfecto para decir que el avance de la tecnología es una evolución y que este tipo de hallazgos promueven que los criterios para el entrenamiento de los sistemas incluyan variables de raza, género y otras particularidades sociales. Gracias a estos comentarios los esfuerzos de IBM, a todas luces positivos para miles de vidas, pueden seguir mejorando.

A este paso, se puede ver como un imposible lograr la objetividad también en las máquinas que hemos creado. A lo mejor en algún momento como sucedió con el periodismo se llegue a aceptar que subjetividad también puede alimentar la información con propósitos lícitos, pero que debe quedar en evidencia para no llevar al engaño. Lo pongo así por que no solo los periodistas sino todos los que comunicamos algo escogemos un ángulo, una voz, una historia para contar.

El escoger A o B es subjetivo, aunque se tengan diferentes matices de proporcionalidad y criterios (que en el rigor periodístico son mucho más exigentes que en las charlas de café) como a quién va dirigida la comunicación, su pertinencia, el balance de puntos de vista o el impacto. Básicamente así como sucede con el discurso humano, las máquinas filtran, distribuyen, estudian y realimentan nuestros datos a gran escala. Escogiendo como se les dijo que escogieran. Por lo menos así es hasta que llegue una tecnología que aprenda por sí misma y no necesite nuestra intervención. Sus efectos, en todo caso, serían desconocidos.

Para todo lo demás, me quedo con un valioso dicho del mundo de la computación “GiGo – Garbage in, garbage out” (basura entra, basura sale).

Hasta la próxima conexión, 
@LinndaPC

Advertisements

Leave a Reply

Fill in your details below or click an icon to log in:

WordPress.com Logo

You are commenting using your WordPress.com account. Log Out /  Change )

Google photo

You are commenting using your Google account. Log Out /  Change )

Twitter picture

You are commenting using your Twitter account. Log Out /  Change )

Facebook photo

You are commenting using your Facebook account. Log Out /  Change )

Connecting to %s

Blog at WordPress.com.

Up ↑

%d bloggers like this: