¡Quiero recibir una alerta el día del lanzamiento!

Tiempo de lectura: 5 min.

Inteligencia Artificial y los sesgos que inciden en un mundo menos diverso

Por: Ana Paula Valacco

Cada vez es más común que, en todos los niveles, se debata sobre las posibilidades que ofrece la Inteligencia Artificial. Pero, al mismo tiempo y con bastante fuerza, surgen a la luz las limitaciones y las polémicas en las que incurre.

Al fin y al cabo, los algoritmos son diseñados por personas para reemplazar la acción humana en ciertas actividades, y reproducen los sesgos que estas tienen. Sesgos que, por supuesto, tenemos todos, pero que al momento de delinear la tecnología que promete resolver los problemas de la humanidad, se hacen más visibles y peligrosos.

La inteligencia artificial es una de las tecnologías con mayor potencial de crecimiento e impacto de los últimos años. En 2017, Sundar Pichai, CEO de Google, anunció que la compañía pasaba de ser Mobile First a AI first, sentando la dirección en la que iban a orientarse todos los principales desarrollos de su organización. 

Pero, ¿qué tan inteligentes son los algoritmos que inciden en las decisiones de las máquinas? Muchas de las resoluciones que toman ya están generando problemas, como lo evidenciaron las denuncias de ProPublica acerca de los algoritmos que se utilizaban en la justicia estadounidense para agilizar las sentencias judiciales o las situaciones recurrentes en las que los cálculos que intervienen en la selección de personal en empresas demuestran reducir el arco de selección a lo que reproduce el status quo y privilegios previos. Son, además, cuestionables según nuestros parámetros humanos y éticos. 

INT ARTIFICIAL PARA BLOG 2

Durante la pandemia, por ejemplo, fueron notables las voces que llamaron la atención sobre hasta qué punto podemos depender de la inteligencia artificial. Muchas de las propuestas que surgieron para acelerar la toma de decisiones o paliar las diferentes problemáticas en un contexto de crisis suponían la intervención de estos mecanismos.

Desde mejorar las predicciones médicas, optimizar las experimentaciones de vacunas, hasta ponerle límites a la catarata de desinformación que acompañó la pandemia, la Inteligencia Artificial podía tener muchos aspectos positivos. 

Sin embargo, las posibles soluciones también pueden tener sus correlatos negativos. En el caso de la pandemia, era esperable que las respuestas estuvieran lejos de ser óptimas, después de todo, la calidad y cantidad de datos disponible a partir de la que se alimentarían eran escasos y puestos en duda en repetidas ocasiones. 

Son muchas las reflexiones que quedan en el campo de la ética y la reflexión profunda sobre los beneficios y perjuicios que podrían generarse. Por ejemplo, en cuanto al reconocimiento facial, las posibilidades de tener falsos positivos y las amenazas a la privacidad son más riesgosas aún que la colaboración que suponen para los sistemas de seguridad de una ciudad o gobierno, por lo que son varios quienes están vetando estas políticas. 

¿Qué es la inteligencia artificial?

Dicho en palabras simples, la Inteligencia Artificial es una tecnología que permite delegar en sistemas informáticos la clasificación de datos en ciertos parámetros, respondiendo a las preguntas que sus creadores diseñan. En primer lugar, inclusive, se puede argumentar que no es inteligencia per se, ya que no resuelve problemas autónomamente identificados (sólo aquellos dispuestos por los humanos) ni realiza tareas más allá de aquellas para lo que fue exclusivamente creada, como argumenta el filósofo Gabriel Markus.  

INT ARTIFICIAL PARA BLOG 2-1

Esta incapacidad característica de abordar dos o más cuestiones pone de manifiesto el primer condicionamiento de este tipo de artificios, que está dado por la pregunta a la que intentan responder los algoritmos. El segundo condicionamiento se relaciona con la base de datos de la que se nutren para clasificar y aprender a mejorar su proceso de selección. 

Por el otro lado, es artificial porque es un producto de la acción humana pero que no es replicable por sí mismo. Es decir, sí o sí depende de la voluntad de un agente externo para modificar sus acciones. 

El problema de los sesgos

La palabra “sesgo” se utiliza cada vez con más frecuencia en debates de todo tipo, y particularmente en los referidos a la inteligencia artificial donde su aplicación proviene del ámbito de la estadística. La definición básica indica que se trata de un “error sistemático en el que se puede incurrir cuando al hacer muestreos o ensayos se seleccionan o favorecen unas respuestas frente a otras”.

INT ARTIFICIAL PARA BLOG 3

Si la inteligencia artificial usa datos para resolver problemas, hay dos aristas en donde estos sesgos pueden tener lugar: en la pregunta (a partir de quién la formula y con qué objetivos, e incluso a partir de la calidad explicativa de ese interrogante), y en las bases de información a partir de la cual los algoritmos interpretarán las soluciones.

Y estas bases están principalmente construidas a partir de la construcción y jerarquía social que prima hoy en día: hay más muestras de personas blancas que afroamericanas, o más hombres que mujeres. La diferencia sería anecdótica si no llevara a situaciones vejatorias, como la denunciada en 2015, cuando se descubrió que la IA de imágenes de Google identificaba a personas negras con gorilas (un error que años después seguían sin resolver). 

Cuando Joy Buolamwini, investigadora del MIT Media Lab, se dio cuenta de que el sistema de reconocimiento facial que utilizaban tenía un buen funcionamiento con personas blancas, pero que ella no era reconocible por ser de ascendencia afroamericana, comenzó a investigar particularmente lo que llamó “coded gaze”, es decir, una mirada codificada. Junto a Timnit Gebru desarrollaron un paper que puso en evidencia que los datasets de origen tenían una sobrerrepresentación de personas blancas y un especial disponible en Gender Shades. 

La misma Gebru, quien es una reconocida defensora de la diversidad en la tecnología y fundadora de Black in AI, fue recientemente despedida por Google luego de negarse a retirar una investigación que ponía en duda los esfuerzos de la compañía para mitigar los sesgos en su tecnología. 

El reconocimiento facial reproduce varios sesgos: en 2019, por ejemplo, investigadores de la Universidad de Colorado en Boulder descubrieron que estos sistemas presentaban falencias graves para identificar a miembros de la comunidad trans y no binarios. Una de las causas es que el código en el que están escritos sólo reconoce a hombres y mujeres, reproduciendo el binarismo de la sociedad patriarcal, y, por otro lado, en que responden principalmente a estereotipos insertos en la cultura (como el largo del pelo). 

¿Qué está aprendiendo la máquina?

El Machine Learning es una de las herramientas de Inteligencia Artificial más usadas. Justamente, mientras escribo este artículo en Google Docs, su software de ayuda me provee palabras que entiende que voy a utilizar en este artículo, según su experiencia de lo que yo y millones de usuarios más escriben. Es, también, la herramienta que utilizan empresas como Netflix para mejorar su oferta de contenido a los usuarios y definir qué serie recomendar o producir, o Facebook para venderle a los anunciantes pauta que sea relevante.

Lo que sucede, es que estos algoritmos aprenden a partir de la información que les ingresan los usuarios sobre el corpus original, input que sintetiza en soluciones predefinidas de acuerdo a lo que asume del usuario. En lugar de diversificar, entonces, unifica.  

Hay evidencia de que las decisiones que se están tomando con respecto a los usos de la inteligencia artificial no están considerando en todas las instancias los abusos en los que se incurre, y que muchos colectivos sociales se ven sub representados. El problema es que, cada vez más, la realidad virtual (especialmente en el contexto de pandemia, ya que es donde interactuamos y socializamos) está siendo moldeada por estos desarrollos, donde ciertas características físicas (hegemónicas) son priorizadas antes que otras. La diversidad es normalizada en pos de una simplificación de las respuestas. 

Pero esta normalización implica discriminación y la supresión de la diversidad. Estamos a tiempo de acelerar la conversación e incorporar más voces para que las próximas soluciones sí sean exclusivas. 

En Humanin Haus estamos dispuestos a dar este debate. Si quieres asomarte a esta visión comprensiva de la tecnología, súmate a Humanin Haus, la comunidad que busca acelerar la transformación cultural a partir de la diversidad y perspectiva de género. 

Tags: Innovación, Tecnología