Noticias El Periódico Tarija

Progreso, aprendizaje, simulación, innovación o transformación digital son algunos de los atributos que nos vienen a la mente cuando pensamos en Inteligencia Artificial. Esta rama de la informática, encargada de programar a las máquinas con la voluntad de otorgarles  destreza y habilidad para simular procesos propios de la inteligencia humana, ha sacudido los modelos de negocios corporativos y la organización del trabajo interfiriendo de pleno en la actividad humana y conquistando así su fuerza de decisión.
En la actualidad, múltiples innovaciones tecnológicas delatan la consolidación de un nuevo paradigma responsable de catalizar los cambios más profundos vividos en las últimas décadas. Editores genéticos capaces de corregir enfermedades, vehículos automatizados en los que se prescinde del elemento humano con la esperanza de reducir las tasas de accidentes o bioimpresoras 3D que proyectan un nuevo y prometedor futuro en el ámbito del trasplante de órganos, serían solo algunos de los ejemplos más recientes. Y todos ellos, parten de un mismo común denominador: un aparente impacto positivo en lo que a la prosperidad del bienestar y la evolución de la sociedad actual refiere.
Parece evidente, por tanto, que a pesar de la ausencia de una definición consensuada entre investigadores y la difusa concretización sobre los límites de actuación de un fenómeno que atraviesa campos como el de la ciencia computacional y la neurología, la IA dibuja, entre la multitud de incertidumbres que despierta, un escenario marcado por una única convicción: la infinidad de opciones que plantean sus funcionalidades ha propulsado a los algoritmos de forma tal que estos han acabado por penetrar en prácticamente todas las capas y esferas que componen nuestra vida cotidiana. Y es, quizás, en su excesiva intromisión y en su forzosa necesidad de mimetizarse y acoplarse a la actividad humana donde reside parte de la explicación a las reiteradas fallas interseccionales detectadas.

Uno de los debates más candentes en este contexto de alteraciones y descubrimientos tecnológicos es la transparencia y la ética de los algoritmos.
Uno de los debates candentes y que más preocupa a la sociedad en este contexto de alteraciones y descubrimientos tecnológicos es la transparencia y la ética de los algoritmos. Los constantes hallazgos de patrones de razonamiento irracionales reproducidos por los denominados sistemas de reconocimiento facial serían un ejemplo de ello.

La tecnología de reconocimiento facial es un software capaz de reconocer e identificar automáticamente a una persona a través de la evaluación de su imagen digital. El perfeccionamiento de este lector -configurado principalmente para la preservación del orden público- consiente su uso en distintos ámbitos, como en la segmentación de campañas publicitarias o la autentificación en transacciones digitales, entre otros. Sin embargo, su avance ni franquea ni deja exento de errores al algoritmo.
El grado de efectividad de estos se vuelve directamente proporcional a la calidad de la base de datos con la que se alimente el sistema puesto que la información utilizada supeditará el comportamiento del programa. Un entrenamiento incorrecto generará tasas de error más elevadas y desencadenará una sucesión de decisiones sesgadas, aunque el modelo sea sólido.
Dicho de otro modo, su sistema parcializado puede acabar perpetuando durante el proceso de reproducción cognitiva los valores racistas y otras formas de discriminación social subyacente en los mismos datos. O, lo que es lo mismo, los prejuicios latentes en nuestra sociedad.
En 2015, un desarrollador de software alertó a Google al tuitear que el servicio de fotos de la compañía había catalogado sus imágenes con un amigo negro bajo la etiqueta “gorilas”. Consternada,  la empresa californiana, que utiliza tecnología de aprendizaje automático, censuró —casi dos años más tarde— la problemática palabra de su extenso léxico evidenciando así su incapacidad por arreglar el problema.
El fenómeno también ha vulnerado parte de los sistemas de reconocimiento del FBI y de distintos departamentos policiales de los EEUU donde se ha evidenciado un “sesgo racial inherente”. En 2012,  el informático y profesor de la Universidad de Michigan, Anil K.Jain descubrió -junto a parte de su equipo- que los algoritmos utilizados en hasta tres sistemas comerciales de reconocimiento facial proveedores de servicio a agencias de seguridad tuvieron, de 102.942 imágenes analizadas, un rendimiento peor “en mujeres, afroamericanas y personas jóvenes”.

Diferentes grupos demográficos estudiados en el estudio Face Recognition Performance: Role of Demographic Information.
Un estudio liderado por la Universidad de Economía de Praga llegó a la misma conclusión. En la observación, se relacionan sistemáticamente veinte tipos de sesgos cognitivos y se constata empíricamente el grado de distorsión que estas tendencias cognitivas ejercen sobre el aprendizaje inductivo de los algoritmos.
El tema no es baladí. El uso indebido de herramientas imprecisas ya ha demostrado perpetrar daños en el uso, por ejemplo, de aquellos algoritmos de evaluación desarrollados para calcular la probabilidad de riesgo de reincidencia en acusados por algún delito. La investigación “Riesgo, raza y reincidencia: parcialidad predictiva e impacto dispar” alertó de un “beneficio adverso” sobre las minorías raciales al corroborar cómo las personas negras obtenían, de una muestra de más de 30 mil casos, puntajes PCRA (riesgo de reincidencia) más altos que los delincuentes blancos.
“Si los datos con los que se entrena la herramienta están sesgados hacia una raza en particular, tu algoritmo rendirá mejor a la hora de reconocer caras de esa raza”. Así lo explica la investigadora Alice J. O’Toole. En su informe “enfoques cognitivos y computacionales para el reconocimiento de rostros” no solo se constata una mayor precisión en la detección de rasgos caucásicos frente a las facciones asiáticas en los países occidentales sino que además, la misma metodología aplicada en sentido inverso responde a una lógica exacta: las caras asiáticas prueban tasas de error menores que los caucásicos. La influencia demográfica tiene, por tanto, un impacto evidente en el rendimiento de este modelo de IA.
No obstante, estas desviaciones éticas no afectan sólo a cuestiones raciales. El proyecto Gender Shades, liderado por la  informática y activista digital de MIT Media Lab, Joy Buolamwini analizó cuál era el grado de inclusividad y el margen de error de género plasmado en distintos productos de reconocimiento facial. Más concretamente en los soportes lógicos de IBM, Face ++ y Microsoft. Tras tomar como punto de referencia 1920 sujetos originarios de distintos países de África y Europa, la muestra se dividió en categorías femeninas y masculina. ¿El resultado? Las tres empresas revelan una mayor vulnerabilidad de precisión en las mujeres logrando así una desviación estándar de entre el 8.1% y el 20.6%. La brecha es evidente.
Pese a que a la imprecisión de algunos algoritmos también puede deberse a los denominados factores PIE (Pose, Iluminación y variación de la Expresión que altera la calidad de la imagen) la degradación de los sistemas de reconocimiento facial responden al reflejo instintivo de la mirada cifrada de aquellos que moldean su comportamiento.
A lo sumo, el diálogo cognitivo-computacional plantea importantes desafíos que necesitan de nuestra atención y de una regulación estricta. Los intentos por aumentar la precisión de los servicios de análisis facial no cesan. La misma Buolamwini fundó el Algorithmic Justice League, un colectivo que nació con la voluntad de mitigar el sesgo y garantizar una “representación equilibrada así como la equidad en el uso de la IA”. Microsoft creó FATE (Fairness, Accountability, Transparency, and Ethics in AI) con el deseo de “abordar las cuestiones éticas y sociales” que genera el machine learning y la ciencia de datos y Turing Box, una iniciativa de Scalable Coop, se alza como uno de los muchos otros proyectos que han nacido con el propósito de estimular el estudio del comportamiento de diferentes sistemas de IA con el fin de paliar algunas disfuncionalidades éticas.
Quizás, las preguntas que nos estamos formulando no son las correctas. Es probable que la lectura que debamos hacer sobre las desigualdades propugnadas por estos modelos tecnológicos deba llevar implícitas dos principios: (i) las fallas interseccionales no son sino el síntoma de una sociedad sesgada y parcial y (ii) se necesita de mayor atención, grandes dosis de análisis, verificación de datos y ajustes legislativos para poder combatir estas disfunciones.  Solo el día en el que al pensar en Inteligencia Artificial afloren en nuestra cabeza atributos como transparencia, ética, neutralidad e igualdad, podremos constatar que vamos en buen camino.