Por Paola Aranda

En este momento, millones de personas utilizan Inteligencia Artificial sin siquiera saberlo. Apps de navegación como Google Maps o publicidad que parecen leer nuestra mente, son algunas de la aplicaciones diarias que las nuevas tecnologías tienen para ofrecernos. Esa misma Inteligencia Artificial podría estar decidiendo si mereces un seguro social.

Cada vez son más los gobiernos que exploran el Machine Learning, una aplicación de la IA en la que el sistema no se programa explícitamente, si no que tiene la habilidad de crear patrones y correlaciones entre elementos de una enorme base de datos, para la automatización de procesos. Una idea fascinante, pero cuando alguna de las desiciones entre estos procesos depende de una percepción moral, ¿quién decide qué bien o qué mal enseñarle a la máquina?

COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) es un software creado y desarrollado por Northpointe, y utilizado por el sistema penal de algunas juridicciones en Estados Unidos desde el 2015. La herramienta predice, a través de 137 preguntas y un análisis del récord criminal previo de las personas, su nivel de riesgo de volver a delinquir en caso de ser liberado. Suena ideal, solo existe un problema…

Si el sistema es alimentado con datos históricos del crimen, seleccionará los patrones asociados con el crimen, los cuales son correlaciones estadísticas, no causalidades, y en cuestión de milisegundos, el software aprendió que, no importa si hay menos acusaciones en tu contra, si eres negro volverás a delinquir, pues eso han dicho los humanos detrás de los tribunales.

Una crítica general del uso de software COMPAS es que, dado que los algoritmos que utiliza son “secretos comerciales”, el público, investigadores y las partes afectadas no pueden examinarlos. Los datos utilizados para tomar decisiones fatídicas sobre la vida de las personas simplemente están fuera del alcance público.

La idea de automatizar procesos judiciales y gubernamentales suena bastante bien, e incluso una computadora podría tomar mejores decisiones que muchos funcionarios, pero sin participación democrática, no tenemos forma de asegurar que la inteligencia artificial no interfiera con la igualdad y obstruya la agencia humana, posiblemente, sin que lo sepamos.

¿De qué forma se podría capacitar a las nuevas tecnologías para hacer del mundo uno mejor?

Una agenda de investigación facilitaría las conversaciones sobre los problemas que la IA pueda causar en contra de los derechos humanos, abriría líneas de comunicación entre los desarrolladores que diseñan estos algoritmos y los gobiernos que están pensando en adoptar los softwares como herramientas definitivas.

Rachel Goodman, abogada del ACLU’s programa de Justicia Racial, dijo para Co.Design: “Continuamente descubrimos que cuando pones a los pensadores legales en la sala con personas que son expertos profundos en temas de ciencia, tecnología y asuntos sociales, nos hace mejores defensores”

También te puede interesar: ¿El fin del mundo será el 13 de abril?