05 Jun 2020/ Miscelanea

Cómo usar la inteligencia artificial para lograr una sociedad más justa

Por UAM Cuajimalpa a las 01:06 pm


Los algoritmos de aprendizaje automático como herramientas son útiles para establecer regularidades y descubrir sesgos. Hay que entender que suplantar mentes humanas por máquinas no es tecnológica, sino política.

David Casacuberta Sevilla

Los medios de comunicación, cuando hablan de inteligencia artificial (IA), suelen saltar del optimismo al pesimismo postapocalíptico. Esas supuestas “máquinas que aprenden cualquier cosa sin intervención humana” y que “están a punto de alcanzar la autoconsciencia” nos traerán el martes por la mañana increíbles logros; el jueves por la tarde se desvelará en una tertulia televisada cómo hay tantos usos positivos como negativos del machine learning (aprendizaje robótico) y el suplemento dominical de ciencia nos revelará cómo la “IA fuerte” volverá la humanidad obsoleta.

Y llegamos a la distopía cuando hablamos del rol que la inteligencia artificial podría asumir o está asumiendo en el ámbito político y social. En ese contexto, los algoritmos son solamente fuente de injusticia, manipulación y vigilancia, y nada ni nadie puede detener la ola de fascismo y paternalismo digitales.

Quiero aquí ofrecer un término medio y argumentar que, aunque los peligros de digitalizar la comunicación política, la sanidad pública o las decisiones judiciales son reales y plausibles, las oportunidades también lo son y los algoritmos de aprendizaje automático pueden convertirse en herramientas en pro de la justicia social y política.

Se habla mucho últimamente de la necesidad de una ética para la inteligencia artificial. Desgraciadamente, la mayor parte de la discusión se centra en problemas lejanos e irreales. Sería ciertamente irresponsable desarrollar una inteligencia artificial “fuerte”, una similar o incluso superior a la humana sin añadir una serie de controles éticos muy claros. Pero es aún más irresponsable llenar libros y pantallas sobre esa futurible singularidad, cuando hoy en día ya hay problemas éticos asociados al uso de algoritmos de aprendizaje automático para tomar decisiones que parecen generar mucho menos interés.

De la misma forma que prácticamente nadie en el año 2005, cuando se hablaba de la web 2.0, se imaginaba que las redes sociales se convertirían en instrumentos de manipulación política, pienso que la mayoría de los problemas éticos asociados a la inteligencia artificial no son predecibles y se irán definiendo según vayamos dando uso a esas nuevas tecnologías. Considero así más útil discutir problemas que ya han surgido y buscarles solución y esperar a que los nuevos problemas empiecen a cobrar sentido antes de desarrollar metodologías para tratar con ellos.

Uno de los problemas más claros y acuciantes ahora mismo es el de la injusticia algorítmica.

La base de datos perfecta no existe. Siempre hay errores de transcripción, correlaciones espurias o sesgos en la toma decisiones. Un ejemplo bien significativo es COMPAS, un programa en uso en Estados Unidos para ayudar a los jueces a automatizar la decisión de si una persona detenida ha de ir a prisión preventiva o puede salir bajo fianza.

La revista de investigación periodística ProPublica analizó COMPAS en detalle y declaró que el programa tendía a asignar una probabilidad mucho mayor de poder salir bajo fianza a las personas de raza blanca que a las de raza negra, asignando así, por ejemplo, una probabilidad de un riesgo bajo de reincidencia a un hombre de raza blanca que ya había cometido varios robos a mano armada y, en cambio, asignarle la máxima probabilidad de reincidencia a un joven negro que solo tenía en su haber delitos menores.

Las razones de este posible sesgo son variadas. Pero si la base de datos captura realmente los criterios que el sistema judicial americano usa para decidir sobre la libertad bajo fianza, es forzoso admitir que se trata de un sistema racista.

Observemos que no hay soluciones fáciles, como borrar de la ficha la información sobre la raza de la persona. Si los jueces que tomaron las decisiones previas que el algoritmo usa para aprender utilizaron el dato de origen étnico como criterio –ya fuera consciente o inconscientemente–, el programa puede reconstruir la categoría “etnicidad” a partir de un proxy como el barrio en el que vive esa persona más su nombre y apellido.

Paradójicamente, situaciones como la generada por COMPAS pueden ser un poderoso instrumento para hacer que las decisiones en temas sociales clave sean más justas. Después de todo, es mucho más fácil descubrir una decisión sesgada en un algoritmo que en una persona. Y, lo más importante, es harto más fácil cambiar un algoritmo para evitar injusticias que la mentalidad de una jueza o un juez. En nuestro horizonte cercano tenemos así una nueva profesión, el auditor ético, que examina sistemas de toma de decisiones para establecer si los resultados son realmente justos.

Pero ello no nos debería llevar a utopías al estilo Kurzweil donde cedemos nuestras decisiones más importantes a la supuesta sabiduría imparcial de la máquina.

Para establecer si una decisión es justa o injusta, recurrir a regularidades estadísticas es insuficiente. Necesitamos explicitar las razones de la decisión. Es vital asegurarnos de que hay humanos al final de la cadena de decisiones y que pueden detallar criterios racionales de por qué se ha tomado esa decisión y no otra.

Debemos ver así a los algoritmos de aprendizaje automático como herramientas útiles para establecer regularidades y descubrir sesgos. Y entender que la decisión de suplantar mentes humanas por máquinas no es tecnológica, sino política.

Frente al hecho de que ya hay algoritmos de aprendizaje automático capaces de detectar tumores a partir de una radiografía con una fiabilidad mayor que un humano, hay dos posibles vías: despedir a los radiólogos y sustituirlos por máquinas consiguiendo así un dudoso recorte de gastos en la Seguridad Social o equipar a nuestros radiólogos con esos algoritmos para que así puedan dedicar su tiempo a investigar y mejorar técnicas de detección contra el cáncer, liberándolos de la tarea rutinaria de revisar radiografías en busca de tumores.

Se trata de una decisión política, basada en una comprensión correcta de las ventajas y defectos de la inteligencia artificial que ponga la calidad de vida y la justicia por encima de otras consideraciones.

 

Con información de Revista Telos

https://telos.fundaciontelefonica.com/telos-113-analisis-inteligencia-artificial-y-la-busqueda-de-una-sociedad-mas-justa/

Imagen tomada de Revista Telos

https://telos.fundaciontelefonica.com/telos-113-analisis-inteligencia-artificial-y-la-busqueda-de-una-sociedad-mas-justa/


Próximos Eventos