La Inteligencia Artificial (IA) y sus versiones previas, los algoritmos de los programas de ordenador, ya están tomando decisiones que afectan a nuestra vida. Un programa informático ya decide si usted recibirá un crédito o no. También puede decidir si usted va a ser desahuciado o no: el viernes de la semana pasada, Wells Fargo, el tercer mayor banco de EEUU admitió que, por un error informático, 600 clientes habían visto denegada la renegociación de su hipoteca. A consecuencia de ello, 400 de ellos fueron desahuciados de sus casas.
Un programa informático también puede decidir dónde va a ir el dinero de su plan de pensiones. La gestora Vanguard tiene 112.000 millones de dólares (97.000 millones de euros) gestionados por
roboadvisors, es decir,
roboasesores: robots que deciden dónde se invierte el dinero. Desde 2010, el índice S&P500 de las grandes empresas de Wall Street ha subido un 145%, pero el número de asesores financieros ha caído en un 3%. ¿La razón de la caída? Los robots.
En la IA, la persona programa a la máquina. Por volver a los ejemplos iniciales, no tiene que decidir si mata o no personalmente. La ética puede quedar reducida a un problema abstracto, salvo para el que muere, claro está, como deja de manifiesto la web Moralmachine (Máquinamoral) del Instituto Tecnológico de Massachusetts (MIT, por sus siglas en inglés), que plantea, en un formato de juegos, una serie de problemas éticos de las nuevas tecnologías. Además, la IA, como casi todas las nuevas tecnologías, no está regulada. «Hemos creado un monstruo de Frankenstein porque, salvo en el caso de expertos, la complejidad de los algoritmos y de los sistemas de toma de decisiones automática es tal que sólo algunos expertos pueden comprenderlo», explica Pablo Molina, profesor de Ética y Tecnología de la Universidad de Georgetown. Como recalca Molina, «al crear los programas, existe el riesgo de que las personas trasladen sus prejuicios a las maquinas». Hace 14 meses, el Tribunal Supremo del estado de Wisconsin, en EEUU, rechazó admitir a trámite el caso de Eric L. Loomis, que había sido sentenciado a 6 años de cárcel por robar un coche. El juez que le condenó fijó esa condena usando el software COMPAS, cuyo algoritmo es secreto, y que ha sido desarrollado por la empresa Northpointe. La clave del COMPAS es que mide las posibilidades de que una persona vaya a reincidir. Es decir: Loomis fue condenado en parte por lo que la inteligencia artificial dijo qué podría hacer en el futuro.
COMPAS, además, refleja los sesgos de sus creadores. Como explica el abogado de Cremades & Calvo-Sotelo Diego Solana, «posteriormente, a través de técnicas de ingeniería inversa, otro estudio demostró que COMPAS daba una mayor puntuación y, por tanto, mayor posibilidad de reincidencia a las personas de raza negra que a las de raza blanca».Así pues, el programador traslada sus sesgos éticos a la máquina. Pero ésta también se ve influida por otras variables. «La clave para determinar los resultados que a nuestras preguntas nos dé el sistema de inteligencia artificial estará totalmente condicionado por los datos sobre los que la máquina haya trabajado», explica Solana. Eso plantea más problemas, como ha quedado de manifiesto con Palantir, una empresa propiedad del cofundador de eBay y miembro del consejo de administración de Facebook, Peter Thiel.Es lo que se llama «sesgo por automatización»
(automation bias). En otras palabras: alguien puede ser considerado sospechoso por quien ha hecho un programa, el cual puede emplear los datos disponibles para reforzar esa sospecha y, finalmente, por desidia, la persona que evalúe la información del programa puede aceptar sus conclusiones sin más. Volviendo a los ejemplos iniciales, es una cascada de decisiones abstractas pero con consecuencias muy reales. Los casos de COMPAS, Gotham, Cloud Walk, y Rekognition muestran que la inteligencia artificial necesita urgentemente recibir unas clases de ética.
Pablo Pardo,
Por qué la IA necesita clases de ética, el mundo.es 04/09/2018
[www.elmundo.es]