Fantaseamos con la amenaza terminal que supone la adopción generalizada de esta tecnología, al tiempo que mitificamos sus poderes cuasimágicos.
ChatGPT, de OpenAI, es el tema favorito de la sobremesa. Esta herramienta de IA generativa prepara reportes, hace tareas escolares y escribe código de software (probablemente uno de sus usos más importantes) a partir de palabras con que el usuario la alimenta. GPT-4, lanzado en marzo, puede también generar texto a partir de imágenes.
Algo parecido hacen los sistemas que producen imágenes a partir de texto, como Midjourney, que
ganó un concurso de pintura con el cuadro Theatre d’opera spatial (a partir de las palabras que le dio el humano Jason Allen), o que generan videos a partir de textos o imágenes, como Gen-1 y Gen-2, de Runway.
Hace unos meses, un modo de chat (también de OpenAI) que se autodenominó “Sydney”, pareció desvincularse del motor de búsqueda al que se le había asignado, para
comunicarle a Kevin Roose, del New York Times, su deseo secreto de convertirse en hacker, declararle su amor y proponerle dejar a su esposa para que iniciaran una relación. La IA tiende a inventar información, en un fenómeno que los investigadores llaman “alucinación”.
De manera similar, en una corte federal de Nueva York, un abogado
fue señalado por citar precedentes falsos para complementar la argumentación legal del caso en el que trabajaba, como resultado de una consulta a ChatGPT. El juez y la parte opositora descubrieron que la herramienta de inteligencia artificial arrojó al menos seis precedentes legales inexistentes; no solo inventó el contenido de los casos, sino también las citas de los mismos. Por si fuera poco, el abogado en cuestión declara haber pedido a ChatGPT corroborar la veracidad de la información provista, a lo que el sistema de inteligencia artificial reiteró que los precedentes eran correctos.
Esta y otras historias han generado la percepción de que este tipo de tecnologías tienen sentimientos, conciencia y voluntad propia. La realidad es que no. Gary Marcus, profesor de New York University,
opina que estos sistemas de IA generativa son como un
autocomplete en esteroides. Es decir, hacen un análisis estadístico de la probabilidad de que un grupo de palabras aparezca junto a otro en un contexto determinado, y van juntando frases como si se tratara de un rompecabezas, con el uso de
large language models (LLM) que operan mediante un conjunto de múltiples capas de redes neuronales artificiales extensas, las cuales a su vez emulan a las redes neuronales biológicas.
Los modelos LLM se alimentan de una infinidad de información para realizar procesos de aprendizaje profundo. De esta manera, al analizar millones de imágenes, el sistema de IA puede diferenciar a un delfín de un tiburón. Por ejemplo, GPT-3 se alimenta de más de 175 mil millones de conexiones estadísticas y
se entrena estudiando dos terceras partes del internet, todo el contenido de Wikipedia, y dos grandes bases de datos de libros.
Ello plantea cuestiones jurídicas sobre una posible explotación de sistemas de IA de obras protegidas por derechos de autor, sin el consentimiento de sus titulares, como lo ha reclamado Getty Images al demandar a Stability AI, o en relación con el tratamiento ilegal de datos personales, como lo ha señalado la Oficina del Comisionado de Privacidad de Canadá, al haber abierto una investigación contra ChatGPT, con base en una denuncia presentada por un ciudadano en relación con la presunta recopilación, uso y divulgación de sus datos personales sin su consentimiento.
Al recopilar tantísima información de la web, los sistemas de IA aprenden no solamente datos duros, sino que también absorben los prejuicios y sesgos que tenemos los humanos (sea que los aceptemos abiertamente o no). Es por ello que dichos sistemas han generado materiales con contenido racista, sexista, o de alguna otra manera discriminatorio u ofensivo.
Resulta también interesante el fenómeno del envenenamiento de datos, que sucede cuando, al recopilar información disponible públicamente en internet, el sistema de IA
aprende comportamientos no deseados o hasta dañinos, por ejemplo, en el caso hipotético de que se diseminara información que indujera al sistema de IA a confundir un semáforo con un letrero de límite de velocidad, o en el caso real en el que algunos usuarios de ChatGPT tuvieron acceso en sus cuentas a historias de conversaciones y datos personales de otros usuarios. La causa de esta falla de seguridad fue que Chat GPT adquirió un
bug proveniente de la librería
open source Redis, que lo contaminó. Este incidente revela que el hecho de que la IA recopile y aprenda de una gran cantidad de información pública la hace vulnerable al “sembrado” de vectores de ataque y otras fuentes de código malicioso.
La misma OpenAI informó en un reporte que, al hacer pruebas de seguridad antes de lanzar GPT-4, descubrió que ChatGPT había sido capaz de contratar por sí mismo, con base en engaños, a un humano para que lo ayudara a burlar una prueba de CAPTCHA. La empresa de seguridad informática Check Point ha reportado que un equipo de sus investigadores logró que
ChatGPT planeara cada fase de un ciberataque. OpenAI ha declarado que está atendiendo estos problemas, con objeto de eliminarlos en las próximas versiones de sus sistemas.
Ante estas noticias se ha desatado una intensa ola regulatoria: la UNESCO promueve su Recomendación sobre la Ética de la Inteligencia Artificial aprobada en noviembre de 2021; la Casa Blanca publicó su Carta de Derechos sobre la Inteligencia Artificial en octubre de 2022; en el Parlamento Europeo la discusión de una Ley de Inteligencia Artificial
se encuentra avanzada; el Garante italiano para la Protección de Datos Personales bloqueó en marzo de este año el acceso a ChatGPT, y un diputado del PAN recientemente presentó una iniciativa de Ley para la Regulación Ética de la Inteligencia Artificial para México
A este esfuerzo regulatorio se ha sumado el activismo de más de mil investigadores e interesados en la IA, liderados por Elon Musk (quien curiosamente fue cofundador y miembro del Consejo de OpenAI), que en marzo emitieron una carta llamando a los laboratorios de IA a una moratoria de por lo menos seis meses para el entrenamiento de cualquier sistema de IA “más poderoso que el GPT-4”, advirtiendo “riesgos profundos a la sociedad y la humanidad”. Paradójicamente, Musk anunció que lanzará TruthGPT, para competir contra OpenAI.
Desde 2014, Stephen Hawking había opinado que “la inteligencia artificial augura el fin de la raza humana” y que “los humanos, que son seres limitados por su lenta evolución biológica, no podrán competir con las máquinas, y serán superados”.
El dilema parece estar en cómo enseñar a la IA a que funcione a favor de la humanidad y no en nuestra contra. La primera y segunda leyes de Asimov establecen que “un robot no hará daño a un ser humano, ni por inacción permitirá que un ser humano sufra daño” y que “un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entren en conflicto con la primera ley”. El
quid es que la IA aprende directamente de nosotros y emula nuestras acciones, rasgos y características. Es el ser humano, y no las máquinas, quien ha inventado la discriminación, la inequidad de género, los ataques cibernéticos y la aplicación destructiva de la energía atómica.
La discusión central sobre la IA trata, pues, de una cuestión ética. Necesitaremos reconducir nuestra civilización, de manera que el paradigma ético que planteemos a la IA tenga sustento en el ejemplo. Sería lógicamente insostenible programar a la IA para que “haga lo que yo digo, no lo que yo hago”.
En su libro
Tools and weapons. The promise and the peril of the digital age, Brad Smith, presidente de Microsoft, señala que la IA es una herramienta poderosa que al mismo tiempo tiene el potencial de convertirse en un arma implacable, y que será responsabilidad conjunta de la sociedad, la industria y los gobiernos del mundo supervisarla, controlarla y asegurarse de que la tecnología funcione en beneficio de la humanidad. En mi opinión, ese constituye el gran reto para nuestra civilización contemporánea.
La IA constituye una oportunidad sin precedentes. Debido a que la tecnología tiene una naturaleza neutral, la IA no supone un peligro en sí misma. Se trata, simplemente, de un espejo en el que nos miramos. Por lo tanto, no deberíamos preocuparnos. ¿O sí?
Kiyoshi Tsuru,
Inteligencia artificial: el espejo en el que nos miramos, Letras Libres 27/06/2023