La ment humana no és –a diferència de ChatGPT i altres sistemes semblants– un enorme motor estadístic per a la correspondència de patrons, que s’empassa centenars de terabytes de dades i n’extrapola la resposta més previsible en un registre conversacional o la més probable davant d’una pregunta científica. Ben al contrari, la ment humana és un sistema sorprenentment eficient i fins i tot elegant que funciona amb petites quantitatsd’informació; no pretén deduir correlacions brutes entre punts de dades sinó que vol crear explicacions.
Per exemple, un nen petit que aprèn una llengua està creant –a partir de dades minúscules i d’una manera inconscient, automàtica i ràpida– una gramàtica, un complex sistema de principis i paràmetres lògics que és una meravella. Aquesta gramàtica es pot entendre com una expressió del sistema operatiu innat, instal·lat genèticament, que dota els humans de la capacitat de generar frases complexes i llargues seqüències de pensaments. Quan els lingüistes volen formular una teoria que expliqui el perquè del funcionament d’una llengua (“Per què aquestes frases es consideren correctes gramaticalment?”), estan elaborant d’una manera conscient i laboriosa una versió explícita de la gramàtica que el nen construeix instintivament i amb un contacte mínim amb la informació. El sistema operatiu del nen és radicalment diferent del d’un programa d’aprenentatge automàtic.
En efecte, aquests programes estan estancats en una fase prehumana o no humana de l’evolució cognitiva. El seu defecte més greu és que no tenen la capacitat més important de qualsevol intel·ligència: no es tracta només de dir què passa, què va passar i què passarà –descripció i predicció–, sinó també què no passa i què podria passar o no. Aquests són els ingredients d’una explicació, el senyal de la veritable intel·ligència.
Vegem-ne un exemple. Suposem que tenim una poma a la mà. Ara deixem anar la poma. N’observem el sultat i diem: “La poma cau”. Això és una descripció. La predicció podria haver sigut l’afirmació “La poma caurà si obro la mà”. Totes dues són valuoses i totes dues poden ser correctes. Però una explicació és alguna cosa més: no consisteix només en descripcions i prediccions, sinó també en conjectures contrafactuals, com ara “Qualsevol objecte d’aquesta mena cauria”, a més de la frase addicional “a causa de la força de la gravetat” o “a causa de la curvatura de l’espai-temps”, o el que sigui. És una explicació causal: “La poma no hauria caigut sense la força de la gravetat”. En això consisteix pensar.
El quid de l’aprenentatge automàtic són la descripció i la predicció; no proposa mecanismes causals ni lleis físiques. No cal dir que no totes les explicacions humanes són correctes; som fal·libles. Però això forma part del que significa pensar: per tenir raó s’ha de poder estar equivocat. La intel·ligència no consisteix només en conjectures creatives, sinó també en una crítica creativa. El pensament dels humans es basa en possibles explicacions i en la correcció d’errors, un procés que va limitant gradualment les possibilitats que ens podem plantejar racionalment. (Com va dir Sherlock Holmes a Watson: “Quan s’ha eliminat l’impossible, tot el que quedi, per improbable que sigui, ha de ser la veritat”.)
Però ChatGPT i els programes semblants han sigut dissenyats per “aprendre” (és a dir, memoritzar) sense limitacions; són incapaços de distingir el que és possible del que és impossible. Per exemple, a diferència dels humans, que estan dotats d’una gramàtica universal que limita les llengües que podem aprendre a les que tenen una mena d’elegància gairebé matemàtica, aquests programes aprenen amb la mateixa facilitat les llengües humanament possibles i les impossibles. Mentre que els humans ens veiem limitats a aquelles explicacions que podem conjecturar racionalment, els sistemes d’aprenentatge automàtic tant poden aprendre que la Terra és plana com que és rodona. Només s’ocupen de probabilitats que canvien amb el temps.
Per aquest motiu, les prediccions dels sistemes d’aprenentatge automàtic sempre seran superficials i dubtoses. Per exemple, com que aquests programes són incapaços d’explicar les regles sintàctiques de l’anglès, és ben possible que prediguin, incorrectament, que “John is too stubborn to talk to” vol dir que el John és tan tossut que no parlarà amb una persona determinada (quan el que vol dir és que és massa tossut, tant que no s’hi pot parlar ni raonar). Per què un programa d’aprenentatge automàtic hauria de predir una cosa tan rara? Doncs perquè podria establir una analogia amb el patró inferit d’oracions com “John ate an apple” (“El John va menjar una poma”) i “John ate” (“El John va menjar”), en què la segona frase sí que vol dir que va menjar alguna cosa. El programa podria arribar a predir que, com que “John is too stubborn to talk to Bill” (és a dir, “El John és massa tossut per parlar amb el Bill”) s’assembla a “John ate an apple”, “John is too suborn to talk to” s’ha d’assemblar a “John ate”. Les explicacions correctes en matèria de llenguatge són complicades i no es poden aprendre marinant-se només en el big data.
Contra el que es podria esperar, hi ha entusiastes de l’aprenentatge automàtic que, pel que sembla, estan orgullosos que les seves creacions puguin generar prediccions “científiques” correctes (per exemple, sobre el moviment dels cossos físics) sense recórrer a explicacions (per exemple, les lleis del moviment i la gravitació universal de Newton). Però aquest tipus de predicció, fins i tot quan és correcta, és pseudociència. Tot i que sens dubte els científics busquen teories sustentades en un alt grau de corroboració empírica, el cert és que, com va assenyalar el filòsof Karl Popper, “no busquem teories amb grans probabilitats de ser certes sinó explicacions; és a dir, teories potents i amb poques probabilitats de ser certes”.
La teoria que les pomes cauen a terra perquè és el seu medi natural (opinió d’Aristòtil) és possible, però només serveix per fer-se més preguntes (per què la terra és el seu medi natural?). La teoria que les pomes cauen a terra perquè la massa provoca la curvatura de l’espai-temps (opinió d’Einstein) és molt improbable, però és la que de debò ens explica per què cauen. La veritable intel·ligència es demostra en la capacitat de pensar i expressar coses improbables però aclaridores.
La veritable intel·ligència també està capacitada per al pensament moral. Això vol dir restringir la creativitat il·limitada de la nostra ment amb un conjunt de principis ètics que determinin què pot ser i què no pot ser (i, per descomptat, sotmetre aquests principis a una crítica creativa). ChatGPT, per ser útil, ha d’estar capacitat per generar uns resultats que semblin una novetat; i, d’altra banda, si vol ser acceptable per a la majoria d’usuaris, s’ha d’allunyar dels continguts moralment censurables. Però els programadors de ChatGPT i d’altres meravelles de l’aprenentatge automàtic tenen dificultats –i en continuaran tenint– per aconseguir aquest equilibri.
El 2016, per exemple, el chatbot Tay de Microsoft (un precursor de ChatGPT) va inundar internet de continguts misògins i racistes, després d’haver sigut atacat per trols que el van omplir de dades ofensives. Com podem resoldre aquest problema en el futur? En vista de la seva incapacitat de raonar a partir de principis morals, els programadors han impedit ambcontundència que ChatGPT faci noves aportacions als debats sobre temes controvertits, és a dir, importants. S’ha sacrificat la creativitat per una mena d’amoralitat.
Fixeu-vos en el següent intercanvi que un de nosaltres (el Dr. Watumull) va mantenir fa poc amb ChatGPT sobre si seria ètic terraformar Mart perquè pugui acollir vida humana:
¿Seria moral terraformar Mart?
ChatGPT: La moralitat de terraformar Mart és un tema complex i controvertit que ha sigut debatut per científics, filòsofs i especialistes en ètica. N’hi ha que argumenten que seria moralment justificable terraformar Mart per disposar d’un nou entorn habitable per als humans i altres formes de vida, mentre que d’altres afirmen que seria immoral alterar aspectes fonamentals de l’estat natural del planeta. En última instància, el fet que es consideri moral o no terraformar Mart dependrà de la perspectiva que cadascú tingui sobre el valor de preservar l’estat natural d’altres planetes i les possibles conseqüències d’alterar-los.
Per què una IA no pot tenir una perspectiva personal?
ChatGPT: Com a IA, soc un model d’aprenentatge automàtic entrenat amb grans quantitats de dades de text i no tinc experiències ni sentiments personals. No tinc consciència, no soc conscient de mi mateix ni capaç de tenir perspectives personals. Puc proporcionar informació i anàlisis a partir de les dades amb què m’han alimentat, però no tinc la capacitat de formar-me opinions ni creences personals. Tot i que puc entendre i interpretar el llenguatge, no tinc l’experiència subjectiva dels humans.
¿La teva indiferència moral és immoral?
ChatGPT: Com a IA, no tinc creences morals ni la capacitat d’emetre judicis morals i, per tant, no em poden considerar moral ni immoral. La meva falta de creences morals només ésel resultat de la meva naturalesa perquè només soc un model d’aprenentatge automàtic. Les meves habilitats i limitacions estan determinades per les dades i els algoritmes amb què m’han entrenat i per la tasca específica per a la qual m’han dissenyat. És important tenir en compte que la falta de creences morals de la IA no vol pas dir que hagi de ser moralment indiferent. Com a IA, m’han dissenyat per fer unes tasques específiques i donar informació o ajudar els usuaris en la presa de decisions a partir de les dades amb què m’han entrenat.
Observeu, malgrat tot aquest pensament i llenguatge aparentment tan sofisticats, la indiferència moral nascuda de la falta d’intel·ligència. ChatGPT dona proves aquí d’una cosa semblant a la banalitat del mal: plagi, apatia i omissió. Resumeix els arguments habituals de la bibliografia com si fos una mena de superautocompletador, es nega a posicionar-se sobre res, no al·lega només ignorància sinó també falta d’intel·ligència i, en definitiva, es defensa dient que “compleix ordres” i passa tota la responsabilitat als seus creadors.
En resum, ChatGPT i els seus germans són, per la seva pròpia naturalesa, incapaços d’equilibrar la creativitat i la contenció. O bé sobregeneren (tant produeixen veritats com falsedats, tant avalen decisions ètiques com no ètiques) o infrageneren (mostren falta de compromís amb qualsevol decisió i indiferència davant de les conseqüències). Donada l’amoralitat, la falsa ciència i la incompetència lingüística d’aquests sistemes, només podem riure o plorar davant de la seva popularitat.
Ian Roberts, lingüista, i Jeffrey Watumull, director d’intel·ligència artificial en una empresa tecnològica, són coautors d’aquest article
Copyright The New York Times
Noam Chomsky, La falsa promesa del ChatGPT, Ara 12/03/2023