
Este artículo fue originalmente publicado por el autor en El Periódico Extremadura
Para alertarnos de cómo nos engañan a través de la tecnología, el filósofo y editor Andrea Colamedici ha publicado un libro en el que engaña a sus lectores usando la tecnología. El libro se llama «Hipnocracia», está firmado por un autor de pega (un tal Jianwei Xun, que no existe más que virtualmente) y ha sido escrito con ayuda de dos sistemas de inteligencia artificial.
¿Se puede educar contra el engaño engañando? Por supuesto. Cuando la forma de la fábula «dice» lo mismo que sus personajes (o lo contrario, de forma irónica), la moraleja es doblemente efectiva. El engaño esclarecedor de Colamedici contribuye además a despertarnos a esa forma superior de consciencia por la que, más allá de darnos cuenta de lo que nos cuentan, nos percatamos de la entidad fabuladora e igualmente manipulable del propio contar. Es aquello de que «el medio es (también) el mensaje», como diría McLuhan.
Pero es que además: ¿nos engañan realmente cuando nos venden el libro de un autor ficticio o escrito con inteligencia artificial? ¿Por qué? ¿Cuándo no es un autor (o cualquiera de nosotros) una ficción auto inventada? ¿O en qué se diferencian realmente una creación humana de la de una inteligencia artificial? Se me dirá que en el caso del autor «real» (por muy «personaje» que sea) y de la creación humana (por mecánicamente que se haga) interviene una consciencia, esto es, un sujeto con intenciones, cosa que no ocurre con las ficciones puras o con la inteligencia artificial. ¿Pero es esto cierto?
Sobre la conciencia hay muchas teorías – la mayoría filosóficas, claro, pues fenómenos como la subjetividad o la intencionalidad no son observables –, pero hay algunas que resultan incompatibles con la ingenua distinción que solemos hacer entre humanos, máquinas y seres de ficción. Así, para algunos, la conciencia y la identidad humana son un producto virtual del lenguaje y del proceso de socialización por el que nos acostumbramos a replicar interiormente el diálogo social que mantenemos, desde pequeños, con quienes nos enseñan – o «programan» –. Ahora bien, ¿qué impide qué sistemas de IA puestos a dialogar entre sí o con personas sean capaces de replicar ese diálogo por sí mismos, generando virtualmente un centro de gravedad narrativa al que llamar «yo» o «tú» y a los que el propio sistema adscriba intencionalidad o agencia?
Otros filósofos y teóricos de la mente objetarían que la subjetividad consciente, además de un producto virtual del lenguaje, es un modo peculiar de «sentirse» el organismo a sí mismo, pero esto topa con el problema, no menor, de saber en qué consiste toda esa complicada fenomenología mental que llamamos «sensaciones» y «emociones». Si la reducimos a fenómeno neuroquímico, no se ve qué es lo que impide que un proceso físico (tal como lo es una máquina) se vuelva lo suficientemente complejo como para generar procesos químicos. Y si introducimos factores no físicos (psicológicos, culturales…), volvemos al lenguaje y a las identidades narrativas, dominio en el que las máquinas de IA parecen ser cada vez más competentes. ¿Lo serán hasta el punto de pasar de «parecer» a «serlo»? Seguiremos discutiéndolo. Tal vez con ellas, como parece que ha hecho ejemplarmente este supuesto Colamedici.