Como dijo Arthur Clarke en los años sesenta: “Cualquier tecnología lo suficientemente avanzada no puede distinguirse de la magia”. En
inteligencia artificial (IA) ocurre exactamente lo mismo. Parece que su potencial no tiene límites, pero en realidad la IA permanece atascada desde hace más de 50 años en una cuestión fundamental: ¿cómo dotar de sentido común a las máquinas? Esta es una cuestión crucial si queremos lograr inteligencias artificiales de tipo general indistinguibles de la inteligencia humana. Hasta hoy, los investigadores en IA no vemos ningún indicio que nos lleve a poder afirmar que este problema pueda ser resuelto.
¿Cuál es la situación real de la IA? Centrémonos en los espectaculares resultados obtenidos recientemente con lo que se conoce como
deep learning (aprendizaje profundo), que han permitido que un
software llamado AlphaZero haya conseguido, después de jugar contra sí mismo durante unas horas, aprender a jugar a Go y al ajedrez a unos niveles nunca antes alcanzados, superando con creces a los mejores jugadores humanos y también a los mejores jugadores
software (que en ajedrez ya habían vencido hace tiempo a los mejores jugadores humanos). Pues bien, estos sistemas de aprendizaje profundo son sumamente limitados ya que únicamente son capaces de aprender a reconocer patrones analizando enormes cantidades de datos.
No es exagerado afirmar que, de hecho, no aprenden realmente nada en el sentido humano de lo que entendemos por aprender. Es decir que en realidad no saben nada nuevo después de haber sido entrenados para adquirir una competencia. Prueba de ello es lo que se conoce como “olvido catastrófico”, que significa que los sistemas de aprendizaje profundo pierden todo lo aprendido a partir del instante en que se les enseña a algo nuevo.Por ejemplo, si después de haber “aprendido” a jugar a
Go entrenamos a un sistema de aprendizaje profundo a diferenciar entre gatos y perros mostrándole millones de imágenes de ambos, aprenderá perfectamente a distinguirlos pero será incapaz de volver a jugar a Go. Habría que volver a entrenarlo para que de nuevo “aprendiera a jugar a Go” y esto provocaría que a continuación sería incapaz de distinguir los gatos de los perros.El excesivo antropomorfismo creo que es el motivo por el que la sociedad tiene en gran medida una
percepción errónea de lo que es la IA. Cuando nos informan de logros espectaculares de una IA específica en una competencia concreta, como el caso de AlphaZero, tendemos a generalizar y atribuimos a la IA la capacidad de hacer prácticamente cualquier cosa que hacemos los seres humanos y hacerlo mucho mejor. En otras palabras, creemos que la IA no tiene límites cuando de hecho es extremadamente limitada y, lo que es más importante, no tiene casi nada que ver con la inteligencia humana.Es cierto que la inteligencia humana es el referente principal de cara a alcanzar el objetivo último de la IA, es decir, una IA fuerte y general. Pero en mi opinión, por muy sofisticada que llegue a ser la IA siempre será distinta de la humana, ya que el desarrollo mental que requiere toda inteligencia compleja depende de las interacciones con el entorno y estas interacciones dependen a su vez del cuerpo, en particular del sistema perceptivo y del sistema motor. Esto, sumado al hecho de que las máquinas muy probablemente no seguirán procesos de socialización y culturización, incide todavía más en que, por muy sofisticadas que lleguen a ser, las máquinas tendrán una inteligencia distinta a la nuestra.
Ramón López de Mántaras,
Máquinas listas, pero sin sentido común, El País 19/03/2018
[https:]]