Los humanos, por efecto de la evolución somos animales bastante patosos en las habilidades. Necesitamos un aprendizaje largo y doloroso para resolver problemas muy específicos como tocar la guitarra o hacer volteretas. Sin embargo, somos seres especializados en la inteligencia transversal o general. Entendemos rápidamente los chistes, conectamos informaciones de naturaleza distante, como las metáforas, y resolvemos problemas en entornos muy abiertos. Las inteligencias artificiales (y el uso del plural es importante), como las animales, son mucho más rápidas en el aprendizaje de habilidades especiales. Lo que llamamos "aprendizaje profundo" tiene que ver con la capacidad de captar patrones a muchísima más velocidad que los humanos, y producir resultados eficientes. Pero ni los animales ni las inteligencias artificiales son buenos en resolver problemas en entornos que exigen conectar problemas.
En sus inicios, la inteligencia artificial como investigación trataba de capturar esta característica humana mediante la conversión del conocimiento humano en procedimientos bien articulados. Los filósofos dan el nombre de GOFAI (
Good old fashion artificial intelligence) a esta línea que trataba de imitar a nuestra mente cultural captando conceptos, planes, guiones y esquemas de acción. En los años noventa surgió otra línea que prescindía de los humanos, tan lentos y complejos, y aprendía directamente de los datos del entorno. Se ha producido una enorme cantidad de dispositivos que aprenden muy rápidamente de los datos. Pero que tienen enormes limitaciones, como los accidentes del
Boeing 737 han demostrado, cuando las inteligencias artificiales no son capaces de correlacionar datos de naturaleza heterogénea.
El psicólogo
Gary Marcus ha planteado en un reciente libro este problema que no es menor (puede costarle a muchas empresas su existencia) y aboga por volver a una vieja línea de la inteligencia artificial: comenzar a aprender de la inteligencia humana, lenta, premiosa, llena de contradicciones, pero capaz de conectar transversalmente conocimientos directos, antes que confiar ciegamente, como el conductor de Tesla, en que sistemas diseñados para propósitos bien definidos y en entornos casi artificiales pueden resolver la complejidad de la vida.
Quizás es el tiempo de transformar las preguntas y generar estrategias de investigación, que deberían formar parte de las políticas públicas, que vayan en la trayectoria de acomodar las inteligencias artificiales a la complejidad de la vida, en la que los humanos somos animales bastante eficientes, antes que en acomodarnos a entornos artificiales que limitan la complejidad, y que los griegos ya entrevieron en su mito del Lecho de Procusto, que cortaba los cuerpos para que cupieran en su cama artificial.
Fernando Broncano,
Los fracasos de la inteligencia artificial ..., El Confidencial 05/10/2019
[https:]]