THINKING THINGS THROUGH
AN INTRODUCTION TO PHILOSOPHICAL ISSUES AND ACHIEVEMENTS
Clark Glymour. MIT Press; 2.a edición, 2015.
Prueba, demostración, refutación, contrastación empírica, generalización, verdad, falsedad, probabilidad y causalidad pertenecen a esa gavilla de conceptos indisociables de cualquier investigación y de la ciencia resultante. Constituyen el núcleo de la metaciencia. En particular, causalidad y probabilidad son las dos ideas unificadoras del método científico moderno. Thinking things throug. An introduction to philosophical issues and achievements, el libro de referencia, amplía ese horizonte y plantea la situación contemporánea de cuestiones centrales del pensamiento filosófico que se reflejan en lógica, estadística, teoría de la decisión, ciencia de la computación y ciencia de la cognición.
Lo que uno piensa sobre la estructura del mundo tiene mucho que ver con lo que piensa sobre cómo ha de proceder la investigación, y a la inversa. Todos esos temas implican, a su vez, reflexiones sobre la mente, pues es la mente la que conoce. Hay, en primer lugar, muchas cuestiones que no se abordan en física ni en psicología. ¿Cómo podemos conocer que existen partículas tan pequeñas que escapan a nuestra detección? ¿En qué consiste una explicación científica? ¿Cómo sabemos que el proceso de la ciencia nos lleva a la verdad, sea esta lo que sea? ¿Qué es la verdad? ¿Cómo sabemos que hay otras mentes? ¿Qué hechos determinan si una persona en un momento dado es la misma persona en otro momento del tiempo? ¿Cuáles son los límites del conocimiento? ¿Qué es una demostración o prueba?
La ciencia de la computación se creó con los resultados de más de 2000 años de empeño en responder a una cuestión sencilla: ¿en qué consiste una demostración o una prueba? Una rama de la estadística moderna, la estadística de Bayes, emergió en busca de una respuesta a la pregunta: ¿qué es una creencia racional? La teoría de la toma de decisiones racionales, nuclear en la economía moderna, tiene el mismo origen. La ciencia cognitiva moderna, que se propone estudiar la mente humana a través de experimentos y con el auxilio de modelos de ordenador, de la conducta y del pensamiento humanos, constituye el resultado de unir una tradición filosófica de especulación sobre la estructura de la mente con los frutos de la inquisición filosófica sobre la naturaleza de la prueba.
Hay muchas formas de razonar, de argumentar. Unas más rigurosas y convincentes que otras. Los argumentos deductivos correctos muestran que, si las premisas son verdaderas, también lo será la conclusión. Son, además, argumentos válidos. El paradigma del razonamiento deductivo es la matemática. En ella se espejan los demás, con la garantía de que una conclusión será cierta si las premisas lo son. Además, la posibilidad de un razonamiento deductivo debe vincularse al lenguaje y a la estructura del mundo. El razonamiento deductivo se aplica en todo tipo de ciencia natural, en todo tipo de ciencia social y en todo tipo de ciencia aplicada.
Hay formas de razonamiento distintas del deductivo. A veces habrá que aceptar una conclusión porque se presenta como la mejor explicación posible de un fenómeno dado; en otras ocasiones deberemos admitir la conclusión que ofrece una analogía con algo que sabemos que es cierto; otras, nos apoyaremos en muestreos estadísticos de grandes poblaciones. A todas esas formas de razonamiento las llamamos inductivas. En un razonamiento inductivo, las premisas, o supuestos, no implican necesariamente la conclusión. A lo largo de 2500 años, la filosofía ha buscado respuesta a las preguntas sobre cómo podemos determinar si un razonamiento que procede de ciertas premisas y llega a una conclusión es un argumento válido; cómo podemos establecer si una conclusión viene necesariamente exigida por un determinado conjunto de premisas; y qué rasgos de la estructura del mundo, de la estructura del lenguaje y de la relación entre palabras, pensamientos y cosas hacen posible un razonamiento.
Todo empezó, sistemáticamente, con Aristóteles (384-322 a.C.). Pero ¿qué conocía Aristóteles? ¿En qué situación se encontraba el saber en torno al año 400 a.C.? Se dominaban ciertas artes prácticas: forja, carpintería, cantería, manufactura textil, elaboración de tintes, ganadería, pesca y agricultura, así como principios de navegación, arquitectura e ingeniería. Se manejaba la geometría y la teoría de números. Se explotaban leyes de la mecánica y la hidráulica, aunque la astronomía era la rama más desarrollada de las ciencias físicas. Una astronomía de las posiciones de las estrellas, los planetas y el Sol, basada en la observación directa, sin aparatos o con instrumentos muy simples, ciencia necesaria para la navegación y la religión, avanzó de la mano de la geometría. Se difundieron conocimientos de biología y medicina. Se avanzaron teorías sobre la estructura del universo y de la propia materia.
En ese marco, Aristóteles desarrolló un sistema ético, una ciencia de la biología, una cosmología, una dinámica y una teoría de la constitución de la materia. Aristóteles produjo también algo que resultó ser más importante que las aportaciones científicas: un método de investigación científica. Describió la naturaleza de la explicación científica, la demostración, la fundamentación empírica y la prueba. La lógica de Aristóteles atañe a sentencias, enunciados que tienen una estructura simple que consta de un cuantificador, un sujeto y un predicado. La forma característica de inferencia en la lógica aristotélica es el silogismo, que consta de un par de enunciados o premisas y un tercer enunciado que es la conclusión.
Aristóteles fue superado en sus aportaciones científicas. En torno al año 100 d.C., Claudio Ptolomeo desarrolló una teoría sobre el movimiento de los planetas mucho más detallada y precisa. Ptolomeo contribuyó a la óptica, rama en la que destacaron de manera especial los científicos medievales. Arquímedes aportó contribuciones a la física que resistieron el paso del tiempo. Los eruditos medievales desarrollaron una teoría del movimiento que mejoraba la aristotélica. Pese a tales limitaciones, la concepción aristotélica del método científico perduró hasta el siglo XVIII. La ciencia, en su mente, ha de constituir un sistema de enunciados de conocimiento. Los enunciados fundamentales, o axiomas, se emplean para deducir enunciados menos fundamentales. La explicación científica de un fenómeno general del mundo consiste en un argumento válido que presenta una descripción de ese fenómeno general como su conclusión y que posee enunciados fundamentales verdaderos como premisas. Cada ciencia tiene su propio sistema axiomático.
Aristóteles fue discípulo de Platón (428-348 a.C.). Ambos compartieron la misma idea sobre la estructura lógica del conocimiento. A Platón le importa la naturaleza de las cosas; su cuestión paradigmática: ¿qué es X?, donde X podría simbolizar un rasgo moral, un individuo, un objeto material o una entidad matemática. Los Diálogos planteaban ese tipo de cuestiones; qué sea la virtud es el asunto tratado en el Menón, por ejemplo. Para Platón, la experiencia no aportaba la certeza que se requiere en el conocimiento, por muy atenta que sea la observación. Todo lo que conocemos ya lo conocíamos; lo que a veces reputamos aprendizaje de la experiencia no es más que un proceso de reconocimiento, de rememoración. Para Platón, el ejemplo más claro de conocimiento es el que nos ofrecen la geometría y la relación entre los números.
Un primer ejemplo sólido de prueba matemática nos lo ofrece Euclides (ca.325 a.C.-265 a.C.). En sus Elementos, Euclides desarrolló la geometría como un sistema axiomático. Tras una secuencia de definiciones, expone una serie de supuestos, algunos de los cuales carecen de relación con la geometría (las «nociones comunes»), en tanto que otros sí encierran un contenido geométrico específico (los «postulados»). De las nociones comunes y de los postulados se deducen los teoremas de la geometría. Para Euclides, esos supuestos eran suficientes para urgir la necesidad, es decir, implicar, todas las verdades de la geometría. Entre las definiciones, recuérdense: punto es lo que no tiene partes, la línea consta solo de longitud, los extremos de las líneas son puntos, línea recta es la distancia más corta entre dos puntos, una superficie tiene longitud y anchura, y los extremos de una superficie son líneas. Entre las nociones comunes, mencionemos: dos cosas iguales a una tercera son iguales entre sí, si se añade lo mismo a dos cosas iguales el resultado es otra igualdad, si se sustrae lo mismo a dos cosas iguales el resto es otra igualdad, o el todo es mayor que la parte. Entre los postulados, citemos: se puede trazar siempre una línea recta entre dos puntos, podemos dibujar un círculo con cualquier centro y radio, todos los ángulos rectos son iguales entre sí, etcétera.
Las paradojas dificultan la argumentación demostrativa. Las paradojas sobre el infinito, por ejemplo, se remontan a Zenón de Elea, del siglo V antes de nuestra era. Algunas de las paradojas de Zenón no se resolvieron hasta que las abordaron los matemáticos del siglo XIX. En cada caso, la paradoja se ofrece como prueba de algo absurdo. La paradoja de Aquiles y la tortuga es muy sencilla. Ambos se proponen echar una carrera. La tortuga avanza con una velocidad v y se conviene en que Aquiles inicie su carrera cuando la tortuga haya recorrido cierta distancia, d. Para alcanzar a la tortuga, Aquiles debe recorrer primero la distanciad, lo que requerirá un tiempo t(d). Pero, en ese tiempo, la tortuga habrá andado una distancia v × t(d). Para alcanzar ahora a la tortuga, deberá Aquiles avanzar la distancia extra v × t(d). Entretanto, la tortuga habrá recorrido una distancia v × t(v × t(d)). Si proseguimos de ese modo, nunca llegará el momento en que Aquiles alcance a la tortuga.
El argumento de Zenón parece una prueba deductiva. Pero, puesto que la conclusión es falsa, sabemos que, o bien los supuestos del argumento son falsos, o bien debe haber una falacia escondida en el argumento. Existe una secuencia infinita de intervalos temporales en la que cada uno representa el tiempo que tarda Aquiles en llegar desde el punto en que se encuentra hasta el punto en que en ese mismo momento se halla la tortuga. Zenón concluye, a partir de ello, que Aquiles no podrá nunca alcanzar a la tortuga, y ahí es donde se esconde la falacia. Hoy estamos familiarizados con secuencias infinitas de cantidades positivas que suman una cantidad finita. La expansión decimal de la fracción 1/3, por ejemplo, es igual a 0,3 + 0,03 + 0,003 + 0,0003 + ..., donde la secuencia continúa hasta el infinito. Con la ayuda de la matemática moderna, diríamos que la secuencia de distancias entre Aquiles y la tortuga tiende a cero y que la suma de la secuencia de intervalos temporales converge a un número finito. Esa suma, cualquiera que sea, representa el tiempo requerido por Aquiles para alcanzar a la tortuga.
¿Puede un infinito ser mayor que otro? En el siglo XIX la cuestión desencadenó un torrente de lucubraciones. Decimos que un conjunto es mayor que otro cuando comparamos ambos elemento a elemento y uno consta de un número de elementos mayor que el otro. El conjunto K es mayor que el conjunto L si y solo si no existe una relación uno a uno entre los miembros de L y los de K, y K tiene miembros sin correspondencia en L. Dos conjuntos tienen el mismo tamaño si el primero no es mayor que el segundo y el segundo no es mayor que el primero. Cuando ninguno es mayor que otro, decimos que poseen la misma cardinalidad. Dos conjuntos tienen la misma cardinalidad si y solo si existe una relación uno a uno entre ellos. Para conjuntos finitos, la noción de cardinal es nuestra noción de tamaño del conjunto.
Hacia finales del siglo XIX surgían en Alemania una nueva lógica y nuevas concepciones de la prueba. Gottlob Frege (1848-1925) inventó una nueva aproximación a la matemática. Aritmética y geometría eran ciertas y podían ser conocidas solo por la razón porque la aritmética y la geometría se reducían a lógica, y la lógica es cierta y puede conocerse solo por la razón. De acuerdo con esa idea fregeana, conocida hoy por logicismo, las nociones de número, orden numérico, suma y producto pueden definirse en términos lógicos; con esas definiciones, las leyes básicas de la aritmética se tornan proposiciones lógicas que son necesariamente verdaderas.
La teoría lógica de Frege se fundaba en un análisis de la estructura lógica del lenguaje; su teoría de la prueba emplea solo aspectos gramaticales de las fórmulas en un lenguaje lógico. ¿Qué tipo de fórmulas? Las verdades lógicas: sentencias que son necesariamente verdaderas. Para ello, se requería una doctrina sobre el significado. El desarrollo de la misma llevaría a la teoría de modelos. Frege distinguía entre la referencia de una frase o sentencia y el sentido de la misma. Las frases «lucero del alba» y «estrella vespertina» se refieren al mismo objeto, el planeta Venus, pero tienen un sentido diferente. La referencia no determina el sentido, ni el sentido determina la referencia, pero dos expresiones que tengan el mismo sentido sí tendrán la misma referencia.
En el siglo XIX aparecieron, asimismo, las geometrías no euclídeas. Carl Gauss, uno de los descubridores de la primera geometría no euclídea, la consideraba una teoría empírica alternativa sobre el espacio. Gauss se esforzó infructuosamente en realizar una prueba que determinase si el espacio era euclídeo o no. El programa logicista comenzado por Frege fue continuado en el siglo XX por Bertrand Russell y Alfred North Whitehead, partidarios de reducir también la geometría a la lógica. La teoría lógica de Frege incluía lo que hoy denominamos teoría de conjuntos. Según la formulara Frege, la teoría resultó inconsistente para Russell.
Luis Alonso, Metaciencia, Investigación y Ciencia Marzo 2016