22384 temas (22192 sin leer) en 44 canales
Una reunión de antiguos alumnos me enfrentó recientemente al hecho de que el colegio, tal como lo recordamos, ya no es lo que solía ser. La memoria episódica —el sistema que nos permite recordar experiencias pasadas— no es una reproducción literal del pasado. Es propensa a errores, ilusiones y distorsiones, es delicada. Una frase memorable del antropólogo Marc Augé lo capta: “Los recuerdos son creados por el olvido como los contornos de la costa son creados por el mar”.
En una conversación con el psicólogo estadounidense Daniel Schacter, exdirector del departamento de Psicología de la Universidad de Harvard, destacado investigador de la memoria humana y autor de Los siete pecados de la memoria: Cómo olvida y recuerda la mente (Ariel), me explica: “La memoria se reconfigura a partir del presente, es decir, que los acontecimientos y experiencias pasadas se reinterpretan en función del presente. Este recuerdo es a su vez transformador de la realidad social, y promueve nuevas alternativas para interpretar el aquí y el ahora”. La dirección de nuestros recuerdos no es del pasado hacia el presente, sino, por el contrario, del presente hacia el pasado; quiénes somos ahora afecta cómo percibimos el pasado, cómo lo moldeamos, lo remodelamos o incluso lo inventamos. Sin embargo, el pasado nunca es completamente mudo y, sí, informa el presente. En su laboratorio, Schacter y sus colegas han explorado la idea de que la memoria desempeña un papel fundamental no solo al permitirnos acceder a nuestro pasado, sino también para imaginar o simular eventos que podrían ocurrir en nuestro futuro, y propone que “el papel de la memoria en la simulación de eventos futuros es esencial para comprender la naturaleza constructiva de la memoria”.
Ese fin de semana algunos de nosotros viajamos para coincidir con nuestros compañeros y embarcarnos en un viaje mental en el tiempo. En cada reunión anterior el encuentro había manifestado un tono diferente, esta vez hubo algo más conmovedor y sombrío; reflexionamos sobre quiénes vinieron y quiénes no, pasamos lista. Se hizo evidente lo complicado que es volver y afrontar el tipo de recuerdos como los que se animaban ante la presencia del grupo. El contexto deshace las décadas que han transcurrido —hay algo en el estar con todos ellos que evoca la memoria de quiénes fuimos, cada uno de nosotros—. Al intercambiar historias intentamos tender un puente, algún tipo de significado entre esos adolescentes irrepetibles, y lo que ha sido de nosotros en cada una de nuestras iteraciones posteriores. Puede que en todo esto haya un trasfondo competitivo, como si estuviéramos comparando notas, pero sobre todo es un deseo de conectar —el concurso terminó hace años—. ¿Por qué algunos queremos volver y otros no lo toleran?Reencuentros de este tipo suscitan ambivalencia; por un lado, la idea puede generar excitación, euforia (del griego euphoría: “fuerza para soportar”), pero por otro, es probable que represente una amenaza repentina a la propia identidad. En el espacio de una breve reunión, somos convocados a reconciliar expectativas pasadas con nuestra realidad presente entre personas que compartieron ese pasado. Podríamos decir que asistimos a estas reuniones para demostrar que seguimos vivos y avanzando, que continuamos marchando hacia algún tipo de meta inexorable.
Pocos recuerdos personales son exclusivamente individuales, la mayoría hace referencia a situaciones compartidas. En 1925, el filósofo y sociólogo francés Maurice Halbwachs publicó Los marcos sociales de la memoria, un libro en el que avanza la noción de una “memoria colectiva”. A pesar de que la memoria o, mejor aún, el acto de recordar es esencialmente un proceso individual, Halbwachs enfatizó que depende de nuestras estructuras sociales. Participamos en un orden simbólico colectivo que nos proporciona esquemas cognitivos, conceptos de tiempo y espacio y patrones de pensamiento con los que recordamos e interpretamos acontecimientos pasados. Así, los marcos sociales constituyen el horizonte multidimensional en el que se desarrolla la acción de recordar. La mayor parte de lo que “recuerdas” del colegio ha sido reconfigurado: ¿eras tú el cerebro, el atleta, el caso perdido o la princesa? La reunión de antiguos alumnos es un momento para reconectarnos y compartir vulnerabilidades, para repensar y actualizar nuestro pasado y, en cierto modo, también para avivar el futuro. Aunque el viaje puede resultar vertiginoso.
David Dorenbaum, ¿De verdad recordamos las cosas tal y como pasaron?, El País Semanal 29/08/2024
La filosofía occidental moderna descubre con Descartes que es el sujeto el que sirve de base a la representación o vivencia intencional. Pero llega a ese mismo sujeto desde la propia representación. De modo que queda encerrada en el círculo vicioso de lo mental. La mente se explica por la mente. Dos cosas (sujeto y representación) se explican una por la otra, recíprocamente, y ambas quedan sin explicación. Para escapar de esa circularidad, de ese samsara filosófico, el pensamiento indio propone distinguir mente de conciencia. El sujeto mental es un yo, pero por debajo de ese yo, hay otro, más fundamental e independiente, que hace posible el yo mental. Ese otro yo es conciencia pura y, paradójicamente, no es un yo. Es el Uno, que no es un número, sino aquello que hace posible todos los números, toda la diversidad mental, temperamental y material de eso que llamamos universo.
Esa conciencia fundamental carece de forma y no puede ser descrita mediante la actividad mental, intelectual o simbólica. De hecho, la propia mente es un obstáculo para percibirla. Para poder intuirla, lo primero es distinguir pensar de conocer. Distinguir al sujeto pensante del sujeto cognoscente. Todo lo que la filosofía occidental puede decir del sujeto pensante es ya algo pensado. De ahí que la mente necesite como fundamento algo que no sea mente. Y ese algo, al no poder ser observado directamente por la mente, tiene que ser experimentado (anubhāva). Esa es la palabra clave de la solución india. La filosofía no es teoría o sistema, la filosofía es experiencia. Y, si no lo es, poca será su utilidad o fuerza liberadora.
La conciencia no puede ser pensada, ha de ser vivida. No podemos aproximarnos a la conciencia desde el pensamiento, que es su efecto y la encubre. No sirven aquí las inferencias. Cualquier tipo de representación que hagamos de ella constituye un producto más de la mente, un conocimiento mediato. Esas dificultades no significan que no exista la conciencia o que no pueda ser experimentada. De hecho, la conciencia es lo más real que existe, lo único que conocemos de un modo directo e inmediato. Es así como el pensamiento hindú soluciona el problema mente-cuerpo. Estableciendo tres niveles ontológicos (que forman una unidad y se despliegan en continuidad): conciencia-mente-materia.
Hablar de ese otro yo que conoce, que no es un yo mental, es ya dejarse enredar por el mundo conceptual, por el mundo de las palabras y los símbolos. Pero si tenemos siempre presente que el mapa no es el territorio, puede ser de utilidad una breve descripción. La diferencia conceptual entre mente y conciencia puede ayudar a suscitar una distinción experiencial. La meditación busca precisamente eso, el contacto con una conciencia despojada de las formas mentales que habitualmente la encubren. Se trata de “aislar” la conciencia. Los métodos son múltiples y pueden agruparse en cuatro. (1) La vía devocional. La más sencilla y frecuentada. La entrega sincera y absoluta a lo divino que conduce al desmantelamiento del yo pensante y activo. Es la vía que han seguido los grandes místicos de todas las épocas. (2) La vía de la acción. Actuar en el mundo, pero desprendiéndose de los frutos de la acción, sin atribuirse uno mismo lo que hace. Una vía descrita en la Bhagavadgītā. (3) La vía del yoga, el óctuple sendero expuesto en los Yogasūtra de Patañjali. (4) La vía del conocimiento (jñāna), que consiste en deconstruir la mente con la propia mente. Es decir, entender la mente tal cual es sin quedar atrapado por sus hechizos e ilusiones. Intuir la realidad condicionada y vacía de la mente, observarla desde el yo cognoscente (ātman). Esta última vía, denominada “indagación del ātman” (ātma-vicāra) por Ramana Mahashri, es la que trataremos de describir.
Juan Arnau, Ramana Maharshi, la solución india, El País 26/08/2024La filosofía occidental moderna se ha centrado en el yo pensante y no ha sabido diferenciarlo del yo cognoscente. La gran aportación india al pensamiento universal es la distinción entre mente y conciencia. Y la prioridad ontológica de la conciencia sobre la mente, y de la mente sobre el cuerpo. Decir que el cerebro produce la mente es ya un pensamiento, o una representación, como diría Schopenhauer. Decir que la conciencia es un epifenómeno del cerebro, como sostienen las corrientes dominantes de las neurociencias, es no entender el término epifenómeno. Un epifenómeno es un fenómeno de un fenómeno. ¿Y qué es un fenómeno? Un fenómeno es aquello que se aparece a la conciencia. Es decir, el término fenómeno forma parte de una polaridad y no puede entenderse sin una conciencia que lo advierte o experimenta. Son términos correlativos, como expansión y contracción, grande o pequeño. Así como no puede hablarse del perímetro de una circunferencia sin tener en cuenta el radio (está implícito en él), no puede hablarse de fenómenos sin hablar de conciencia. La solución moderna al problema de la conciencia es un mero artificio verbal. Una retórica que revela una profunda ignorancia filosófica. Que los neurocientíficos no hayan leído o entendido a Kant me parece normal, y también lo es que las neurociencias prescindan de la filosofía en sus investigaciones, pero si lo hacen, deberían evitar el uso de este tipo de conceptos.
Un epifenómeno no es más que un derivado o precipitado de otro fenómeno. La mente sería ese fenómeno que lo decanta y, bajo él, estaría la realidad de la sustancia cerebral. El problema aquí es que estamos hablando de la conciencia. ¿Cómo un fenómeno podría ser consciente de otro fenómeno, y encima de menor rango? La definición misma de fenómeno lo impide. El diccionario lo aclara: “Un fenómeno es la manifestación que se hace presente a la conciencia de un sujeto y aparece como su objeto de percepción”. Si queremos dar sentido al asunto, debemos distinguir la naturaleza del fenómeno de la naturaleza de la conciencia. Sin esa distinción no podemos entender ni la una ni la otra. Los fenómenos son una cosa, la conciencia otra. Y para que haya un fenómeno, debe haber una conciencia donde aparezca. No puede haber fenómeno sin conciencia. El fenómeno, por definición, no es algo autónomo. Decir que todo son fenómenos y que no hay nada más que fenómenos es un contrasentido. ¿Fenómenos para quién?
Juan Arnau, Ramana Maharshi, la solución india, El País 26/08/2024
La mente no es física, ni química, ni siquiera es electricidad. Todo eso son representaciones. La mente es un montón de pensamientos. Pueden ser químicos o físicos, como alquímicos o astrológicos. La mente es simplemente un agregado de pensamientos, del tipo que sean. O de sensaciones, si se quiere. Esa fue la gran intuición de David Hume. El escocés busca la mente y no la encuentra. Sólo encuentra una sensación, un recuerdo, una emoción, una imagen que por asociación lleva a otras. La mente es una máquina de producir pensamientos. Dicho en términos budistas, la mente transforma de forma automática impresiones en inclinaciones. De ahí que sea ella la que dirige el cuerpo, la que lo mueve, dinamiza o estresa, la que lo tensa o relaja. Lo que hacemos con la mente (imaginar, pensar, especular), puede cambiar esa representación que llamamos “estructura cerebral”. La mente puede hacer enfermar al cuerpo, también puede sanarlo. De ahí que la tradición del yoga aspire a ralentizar la mente, que es la causa de la mayoría de nuestros males.
Juan Arnau, Ramana Maharshi, la solución india, El País 26/08/2024
Si los lager nos parecen con razón monstruosos es porque son humanos; es decir, porque son mensurables desde nuestra milenaria “moral terrestre”. Implican un trabajo de deshumanización horizontal del otro sobre el que nuestra imaginación también puede trabajar, en favor de la empatía y de la construcción jurídica. Con Hiroshima, paradigma vertical, ocurre lo contrario: como contaba el filósofo Günther Anders, no es fácil establecer un vínculo cognitivo entre una presión del dedo sobre un cuadro de mandos a 3.000 metros de altura y 120.000 cadáveres en las calles de una ciudad. Ahora bien, esta “desproporción” tiene consecuencias afectivas y jurídicas descomunales. En los lager, decíamos, el cadáver es el resultado de una larga operación de deconstrucción de la humanidad en el cuerpo del otro; en Hiroshima, el cadáver es, desde el principio, un residuo y, si se quiere, un “milagro”. Los cuerpos no se han tenido nunca en cuenta, ni siquiera para destruirlos. Si aceptamos con tanta naturalidad los bombardeos aéreos es porque contienen algo sagrado y divino; es decir, porque, como en el caso del orden teológico, su horror deja en suspenso los parámetros comunes del Derecho terrestre. Lo que en tierra se nos antoja la más atroz violación del Estado de derecho (la ejecución extrajudicial, el juicio sumarísimo, la condena colectiva) constituye la normalidad entre las nubes: las víctimas civiles de un bombardeo no se han beneficiado de la presunción de inocencia ni han sido acusados de ningún delito ni han tenido un juicio justo; ni siquiera, como digo, han sido injusta y brutalmente tratados por un enemigo horizontal, con la posibilidad de hacer al menos un último gesto de dignidad (como ocurre tantas veces ante un pelotón de ejecución). La inocencia absoluta de las víctimas del bombardeo (tendidos entre los escombros al lado de la pelota con la que jugaban un minuto antes) presupone de algún modo la inocencia absoluta del victimario. El genocidio vertical es, por decirlo así, un genocidio al mismo tiempo meteorológico y teológico. ¿Cómo se va a comparar la violencia bestial de un cuchillo con la magia de un misil?
En los principales bombardeos de la Segunda Guerra Mundial (Londres, Dresde, Japón) se lanzaron en torno a 40.000 toneladas de bombas desde los aviones alemanes o aliados. En la segunda Guerra del Golfo, EE UU lanzó sobre Irak unas 80.000. El pasado mes de abril, Israel ya había lanzado 70.000 toneladas sobre Gaza, doblando el número del mayor conflicto bélico de la historia e igualando casi el de la bárbara invasión de Irak. Ahora, en agosto, mes de la conmemoración de la derrota del Japón y del lanzamiento de dos bombas atómicas sobre Hiroshima y Nagasaki, Israel habrá batido ya sin duda todos los registros históricos de destrucción vertical del otro. Es una “práctica consuetudinaria”, sí, que los humanos aceptamos con consueta resignación, y casi con admiración bíblica, entre la fascinación del récord y el estupor de la inocencia del dios. Los bombardeos de Hiroshima y Nagasaki nos sacaron definitivamente de la moral terrestre e inscribieron nuestros cuerpos en el marco de la posthumanidad, y ello por dos razones: porque desde entonces somos virtualmente una especie desaparecida y porque en ese momento nos quedamos definitivamente sin imaginación para conmovernos o ni siquiera escandalizarnos frente a la barbarie vertical y sus anónimos escombros inocentes.
Pero sí podemos sentir aún un poco de indignación a ras de tierra. La dificultad para escribir un artículo en esta época es siempre la de seleccionar la ignominia del día o del año, tan variadas son y tanto se repiten. Una de las mayores de este mes de agosto ha pasado, sin embargo, casi desapercibida. No me refiero al aniversario de Hiroshima y Nagasaki, que recuerdan rutinariamente todos los periódicos; ni tampoco al enésimo bombardeo de una escuela en Gaza, frente al cual carecemos ya de imaginación y hasta de lágrimas. Hablo de la ceremonia del 9 de agosto en Nagasaki y del boicot de EE UU y la UE, “solidarios” con Israel, al que el alcalde no había invitado porque estaba pensando en Gaza, donde han sido asesinados desde el pasado mes de octubre 40.000 palestinos desde el aire. Estas conexiones sí las podemos imaginar y no hace falta explicitarlas. Es el detalle menor, la metáfora pequeña y brutal de una hipocresía que nos hace cómplice de todos los bombardeos y debilita aún más nuestra posición moral en el mundo posthumano que nosotros mismos hemos contribuido a crear.
Santiago Alba Rico, Gaza y Nagasaki, El País 26/08/2024
En muchos sentidos trabajamos y vivimos mejor que nuestros padres y tiene que ver con lo que comentábamos al inicio, con la conciencia y el orgullo que tenemos de que gracias al trabajo colectivo y al trabajo de lo público podemos tener oportunidades que nuestros padres no han tenido y, en muchos sentidos, mejores condiciones de vida y mejores trabajos. Pero creo que algo se está trastocando y que, especialmente en los últimos años, hay un giro de tuerca que está llevando a muchas personas a tomar conciencia de que en otros sentidos estamos peor que nuestros padres. Y me refiero especialmente a nuevas formas de precariedad, a la normalización de problemas de ansiedad y de salud mental, a la pérdida del tiempo propio.
No puede ser que las personas hoy hayamos normalizado que la vida es una vida sin tiempo y esto es algo que sí podían tener nuestros padres, incluso los padres que han tenido las vidas más duras. Yo pienso muchas veces en la dureza del trabajo de mis padres. Mi madre se ha levantado todos los días de su vida, hasta hace prácticamente unos años, a las cinco y media de la mañana para vender el pan y mi padre ha tenido trabajos muy duros. Solamente hace falta ver sus cuerpos, las manos de un padre que ha trabajado en el campo y la cara curtida por el sol. Respecto a ellos podemos decir que somos privilegiadas, claro que sí. Especialmente respecto a nuestras madres, que no sólo no han podido estudiar, y han tenido trabajos duros, sino una vida de sumisión en la que apenas casi podían hablar. Mientras muchos de nuestros padres, incluso los que han tenido trabajos más duros, sí han podido tener esa libertad del tiempo propio, del tiempo para salir, para ir al campo cuando ellos querían, para ir al bar, para ir a la plaza. También han contado con esa salud que deriva de una alimentación sana y de una vida en comunidades pequeñas.
Cuando comparamos esas vidas con las absolutamente aceleradas, estresadas en las que tienes que medicarte para trabajar, esto es terrible. Porque la ansiedad se ha naturalizado en nuestro día a día y porque con la tecnología, el trabajo no deja de venirnos y todavía no hemos conseguido reorganizar los tiempos y recuperar los tiempos. Pero también las maneras en las que nos alimentamos o las maneras en las que vivimos prácticamente sentados. En El entusiasmo tengo un capítulo, en Las habitaciones de Sibila, donde hago referencia a la historia de una mujer sentada. Una mujer sentada puede describir la vida de muchas de las personas que tienen vidas frente a un ordenador, algo que va en contra de nuestra naturaleza. Tenemos cuerpos del Neolítico y vidas del siglo XXI, que no están pensadas para cuerpos sentados. Esas vidas, esa alimentación, esa aceleración, esa contaminación de las ciudades, ese calentamiento humano que va tan en sintonía con el calentamiento planetario, esa normalización de la precariedad benefician solamente a quienes la rentabilizan, no a quienes padecemos esa aceleración. Creo que esto habla de esa parte en la que hemos empeorado nuestra salud, nuestra vida respecto a nuestros padres y también respecto a la frustración que muchas personas tienen en relación a lo laboral. Aunque yo formo parte de ese grupo de personas privilegiadas que tienen un trabajo estable y por tanto, que ha podido convertir su expectativa en trabajo, vivo en parte esto que narro y encuentro a mi alrededor la normalización de lo precario.
Por tanto, creo que vivimos mejor y peor que nuestros padres, que son las dos cosas al mismo tiempo. Hay fuerzas que se derivan de esos logros colectivos que, insisto, creo que son los que debiéramos retomar y recuperar. Y hay otras que nos están llevando hacia una forma de precariedad, de individualismo competitivo y de aceleración que contribuyen a sentirnos peor porque sentimos que nos falta lo básico de la vida, que es el tiempo en el que sentimos que vivimos.
Marta Jiménez, entrevista a Remedios Zafra: "Nadie se puede hacer a sí mismo si no tiene el apoyo de la comunidad", cordopolis.eldiario.es 25/08/2024
Según Michael Oakeshott, “ser conservador es preferir lo familiar a lo desconocido, lo que se ha probado a lo que no, el hecho al misterio, lo real a lo posible, lo limitado a lo infinito, lo cercano a lo distante, lo suficiente a lo superabundante, lo conveniente a lo perfecto, la risa presente a la felicidad utópica”.
Defiende una postura escéptica, reticente ante los proyectos totalizadores y ante la idea de que la vida es la resolución de un problema tras otro: una concepción que él llamaba “racionalismo”, nacida a partir del siglo XVII en Europa, que asume que el conocimiento es técnico, y que no solo rige la política sino muchos otros aspectos de la sociedad. Para Oakeshott, hay conocimientos que son prácticos, se desarrollan de manera tradicional y no pueden aprenderse solamente en los libros.
Daniel Gascón, Michael Oakeshott, el pensador escéptico que creía en la conversación, El País 31/08/2024
El cerebro es un órgano tangible que se puede tocar, palpar, medir y evaluar. Es biología pura. La mente es, por el contrario, un constructo psicológico con muchos marcos teóricos que intentan explicarlo. Pero a día de hoy no hay una teoría unánimemente aceptada que nos diga qué es la mente. Aunque es algo no tangible, es decir, que no podemos tocar, y que medimos de manera indirecta. Se supone que la mente es un producto de la parte biológica del cerebro.
El cerebro tiene dos partes, y esto sí está bastante consensuado. Una mente consciente en la que hay un producto cognitivo en forma de pensamiento y un producto emocional. Esa parte consciente es la que me permite desarrollar una serie de constructos psicológicos como la identidad personal, el yo, la toma de conciencia de mi individualidad. Por eso, las teorías de la psicología evolutiva dicen, aunque también aquí hay controversia, que la mente como tal en el niño y la niña se empieza a desarrollar alrededor de los dos años que es cuando toma conciencia de su individualidad.
La mente es una producción subjetiva. Yo creo que siento, que me identifico, el autoconcepto y demás, y presupongo que los otros también tienen una mente que les permite tener todo ese mundo interior. Por eso, las últimas corrientes en neuropsicología hablan de la trascendencia de la mente. Es decir, como algo trascendental muy difícil de medir.
La metacognición abarca todas las grandes capacidades cognitivassuperiores como la capacidad del lenguaje, el cálculo, el pensamiento abstracto y la creatividad y se refiere a que yo pienso sobre ello. Esa metacongnición es “yo pienso sobre cómo pienso y cómo siento”.
La cuestión de la dualidad mente/cerebro viene desde la antigüedad, aunque el autor más “actual” que teorizó sobre ello fue el filósofo y matemático francés René Descartes con su idea de que somos cuerpo y mente. Pero todo esto viene de Platón cuando decía que el cuerpo es aquello que puedo entender, es el producto biológico que puedo palpar y medir, y la mente, que él identificaba con el alma, como la que nos conecta con el mundo de las ideas, un reino eterno y perfecto donde existen las formas puras de las cosas. Esta idea de la dualidad está superada hace décadas.
Carmen Sarabia Cobo,
¿Qué diferencia hay entre mente y cerebro, El País 05/09/2024
Aunque los humanos no somos caracoles, ahora ya no hay modo alguno de saber lo que es una mujer. Todo es duda y todo es sospecha, y la que quiera salir a reivindicarse como hembra humana será arrinconada a las filas del fascismo. Sobre lo que no hay ningún tipo de duda es sobre lo que es un hombre. No hay más que ver esas convenciones del poder donde todos los presentes van enfundados en trajes oscuros o repasar las listas de los más ricos para saber qué es un macho humano. En cambio, las mujeres, “la mujer”, no se sabe muy bien lo que es, no hay forma científica de averiguarlo. Así, sin más, hemos vuelto al mundo de lo indiferenciado, ahora por la vía de la reivindicación de la fluidez del género y la supuesta subversión que conlleva (y que seguro que acabará con la subida de los alquileres y la inflación). Donde sí saben lo que es una mujer es en Afganistán,Irak e Irán.
La gran paradoja que está viviendo hoy el feminismo es que después de 300 años impugnando la idea del género (esto es, que las mujeres somos humanamente distintas de los hombres y estamos determinadas a comportarnos y a tener ciertas características esenciales tales como la domesticidad, la sumisión, la fragilidad y la falta de dotes intelectuales o de capacidad para ser ciudadanas) ahora tenga que dedicarse a defender la existencia del sexo. Acusar al feminismo de la igualdad de ser biologicista es pura y simple difamación, dado que siempre ha defendido exactamente lo contrario: todas las pensadoras importantes han venido denunciando que las diferencias biológicas no justifican, ni de lejos, todo el entramado de discriminaciones, segregaciones y opresiones que nos han atenazado desde hace miles de años. Pero hoy la confusión y el pensamiento mágico se difunden sin freno porque nadie quiere arriesgarse a ser señalado como portador de alguna fobia, y negar la existencia de los sexos, algo tan descabellado como defender que la Tierra es plana, se ha convertido en lo más progresista que se puede hacer.
La verdad es que a muchas nada nos gustaría más que olvidarnos de la biología: ni fluctuaciones hormonales, ni reglas dolorosas, ni anemias, ni cáncer de mama, ni el dolor del parto, ni más osteoporosis y depresiones. Pero somos egoístas, nos dicen, excluyentes por querer patrimonializar el chollo de ser “mujer” y encima pretender saber lo que somos y quiénes somos. ¿Cómo nos atrevemos?
Najat el Hachmi, No sé lo que soy, El País 06/09/2024
Los salarios han perdido casi un 13% de su poder adquisitivo desde la crisis, según cálculos del gabinete económico de CCOO. De acuerdo con el Observatorio de Emancipación del Consejo de la Juventud de España (CJE), en la segunda mitad de 2023 el coste medio de la vivienda (calculado a partir del importe del alquiler más los gastos en suministros básicos) superaba en 81 euros el salario medio de las personas de entre 16 y 29 años. En 2011, el 69% de los hogares con un cabeza de familia menor de 35 años era propietario de su vivienda principal, mientras que para 2022 este porcentaje se había reducido dramáticamente hasta el 32%, según la encuesta financiera de las familias. Y según el INE, en España, la media de edad para independizarse es de 29 años y la tasa de desempleo juvenil supera el 28%. La situación, ciertamente, no invita al optimismo.
¿Qué hacer en este contexto? Algunos siguen el ejemplo de sus padres: trabajar duro, ahorrar, comprar una casa y crear un plan de jubilación. Pero otros han perdido la fe en los métodos tradicionales que funcionaron para generaciones pasadas y prefieren, literalmente, apostar su futuro al azar. Cada vez más personas, especialmente entre los 20 y los 35 años, invierten en activos especulativos de alto riesgo como las criptomonedas, los NFT, las apuestas deportivas y las “acciones meme”, cuyo valor depende únicamente de que un foro de internet se ha puesto de acuerdo para hacerla subir. Estos métodos alternativos ofrecen la posibilidad de altos retornos a corto plazo, pero también un riesgo considerablemente mayor.
Esta situación no es exclusiva de España. De hecho, en Estados Unidos llevan tiempo advirtiendo sobre este fenómeno y han identificado este comportamiento entre los jóvenes como síntoma de lo que han denominado “nihilismo financiero”. El término es provocador: sugiere una pérdida de fe en el correcto funcionamiento del mercado y en el valor real del dinero, representando al capitalismo casi como una religión. Para un “nihilista financiero” apostar 100 euros a que el Real Madrid gana 3-2 contra el Alavés, o invertir en una criptomoneda de la que ha escuchado hablar en YouTube es un uso del dinero tan válido como cualquier otro, dado el cuestionable valor subyacente de la economía. “Es difícil culpar a la gente por querer hacerse rica rápidamente si han perdido la fe en su capacidad de hacerse rica lentamente”, concluye Andrew Edgecliffe-Johnson en un artículo de Financial Times dedicado a este tema.
El término “nihilismo financiero” fue acuñado por Demetri Kofinas, un economista estadounidense de padres griegos, seguidor en su juventud del economista liberal Friedrich Hayek y del político libertario Ron Paul, que presentó un programa en Russia Today. Pero hay trampa. Durante esa etapa le detectaron un tumor cerebral y, con apenas 30 años, desarrolló demencia. Se olvidó de todo, hasta el punto de llevar las llaves colgadas del cinturón por miedo a no poder entrar en su casa. Finalmente, fue operado y, al despertar, no encontró un dinosaurio como en el cuento de Augusto Monterroso, sino a Donald Trump recién elegido presidente. “Tuve que volver atrás y cambiar todo mi marco de pensamiento para comprender lo que había pasado”, explica en una videollamada.
Kofinas dejó sus antiguas ocupaciones, examinó el presente y desarrolló el concepto de “nihilismo financiero”, que empleó por primera vez en 2020, en un episodio de su pódcast titulado Nihilismo financiero: Descubrimiento de precios en un mundo donde nada importa. Kofinas define esta filosofía como la percepción de que los objetos de especulación carecen de valor intrínseco. Es decir: alguien compra una criptomoneda no porque crea en su potencial tecnológico o en su utilidad, sino simplemente porque espera que su precio suba debido a la demanda especulativa. “Estamos ante un marco de inversión posmoderno donde el precio se vuelve autorreferencial. La única cosa que importa es la narrativa. Para los nihilistas financieros, el precio es la cosa en sí misma, desvinculado completamente de cualquier realidad subyacente”, sostiene Kofinas.
Friedrich Nietzsche anunció la “muerte de Dios” como una metáfora de la desaparición de la fe en los valores absolutos y el orden moral tradicionalmente respaldados por la religión cristiana durante siglos. El dios amenazado por el “nihilismo financiero” probablemente no reside en el interior de las iglesias, sino en lo alto de los rascacielos. Kofinas argumenta que las medidas tomadas durante la crisis financiera de 2008, como los rescates financieros y la impresión masiva de dinero, han generado una percepción de injusticia entre la población y han desmantelado la “mitología del dinero”, al demostrar que su valor no es intrínseco, sino que depende de la confianza y las políticas gubernamentales. “La idea de que todos jugamos bajo las mismas normas se vino abajo”, resume.
Las criptomonedas, según el analista, fueron el “gran vehículo” a través del cual se propagó “el cáncer del nihilismo financiero”. Kofinas explica que los primeros adeptos de Bitcoin eran idealistas que buscaban establecer un sistema monetario alternativo, descentralizado y libre de intermediarios, donde el valor de la moneda no estuviera sujeto a manipulaciones por parte de gobiernos o grandes instituciones financieras.
No obstante, a partir de 2017, con el auge de las ICO (Initial Coin Offerings, por sus siglas en inglés) —una herramienta de recaudación de fondos mediante criptomonedas que en lugar de ofrecer acciones de la empresa a los inversores ofrece una criptodivisa o un token—, la percepción de las criptomonedas pasó de utópica a nihilista. “Los idealistas se transformaron en especuladores, y los más exitosos dentro del mundo de las criptomonedas resultaron ser los storytellers, no los ingenieros”, expone el analista. “Dieciséis años después del nacimiento de Bitcoin, ¿quién sigue creyendo realmente que puede cambiar el sistema?”.
Daniel Soufi, Nihilismo financiero: el fin del valor real del dinero, El País 01/09/2024
El psicólogo Steven Starker escribía en Oráculo en el Supermercado que los libros de autoayuda aparecieron hace más de 200 años, cuando Thomas Jefferson plasmó en la Declaración de Independencia de EE UU el derecho individual a buscar la felicidad. “El rígido sistema de clases de los países europeos fue reemplazado por uno abierto en el que un hombre podía esperar ascender de acuerdo a sus méritos y habilidades, y a ser juzgado solo por sus logros”, afirma.
Según Starker, los libros de autoayuda explicaban cómo cumplir el sueño americano, pero también reforzaban la idea de que el éxito era algo que cada uno debía buscar por su cuenta, favoreciendo una existencia más estresante, solitaria o exigente con la imagen, y agravando problemas que después prometen resolver los mismos libros.
Daniel Mediavilla, Los libros de autoayuda más vendidos nos dicen lo que va mal en a sociedad, El País 24/08/2024
“Los tiempos duros crean hombres fuertes; los hombres fuertes crean buenos tiempos; los buenos tiempos crean hombres débiles; los hombres débiles crean tiempos duros”. La cita no es de Confucio ni de ningún economista prestigioso, sino de una novela postapocalíptica de ciencia ficción y fantasía escrita por G. Michael Hopf en 2016 que se convirtió en best seller.
Desde entonces, el aforismo se ha hecho muy popular y se ha hecho valer para apañar a golpe de meme facilón todo tipo de sobremesas y debates. Pero la realidad no es nunca ni fácil ni sencilla, y esa frase resultona no resume ninguna teoría rigurosa ni se pronuncia en círculos académicos serios.
Aun así, lleva tiempo siendo la cantinela favorita de un sector de la gastronomía española, gremio que nunca falla en suministrar periódicamente ejemplares magníficos de la especie “viejo que grazna blandiendo un bastón al aire”. La invocan como guarnición perfecta de ese sempiterno “¡Los jóvenes de hoy son débiles y no quieren trabajar!”.
La idea de que las condiciones difíciles crean individuos moralmente superiores y física y mentalmente fuertes, mientras que la riqueza y el bienestar crean sociedades decadentes y caracteres endebles es falsa. El relato del esclavo que supera peligros inimaginables y se convierte en emperador, o el de los dos chavales de barrio que crean una empresa de cien millones de dólares en un garaje son la excepción, no la norma, y precisamente por eso son reseñables. Pero el meme de los tiempos duros y el relato del héroe sirven a los directivos que fallan en la creación de sistemas de trabajo eficientes para justificar la imposición de condiciones laborales penosas (e ilegales) a base de usar la cantidad de horas trabajadas como vara de medir la categoría moral del trabajador, dibujando una pirueta discursiva falaz tan admirable como vergonzosa.
María Nicolau, La gran estafa de la cultura del esfuerzo, El País 23/08/2024
Habría que decir, a modo de consideración previa, que la existencia de alguien que no le deba nada absolutamente a nadie es casi un imposible ontológico. La vida social y la consecuente interacción entre individuos y grupos implica, de manera poco menos que inevitable, tanto la realización como la recepción de comportamientos difícilmente reductibles al mero interés particular o, si se prefiere, que no quedan entendidos de manera adecuada si los analizamos en los exclusivos términos de cálculo coste-beneficio o similares (por más que siempre haya gentes que, con manifiesta impropiedad semántica, utilice expresiones del tipo “me debe un favor”, tan odiosas como autocontradictorias —el favor por definición se regala, sin esperar nada a cambio—).
Manuel Cruz, Una sociedad de ingratos, El País 01/09/2024
¿Qué es eso de que una forma de gobierno que dice apoyarse en la voluntad del pueblo se eche a temblar cada vez que a este le toca expresarla? Pero no acaba aquí la paradoja. Tememos a la ultraderecha, pero esta, a su vez, debe su éxito al propio miedo que embarga a importantes sectores de la población. La fuente de cada uno de ellos es distinta, claro. En un caso tememos a la xenofobia y al peligro que puedan significar estos partidos para la democracia, que se suman a otros muchos, el cambio climático, por ejemplo; en el otro, quienes los votan temen a la inmigración, al descenso social, al cambio de valores, a las élites, etcétera. Pero, en mayor o menor medida, a todos nos embarga. Vivimos bajo el síndrome del miedo. Y son los miedos, no la ideología, lo que se exorciza y se utiliza como arma arrojadiza en la disputa política.
Hay buenos motivos para que nos atenacen, desde luego. Pero, al menos, desde Montaigne ya sabemos que el miedo es incompatible con la libertad. Una democracia del miedo es un oxímoron. Quién sabe, quizá un historiador del futuro concluya que el derrumbe de las democracias obedeció a que los actores políticos, en vez de abordar directamente las causas de los temores, se dedicaron a propagarlos. Atemorizar no es liderar. Liderar es, entre otras cosas, buscar salidas eficaces a lo que nos preocupa y alimenta nuestros temores. Ahí nos duele.
Fernando Vallespín, La democracia del miedo, El País 01/09/2024
Hay un Spinoza para cada época, pero entre las devociones spinozistas pocas comparables a la del historiador inglés Jonathan I. Israel (1946). A principio de los setenta, Israel escribió Race, class and politics in colonial Mexico (1610-1670), una tesis académica que a la larga lo llevaría a recrear el universo intelectual spinoziano a través de tres siglos. Aquel libro incluía un capítulo dedicado a la vibrante comunidad portuguesa de criptojudíos (practicantes secretos de su religión) que vivió en Nueva España en la primera mitad del siglo XVII, el mismo periodo en que sus hermanos de fe se establecían en Holanda. Su destino no podía haber sido más distinto: mientras en México terminaron disciplinados por la Inquisición, quemados en autos de fe, dispersos por el reino, borrados por la historia, en Holanda pudieron vivir libres de persecución y segregaciones físicas. Israel pasó de una comunidad a otra, dando inicio así a su larga travesía por el criptojudaísmo portugués de los siglos XVI y XVII ligado estrechamente a la historia holandesa en la cual es una autoridad.
La pasmosa globalización comercial que desplegó esa comunidad es el tema de varios de sus libros. En las últimas décadas, Israel se ha dedicado primordialmente a la historia intelectual con gruesos y polémicos volúmenes de revisionismo histórico que buscan probar la centralidad del pensamiento crítico holandés, y muy en particular el de Spinoza, en lo que ha denominado Ilustración radical (distinta a la Ilustración moderada, inglesa, escocesa, francesa o alemana) y que a su juicio es la raíz primera y pura, genuinamente democrática, republicana, tolerante e igualitaria, de la tradición liberal de Occidente. Esta tradición se habría cumplido parcialmente en la revolución americana pero resultó traicionada por el populismo rousseauniano y antiilustrado de Robespierre y los jacobinos. Alguien hubiese pensado que con esas obras y Revolutionary Jews from Spinoza to Marx –sobre la progenie decimonónica del filósofo– Israel habría culminado su tarea. Pero faltaba su opus magnum: Spinoza. Life and legacy, un libro inabarcable como el Dios de Spinoza.
Enrique Krauze, Un filósofo para nuestro tiempo, Letras Libres 01/08/2024
“Los países con mucha desigualdad son los que tienen mucha clase baja, mucha clase alta, y menos gente en el centro, como es el caso de Estados Unidos”, dice. De acuerdo con sus cifras, el estrato de rentas medias-bajas se acerca al 35% de la población en España, mientras que en países como Alemania supera el 40% y en Francia representa prácticamente a uno de cada dos hogares.
Tener a más población en la clase media-baja parece una mala noticia pero no lo es. Y es que para los economistas, la clase es un concepto relativo que no mide riqueza sino homogeneidad. Es decir, que un 100% de clase media-baja no implicaría necesariamente pobreza pero sí igualdad: todos los hogares estarían entre el 75% y el 125% de la mediana nacional (el valor de esa mediana nacional de ingresos es el que definiría la riqueza o pobreza de los ciudadanos).
Francisco de Zárate, La clase media ya no es lo que era ..., El País 31/08/2024
Lo que mata la esperanza, según Byung-Chul Han, no es la desesperanza; bien al contrario, esta última es su punto de partida, el inicio del viaje. Tal como lo expone en el preludio del ensayo, lo contrario a la esperanza es el miedo. En sus propias palabras: “Pasamos de una crisis a la siguiente, de una catástrofe a la siguiente, de un problema al siguiente. De tantos problemas por resolver y de tantas crisis por gestionar, la vida se ha reducido a una supervivencia”. Para el coreano, vivir en esa mera supervivencia nos ancla a la depresión y al miedo. Este último nos cierra puertas y nos roba la libertad, ya que imposibilita que nos pongamos en marcha. Alguien con miedo al futuro será incapaz de organizar y crear su propio futuro. Entra en una especie de profecía de autocumplimiento.
Como señala Byung-Chul Han, en alemán la palabra miedo —Angst— procede, al igual que en latín, del término angostura. Es decir, cuanto mayor es nuestro temor, más angosta será nuestra área de acción. Por eso quien se angustia se siente, de un modo u otro, acorralado.
El antídoto es la esperanza ya que, en sus propias palabras, “va dejando indicadores y señalizadores de caminos. La esperanza es la única que nos hace poner en marcha. Nos brinda sentido y orientación (…) Y las acciones necesitan un horizonte de sentido”. Así como el miedo imposibilita, la esperanza, como la definía el filósofo danés Søren Kierkegaard, es la pasión por lo posible.
Francesc Miralles, La esperanza, el arma secreta del filósofo Byung-Chul Han, El País Semanal 22/08/2024
El neoliberalismo siempre fue una desregulación con trampa: hacer desaparecer lo público allí donde valía para construir justicia social, pero mantenerlo fuerte para impulsar la iniciativa privada. El banquero Walter Wriston, presidente de Citicorp, publicó en 1992 The Twilight of Sovereignty (”El ocaso de la soberanía”), un libro en el que afirma que los mercados son las únicas máquinas de votar reales, por lo que deben asumir la responsabilidad de dirigir la sociedad en lugar de los políticos, ya que si se mantienen fuera del alcance de las normas expresan con precisión lo que quiere la gente.
Si leen detenidamente lo expuesto por Wriston, encontrarán un pensamiento profundamente antidemocrático, una coartada para que el mundo del dinero se emancipe de la propia sociedad.
La pregunta ya no es si estamos al final del modelo neoliberal; la pregunta es qué vendrá a continuación. Estará en condiciones de ofrecer una respuesta quien consiga tres cosas: aumentar en lo inmediato el poder adquisitivo de la mayoría, devolver la capacidad de previsión garantizando bienes básicos como la vivienda, y acompañar estas medidas materiales de un correlato cultural que haga sentirse al ciudadano común de nuevo importante como parte central de su país. Cuidado: si el progresismo no se toma en serio estas tareas, habrá una nueva derecha que las articule en clave xenófoba y autoritaria. Nadie preguntará por los apellidos.
Daniel Bernabé, La izquierda debe identificar por dónde gira el viento político, El País 22/08/2024
En cierto modo, todos hemos perdido siempre el tiempo porque no hay un sentido unívoco o un significado que demos al transcurso del tiempo en general. Vivimos buscando precisamente esa manera de darle sentido, eso es algo general y que se hace a través de la política, del arte... En definitiva, con el tipo de relato que construimos para dar explicación a lo que somos, tanto individualmente como en términos colectivos. Lo que ocurre es que hay diferentes maneras de recuperar ese tiempo perdido. Me gustaba la idea de hacer este juego de palabras con la obra de Marcel Proust [En busca del tiempo perdido] y la situación actual, donde creo que hay una manera melancólica de mirar y aproximarnos a ese tiempo perdido que todos tenemos.
... para mí lo importante de mirar al pasado no es tanto la idea de intentar recuperar lo que ya fue −o el tipo de soluciones políticas que se dieron antes−, sino lo que nunca pudo ser. Es decir, ese tiempo perdido que echas de menos precisamente porque ha sido imposible.
Me parece importante aquí, por ejemplo, tomarnos en serio que Karl Marx definiera el comunismo como un espectro. Él dice: "Un espectro recorre Europa, es el fantasma del comunismo". El espectro es algo que no está presente del todo, pero que, aunque no lo puedas tocar con tus propias manos, genera una presencia difusa. Es interesante esta idea de que aunque nunca haya ocurrido una determinada situación, podemos echarla de menos; y, desde luego, con el capitalismo echamos muchas cosas de menos. Lo que creo que deberíamos pensar no es tanto en reproducir lo que ya fue, sino qué promesas imposibles quedaron en ese tiempo que fue y cómo las deseamos hacia el futuro.
Nuestras esperanzas en el futuro están canceladas y nuestra propia experiencia del presente igual por el capitalismo. Por supuesto que hemos perdido cosas y hay aspectos en los que vivimos peor que nuestros padres, pero eso tiene un nombre: se llama capitalismo neoliberal, que progresa a costa de la desposesión de nuestras propias vidas.
Lo que creo es que la solución no puede ser intentar volver al capitalismo fordista del bienestar de los años 60, con soluciones de bienestar tardo-franquista para problemas del siglo XXI. El capitalismo arrasa nuestra vida, arrasa el planeta, produce cuerpos exhaustos, recursos naturales explotados, tensiones sociales... y ahí lo que yo digo es que las salidas a eso tienen que ser muchísimo más ambiciosas, que pasan por el cuestionamiento del trabajo asalariado, del modelo de acumulación o del trabajo de reproducción.
Los nuevos gurús del coaching, Llados y compañía, funcionan y apelan en principio a un deseo muy narcisista porque se supone que lo público está muy despreciado y ya nadie cree en esas formas colectivas de emancipación, no se encuentra allí el gozo. Antes quizás la militancia o las reuniones generaban un tipo de espacios en común de ocio y de actividades que hoy ya no existen.
Para afrontarlo, evidentemente, tenemos que reconocer de alguna manera lo que ellos perciben, pero bajo las preguntas adecuadas. ¿Es posible un proyecto de vida y autoconstrucción de una persona en el capitalismo? Esa es la pregunta que hay que hacer que la gente se formule: ¿qué ofreces tú al capitalismo y qué te devuelve? Tú ofreces básicamente todo tu tiempo de vida, todas tus horas de trabajo, tus horas de ocio porque apenas se puede desligar del consumo, y ¿qué recibes a cambio? Creo que no salen las cuentas y por eso estos gurús apelan a reinos de libertad individual y abogan por encerrarte en tu habitación a hacer deporte tú solo. Habría que preguntarse por qué no podemos sentirnos libre en el capitalismo de ninguna otra manera.
Durante todo el siglo XX, hemos visto cómo cuando había un riesgo de avances populares o de conquistas democráticas sustanciales, se suspendían garantías parlamentarias o democráticas a base de golpes de Estado. Ahora mismo, el neoliberalismo actual tiene tantas dificultades para mantener su régimen de acumulación y de beneficio que es posible que la propia democracia sea algo a lo que en algún momento dado se plantee tener que renunciar. Si no, es imposible que se mantenga el nivel de tensión que impone sobre los recursos naturales y sobre los propios cuerpos que trabajan. En algún momento van a regresar medidas mucho más autoritarias que las que conocemos. Es un horizonte que en el capitalismo ha estado siempre presente y que va a volver, aunque lo haga de maneras diferentes.
... todo lo que tenga que ver con lo político y con lo social no puede definirse nunca en términos naturales. Esas construcciones o esas miradas que intentan hacerlo así están cerca de un peligroso esencialismo biologicista. Al final de una especie de darwinismo social más o menos encubierto, o de pensar que se pueden explicar los comportamientos humanos apelando a instintos.
Creo que todo lo que hacemos, aunque tenga una base corporal o física está siempre escrito y leído desde la cultura, el lenguaje, la política y la praxis colectiva. Por eso creo que ningún problema político se resuelve apelando algo así como la naturaleza, porque la naturaleza para nosotros no es que no exista, pero siempre existe desde la mirada de la cultura o del lenguaje.
...todo lo que he dicho antes se podía resumir en esa frase: conquistar tiempo libre. Eso es lo que el capitalismo hace imposible tener, tiempo libre para la vida o para lo que hace que la vida merezca la pena, llámese política, arte, amor o como cada uno lo quiera llamar. La conquista del tiempo libre creo que podría ser el lema que aglutine todos nuestros afanes, así como los de la izquierda.
María Martínez Collado, entrevista a Clara Ramas: "La izquierda debe decir sin miedo que va abolir el trabajo ...", publico. es 06/'7/2024
En las inferencias abductivas, se parte de un fenómeno que necesita una explicación y se concluye aquella hipótesis que mejor explica dicho fenómeno, entendiendo por tal aquella de las explicaciones disponibles que sea más simple, más coherente con otras hipótesis aceptadas, más exacta, más capaz de encajar todos los detalles, más abarcadora, etc. El esquema argumental sería el siguiente: D es una colección de datos; la hipótesis H explica D; ninguna otra hipótesis puede explicar D tan bien como H; por lo tanto, H es probablemente verdadera. Es un tipo de argumento bastante común en la vida cotidiana, y es, por ejemplo, el que utiliza Sherlock Holmes en las novelas de Conan Doyle.
Para que una inferencia abductiva funcione bien hay que tener bastante seguridad de que, en efecto, ninguna otra hipótesis puede explicar tan bien los datos como lo hace la hipótesis que se quiere concluir. Pero esto es precisamente lo que está en cuestión en este caso. De hecho, se puede decir que en estos argumentos la hipótesis teísta no explica nada en realidad, puesto que no aporta ninguna información nueva acerca de ningún fenómeno natural decir que es así justamente porque Dios lo ha querido. No se añade nada con lo que consigamos una mejor comprensión del fenómeno, no aprendemos nada nuevo acerca de él.
Antonio Diéguez, Dios no es tema de la ciencia, Letras Libres 01/08/2024
Un planteamiento similar al que acabamos de exponer es el que encontramos en el llamado “Diseño Inteligente”. Dentro del ámbito protestante, en especial de las iglesias evangélicas de los Estados Unidos, lleva tiempo arraigando esta corriente. Según la doctrina del Diseño Inteligente, la biología nos muestra la existencia de fenómenos que presentan una “complejidad irreductible”, es decir, que contienen mecanismos que solo pueden ser funcionales si están completos, y no sirven de nada si falta alguno de sus elementos. Esos fenómenos no podrían ser el resultado de un proceso de evolución por selección natural, puesto que la evolución darwiniana requiere que cualquier sistema complejo se haya ido formando gradualmente a partir de elementos más simples. Tales fenómenos de complejidad irreductible, como el que presentaría, según los defensores de esta tesis, el flagelo bacteriano o la cascada química de coagulación de la sangre, serían, por tanto, pruebas de un “diseño inteligente” en la naturaleza que debe ser obra de un Diseñador.
No puede decirse que el argumento sea nuevo. Un antecedente claro lo encontramos en 1802, en la obra Teología natural, de William Paley. Si encuentro un reloj en la playa –decía Paley, al que Darwin admiraba mucho–, aunque no sepa lo que es, solo con ver su estructura compleja, puedo inferir que no está ahí de forma espontánea, como lo está cualquier guijarro, sino que es obra de un diseñador que lo ha realizado para un fin determinado. Según Paley, los seres vivos presentan signos de diseño comparables o más sofisticados que los de un reloj y eso debe llevarnos a concluir que son criaturas diseñadas por Dios. La analogía falla, puesto que, desde la perspectiva evolucionista, la selección natural, junto con algunos otros mecanismos evolutivos, es la que genera esa apariencia de diseño, sin necesidad de un diseñador.
Desde que surgiera esta propuesta, han sido muchos los biólogos y filósofos de la biología que la han rebatido con buenos argumentos. El concepto de “complejidad irreductible” es confuso y carece de rigor científico. Es evidente que la mera complejidad no exige una intención (muchos sistemas complejos, en física, por ejemplo, tienen explicaciones no intencionales). Lo que parece exigir la existencia de un Diseñador, según los defensores del Diseño Inteligente, es la “irreductibilidad” de dicha complejidad; pero esa “irreductibilidad” lo único que significa es que ellos creen que nunca se podrá mostrar que el sistema en cuestión es el resultado de un proceso gradualista de selección natural. Ahora bien, el evolucionista no acepta dicha “irreductibilidad” como un dato bruto.
De hecho, ha habido estudios que han ofrecido una explicación evolutiva de los dos ejemplos favoritos del Diseño Inteligente que hemos mencionado. El flagelo bacteriano comparte una buena parte de la estructura de su rotor con los poros activos de la membrana celular de las bacterias conocidos como Sistema Secretorio Tipo III. A través de este tipo de poros las bacterias inyectan proteínas en las células del organismo infectado. De las 22 proteínas que componen el flagelo de Salmonella, por ejemplo, veinte son homólogas de proteínas que forman parte de otros sistemas. Hay indicios sólidos obtenidos mediante análisis filogenéticos de los genes de cuarenta y un especies de bacterias flageladas que apuntan la posibilidad de que el flagelo bacteriano surgiera por duplicación y modificación sucesiva de unos pocos genes, quizá de uno solo. En cuanto a la cascada química de coagulación de la sangre, se ha comprobado que puede seguir funcionando en ciertos animales aun cuando falten algunas de sus partes.
El defensor del Diseño Inteligente quizás no acepte esa explicación, o busque nuevos ejemplos, pero lo importante es que su afirmación de que no hay explicación evolucionista posible de los ejemplos que pone de sistemas de “complejidad irreductible” no se sostiene y que, si por definición considera que la complejidad irreductible jamás podrá tener una explicación naturalista, sea la que sea, asume una posición que se autoexcluye de la ciencia, a la que, por cierto, no ha hecho ninguna contribución.
Antonio Diéguez, Dios no es tema de la ciencia, Letras Libres 01/08/2024Desde una perspectiva epistemológica y metodológica, la ciencia no sirve para demostrar que Dios existe, ni para demostrar que Dios no existe. Dejemos de lado la cuestión de si tiene sentido emplear el término “demostración” en ciencias empíricas. No es desde luego un término que se emplee en filosofía de la ciencia como sinónimo de confirmación, o de argumentación a favor, o de mero apoyo o indicio, como parece usarse muchas veces en este contexto. La cuestión principal es otra. Sencillamente, desde sus orígenes mismos, la ciencia moderna se intenta construir como un conocimiento empírico que deja fuera todo lo que vaya más allá de la experiencia controlable. Es verdad que Newton todavía recurre a Dios para explicar algún fenómeno natural, como que todos los planetas del Sistema Solar se muevan en el mismo sentido, y que antes de Darwin en biología también se hacía. Pero desde entonces, tanto la física como la biología tomaron un rumbo epistemológico y metodológico distinto, que es el que hoy sigue presentando la ciencia.
Ese rumbo, que se convierte ya en el siglo XIX en una característica definitoria de la ciencia, viene marcado por el naturalismo metodológico, según el cual, en la ciencia hemos de proceder como si solo hubiese entidades y causas naturales. Solo las causas naturales y las regularidades que las gobiernan tienen auténtica capacidad explicativa. Aclaremos que un científico no tiene por qué ser obligatoriamente un naturalista ontológico, que es una posición filosófica discutible, como todas, pero sí tiene que ser necesariamente un naturalista metodológico, porque si deja de serlo, deja de hacer ciencia. Así pues, por su propia naturaleza, la ciencia no puede decir nada acerca de Dios, porque entonces estaría asumiendo la existencia de lo sobrenatural, lo que queda excluido por su modo característico de explicar la realidad. (...) Nadie encontrará jamás como consecuencia de los principios y leyes de una teoría científica el enunciado “Dios existe” o el enunciado “Dios no existe”. Y cualquier salto desde una hipótesis o una teoría científica a alguna cuestión relacionada con lo sobrenatural, se hace ya solo con base en la creencia personal del científico, no en lo que la ciencia autoriza.
La falsabilidad, por cierto, no tiene nada que ver con esto. La clave –insisto– es el naturalismo metodológico, no la falsabilidad. La falsabilidad es la posibilidad de refutar una hipótesis o teoría a partir de la experiencia. Fuera de la ciencia hay cosas falsables (como la idea pseudocientífica de que el agua tiene memoria o que los seres humanos convivieron con los dinosaurios) y dentro de la ciencia pueden aceptarse cosas infalsables (el segundo principio de la termodinámica lo es en la práctica, la teoría de cuerdas lo es por el momento, los multiversos también lo son). Por eso, la falsabilidad propuesta por Popper no es aceptada en la filosofía de la ciencia actual como una característica definitoria de la ciencia, aunque pueda ser ciertamente un rasgo muy deseable y buscado en las hipótesis científicas.
Antonio Diéguez, Dios no es tema de la ciencia, Letras Libres 01/08/2024
... aunque disminuya el grado de satisfacción con la democracia, eso no cuestiona una generalizada aceptación de su legitimidad como forma de gobierno. Se critican sus prestaciones, no su legitimidad. Si examinamos los casos en los que los llamados populistas han accedido al poder y el hecho de que los anunciados destrozos han sido mucho menores que los temidos, puede concluirse que la democracia tiene una notable capacidad de resistencia.
... nuestra mayor exigencia es un signo de vitalidad democrática, y la percepción de la crisis de la democracia es tan profunda porque hay una gran distancia entre lo que nos proporciona y lo que demandamos de ella. Y en ningún caso, ni entre los acomodados ni por parte de los más exigentes, se apela a un modelo alternativo; las críticas se mantienen en su marco de valores y principios que, lejos de estar en cuestión, han vencido frente a sus concurrentes.
Si los diagnósticos sobre la crisis de la democracia dependen de la concepción que se tiene de ella, también es diverso el modo de concebir su deterioro. A grandes rasgos, esos diagnósticos se dividen entre quienes la ven deteriorada por el hecho de que la gente no tiene el poder que debería tener y quienes piensan que la gente tiene demasiado poder, por exceso o por defecto, podríamos decir, por la incompetencia de las élites o por la irracionalidad de los electores. Los diagnósticos del primer tipo suelen describir procesos de desempoderamiento popular, ya sea por el poder de las élites, del capitalismo incompatible con la democracia o de los algoritmos. Las propuestas lógicas de este campo suelen apuntar hacia una mayor participación y en la línea de una democracia deliberativa más directa. En el grupo de quienes lamentan que la democracia sea demasiado directa se critica el mito del votante racional, la falta de competencia y responsabilidad de los electores o simplemente el hecho de que el votante medio carezca de la formación y los conocimientos necesarios; como dice Brennan, o son hobbits(ciudadanos con baja información, poco interés y deseo de participación) o hooligans (demasiada información y opiniones fuertes con muchos prejuicios).
En mi opinión, cualquier balance ha de tener en cuenta que la democracia debe combinar adecuadamente la desconfianza hacia el poder y la desconfianza hacia la gente. El modelo que surgió tras la experiencia de los totalitarismos del siglo XX y que culminó en la tesis del final de la historia como victoria de la democracia liberal, acentuó el elemento de hiperprotección de las instituciones frente a la voluntad popular. La arquitectura institucional de la posguerra había fortalecido aquellas instituciones que limitaban la soberanía popular y parlamentaria. Por razones que son fáciles de entender, el consenso antitotalitario se tradujo en unas instituciones de democracia disciplinada, especialmente en la gran competencia que se concedía a instituciones sobre las que los ciudadanos no tenían poder electoral. Este es el modelo de democracia liberal que está en crisis, pese a cómo se entiende a sí misma por contraste con las llamadas democracias iliberales.
Entiendo por democracia liberal no la simple separación de poderes o el rule of law, sino un diseño institucional que concede un gran poder a instituciones no mayoritarias, organismos no electos, agencias independientes, revisión judicial, un constitucionalismo cerrado o que dificultaba su modificación constituyente, es decir, que resuelve la tensión entre soberanía popular y primacía del derecho con un claro desequilibrio hacia este segundo término. Estamos presentando el liberalismo como una víctima inocente de las pulsiones iliberales y no consideramos la posibilidad de que haya una fuerza expansiva del liberalismo que limita la democracia. Como ha sostenido Philip Manow, la crisis de la democracia liberal no equivale a la crisis de la democracia. Estamos ante una crisis de la democracia liberal y no ante una crisis de la democracia. La crisis actual de la democracia es la crisis del diseño institucional que se hizo en torno a los años ochenta y noventa del siglo pasado, en la ola de democratización tras la salida de las dictaduras en los países del sur y el este de Europa. Es una crisis consecuencia de una victoria, del triunfalismo y la falta de autocrítica del modelo liberal de democracia.
La democracia tiene una dimensión de incertidumbre, de juego imprevisible, de apertura y libre decisión, que puede ser limitada por las instituciones, pero no hasta el punto de eliminarla. Su estabilidad no consiste en dejarlo todo bien atado, en considerar que cualquier cuestionamiento equivale a abrir la caja de Pandora, en pensar que el poder constituido es superior al poder constituyente. Las democracias tienen que estar abiertas a la toma en consideración de nuevas perspectivas que habían sido desatendidas en los procesos instituidos. Mientras esto no sea posible, esté demasiado limitado o sea así percibido por la sociedad, no se desactivará la sospecha de que no es suficientemente democrática y tendremos populismo para rato.
Daniel Innerarity,
La democracia debe desconfiar del poder y de la gente, El País 19/08/2024
Teseo fue uno de los héroes más célebres de la mitología griega, conocido, entre otras aventuras, por su valentía al derrotar al Minotauro en el laberinto de Creta. Cuentan que, después de haber completado sus grandes hazañas, su barco fue conservado por los atenienses como un monumento. Con el paso del tiempo, las piezas del barco comenzaron a deteriorarse, por lo que fueron reemplazadas una a una. Hasta que, al final, cada parte original del barco había resultado ser sustituida por otra nueva.
Entonces los filósofos de la antigua Grecia empezaron a usarlo como paradigma de sus reflexiones en torno a la permanencia de la identidad y sus paradojas: si todas las partes del barco han sido reemplazadas, ¿podemos decir que sigue siendo el mismo barco? Y si las piezas originales sustituidas se hubieran almacenado para formar otro barco, ¿cuál de los dos sería el auténtico barco de Teseo? ¿qué es lo que hace que el barco de Teseo siga siéndolo?
¿Cómo podemos hablar, al fin y al cabo, de que nosotros somos los mismos a lo largo de nuestra vida si varias son las veces en las que nuestro metabolismo reemplaza o repara todas y cada una de nuestras células³? ¿Qué es lo que nos hace permanecer, lo que sustenta nuestra identidad? Resonaban entonces las palabras de Heráclito exclamando panta rei, todo fluye, la única constante del universo es el cambio.
Javier Jurado, La paradoja de Teseo y el árbol milenario, Ingeniero de Letras 31/08/2024
Si la izquierda no es democrática, entonces no es de izquierdas.
Hace unos días, el director de la escuela de Frankfurt, Stephan Lessenich, reflexionaba sobre la "semiperiferización" de Europa y EEUU en la economía y política mundiales. ¿Hay una izquierda que cree realmente que la "decadencia de Occidente" es el umbral del fin del capitalismo, el imperialismo y la tiranía? ¿Hay una izquierda que cree de verdad que lo contrario de "malo" es "bueno"? Lessenich, digámoslo enseguida, no relacionaba esta "semiperiferización" de Occidente con ninguna transformación liberadora mundial, con ningún nuevo socialismo redentor; la relacionaba con "un capitalismo mucho más violento". No lo olvidemos: no hay más que capitalismo ahí afuera; no hay de momento ningún afuera. Mientras tratamos de imaginar y construir uno, ¿habrá que creer que el capitalismo chino, el indio, el ruso, el iraní son el no-capitalismo que soñábamos en el siglo XX?
Contra el capitalismo autoritario global que asoma entre los andrajos de Europa, la izquierda debería dejar de jugar al juego de los próximos vencedores (que serán nuestros próximos verdugos). Nuestras opciones son pequeñas, es verdad, pero pasan por proteger a regañadientes las instituciones que nuestros propios dirigentes han contribuido a menudo a degradar. En América -quiero decir- habrá que apoyar a Lula, a Boric, a Petro, a Claudia Sheinbaum, pero también a Kamala Harris; y nunca a Milei, a Trump, a Ortega o a Maduro, cuatro versiones de la misma medusa global. En Europa habrá que apoyar al gobierno de coalición de Sánchez, al Frente Popular francés, a la alianza verdirroja sueca, no a Putin o a Orban o a Le Pen, verdaderos zapadores de la "decadencia europea".
El problema de Maduro y Venezuela no es el daño que están haciendo a un socialismo que nunca existió, sino el que están haciendo a la democracia en un mundo en el que cada nuevo arañazo en la piel de nuestra mierda de instituciones democráticas franquea el paso, no a la verdadera democracia y al socialismo, no, sino a un capitalismo más violento y un orden político menos liberal. Parece mentira que la izquierda sedicente anticapitalista y antiimperialista esté tratando de acelerar la transición hacia un capitalismo más salvaje y hacia nuevas formas de tiranía mundial.
Santiago Alba Rico, Izquierdo y democracia, publico.es 14/08/2024
Después de aquel infausto mordisco en pleno goce del paraíso terrenal, el castigo divino recayó sobre Adán en forma de condena a extraer los frutos de la tierra con el sudor de su frente. Y en la boca de ese infierno mundano que ardió en los campos de concentración nazis, recibía al recién llegado un cartel con aquel tan famoso como torticero mensaje de que “el trabajo te hace libre”. Deberían resultar suficientes, pero no son estas dos las únicas advertencias capitales sobre la inveterada ocupación de —llamémoslo— laborar, trajinar, bregar, currar, ganarse el pan… en fin, esa no pocas veces tediosa actividad, que, en su acepción contemporánea, ya sea de 9 a 5 o en horario partido o por turnos, debería exhibir un aviso legal como las cajetillas de tabaco: trabajar mata.
Trabajar no solo acarrea potenciales peligros físicos y una rampante precariedad con evidentes repercusiones sobre el autocuidado, sino que, incluso en su vertiente menos arriesgada y más generosamente remunerada, conlleva una carga mental que afecta igual de gravemente la salud. Los empleados se declaran cansados, deprimidos, desmotivados, quemados. Hace ya mucho que se especula con que las máquinas se harán cargo de las labores más arduas y también de las que no lo son tanto, y los pensadores más radicales del postrabajo postulan no ya el alargamiento de los periodos de asueto, la mejora de la calidad de los empleos o la retribución de una renta básica universal, sino directamente la abolición del trabajo. Pero aquí seguimos, al pie del portátil, sin ni siquiera haber aprobado la reducción de la jornada laboral a 38,5 horas semanales en España.
En un artículo publicado originalmente en 2013, el antropólogo estadounidense David Graeber soltó la liebre y publicitó un secreto a voces, una realidad que muchos padecen, pero también un tabú del que pocos tienen el valor de hablar: en esta fase decadente del capitalismo, una ingente cantidad de puestos de trabajo —del sector privado, para más señas— resultan completa e irremediablemente inútiles. Son llanamente, tal como Graeber los denominó, “trabajos de mierda”. Como bien saben aquellos que los desempeñan, no es solo que nadie los echaría de menos si no existieran, sino que incluso el mundo sería un poco mejor si no hubiera quien los realizara. Aquel texto viral acabó convertido en un libro de referencia: Trabajos de mierda. Una teoría (Ariel, 2018), un ensayo donde el intelectual, fallecido en 2020, ofrece una definición operativa del término: “Un trabajo de mierda es un empleo tan carente de sentido, tan innecesario o tan pernicioso, que ni siquiera el propio trabajador es capaz de justificar su existencia, a pesar de que, como parte de las condiciones de empleo, dicho trabajador se siente obligado fingir que no es así”.
Silvia Hernando, El trabajo mata, muerte al trabajo, El País 17/08/2024
Según Jean-Pierre De la Porte, profesor de Literatura Comparada en la Universidad de Witwatersrand, las conclusiones teóricas a las que llegó Freud no se podían entender si antes no se había leído y asimilado un manuscrito suyo previo, de 1895, pero publicado póstumamente en los años cincuenta. El manuscrito se titulaba “Proyecto para una psicología científica”,[1] y en él Freud intentaba cimentar sobre una base neurocientífica sus primeras ideas sobre la mente.
Con ello seguía los pasos de su gran maestro, el fisiólogo Ernst von Brücke, miembro fundador de la Sociedad Física de Berlín. En 1842, Emil du Bois-Reymond formuló la misión de la Sociedad como sigue:
Brücke y yo hicimos un juramento solemne para poner en práctica esta verdad: “Las únicas fuerzas que están activas en el organismo son las fuerzas físicas y químicas comunes. Para explicar lo que actualmente dichas fuerzas no pueden explicar hay que encontrar la manera o forma específica de su acción por medio del método físico-matemático o bien suponer la existencia de otras fuerzas tan dignas como las fuerzas químico-físicas inherentes a la materia, reducibles a las fuerzas de atracción y repulsión”.
Johannes Müller, apreciado maestro de los anteriores, se había preguntado cómo y por qué la vida orgánica difiere de la materia inorgánica. Llegó a la conclusión de que “los organismos vivos son esencialmente diferentes de las entidades no vivas porque contienen algún elemento no físico o se rigen por principios distintos a los de las cosas inanimadas”.En resumen, para Müller, los organismos vivos poseen una “energía vital” o “fuerza vital” que las leyes fisiológicas no pueden explicar. Según él, los seres vivos no pueden reducirse a los mecanismos fisiológicos que los componen porque son entes indivisibles con objetivos y propósitos, lo que atribuía al hecho de que poseen alma. Teniendo en cuenta que la palabra alemana Seele puede traducirse como “alma”, pero también como “mente”, el desacuerdo entre Müller y sus alumnos se parece mucho al actual debate entre filósofos como Thomas Nagel y Daniel Dennett sobre si la conciencia puede reducirse a leyes físicas (Nagel lo niega, Dennett lo afirma).
Lo que me sorprendió durante el seminario de De la Porte fue enterarme de que Freud –el investigador pionero de la subjetividad humana– no se había alineado con el vitalismo de Müller, sino más bien con el fisicalismo de Brücke. Así, en las primeras líneas de su “Proyecto” de 1895, escribió: “La intención es estructurar una psicología que sea una ciencia natural: es decir, representar los procesos psíquicos como estados cuantitativamente determinados de partículas materiales especificables”. Yo desconocía la formación neurocientífica de Freud, y solo después supe que, aunque le costó, abandonó los métodos de investigación neurológicos cuando vio claramente, en algún momento entre 1895 y 1900, que los métodos entonces disponibles no tenían capacidad para revelar la base fisiológica de la mente.
Sin embargo, para Freud fue un cambio de dirección que le compensó con creces, porque le obligó a examinar con mayor minuciosidad los fenómenos psicológicos per se y a dilucidar los mecanismos funcionales que los sustentaban. Todo ello dio lugar al método de investigación psicológica que acabó denominando “psicoanálisis”. Su hipótesis fundamental era que los fenómenos subjetivos manifiestos (ahora llamados “explícitos” o “declarativos”) tienen causas latentes (ahora llamadas “implícitas” o “no declarativas”). Es decir, Freud sostenía que el hilo errático de nuestros pensamientos conscientes solo puede explicarse si suponemos asociaciones intermedias implícitas de las que no somos conscientes, idea que derivó en el concepto de las funciones mentales latentes y, a su vez, en la famosa conjetura de Freud sobre la intencionalidad “inconsciente”.
Como a principios del siglo XIX no había métodos para investigar la fisiología de los fenómenos mentales inconscientes, la única forma de inferir sus mecanismos era la observación clínica. Lo que Freud aprendió con ella dio lugar a su segunda afirmación fundamental. Observó que los pacientes adoptaban una actitud nada indiferente respecto a las intenciones inconscientes que se les infería; parecía más una cuestión de no querer verlas que de no poder verlas. Freud recurrió a varias palabras para describir esa tendencia –resistencia, censura, defensa y represión–, señalando que evitaba la angustia emocional. Esto sirvió a su vez para revelar el papel crucial de los sentimientos en la vida mental y hasta qué punto son la causa de todo tipo de sesgos interesados. Aquellos hallazgos (ahora obvios) mostraron a Freud que algunas de las principales fuerzas motivadoras de la vida mental son totalmente subjetivas, pero también inconscientes. La investigación sistemática de esas fuerzas lo llevó a su tercera afirmación fundamental: la conclusión de que en última instancia lo que apuntalaba los sentimientos eran las necesidades corporales; de que la vida mental humana, no menos que la de los animales, estaba impulsada por los imperativos biológicos de supervivencia y reproducción. Para Freud, dichos imperativos constituían el vínculo entre la mente sintiente y el cuerpo físico.
Así y todo, adoptó un abordaje muy sutil de esa relación mente-cuerpo, pues vio que los fenómenos psicológicos que estudiaba no eran directamente reducibles a los fenómenos fisiológicos. Ya en 1891 había afirmado que no era posible atribuir los síntomas psicológicos a procesos neurofisiológicos sin antes reducir los fenómenos psicológicos y fisiológicos (las dos partes de la ecuación) a sus respectivas funciones subyacentes. Como ya he señalado antes, al hablar del procesamiento de la información, las funciones pueden realizarse en distintos sustratos.Y según Freud, solo en el terreno común de la función podían reconciliarse la psicología y la fisiología. Su objetivo era explicar los fenómenos psicológicos mediante leyes funcionales “metapsicológicas” (esto es, “más allá de la psicología”). Al intento de saltarse este nivel funcional de análisis, pasando directamente de la psicología a la fisiología, se lo conoce hoy día como la “falacia localizacionista”.
Queda claro que para Freud, cuando no para sus seguidores, el psicoanálisis estaba pensado como una fase intermedia. Por mucho que desde el principio hubiese pretendido discernir las leyes que sustentan nuestra rica vida interior de experiencia subjetiva, para él la vida mental seguía siendo un problema biológico. En 1914 escribió: “Es de prever que todas nuestras ideas provisionales en psicología se sostendrán algún día sobre unos cimientos orgánicos”. Freud anticipó con entusiasmo el día en que el psicoanálisis regresaría a su unión con la neurociencia:
La biología […] es realmente un dominio de infinitas posibilidades. Debemos esperar de ella la información más sorprendente y no podemos adivinar qué respuesta dará, dentro de algunos decenios […]. Quizá sean dichas respuestas tales que echen por tierra nuestro artificial edificio de hipótesis.
Aquel no era el Freud tan peligrosamente especulativo del que me habían hablado en la universidad. Para mí, el “Proyecto” fue una revelación, tanto como lo había sido para el propio Freud, que por aquel entonces le escribió a su amigo Wilhelm Fliess:
En el transcurso de una noche ajetreada […] se levantaron de repente las barreras, cayeron los velos y fue posible ver desde los detalles de las neurosis hasta los determinantes de la conciencia. Todo parecía encajar, los engranajes estaban bien colocados; daba la impresión de que era realmente una máquina y que pronto funcionaría sola.
Sin embargo, la euforia duró poco. Un mes después, Freud escribió: “Ya no puedo entender qué pensaba cuando urdí la ‘Psicología’; no puedo entender cómo llegué a infligírsela a mis lectores”. Al no contar con los métodos neurocientíficos apropiados, Freud se basó en “figuraciones, transposiciones y conjeturas” para traducir sus deducciones clínicas en términos primero funcionales y luego fisiológicos y anatómicos. Tras un último intento de revisión (contenido en una larga carta que envió a Fliess el 1 de enero de 1896), se le perdió la pista al “Proyecto”, hasta su reaparición unos cincuenta años más tarde. Con todo, las ideas que contenía –el “fantasma oculto”, según James Strachey, el traductor de Freud al inglés– impregnaron toda su teorización psicoanalítica… a la espera de futuros avances científicos.
Mark Solms, El manantial oculto. Un viaje a la fuente de la conciencia, fronterad.com 15/08/2024
(1) De hecho, Freud no le puso ningún título a aquel manuscrito inédito; el título se lo inventaron los traductores ingleses. En su correspondencia con Wilhelm Fliess, Freud lo llamó “Psicología para neurólogos”, “Esbozo de una psicología” y “la Psicología”.
Los filósofos han dedicado esfuerzo e ingenio a la fatigosa tarea de analizar la subjetividad humana, ese reducto personal e intransferible que, según suponemos, siempre será privado e inaccesible al conocimiento empírico. David Chalmers, Daniel Dennett y muchos otros pensadores consideran que el “problema difícil” para entender la consciencia es el asunto de los qualia, que tiene que ver con los sentimientos privados. Por ejemplo, un neurólogo te puede mostrar qué neuronas de tu cerebro se activan cuando ves el color rojo, pero no lo que tú sientes al verlo, la rojez del rojo, su qualia (qualium, supongo que habría que decir en singular, pero no compliquemos aún más las cosas).
La rugosidad que sientes al tocar una piel seca, la embriaguez de un perfume y el sufrimiento de un dolor son otros ejemplos de qualia, percepciones subjetivas que solo podemos expresar con metáforas y que son nuestras, íntimas e inaccesibles a los demás. En un tiempo en que nuestros datos circulan por la nube y estamos poniendo todo perdido de nuestro ADN, los qualia son el último reducto de nuestra privacidad, el ascua ardiendo a la que podemos agarrarnos para preservar nuestros secretos y adoptar un aire enigmático que resulte disuasorio para la cotillería ajena.
Y es curioso porque, en sentido estricto, la subjetividad no existe, y un filósofo debería ser el primero en saberlo, a menos que siga creyendo en almas, fantasmas y dualismos cartesianos, como hicieron sus predecesores. Todo lo que percibimos, pensamos y sentimos consiste en la activación de ciertos circuitos neuronales, y eso incluye la rojez del rojo, la aspereza de una piel, el sufrimiento de un dolor y todo el resto de nuestra consciencia, esa cosa que perdemos al dormirnos y recuperamos al despertar. No hay ningún ectoplasma en tu cráneo que sea inaccesible al conocimiento objetivo. Solo hay neuronas disparando señales a otras, y, por tanto, la subjetividad no existe en un sentido filosófico. Otra cosa es que la ciencia actual se quede corta para entender los qualia, pero no hay ningún problema de principio para que llegue a hacerlo.
Un equipo internacional de 39 neurólogos y neurocientíficos acaba de publicar una investigación importante sobre 353 pacientes en coma, estado vegetativo y otros trastornos de consciencia. Les han hecho pruebas clínicas, de comportamiento y de registro de la actividad cerebral con resonancia magnética funcional (fMRI) y electroencefalografía (EEG). Algunos pacientes (112 de 353) muestran respuestas observables a las demandas de los médicos, como levantar el pulgar cuando se lo piden. Los otros 241 no muestran ninguna respuesta observable ni a ese ni a ningún otro test. El resultado principal es que, entre estos últimos, las imágenes de las neuronas en acción revelan que una cuarta parte de ellos están conscientes. Por chocante que resulte, hay alguien ahí dentro.
Esos datos sugieren un montón de cosas, ¿no es cierto? Algunas son terroríficas, porque hasta ahora hemos tenido a esos pacientes almacenados en las salas más aburridas del hospital, simplemente a la espera de que alguno de ellos pudiera despertar algún día. Saber que hay alguien ahí, una consciencia como la tuya o la mía, y aunque solo sea en uno de cada cuatro casos, debería conducirnos a replantearnos los protocolos actuales. Y, desde luego, será importante investigar si los actuales implantes cerebrales que se usan experimentalmente para personas paralizadas, y que les permiten comunicarse a través de un ordenador, pueden ayudar a estos pacientes a recuperar el contacto con el mundo, empezando por sus amigos y familiares.
Otra consecuencia de una naturaleza admitidamente más académica es que Chalmers, Dennet y sus seguidores filosóficos van a ver sus qualia y sus teorías de la consciencia seriamente averiadas. Todo lo que pasa en tu mente es un fenómeno físico que se puede detectar desde fuera. Dicho esto, dicho todo.
Javier Sampedro, Gente en coma: ¿hay alguien ahí?, El País 17/08/2024
El dilema del erizo apareció en la colección de ensayos filosóficos breves de 1851, "Parerga y Paralipómena", del griego apéndices y omisiones.
Fue la última obra de Schopenhauer y la primera que le trajo el reconocimiento filosófico que había esperado por mucho tiempo.
Como señaló satisfecho, fue "incomparablemente más popular que todo lo anterior".
La parábola dice así:
"Un día helado de invierno, varios erizos se apiñaron muy juntos para, gracias al calor mutuo, evitar congelarse. Pronto sintieron el dolor que les causaban las púas de los otros, lo que los hizo separarse nuevamente.
"Pero la necesidad de calor los volvió a unir, y se repitió el retroceso de las púas, de modo que quedaron atrapados entre dos males, hasta que descubrieron la distancia adecuada desde la cual podían tolerarse mejor el uno al otro".
Parece un cuento para niños, pero encapsula la compleja naturaleza de las relaciones humanas, y, afín con Schopenhauer, no tiene un final muy feliz.
Habla de que la vulnerabilidad es necesaria para que las relaciones sean más trascendentes y satisfactorias, pero aumenta el riesgo de un dolor más profundo.
Y de como vivimos atrapados entre dos males: el aislamiento y el peligro de herirnos mutuamente.
"La necesidad de sociedad que surge del vacío y la monotonía de la vida de los hombres los une; pero sus numerosas cualidades desagradables y repulsivas y sus insufribles inconvenientes los separan una vez más", continúa Schopenhauer.
"La distancia media que finalmente descubren y que les permite soportar estar juntos es la cortesía y los buenos modales.
"En virtud de ello, es cierto que la necesidad de calor mutuo sólo será satisfecha imperfectamente, pero, por otra parte, no se sentirá el pinchazo de las púas".
Estaríamos condenados entonces a nunca poder satisfacer plenamente el deseo de tener relaciones sociales positivas, una de las necesidades humanas más fundamentales y universales.
A pesar del pesimismo, la genialidad de la parábola resonó con quienes sondean los desafíos de la intimidad.
Freud la popularizó cuando, en 1921, se refirió a ella en “Psicología de grupo y análisis del yo”, al discutir sobre la “ambivalencia de los sentimientos” inherente a las relaciones a largo plazo.
Para el padre del Psicoanálisis, no había el afecto puro: en el amor, hay odio, en el odio, amor.
Como él, otros investigadores de las relaciones interpersonales han tenido la parábola en mente.
En ocasiones ha sido punto de partida en estudios, como en "¿La exclusión social motiva la reconexión interpersonal? Resolviendo el 'problema del erizo'”, en el que Jon Maner, Nathan DeWall, Roy Baumeister y Mark Schaller examinaron cómo las personas responden al ostracismo.
En otras, ha sido una herramienta para reconfortar a pacientes agobiados por sentimientos encontrados respecto a las relaciones íntimas, como en el caso de la psicóloga Luepnitz.
Muchos de nosotros, apuntó ella, experimentamos "la soledad como un fracaso personal más que como una condición esencialmente humana".
"La parábola normaliza un problema que muchos consideramos como un peculiar defecto de carácter", escribió.
Ha servido también como una ilustración de la importancia de los límites, tanto físicos como emocionales, así como de varios otros aspectos de las relaciones interpersonales.
Schopenhauer mismo había ido un poco más allá con aquello de la autogeneración de calidez.
Su escrito sobre los erizos terminaba diciendo "quien tiene mucho calor interior propio preferirá mantenerse alejado de la sociedad para evitar dar o recibir problemas o molestias".
El filósofo pensaba que todo eso que buscábamos en los otros lo podíamos encontrar en una soledad refinada por el desarrollo de nuestro intelecto y la profundización de nuestra apreciación del arte.
Si podíamos sumergirnos en un buen libro o elevarnos escuchando una gran obra musical, ¿para qué interactuar con seres humanos?
"Como regla general, se puede decir que la sociabilidad de un hombre es casi inversamente proporcional a su valor intelectual", declaró en otro ensayo.
Para los muy poco sociables, consideró, "la soledad es doblemente ventajosa".
"En primer lugar, le permite estar consigo mismo y, en segundo lugar, le impide estar con otros, una ventaja de gran importancia, dada la cantidad de restricciones, molestias e incluso peligros que existen en toda relación con el mundo".
Lo sabía de primera mano pues él prefería no arriesgarse a pincharse con las púas de los demás, así que vivió virtualmente aislado.
Tras una larga carrera filosófica, Schopenhauer murió en su apartamento de Frankfurt en 1860 a la edad de 72 años.
Redacción, Qué es el dilema del erizo ..., bbc.com 04/08/2024
Escuchemos lo que Michel Foucault tiene que decir sobre la parresía: «Es etimológicamente la actividad consistente en decirlo todo: pan rhema. El parrhesiastés es el que dice todo… Demóstenes dice: es necesario hablar con parresía, sin retroceder ante nada». Pero hay que decir que, tanto en la Antigüedad griega como en la actualidad, la parrhesía es siempre considerada como algo peligroso para quien la ejerce, pues «no solo arriesga la relación establecida entre quien habla y la persona a quien se dirige la verdad, sino que, en última instancia, hace peligrar la existencia misma del que habla, al menos si su interlocutor tiene algún poder sobre él y no puede tolerar la verdad que se le dice. Aristóteles indica muy bien este lazo entre la parrhesía y el coraje cuando, en La ética a Nicómaco, vincula lo que llama megalopsykhía (magnanimidad) a la práctica de aquella».
El parresiasta es, en efecto, «quien corre el riesgo de poner en cuestión su relación con el otro», continúa Foucault. «El decir veraz del parresiasta incurre en los riesgos de la hostilidad, la guerra, el odio y la muerte». Por su parte, Gregorio Nacianceno, arzobispo cristiano del siglo IV d. C, habla del parresiasta cristiano como de un mártyron aletheias o mártir de la verdad. Por todas estas razones, pocas personas están dispuestas a ser veraces. De hecho, es la mentira, y el ajustarse al discurso de lo establecido, a los meandros de la ideología, lo que habría de beneficiar socialmente a las personas (o, al menos, así lo estiman algunos). La libertad de expresión, en este caso, se vería vulnerada, puesto que expresar la opinión y el pensamiento propios sería un acto de parresía, algo peligrosoSin embargo, en la Antigua Grecia, la «parrhesía era un derecho que había que conservar a cualquier precio, un derecho que [se] debía ejercerse en toda la medida de lo posible, una de las formas de manifestación de la existencia libre del ciudadano libre».
En el caso de los antiguos griegos, la parresía no solo puede darse a la hora de comunicarse con otros (al menos, cuando se es parresiasta), sino al comunicarse cada cual consigo mismo. La salud en la Antigua Grecia consistía (y consiste) en ser franco con uno mismo, saber el lugar que cada cual ocupa en el mundo. Hoy, en cambio, asistimos a una casi total carencia de parrhesía, también con respecto a uno mismo. No es raro en la actualidad que el individuo quiera imponer una representación de sí mismo disociada de la realidad objetiva.
Sin embargo, en la Antigua Grecia, la «parrhesía era un derecho que había que conservar a cualquier precio, un derecho que [se] debía ejercerse en toda la medida de lo posible, una de las formas de manifestación de la existencia libre del ciudadano libre».
Según Foucault, en el siglo VI a. C se da una crisis de la parresía, al generar esta una gran desconfianza (al igual que ocurriría a día de hoy). Frente a lo que cabría imaginar a priori, Foucault llega a la conclusión de que la democracia no es propicia para la proliferación de la parrhesía: «La democracia […] no es el lugar donde la parrhesía vaya a ejercerse como un privilegio y un deber. Es el lugar donde la parrhesía se ejercerá como la libertad de cada uno y de todos para decir cualquier cosa, es decir lo que le plazca».
Pensemos en la democraticación radical de la opinión que suponen plataformas como X (antes Twitter) u otras redes del mundo digital. Habitamos, como en el siglo VI a. C ateniense, una «libertad parresiástica, entendida como autorización dada a todos sin distinción para hablar». Dentro de este hábitat democrático, ¿quiénes serán escuchados? «Los que agradan», responde Foucault, «los que dicen lo que el pueblo quiere, los que adulan. Y los otros, al contrario, los que dicen o procuran decir lo que es cierto y está bien, y no lo que agrada, no serán escuchados. Peor, suscitarán reacciones negativas, irritarán, inflamarán la ira. Y su discurso veraz los expondrá a la venganza y el castigo».
En palabras del orador, educador y político griego Isócrates: «Siempre acostumbrasteis expulsar de la tribuna a todos los oradores que no hablaban conforme a vuestros deseos». «Sé», concluye Isócrates, «que es peligroso oponerse a las opiniones de ustedes, puesto que, si bien estamos en una democracia, no hay parrhesía».
Vivimos hoy, quizás, una situación semejante a la señalada por Isócrates. La idea de parrhesía se manifiesta disociada, pues: «Por un lado, aparece como la libertad peligrosa, otorgada a todo el mundo sin distinción alguna, de decir cualquier cosa. Y por otro está la buena parrhesía, la parrhesía valerosa (la del hombre que dice generosamente la verdad, y aun la verdad que disgusta), que es peligrosa para el individuo que la usa y para la cual no hay lugar en la democracia».
En la actualidad, el acoso en redes sociales a personas relevantes, sin duda, existe, y es provocado, a menudo, cuando estas expresan ideas u opiniones verdaderas (o, al menos, estimadas como verdaderas por ellas). En la actualidad todos pueden hablar y cuentan con plataformas para que sus palabras sean escuchadas, pero, en el seno de ese ruido ensordecedor, generalmente, la verdad brilla por su ausencia. Y cuando esta asoma la cabeza en boca de personas concretas, es precisamente esa masa de lengua desatada la que se apresura a agredir con la intención de ocultar y sofocar toda forma de lo que Foucault entendió como la «verdadera parresía».
Iñaki Domínguez, La parresía griega ..., ethic.es 28/06/2024
Cassirer queda desolado con el conformismo con que se asume la toma del poder por parte de Hitler. Cuando este accede a la Cancillería del Reich, gentes cultivadas y con juicio propio no se atreven a mostrar sus discrepancias, adoptando una postura de sumisión, como si acataran un fatídico decreto del destino.
En el décimo aniversario de la República de Weimar, Cassirer había intentado ensalzar el pedigrí filosófico del ideal republicano que defendía su constitución, pero las fuerzas reaccionarias acorralaron a una socialdemocracia que fue aniquilada por el fanatismo de los más extremistas.
El conservadurismo nacionalista se alió con Hitler creyendo que podría manejarlo a su antojo, pero no fue así. Al pertenecer a una familia de origen judío, Cassirer tiene que partir a un exilio desde donde no dejará de combatir al nazismo con sus escritos filosóficos, tal como testimonia su obra póstuma El mito del Estado.
En esa época tenebrosa, Cassirer vuelve a releer las obras de Kant y Rousseau, porque piensa que los ideales de la Ilustración pueden contribuir a despejar las tinieblas del oscurantismo político. Su Filosofía de la Ilustración es un escrito de combate fechado en 1932.
Para la edición inglesa dejó al morir sobre su mesa de trabajo un texto introductorio cuyo significativo título en castellano es Rousseau, Kant, Goethe: Filosofía y Cultura en la Europa del Siglo de las Luces.
Pero su contienda contra la ideología nazi cristalizó en muchos textos breves que resultan más accesibles, tal como sucede con los opúsculos kantianos relativos a su filosofía de la historia. Sería el caso de Filosofía y política], publicado en la revista Arbor, o El judaísmo y los mitos políticos modernos, aparecido en Isegoría, lo que les hace fácilmente accesibles al estar en abierto.
Cassirer protagonizó en 1929 un duelo dialéctico mantenido con Heidegger que se ha hecho legendario por su simbolismo. En ese debate se confrontaron dos visiones del mundo que presentaban sendas interpretaciones de Kant. Ese torneo filosófico tuvo lugar en Davos, la localidad que Thomas Mann eligió para La Montaña mágica.
Esta novela contiene diálogos que pueden homologarse con las tesis confrontadas por Cassirer y Heidegger. Ambas cosmovisiones flotaban en el ambiente, porque la literatura refleja el clima social y la filosofía contribuye a modelarlo.
No es baladí leer los textos clásicos de una manera u otra. El modo de hacerlo condiciona los rumbos del devenir sociopolítico. Albert Speer, ministro de Armamento y Producción de Guerra de la Alemania nazi, lamentó no haber leído antes a Cassirer –lo hizo en la prisión de Spandau– porque, según confesó, de haberlo hecho quizá no hubiese sucumbido al encantamiento del Führer.
Roberto R. Aramayo, Cassirer contra Hitler ..., theconversation.com 05/08/2024
La pregunta que se plantea justo a continuación es esta: si una parte creciente de las sociedades desarrolladas está enfadada con las injusticias del capitalismo, con la globalización y con el deterioro de los servicios públicos, ¿por qué piensan que la solución está en la derecha radical y no en los partidos de izquierdas? ¿Es que acaso la anterior lista de agravios no coincide con los elementos más básicos de los programas políticos de izquierdas? Con diferentes matices y propuestas, la socialdemocracia y los partidos más a su izquierda llevan años llamando la atención sobre la desigualdad de ingresos y riqueza, sobre la necesidad de reforzar los Estados del bienestar y de abordar el calentamiento global, así como de regular de forma más estricta el capitalismo global.
¿Por qué, entonces, si las preocupaciones de esos votantes irritados encajan tan bien en los programas que ofrecen los partidos de izquierdas, luego, sin embargo, apoyan a los partidos emergentes de la derecha más radical? ¿Acaso esperan que estos mejoren los servicios sociales? ¿O que luchen contra la desindustrialización? ¿O que reduzcan la desigualdad?
Entiendo que para responder a estas preguntas hay dos vías. La primera consiste en suponer que el diagnóstico del problema antes presentado es correcto, pero los ciudadanos no actúan en consecuencia porque están confundidos o alienados, no acaban de entender sus verdaderos intereses. Las opciones a las que se puede recurrir para sostener esta tesis son muy variadas, desde las redes sociales, que no hacen más que meter ideas falsas en la cabeza de la gente, hasta los valores nacionalistas, pasando por la xenofobia y el rechazo del inmigrante. Habría, pues, un conjunto de factores que alejan a los ciudadanos más afectados por los problemas económicos de las opciones políticas que más les convienen y, de esta manera, acaban votando a la extrema derecha en lugar de a los partidos de izquierdas. Por decirlo brevemente, se intenta dar cuenta del ascenso de la derecha radical volviendo a la idea venerable de la falsa conciencia.
La segunda vía es menos directa, se basa en un argumento algo más complejo. Sin negar que haya graves problemas distributivos en las sociedades occidentales ni que vivimos tiempos inciertos debido a la rapidez con la que están sucediendo los cambios tecnológicos y culturales, esta segunda vía se centra en los problemas específicos que atraviesa la política y que tienen que ver con el profundo descrédito que padecen los políticos, los partidos y las instituciones de la democracia representativa.
La idea es la siguiente: los proyectos emancipadores o de progreso solo son viables cuando la gente confía en la política como instrumento de cambio. Hay que creer primero en la política para poder apostar luego por líderes y organizaciones que prometen reformas profundas de la economía y la sociedad. En este sentido, la ciudadanía puede estar de acuerdo con muchas propuestas de la izquierda, pero no actuar en consecuencia (votando por ellas) si piensa que la política está averiada.
Cuando había partidos que defendían métodos revolucionarios, el problema de la confianza en la política era el contrario: cuanto menos se confiaba en el sistema, más atractiva resultaba la posibilidad de una revolución que construyera una nueva sociedad (era el “cuanto peor, mejor”). Pero abandonado el sueño revolucionario en los países desarrollados, el único mecanismo de cambio que persiste es el institucional o reformista. Ahora bien, el reformismo, sea más o menos ambicioso, requiere por necesidad que se confíe en que el orden institucional es capaz de llevar a la práctica las propuestas de las fuerzas políticas. Cuando se pierde la fe en las instituciones, el reformismo queda condenado (“cuanto peor, peor”). Al margen del atractivo de las propuestas de cambio que ofrezcan las izquierdas, mucha gente pensará que son irrealizables, pues quedarán bloqueadas por los grupos de poder (nacionales o internacionales), o por la naturaleza corruptible de los políticos, o por cualquier otro factor.
De la misma manera en que a las izquierdas les perjudica la crisis de representación democrática, a las derechas, sobre todo a las radicales, les favorece (para ellas, “cuanto peor, mejor”). Al fin y al cabo, estas derechas propugnan mecanismos alternativos a la representación clásica, delegando en líderes fuertes que se burlan de los resortes institucionales de las democracias representativas. Esos líderes se supone que encarnan y defienden valores nacionales que los políticos tradicionales (de la derecha o la izquierda) han abandonado. No es que propugnen una vía revolucionaria, pero tampoco se someten a la lógica institucional. Proponen una solución intermedia (e inestable), basada en gran medida en el fenómeno de un hiperliderazgo liberado de restricciones institucionales.
Las derechas radicales capitalizan el descontento con la representación y prometen una política distinta, intransigente, sin complejos, dura, que permita superar la parálisis de la política institucional. Las izquierdas, en cambio, se encuentran en una posición incómoda y débil: no consiguen transformar el descontento económico en una palanca política porque no saben cómo resolver antes la crisis de la representación. Mientras no haya unos niveles superiores de confianza política e institucional, los programas de izquierdas tendrán grandes dificultades para ganar apoyos.
Esta manera de plantear el asunto permite entender por qué, a pesar de los problemas económicos a los que se hizo referencia al principio, es la derecha radical la que está consiguiendo ganar terreno en muchos países occidentales. Esos problemas económicos no son una invención, están ahí y muchos de ellos son urgentes, pero la solución no vendrá por la izquierda si tanta gente continúa pensando que los partidos y las instituciones están averiadas. Ese es el principal caldo de cultivo de la derecha radical, el descontento tan generalizado con la política. Y por eso mismo, la derecha radical invierte tanta energía en desprestigiarla.