CONTRIBUCIÓN DE FÍSICOS A LAS CIENCIAS SOCIALES

Por Alberto Benegas Lynch (h)

 

Siempre me ha llamado la atención que no pocos estudiosos de la física, es decir, de lo que habitualmente se entiende por materia, comprenden lo humano y espiritual muchas veces más profundamente que quienes son oriundos de las ciencias sociales que con algunas de sus reflexiones en la práctica niegan la condición humana.

Aquel ha sido el caso, por ejemplo, de Max Planck, el premio Noble en física, célebre por la teoría cuántica. En su libro traducido al castellano como ¿Hacia donde va la ciencia? apunta que “Se trataría de una degradación inconcebible que los seres humanos, incluyendo los casos más elevados de mentalidad y ética, fueran considerados como autómatas inanimados en las manos de una férrea causalidad […] Esta es una cuestión  muy importante, especialmente en la actualidad, debido a la difundida e injustificada tendencia a extender los dogmas del determinismo científico a la conducta humana y así descargar la responsabilidad de los hombros de los individuos”.

Lo dicho por Planck resulta fundamentalísimo precisamente en momentos en que el materialismo invade muy diversos campos de estudio dentro de las ciencias sociales. Así se sostiene que lo que decimos y hacemos deriva de nuestras respectivas programaciones, que somos como el loro, más complejos pero loros al fin. Que somos kilos de protoplasma sin estados de conciencia, mente o psique, lo cual no nos permitiría distinguir entre proposiciones verdaderas y falsas, no seríamos capaces de ideas autogeneradas, no podríamos argumentar, no tendría sentido la responsabilidad individual,  la moral y la propia libertad ya que no habría libre albedrío.

Lo que sostiene Planck puede aparecer como inocente y despegado de la realidad pero está encajado en la psiquiatría donde no pocos profesionales paradójicamente desconocen la psique, no distinguen la mente del cerebro y parlan de “enfermedades mentales” cuando la patología explica que la enfermedad consiste en la lesión de células, órganos o tejidos pero los comportamientos y las ideas no pueden estar enfermas. En el derecho, especialmente en la rama penal, muchas veces ocurre esa confusión por lo que se concluye que el delincuente no debe ser castigado puesto que no es responsable de sus actos. En la economía, también paradójicamente en la teoría de la decisión en el contexto de la novel nuroeconomics.

El premio Nobel en neurofisiología John Eccles ha escrito el libro La psique humana para refutar el determinismo materialista y ha publicado un libro en la misma línea argumental con Karl Popper que lleva el sugestivo título de El yo y su cerebro. Eccles ha escrito en el ensayo titulado “Cerebral Activity and the Freedom of the Will” que “negar el libre albedrío no es un acto racional ni lógico. Esta negación presupone el libre albedrío debido a la deliberada elección de esa negación, lo cual es una contradicción”.

En otras palabras, mientras algunos economistas, profesionales de la psicología, abogados y cientistas sociales en general se debaten en una carrera mezcla materialismo con planificaciones forzosas de vidas y haciendas ajenas, hay distinguidos estudiosos de las ciencias físicas y médicas que comprenden mejor el espíritu del ser humano. Vean en el sentido anterior por ejemplo la manifestación del premio Nobel en economía Paul Samuelson que en 1989 -el mismo año del derrumbe del Muro de Berlín- quien escribió en una nueva edición de su Fundamentos de análisis económico que la Unión Soviética muestra que “una economía socialista planificada puede funcionar e incluso prosperar”.

Esta curiosidad de científicos de la materia que entiendan las ciencias humanas mejor que los propios especialistas en esa área tal vez se deba a que por contraste al estudiar la energía propia de la materia al observar a las personas se percatan de que se trata de algo de naturaleza bien distinta y única respecto al reino animal. Sin embargo, se nos ocurre decir que quienes están embarcados en el estudio del hombre erróneamente lo extrapolan al mundo físico sin haberlo profundizado.

Tenemos el caso extraordinario de Michael  Polanyi, justamente físico y médico quien ha escrito obras de gran calado sobre las ciencias sociales. Fue  quien desarrolló la idea del “conocimiento tácito” en el contexto del mercado libre en el sentido de quienes ponen en práctica lo que saben aunque no puedan explicar como lo llevan a cabo. Es el caso de la mayor parte de los ciclistas, simplemente andan sin explicar las leyes físicas inherentes al proceso. Esto complemente lo señalado por Friedrich Hayek en cuanto a la coordinación en el mercado a través del sistema de precios, cada uno ocupándose de su interés particular pero crean productos finales que no estaba en su intención  producir, solo contribuyeron en partes insignificantes. Como antes he escrito, es lo mismo que pone en evidencia John Stossel cuando ilustra lo dicho con un trozo de carne envuelto en celofán en un supermercado e invita a que cerremos los ojos e imaginemos en regresión desde el agrimensor, los alambrados, los postes, las cosechadoras, lo plaguicidas, los fertilizantes, el ganado, los caballos, las monturas cada uno haciendo lo suyo sin pensar en el trozo de carne en el supermercado. Nos invita a imaginar las miles de empresas horizontal y verticalmente que participan sin que nadie dirija todo el proceso y si se lo pretende dirigir (planificar) se destroza toda la cadena espontánea y hay faltantes y eventualmente no aparece la carne en la góndola.

Polanyi en The Logic of Liberty alude al proceso espontáneo de mercado de al decir primero que cuando se observa un jardín arreglado o una máquina funcionando suponemos que alguien lo hizo, esta es la forma obvia del orden pero también, sigue diciendo Polanyi, que una jarra de agua la llena con una densidad igual en un plano horizontal sin que nadie lo diseñe, ese es el orden físico pero “cuando el orden se logra entre seres humanos a través de permitirles que interactúen entre cada uno sobre la base de sus propias iniciativas se logra un orden espontáneo”. De modo que tenemos el orden obvio, el orden físico y el orden espontáneo que Adam Smith bautizó como “la mano invisible”.

También Polanyi en Meaning (editado por H. Prosch) se detiene a considerar la vital importancia de la libertad para discutir públicamente muy diversas perspectivas, la necesaria libertad para investigar en las ciencias, la libertad para debatir los resultados de lo que se descubre en el campo de las instituciones y los fallos judiciales,  la libertad para cada uno seguir su proyecto de vida sin lesionar iguales derechos de terceros, en otros términos, la libertad como oxígeno vital y como fundamento del respeto recíproco.

El premio Nobel en medicina Roger W. Sperry hace notar que “la conciencia está concebida para tener un rol directo en la determinación de las pautas en la excitación del cerebro. El fenómeno de la conciencia en este esquema está concebido para interactuar y en gran medida gobernar los aspectos histoquímicos y fisiológicos y las mentales […] lo cual significa una contradicción directa con las tesis centrales de behavorismo y con la filosofía materialista”. Por esto es que el antes mencionado filósofo de la ciencia Popper concluye que “si nuestras opiniones son resultado distinto del libre juicio de la razón o de la estimación de las razones y de los pro y contras, entonces nuestras opiniones no merecen ser tenidas en cuenta. Así pues, un argumento que lleva a la conclusión de que nuestras opiniones no son algo a lo que llegamos nosotros por nuestra cuenta, se destruye a si mismo”.

El propio Heisenberg enfatiza que la indeterminación en el mundo subatómico no significa libertad en las partículas sino la dificultad que presenta el uso de instrumentos (establece la conexión entre la física y la visión filosófica en Phisics and Philosophy. The Revolution of Modern Sciences) y, en este contexto, el neurocirujano Wilder Penfield en The Mystery of Mind destaca que Hipócrates fue el primero en señalar la relación mente-cuerpo que “fue incluida en una conferencia dirigida a un grupo médico sobre la epilepsia […]  dijo que ´Para la conciencia el cerebro es un mensajero´ . En realidad, su discusión constituye el mejor tratado sobre la mente y el cerebro que apareció el la literatura médica hasta bien transcurrido el descubrimiento de la electricidad”. El mismo autor subraya que en la fórmula clásica de juramento médico hipocrático está presente un código moral que el materialismo rechaza y resume el punto al escribir que “la función de la materia gris es la de llevar a cabo la acción neuronal que se corresponde con las acciones de la mente”.

Albert Einstein en carta a Robert Thorton el 7 de diciembre de 1944  ha manifestado que “Concuerdo plenamente con usted sobre el significado y el valor educativo de la metodología y la historia y la filosofía de la ciencia. Hay tantas personas hoy -incluyendo a científicos profesionales- que me parecen como alguien que ha visto miles de árboles pero nunca vieron un bosque. El conocimiento de antecedentes históricos y filosóficos otorga independencia de prejuicios de su generación, lo cual sufren muchos científicos. Esta independencia creada por una visión filosófica es -en mi opinión- la marca distintiva entre el mero artesano y especialista y el que realmente busca la verdad”.

En resumen, es llamativo que muchos estudiosos de lo material tengan un concepto sobre lo espiritual más acabado que no pocos de los que trabajan en las ciencias sociales que se empeñan en aniquilar la libertad y que son habitualmente los asesores de figuras autoritarias. Jaques Rueff en La visión cuántica del universo. Ensayo sobre el poder dice que es en verdad muy llamativo que deban utilizarse microscopios y otros instrumentos para conocer la naturaleza de la materia y a simple vista se ve la condición humana sin microscopios y otros instrumentos de laboratorio y sin embargo se niega la naturaleza libre del ser humano.

Todos los personajes citados han tenido rasgos geniales sin que se les prestara la suficiente atención en el tema aquí tratado a pesar de sus sapiencias, pero como ha escrito Johnathan Swift (en Thoughts on Various Subjects, Moral and Diverting), “Cuando en el mundo aparece un verdadero genio, puede identificársele por este signo: todos los necios se conjuran contra él”.

 

Alberto Benegas Lynch (h) es Dr. en Economía y Dr. en Ciencias de Dirección. Académico de la Academia Nacional de Ciencias Económicas, fue profesor y primer rector de ESEADE durante 23 años y luego de su renuncia fue distinguido por las nuevas autoridades Profesor Emérito y Doctor Honoris Causa. Es miembro del Comité Científico de Procesos de Mercado, Revista Europea de Economía Política (Madrid). Es Presidente de la Sección Ciencias Económicas de la Academia Nacional de Ciencias de Buenos Aires, miembro del Instituto de Metodología de las Ciencias Sociales de la Academia Nacional de Ciencias Morales y Políticas, miembro del Consejo Consultivo del Institute of Economic Affairs de Londres, Académico Asociado de Cato Institute en Washington DC, miembro del Consejo Académico del Ludwig von Mises Institute en Auburn, miembro del Comité de Honor de la Fundación Bases de Rosario. Es Profesor Honorario de la Universidad del Aconcagua en Mendoza y de la Universidad Peruana de Ciencias Aplicadas en Lima, Presidente del Consejo Académico de la Fundación Libertad y Progreso y miembro del Consejo Asesor de la revista Advances in Austrian Economics de New York. Asimismo, es miembro de los Consejos Consultivos de la Fundación Federalismo y Libertad de Tucumán, del Club de la Libertad en Corrientes y de la Fundación Libre de Córdoba. Difunde sus ideas en Twitter: @ABENEGASLYNCH_h

Pensando en Marx sobre materialismo

Por Alberto Benegas Lynch (h). Publicado el 27/10/17 en: https://puntodevistaeconomico.wordpress.com/2017/10/27/pensando-en-marx-sobre-materialismo-por-alberto-benegas-lynch-h/

 

Días pasados estaba releyendo algunas partes del primer libro que Marx y Engels escribieron juntos publicado en 1845, La sagrada familia. Crítica de la crítica crítica (no fue una errata, es así el título) en el que aluden a estudios realizados por Bruno Bauer y sus hermanos Edgar y Egbert.

La obra contiene muchas aristas pero la que tomo en esta oportunidad es el materialismo de Marx ya puesto en evidencia en su tesis doctoral sobre Demócrito (que a veces mezcla con sus diatribas contra el judaísmo a pesar de descender de una familia rabínica, aunque su padre cambió de religión al efecto de contar con mayor número de clientes en su bufete de abogado en el contexto del régimen prusiano).

A juzgar por lo que ocurre en nuestro mundo el materialismo filosófico o, al decir de Popper, el determinismo físico aparece hoy en muy diversos campos y proviene de muy diferentes tradiciones de pensamiento: en la economía (paradójicamente en la “teoría de la decisión”), en el derecho (especialmente en la rama penal), en interpretaciones de variantes psicológicas (a pesar de que el vocablo alude a la psique), en algunos médicos (sobre todo en el campo de la neurología) y en ciertas manifestaciones de la filosofía. En otras oportunidades me he extendido en este tema que estimo crucial, ahora lo condenso. Veo también que no pocos liberales que desarrollan temas muy sofisticados y provechosos pero no se ocupan de los cimientos de esa corriente puesto que si no hay libre albedrío no habría tal cosa como libertad, con lo que se estaría construyendo sobre arena.

Sin la capacidad independiente de decisión del ser humano, no habría tal cosa como proposiciones verdaderas o falsas, no habrían ideas autogeneradas, no habría argumentación ni razonamiento, no habría responsabilidad individual, no tendría sentido la moral ni, como queda dicho la propia libertad. Si fuéramos solo kilos de protoplasma seríamos loros, loros complejos pero loros al fin con lo que se habrá negado la condición humana.

En la misma línea argumental, John Hicks sostiene que allí donde no existe libertad intelectual naturalmente no hay vida racional, por ende, la creencia que el hombre está determinado “no puede demandar racionalidad. Por tanto, el argumento determinista está necesariamente autorefutado o es lógicamente suicida. Un argumento racional no puede concluir que no hay tal cosa como argumentación racional”. Los fenómenos físicos no son ni verdaderos ni falsos, simplemente son, para que tengan sentido las proposiciones verdaderas o falsas es necesario el juicio independiente.

Es de interés destacar la opinión de Max Plank quien escribe que en este contexto “se trataría de una degradación inconcebible que los seres humanos, incluyendo los casos más elevados de mentalidad y ética, fueran considerados como autómatas inanimados en manos de una férrea ley de causalidad […] El papel que la fuerza desempeña en la naturaleza, como causa del movimiento, tiene su contrapartida, en la esfera mental, en el motivo como causa de la conducta”.

Alan Turing llevó a cabo un experimento en el que ubicaba a una persona en una habitación donde se colocan dos terminales de computadoras, una conectada en la habitación contigua con otra computadora y la segunda conexión al otro ordenador manejado por una segunda persona. A continuación, Turing solicita a la primera persona referida que formule todas las preguntas que estime pertinentes por el tiempo que demande su investigación al efecto de conocer cual es cual, de lo contrario, si no pudiera establecer la diferencia (distinguir cual es cual) concluye Turing que es una prueba que no hay diferencia con el humano en cuanto a sus cualidades de decisión.

Por su parte, John Searle refuta las conclusiones de esa prueba con otra que denominó “el experimento del cuarto chino”. Consistió en ubicar también a una persona aislada en una habitación y totalmente ignorante de ese idioma a quien se le entregó un cuento escrito en esa lengua con una serie de cartones con preguntas sobre la narración del caso y otros tantos cartones con respuestas muy variadas y contradictorias. Simultáneamente también recibió otros cartones con códigos claros para que pueda conectar acertadamente las preguntas con las respuestas.

Explica Searle que de este modo el personaje de marras contesta todo satisfactoriamente sin que haya entendido chino. Lo que prueba este segundo experimento es que el sujeto en cuestión es capaz de seguir las reglas, los códigos y programas que le fueron entregados que es la manera en que la máquina del primer experimento se equipara en el sentido operativo mencionado y eventualmente con mayor rapidez (desde luego no en todos los sentidos como su incapacidad de amar, autoconciencia, decisión independiente y equivalentes, tampoco iniciar nada fuera de lo programado).

Noam Chomsky señala que “No hay forma de que los ordenadores complejos puedan manifestar propiedades tales como la capacidad de elección […] Jugar al ajedrez puede ser reducido a un mecanismo y cuando un ordenador juega al ajedrez no lo hace del mismo modo que lo efectúa una persona; no desarrolla estrategias, no hace elecciones, simplemente recorre un proceso mecánico”.

El uso metafórico algunas veces se convierte en sentido literal, tal es el caso de las expresiones “inteligencia”, “memoria” y “cálculo” aplicado a los ordenadores. La primera proviene de relacionar la comprensión de conceptos en base al inter legum, esto es leer adentro, captar significados. Y como apunta Raymond Tallis aplicar la idea de memoria a las computadoras es del todo inadecuado, de la misma manera que cuando nuestros abuelos solían hacer un nudo en su pañuelo para recordar algo no aludían a “la memoria del pañuelo”, del mismo modo que cuando se almacena información en un depósito no se concluye que el galpón del caso tiene una gran memoria, puesto que “la memoria es inseparable de la conciencia”. En el mismo sentido, este autor destaca que en rigor las computadoras no computan ni las calculadores calculan puesto que se trata de impulsos eléctricos o mecánicos sin conciencia de computar o calcular y si se recurre a esos términos debe precisarse que “solo se hace en el mismo sentido en que se afirma que el reloj nos dice la hora”.

En este plano de análisis hay muchas otras metáforas que arrastran el peligro de su literalidad (los economistas estamos acostumbrados a lidiar con estos peligros). Tal es el caso de uno de los ejemplos que critica Thomas Szasz sobre lo que coloquialmente se dice brainstorming y, para el caso, brainwashing cuando estrictamente se trata de mindstorming y mindwashing. También puede incurrirse en el error de hacer referencia al “deficiente mental” cuando es “deficiente cerebral”. Sin embargo, para el intento de probar la verdad de algo es inexorable la existencia de estados de conciencia (Popper), mente (Wilder Penfield), voluntad (Roger W. Sperry) o psique (John Eccles) distinta aunque estrechamente vinculada al órgano por el cual el hombre se comunica con el mundo exterior, es decir, el cerebro (Nicholas Rescher).

En la misma obra citada, Szasz subraya las inconsistencias de una parte de las neurociencias al pretender que con mapeos del cerebro se podrán leer sentimientos y pensamientos pero “el cerebro es un órgano corporal y parte del discurso médico. La mente es un atributo personal parte del discurso moral […] equivocadamente se usan los términos mente y cerebro como se utilizan doce y una docena”. También Szasz se refiere a otra metáfora peligrosa en cuanto a la mal llamada “enfermedad mental” cuando esto contradice la noción más elemental de la patología que enseña que una enfermedad es una lesión orgánica, de tejidos y células y, por tanto, no puede atribuirse a comportamientos e ideas (lo cual para nada contradice la relación mente-cuerpo).

Es sabido que todo lo material de nuestro cuerpo cambia permanentemente con el tiempo y, sin embargo, mantenemos el sentido de identidad (a menos que se haya padecido de una enfermedad o accidente que lesione partes vitales del cerebro que no permitan la interconexión mente-cuerpo).

El significado del principio de incertidumbre en el plano de la física cuántica no pone en duda que en el mundo subatómico pueda existir decisión y, en consecuencia libertad, tal como han referido físicos como el propio Heisenberg , el antes citado Plank, Louis de Broglie ya que las limitaciones en las mediciones son consecuencia de los instrumentos para operar como apuntan Gerald Holton y Stephen Brush .

Antony Flew escribe que “cuando hablamos de causas de un evento puramente físico -digamos un eclipse de sol- empleamos la palabra causa para implicar al mismo tiempo necesidad física e imposibilidad física: lo que ocurrió era físicamente necesario y, dadas las circunstancias, cualquier otra cosa era físicamente imposible. Pero este no es el caso del sentido de causa cuando se alude a la acción humana. Por ejemplo, si le doy a usted una buena causa para celebrar, no convierto el hecho en una celebración inevitable”.

También John Hospers manifiesta que “enunciando sólo los antecedentes causales, nunca podríamos dar una conclusión suficiente: para dar cuenta de lo que hace una persona en sus actividades orientadas hacia fines hemos de conocer sus razones y razones no son causas”. John Thorp ilustra la diferencia entre un acto y un proceso automático tal como ocurre “entre una decisión y un estornudo”.

Aparece una gran paradoja que, entre otros, expresa George Gilder en cuanto a que los procesos productivos de nuestra época se caracterizan por atribuirle menor importancia relativa a la materia y un mayor peso al conocimiento y, sin embargo, irrumpe con fuerza el materialismo filosófico.

Nathaniel Branden apunta que “Si el determinismo fuera cierto, ningún conocimiento resultaría posible […] incluyendo la teoría del determinismo”. Estrictamente, el pensamiento requiere libertad intelectual puesto que un proceso mecánico y necesario no permite elegir en que pensar y dejar abierto el resultado.

Por último, Thomas Nagel se pregunta sobre la consistencia de presuponer que la física lo explica todo porque “si la mente es en si misma meramente física, no puede explicarse por la ciencia física […], algo más se requiere para explicar como puede haber conciencia, seres pensantes”. Autores como Howard Robinson resumen el punto: “Lo físico es público en el sentido de que en principio cualquier estado físico es accesible (susceptible de precibirse, de conocerse) para cualquier persona normal […] Los estados de conciencia son diferentes porque el sujeto a quien pertenecen -y solo ese sujeto- tiene un acceso privilegiado a eso” y, además, “el pensamiento es sobre algo […] mientras que los estados físicos no son sobre algo, están simplemente ahí […] y los pensamientos pueden también ser sobre lo que no existe” pero lo físico es por definición lo que existe como tal (lo cual no quiere decir que pueda tocarse o, en su caso, ni siquiera verse, como los campos gravitatorios, las ondas electromagnéticas y las partículas subatómicas).

 

Alberto Benegas Lynch (h) es Dr. en Economía y Dr. en Ciencias de Dirección. Académico de la Academia Nacional de Ciencias Económicas, fue profesor y primer rector de ESEADE durante 23 años y luego de su renuncia fue distinguido por las nuevas autoridades Profesor Emérito y Doctor Honoris Causa. Es Asesor del Institute of Economic Affairs de Londres

LA CARGA DE TEORÍA DE LA BASE EMPÍRICA: ¿EL FIN DE LA FILOSOFÍA DE LA CIENCIA?

Por Gabriel J. Zanotti. Publicado el 5/3/17 en: http://gzanotti.blogspot.com.ar/2017/03/la-carga-de-teoria-de-la-base-empirica.html

 

(Art. publicado en Studium (2015), nro. 34, pp. 469-478).

Resumen: la tesis central de este artículo es si la filosofía de la ciencia no habrá llegado a su fin si se la sigue planteando como un programa de investigación que no se plantee el problema hermenéutico fundamental, a la hora de intentar resolver el problema de la carga de teoría de la base empírica. Para ello se repasa la historia del problema, tanto en sus aspectos metodológicos como filosóficos; se reseña la filosofía de la ciencia posterior a Feyerabend (que nosotros llamamos post-popperiana), y se pone peculiar atención al “nuevo experimentalismo” y a la noción de “teoría” que está en juego en el debate. Allí es donde introducimos la importancia del giro hermenéutico y una propuesta conceptual y terminológica para el famoso “testeo empírico”. Aclaramos luego que el realismo en la filosofía de la ciencia es una cuestión filosófica, no metodológica, para concluir luego en lo que se quería demostrar.

  1. Planteo del problema.

Desde que Popper planteó la cuestión en su famoso primer libro[1], el tema de la “carga de teoría” (theory-laden) de la base empírica se ha convertido en un problema clásico de la filosofía de la ciencia, pero nos atrevemos a diagnosticar que sus implicaciones aún no se quieren asumir.

Según Popper, los famosos enunciados observaciones, esenciales para el testeo empírico de las hipótesis, son interpretados desde la hipótesis que supuestamente los enunciados observacionales “juzgan”. Si queremos testear empíricamente a Newton y hacemos caer libremente un cuerpo y lo hace según 9,8 m por segundo, podemos “interpretar” dicha observación, supuestamente “fáctica” porque la teoría newtoniana nos permite hacerlo. Esto es, son las nociones de gravitación, inercia, etc., las que nos permiten interpretar el fenómeno y hacer las mediciones correspondientes, porque es también esa teoría la que nos permite construir los aparatos de medición y es también esa teoría la que nos permite interpretar y establecer el grado de relevancia de las condiciones iniciales. O sea que los “jueces” de la hipótesis, esto es, la “base empírica” son juzgados a su vez por las hipótesis.

¿Entonces?

La historia es conocida. Popper quiso poner el freno y comenzó a criticar a T. Kuhn[2], para el cual, obviamente, todo (desde los enunciados teoréticos básicos hasta los experimentos del puzzle solving) estaba contenido en el “paradigma”, donde la “carga de teoría” es ahora el paradigma dominante desde el cual “constituimos” el mundo[3]. Lakatos quiso salvar, ante esto, la racionalidad popperiana con sus famosas hipótesis ad hoc falsables pero, eso sí, dentro de su falsacionismo metodológico “sofisticado”[4] donde se daba por supuesto el problema de latheory-laden y se rechazaba el supuesto falsacionismo “ingenuo” de Popper (este no se quedó atrás y trató a Lakatos como un díscolo ex ayudante que no lo entendió: “…he could have asked me”[5]). Por supuesto, el que llevó las cosas a sus últimas conclusiones fue Feyerabend: la carga de teoría hacía desaparecer el papel tradicional del testeo empírico, con lo cual desaparecía nada más ni nada menos que la demarcación tradicional entre ciencia y metafísica[6].

  1. La cuestión metodológica.

Por supuesto, esto ponía serias restricciones al alcance del método hipotético-deductivo concebido, tanto en Hempel[7]como en Popper, como un método para aceptar o rechazar hipótesis, aunque nunca de modo definitivo. Popper rechazó por supuesto el tema de la probabilidad en Hempel y en Carnap[8], pero para el problema de la carga de teoría adoptó una solución convencionalista: cada comunidad científica podía utilizar la base empírica que considerara conveniente[9]. Ello obviamente era casi ponerse en la posición de Kuhn pero Popper jamás aceptó esa derivación. Simplemente utilizó la carga de teoría como una razón más para oponerse al inductivismo de sus predecesores. La hipótesis (conjetura) no sólo es a priori del testeo empírico porque este último sea aquello que juzgaría algo que está supuesto “primero”, sino porque, dado el problema de la carga de teoría, es obvio que siempre es primero la conjetura y luego la observación, que era uno de los lemas anti-inductivistas básicos de Popper. El MHD (método hipótetico-deductivo) quedaba así “bañado” de conjetura. Podemos seguir llamando base empírica al conjunto de condiciones iniciales más predicción, pero la selección e interpretación de las condiciones iniciales están hechas desde la conjetura y la interpretación de los supuestos “datos” de la observación, también. Podríamos preguntarnos qué queda entonces de una observación que sea un “falsador potencial” pero esas preguntas dignas de Feyerabend ya no fueron contestadas por Popper, muy concentrado en su debate con Kuhn.

  1. La cuestión filosófica (el tema del realismo).

Desde luego, esta cuestión ponía en jaque al realismo que muchos suponían en el MHD, basado en la tradicional distinción entre los elementos hipotéticos NO observables y la base empírica que sí lo era. Popper, sin embargo, siempre defendió su realismo como aproximación a la verdad, basado en su igualación entre grado de corroboración y verosimilitud[10]. Pero la cuestión no era tan sencilla. Popper podía tener sus razones filosóficas para ser realista como “no-idealista”[11], y obviamente defendió al realismo frente al supuesto escepticismo de Kuhn, pero desde el punto de vista de la sola lógica del MHD, el éxito predictivo, o sea la no-falsación, nunca había sido razón suficiente para el realismo en filosofía de la ciencia, sobre todo en el convencionalismo y en el instrumentalismo. Autores posteriores al giro histórico de la filosofía de la ciencia[12] (Kuhn-Lakatos-Feyerabend), como Laudan[13] y Van Frassen[14], desafiaron que el realismo fuera una implicación lógica del MHD. En Van Frassen, el círculo entre teoría y observación, que se da precisamente por la theory-laden, es llamado nada más ni nada menos como círculo hermenéutico[15], y llevado claramente a sus consecuencias no-realistas. Ello no implica que nosotros coincidamos con dicha interpretación del círculo hermenéutico[16], sólo mostramos que el problema de la base empírica plantea serios problemas para el realismo que Popper creía no afectado por ese problema.

  1. La filosofía de la ciencia post-popperiana.

Gran parte de los autores que siguieron a Laudan y Van Frassen quisieron luego volver al realismo pero, ya no casualmente, manteniendo a Popper “a parte” de sus propios argumentos. Así, Harman[17] y Lipton[18] sistematizaron la “inferencia a la mejor explicación”, que no era muy diferente a los métodos de Mill que ellos mismos citan: la selección de hipótesis plausibles para la mejor explicación posible y la posterior experimentación para llegar a una de las hipótesis seleccionadas. Claro, con esto no podían dejar de lado el problema de la base empírica, porque para pasar de hipótesis posibles a hipótesis plausibles se necesita una teoría previa que distinga entre ambas….

Lo mismo con el argumento del no-milagro utilizado por Psillos[19], Putnam[20], o Harré[21]. Según este argumento, el éxito predictivo de las hipótesis no puede ser “por milagro” como una especie de “casualidad”, lo cual llevaría a la inferencia de la realidad de las hipótesis y-o de las entidades postuladas por éstas. Pero, de vuelta, con ello no se refutan las implicaciones no realistas (si por realismo se sigue interpretando el realismo de la base empírica) de la carga de teoría. Si se presupone que hay un orden real en el universo, claro que, entonces, el éxito predictivo no es causal, pero para ello hay que suponer nada más ni nada menos la teoría de un orden real en el universo, teoría que forma parte de una filosofía de la física previa al MHD. Por lo demás, claro que suponemos “reales” muchas de las entidades que ahora la ciencia postula (desde las bacterias hasta las “inciertas” partículas elementales de la Física Cuántica) pero ello presupone las teorías que nos permiten interpretar lo “observado”.

No en vano Nancy Cartwright[22] ha escrito un libro cuyo título es, nada más ni nada menos, “Cómo mienten las leyes de la física” poniendo el dedo en la llaga de que todas las predicción de los modelos de la Física son realizadas en condiciones ideales que ya dejan de lado por definición infinitas variables desconocidas, lo cual restringe mucho, obviamente, las pretensiones “realistas” de las hipótesis concebidas como modelos, lo cual está dado, agregamos nosotros, justamente por cómo la teoría concibe los modelos básicos. No por ello Cartwright saca conclusiones anti-realistas, pero para ello hace una sutil combinación entre Mill y Aristóteles cuya evaluación excede los objetivos de este artículo[23].

  1. El nuevo experimentalismo.

El mejor ejemplo de la reacción contra la “theory-laden” es el “nuevo experimentalismo” donde explícitamente se quiere volver a una especie de experimentalismo al estilo Mill donde los experimentos tendrían su vida propia, independientes de la teoría. O, mejor dicho, independientes de teorías de alto nivel, ninguno de estos autores (Hacking[24], Mayo[25], Ackermann[26]) ignora la mínima formación teorética que tiene que tener un científico. Por supuesto, cada uno de estos autores tiene un ejemplo favorito. Para no elegir ejemplos que estén condicionados por aquello que queremos concluir, vamos a dar la forma de su argumentación: sea un caso donde quiero mostrar que dadas ciertas condiciones iniciales, el efecto es NO A, contrariamente a A, que era lo supuesto anteriormente dadas otras condiciones iniciales. Para hacerlo sólo tengo que conocer la mínima teoría anterior de la cual se infería A, no tengo por qué conocer la teoría que retrospectivamente explicará NO A y todas las consecuencias teoréricas no intentadas, retrospectivamente, del experimento. Esto es, suponiendo que los experimentos son obviamente llevados a cabo por científicos, y no por legos, la carga de teoría es la obvia, esto es, ser un científico, pero los experimentos no tienen por qué depender de complejos armados teoréticos: cualquier científico atento al despeje de variables puede llegar a realizar experimentos tales que no se sepa qué teoría esté produciendo ciertos resultados.

Hacking, al tanto perfectamente de todo el debate reseñado hasta el momento, precisamente cuando discute a Feyerabend, hace el comentario clave de toda la cuestión: “…Most of the verbal quibble arises over the world ´theory´”[27]. En efecto, todo el punto es ese: ¿a qué llamamos “teoría”? Como dice Chalmers, “…Nadie puede negar la afirmación de que quien no distinga un imán de una zanahoria no está en capacidad de apreciar qué es un hecho verificado en electromagnetismo”[28].

  1. ¿A qué llamamos “teoría”?

Vayamos, pues, a esta esencial cuestión, y para ello volvamos a los autores del giro histórico. Kuhn no ignoraba de ningún modo que los científicos experimentan todo el tiempo, es más, a eso lo llamaba puzzle solving, la resolución habitual de problemas dentro de un paradigma. Aquí, como vemos, teoría no es cualquier cosa. Es –al decir de Lakatos- el núcleo central del programa de investigación en el que está trabajando. Por supuesto que no siempre está todo claro, por supuesto que en los momentos de “crisis”, el científico no puede plantearse las cosas desde la nueva teoría que luego, retrospectivamente, quedará claramente establecida. Los autores del nuevo experimentalismo parecen haber olvidado algo claramente explicado por Kuhn: la tensión esencial. Para captar “algo” del paradigma alternativo, para barruntar algo de la nueva teoría, o para comenzar a crearla en cierto sentido, es necesario estar formado en una teoría anterior. Por ello la “tensión”: por un lado ello puede implicar que nos aferremos al paradigma, pero por el otro lado ello es condición necesaria para que  comparemos con algo distinto al anterior. El científico no ve hechos sin teoría, sino que, comparando con su formación básica, es capaz de detectar una anomalía donde otros no habían visto nada. Al captar la anomalía ya está barruntando la nueva teoría: nadie dice que es esa nueva teoría la que tiene totalmente in mente, ya desarrollada, sino la teoría anterior, sin la cual no hubiera sido capaz de decodificar el problema. Por supuesto, el “cómo hace eso un científico” depende de algo que los teóricos de la “inferencia a la mejor explicación” no parecen terminar de ver: el carácter creativo no normado de la inteligencia humana. Por ejemplo, veamos este párrafo de Heisenberg: “…En 1900, estudiando la ley de radiación de cuerpo negro que él había descubierto, Planck detectó en los fenómenos ópticos un fenómeno discontinuo totalmente desconocido para la física clásica que, algunos años más tarde, quedó expresado de forma más precisa en le hipótesis de Einstein de los cuantos de luz”[29]. Cualquier interpretación desde el nuevo experimentalismo de este relato no daría importancia, me parece, a las sutiles explicaciones de la psicología de la percepción científica de T. Kuhn.

  1. No se quiere aceptar el giro hermenéutico.

Todo esto implica un diagnóstico: el análisis del realismo que defienden los autores posteriores al giro histórico de la filosofía de la ciencia (obsérvese cómo hemos cualificado al realismo: “….que defienden los autores posteriores al giro histórico de la filosofía de la ciencia”) implica que la filosofía de la ciencia ha llegado a un punto límite. No se ha podido ver el giro hermenéutico que implican los análisis de Koyré, Kuhn, y las conclusiones de Feyerabend, que implican a su vez el debate con Lakatos. Giro iniciado por Karl Popper. Es más: esos mismos autores no lo vieron, porque ellos mismos estaban en su propia “tensión esencial”. Ese giro implica asumir algo que la formación filosófica de todos los filósofos de la ciencia actuales, pobre en su diálogo con la filosofía continental, no pueden ver: los horizontes de pre-comprensión (Gadamer[30]) implícitos en toda teoría y cambio científico. Ello fue dicho en otros términos por Koyré, al afirmar la dependencia filosófica de toda teoría científica[31]; por Kuhn, al explicar las circunstancias filosóficas de los paradigmas y las crisis[32]; por Popper, al re-ubicar la relación entre ciencia y metafísica[33]; por Lakatos, al describir los compromisos metafísicos de los núcleos centrales[34], y obviamente por Feyerabend, cuando comenta y elogia el proceder contra-inductivo de los grandes científicos[35]. Justamente, cuando Feyerabend concluye la no-diferencia entre ciencia y metafísica, de modo desafiante, no quiere decir (el ejemplo es mío) que el experimento de Pasteur fue lo mismo que el argumento de San Anselmo, lo que quiso desatacar es que el compromiso teórico de la Física no se resuelve con ingenuos testeos empíricos que presuponen una base empírica “decisiva”.

Es más, esto último –tomar los límites del testeo empírico como una mala noticia- es un síntoma del positivismo cultural dominante. O sea: quedarse sin base empírica es como quedarse sin nada, cuando, por lo contrario, la ciencia siempre ha progresado en base a la discusión teorética de sus grandes premisas. Lo que hay que hacer –igual que en filosofía- es ir hacia la teoría. Debatir la teoría. Criticar la teoría. La suposición de lo contrario, y el endiosamiento de un testeo empírico imposible, lleva –como bien dijo Popper- a que nuestras universidades actuales se conviertan en fábricas de tecnólogos entrenados….[36]

Pero la hermenéutica, desde las filosofías realistas (ya no desde la ciencia) también parece inaceptable porque estaría irredimiblemente relacionada con las interpretaciones más escépticas de Heidegger (Vatimo[37]) y todo el post-modernismo posterior. Por ello nosotros hemos tratado de desarrollar una hermenéutica realista[38], donde la base de los horizontes de Gadamer esté en Husserl, y la intersubjetividad de este último, en la noción de persona de Santo Tomás de Aquino[39]. Lo más interesante de ello para filosofía de la ciencia, es que el gran inspirador de Kuhn, esto es, Koyré, formó parte del círculo de Gotinga que seguía a E. Husserl[40]. La insistencia de Koyré y Kuhn en la formación teorética de los científicos (como origen de los cambios científicos) no fue casual: tuvo su origen en Husserl, autor esencial para una interpretación fenomenológica y realista de los horizontes de Gadamer.

  1. Una propuesta para la cuestión metodológica: la ilustración.

Alguien podrá decirme: ¿pero entonces el testeo empírico es “imposible” y-o los experimentos son inútiles? No, nadie formado en Kuhn y al tanto de la importancia del puzzle solvingpara las “crisis” podría decir algo así. Claro que la ciencia tiene una instancia práctica donde el científico pretende “manipular” sanamente algo del mundo físico, pero lo que varía es el significado de todo ello. Un experimento lo que produce es una “ilustración”, como bien dijo F. Machlup[41], una “mostración”. Nadie pretende, para ir al principio de este artículo, que dejar caer un cuerpo bajo condiciones iniciales cercanas a las condiciones ideales newtonianas, junto con la medición correspondiente de 9,8 m/s, sea probar o refutar absolutamente la teoría de Newton. Lo que ello hace es “mostrar” a otros la interpretación del mundo físico conforme a Newton, siempre que los “otros” acepten sus premisas. ¿Es ello importante? Sí, siempre que ello sea un elemento que ayude a mostrar una teoría que esté en duda (decimes “ayude”: porque lo esencial es explicar la teoría). El experimento es una forma de ilustrar en la praxis la teoría, una vez que la teoría comienza a ser explicada. Pero la praxis permanente del puzzle solving es también lo que da ocasión al desarrollo de una nueva teoría que tiene que ser intelectualmente vista por el científico (como Copérnico “ve” la hipótesis de Aristarco ante el agotamiento de la praxis habitual de los epiciclos). De ese modo puede surgir progresivamente una nueva teoría que “refute” la anterior (nunca absolutamente). No de un “hecho”, sino de la visualización intelectual de una nueva teoría ante la degeneración teorética de un programa de investigación.

  1. Una propuesta para el problema filosófico: una filosofía de la física realista.

¿Y el realismo? Nuestra conclusión es simple[42]: no surge del MHD, es imposible encontrarlo por allí. La cuestión es elaborar una filosofía de la física según la cual haya cierto orden en el universo y entonces, allí sí, las teorías más simples ante las anteriores puedan ser signos de acercamiento al orden real del universo. Ello no es nada simple, claro está, sólo señalamos el camino del realismo. El MHD es una humilde cuestión de lógica. No se puede extraer de él ninguna conclusión gnoseológica y menos aún ontológica.

  1. ¿El fin de la filosofía de la ciencia?

Conclusión: si la filosofía de la ciencia quiere volver a ser el debate sobre un modo de evaluar las hipótesis más allá de nuestros horizontes de pre-comprensión, no se da cuenta de que ha llegado a su límite. Eso fue la filosofía de la ciencia. Es parte de su presente porque forma parte de su historicidad, sí, pero como programa de investigación, es ya insostenible. La ciencia es creación de teoría, la ciencia es el debate teórico de las teorías. Filosofar sobre ambas cosas, es seguir con la filosofía de la ciencia.

 

 

[1] La lógica de la investigación cientifica, (1934), Tecnos, Madrid, 1985. Cap. V.

[2]  Lakatos and Musgrave, Editors: Criticism and the Growth of Knowledge; Cambridge University Press, 1970. Pág. 51.

[3] Kuhn, T.: La estructura de las revoluciones científicas; FCE, 1971. Pág. 175.

[4] Lakatos, I.: La metodología de los programas de investigación científica; Alianza Ed., Madrid, 1989. Pág. 46.

[5] Replies To My Critics; in The Philosophy of Karl Popper, Part II; Edited by P.

Arthur Schilpp Lasalle; Illinois, 1974. Pág. 999.

[6] Feyerabend, P.: Tratado contra el método; Tecnos, Madrid, 1981.

[7] Hempel, C.: Filosofía de la ciencia natural; Alianza Ed., Madrid, 1981.

[8] Conjeturas y refutaciones; Paidós, Barcelona, 1983. Cap. 11.

[9] La lógica de la investigación científica, op. cit.

[10] Conocimiento objetivo; Tecnos,Madrid, 1988.

[11] Realismo y el objetivo de la ciencia; Tecnos, Madrid, 1985.

[12] Carrier, M.: “Historical Approaches: Kuhn, Lakatos and Feyerabend”, in Robert, J., editor: Philosophy of Science, Key Thinkers, Continuum International Publishers, London and New York, 2012.

[13] Laudan, L.: Progress and its Problems; Toward a Theory ofScientific Growth; University of Califonia Press, 1977.

[14] Van Frassen, B. C.: The Scientific Image, Clarendon Press, Oxford, 1980.

[15] Op.cit., p 56.

[16] Zanotti, G.: Hacia una hermenéutica realista, Austral, Buenos Aires, 2005.

[17] Harman, G. (1965) The inference to the Best Explanation, en The Philosophical Review (pp. 88-95).

[18] Lipton, P.: Inference to the Best Explanation, Routledge, 1991, 2004

[19] Psillos, S.: Scientific Realism, Routledge, 1999

[20] Realism with a Human Face, Harvard University Press, 1992

[21] Sobre Harré, ver Carman, C. (2004): El realismo Científico en Rom Harré (Tesis de Doctorado), Universidad Nacional de Quilmes, Argentina.

[22] Cartwright, N.: How The Law of Phisics Lie; Oxford and New York, Oxford University Press, 1983.

[23] Al respecto, ver Crespo, R.: Nancy Cartwroght, Millian and/or Aristotelian? Conicet, Buenos Aires, 2009.

[24] Hacking, Ian: Representing and intervening, Cambridge University Press, 1983.

[25] Mayo, D.G.: The New Experimentalism, Topical Hypotheses, and Learning from Error; PSA 1994, Vol. 1, pp. 270-279.

[26] Ackermann, R.: The New Experimentalism, Review Article; Brit. J. Phil. Sci. 40 (1989), 185-190.

[27] Hacking. I., op.cit., p. 175.

[28] Chalmers, A.: Qué es esa cosa llamada ciencia (2da. Reimpresión 2013), S. XXI, Madrid, 2013, p. 183.

[29] Heisenberg, W.: “The Development of Quantum Mechanics”, Conferencia Nobel, 11 de Diciembre de 1933, en Hawkin, S., (comp.): Los sueños de los que está hecha la materia; Crítica, Barcelona, 2011, p. 330.

[30] Verdad y método, I, y II [1960/1986]; Sígueme, Salamanca, 1991/1992

[31] En Pensar la ciencia; Paidos, 1994.

[32] La revolución copernicana; Orbis, Madrid, 1985.

[33] Popper, K., Conjeturas y refutaciones, op. cit.

[34] Lakatos, op.cit.

[35] Feyerabend, op.cit

[36] Popper, op.cit., Pág. 1144-46.

[37] Vattimo, G.: Más allá de la interpretación, Paidós, Barcelona, 1994; Más allá del sujeto, Paidós, Barcelona, 1992;Introducción a Heidegger, Gedisa, Barcelona, 1996.

[38] Zanotti, op.cit.

[39] Leocata, F.: Persona, Lenguaje, Realidad, UCA, Buenos Aires, 2003; Filosofía y ciencias humanas, EDUCA, Buenos Aires, 2010.

[40] Solís, C.: Introducción a Pensar la ciencia, de A. Koyré, en Koyré, A.: Pensar la ciencia, Paidós, Barcelona, 1994.

[41] Machlup, F.: El problema de la verificación en la Economía (1955), en Libertas (40), 2004.

[42] Lo habíamos dicho en Zanotti, G.: “Filosofía de la ciencia y realismo: los límites del método”, en Civilizar, 11 (21): 99-118, Julio-Diciembre de 2011.

 

Gabriel J. Zanotti es Profesor y Licenciado en Filosofía por la Universidad del Norte Santo Tomás de Aquino (UNSTA), Doctor en Filosofía, Universidad Católica Argentina (UCA). Es Profesor titular, de Epistemología de la Comunicación Social en la Facultad de Comunicación de la Universidad Austral. Profesor de la Escuela de Post-grado de la Facultad de Comunicación de la Universidad Austral. Profesor co-titular del seminario de epistemología en el doctorado en Administración del CEMA. Director Académico del Instituto Acton Argentina. Profesor visitante de la Universidad Francisco Marroquín de Guatemala. Fue profesor Titular de Metodología de las Ciencias Sociales en el Master en Economía y Ciencias Políticas de ESEADE, y miembro de su departamento de investigación.

LA TEORÍA HILEMORFICA Y LAS TEORÍAS CIENTÍFICAS ACTUALES

Por Gabriel J. Zanotti. Publicado el 17/1/16 en http://gzanotti.blogspot.com.ar/2016/01/la-teoria-hilemorfica-y-las-teorias.html

 

(Anexo 5 del cap. 48 del libro II de mi Comentario a la Suma Contra Gentiles de Santo Tomás)

La teoría hilemórfica de Aristóteles juega, como hemos visto, un rol central en el pensamiento de Santo Tomás, aunque, como hemos visto, Santo Tomás demuestra en la Suma contra gentiles la subsistencia del intelecto y el libre albedrío de la voluntad sin recurrir a ella como premisa mayor. Respecto a la unidad alma/cuerpo, hemos recurrido a la “experiencia fenomenológica del cuerpo”, donde tampoco la teoría hilemórfica funcionaba como premisa mayor. Sin embargo, la teoría hilemórfica de Santo Tomás es una de las más importantes hipótesis sobre filosofía de la física utilizada ampliamente por él. Amerita ser tratada conforme a los paradigmas científicos actuales.

Se podría decir que la teoría hilemórfica es una tesis de la filosofía de la naturaleza, que no utiliza el método hipotético-deductivo, y que por lo mismo se mueve en un plano diferente de las hipótesis científicas, sean cuales fueren. Pero ello no es tan simple. En su momento fue el eje central de la física de Aristóteles: de lo que hoy llamaríamos física. Fue concebida por Aristóteles fundamentalmente en el margen de los debates griegos sobre lo uno y lo múltiple, donde la diferencia entre filosofía y física no estaba planteada en términos actuales, y además creemos que fue concebida por Aristóteles fundamentalmente desde su experiencia como biólogo. Pero aun en el caso de que, como hoy, en la mayoría de los manuales tomistas la teoría hilemórfica se presente como una filosofía de la naturaleza,con certeza filosófica no ligada al nivel hipotético-deductivo de las ciencias naturales, eso es muy difícil. En la experiencia fenomenológica de lo corpóreo, este último es visto desde lo humano, pero la teoría hilemórfica, como tal, no parece depender del leib husserliano. Si respetamos esa característica, la teoría hilemófica dependerá necesariamente de lo que cada época histórica considere —consciente de ello o no— que son las hipótesis fundamentales sobre lo material. O sea: ¿Qué es la naturaleza física, independientemente de la experiencia humana de lo corpóreo? Y ahí comienzan los problemas. La respuesta del atomismo prearistotélico fue una; la de Aristóteles, otra (la teoría hilemórfica); la de Copérnico-Galileo-Kepler-Newton, otra; la de Einstein, otra; la de Plank-Heisenberg-Schrödinger, otra; la de Howking, otra; y así indefinidamente.

Pero entonces ¿se puede, como pretende el tomismo actual, mantener una versión de la teoría hilemórfica que sea como una especie de filosofía de la física, que integre a los diversos paradigmas físicos actuales?Trataremos de contestar la pregunta.

5.1  El atomismo, el neopitagorismo y el “mundo clásico”.

Ante todo, no olvidemos que Aristóteles rechaza uno de los programas de investigación que a finales de los siglos XVIII y XIX tuvo una notable progresividad teorética y empírica: el atomismo. Leucipo y Demócrito concibieron un mundo atomista; fue su modo de resolver el problema de Parménides: hay diversos infinitos, materiales e indivisibles unos, eternos e inmutables otros. Aristarco incluso concibió al cosmos casi como Newton, que lo concibió veinte o veintiún siglos después. Pero Aristóteles no consideró buena esa solución, y su teoría de la materia y la forma fue su modo de integrar las ideas platónicas con la diversidad de lo material, ende su teoría de la potencia y el acto. Todo esto es bien conocido. Solo quiero recordar al lector el contexto en el que la teoría hilemórfica fue concebida y el por qué de su rechazo del atomismo.

Pero la teoría de Aristóteles no era solo físico-biológica (en sus propios términos), sino mantenía una tesis ontológica que provenía de Platón y que Santo Tomás reintroduce en su contexto creacionista. Todo ente, con la máxima analogía del ente, es uno de Dios para abajo. Por lo tanto, la razón metafísica última de Santo Tomás para afirmar que incluso un ente “físico” es “un” ente es que el acto de ser no se dice de varios al mismo tiempo, sino de “un” ente. Por lo tanto este, tigre, en tanto tiene acto de ser, es de algún modo un tigre, y no varias cosas unidas accidentalmente.

Pero este aspecto de la metafísica de Santo Tomás no pudo sobrevivir a la caída del paradigma cosmológico aristotélico-ptolemaico. Decartes lo elimina sin darse cuenta, al rechazar la teoría hilemórfica, cosa que por otra parte no presentaba ningún problema en su ontología, porque la res extensa es geométrica y por tanto la unidad de las cosas “extensas” es obviamente accidental. El hombre es uno, sí, pero paga con ello el precio de un dualismo antropológico clásicamente conocido y que nosotros hemos rechazado desde la experiencia fenomenológica del leib.

El motivo de la caída del paradigma aristotélico-ptolemaico no es solo en el nivel filosófico de la filosofía de la naturaleza cartesiana frente la aristotélica. El neoplatonismo y el neopitagorismo del siglo XVI, según conocidos estudios de Koyré y Kuhn, y de los cuales estoy convencido, re-introduce la alta matemática neoplatónica por la crisis del paradigma ptolemaico, como Kuhn lo ha explicado. Copérnico introduce su “sola hipótesis matemática” como una solución matemática al problema de la retrogradación de los planetas. Con ello, dándose cuenta o no, tira abajo la división entre el mundo sub-lunar y el supra-lunar, y como efecto dominó, una nueva concepción del universo se expande: una física-matemática universal. No tenemos conciencia hoy de lo que significó esto en su momento. Hasta entonces el mundo sublunar, el de todos los días, estaba exento de las matemáticas precisamente por su contingencia. Desde Copérnico en adelante; desde el centro del universo para todos lados; esto es, desde el sol hacia todos lados, el universo físico “es” matemático. Galileo ensancha la inercia a todo el universo; Kepler concibe las órbitas elípticas; Newton sistematiza inercia, gravitación, masa y movimiento, pero, además, introduce la “tesis” del universo infinito en el espacio. Nuevamente, es Koyré el que nos recuerda la revolución conceptual que ello significó. El universo físicomatemático es infinito en el espacio. Agreguemos a ello las nuevas hipótesis astronómicas del siglo XIX, donde el Sol no es más que una estrella lejana en una elipse de una galaxia entre infinitas galaxias, para que se pierda toda noción de referencia absoluta al decir “dónde” estamos. Allí estsaba Einstein, a un paso. De allí a la relatividad del espacio-tiempo no había mucha “distancia”; que lo que llamamos cuerpos no son más que energía “concentrada”; que la gravedad es una curvatura en el espacio-tiempo no fue tanta revolución. Porque, finalmente, todo ello es el universo clásico: aun en Einstein, un gato es un gato, aunque vuelva más joven que todos nosotros si viaja y vuelve a la estrella más cercana cerca de la velocidad de la luz, o aunque pueda evitar desintegrarse viajando por un agujero de gusano Einstein-Rosen.

Esto es lo mismo que con la lógica matemática. La gran diferencia no es entre la lógica aristotélica y las lógicas matemáticas: ambas son lógicas clásicas, donde el principio de no contradicción es el mismo, donde si pentonces q, y donde no puede ser al mismo tiempo que p y no-p. En la física, el mundo clásico abarca desde siempre hasta Einstein. Vayamos entonces por pasos. En ese mundo, ¿cabe una versión “universal” de la teoría hilemórfica de Aristóteles, interpretada por Santo Tomás, que sea compatible con la transformación de la física desde Copérnico en adelante? El tomismo clásico respondió en dos pasos: primero, con algo que Santo Tomás ya había concebido en su momento: la teoría de los cuerpos mixtos. Santo Tomás sabía ya que en cuerpos complejos, como los vivientes, convivían al mismo tiempo los “elementos” ya conocidos desde Aristóteles. El tomismo posterior (Hoenen, Jolivet, Selvaggi, Tresmontant), al tanto de las transformaciones de la física y la química, coherentes con las teorías atómicas clásicas (Rutherford, Bohr), actualizaron la tesis de los elementos en los cuerpos mixtos, como la existencia “virtual” de los elementos en el compuesto, en estado de “potencia próxima al acto”: una molécula de agua tiene la “forma sustancial” agua. Sabemos que está compuesta por dos átomos de hidrógeno y uno de exígeno, pero no conforman por ello una unidad accidental, como los ladrillos de una casa o las partes de un juego para armar, que se arman y se desarman para conformar diversas formas “accidentales”, pero no sustanciales. No: están en el compuesto en estado de potencia próxima al acto. Si se divide la molécula (el “mínimo natural”) deja de ser una molécula de agua para pasar a ser “otras cosas”, pero ya no agua, y los elementos pasan al acto (hidrógeno y oxígeno); antes estaban en potencia; habían adquirido la forma sustancial del agua, pero mantenían sus propiedades básicas para, una vez dividido el compuesto sustancial, volver a “ser plenamente” lo que eran. Buena hipótesis. Si la llevamos a cuerpos donde hay mayores grados de unidad, como los mamíferos superiores, la “forma sustancial” aparece con más claridad como un principio organizativo del cuerpo, que lo hace ser tal cuerpo, compatible ello con la teoría actual del ADN. Si lo llevamos a lo humano, por ejemplo: parece evidente que cada uno de nosotros es uno; Juan, por ejemplo, es uno; no hay millones y millones de juanes, por más que sus átomos sean millones de millones: es que su forma sustancial es el principio organizante de una materia que, de lo contrario, sería “nada”, y esa forma sustancial da el ser tal a sus elementos. O sea: todo en Juan es humano: los hidratos de carbono que circulan por su sangre, por ejemplo, son “humanos”, pero, como están en estado de potencia próxima al acto, vuelven a ser azúcares “sustanciales”, una vez expelidos del cuerpo humano.

Un segundo paso —indispensable a mi juicio— fue dado por Artigas y Sanguineti. Por Artigas, sobre todo en sus últimos libros[1]. Como ya hemos comentado, la tesis principal de la filosofía de la física de Artigas, donde conecta al big bang, el evolucionismo y la providencia en Santo Tomás, es la autoorganización de la materia; esto es casi lo contrario de la entropía. La evolución del universo hacia moléculas macroorgánicas, y de ahí hasta el hombre, no solo da razón al principio entrópico, sino que además muestra en el universo un “dinamismo”, una finalidad, hacia “estructuras” cada vez más “unas”, que conforman finalmente a los seres vivos y al hombre. Ese dinamismo y estructuración originan esos “sistemas centrales” que se ven sobre todo en los seres vivos, y es ahí donde Artigas ve la forma sustancial de Aristóteles como el principio organizante y unificador de las “sustancias” en ese sentido; incluso, asignando al ADN un papel de “información” en la naturaleza, también autoorganizado. Detrás de esto se ve una tesis ontológica que encaja con el unum como trascendental: del principio del universo hasta ahora, “cada vez más” unum (unidad), que encaja con lo que habíamos visto como despliegue analógico de la unidad del ente. Si combinamos ahora esto con lo que sabemos de física y cosmología, parece obvio que esa unidad es cada vez más sólida cuanto más alto es el filum evolutivo de los seres vivos. La “forma” no solo ordena —esto es, da una “unidad de sentido” (al decir de Leocata) a cada ser vivo—, sino que es la clave del orden natural. Como hemos dicho, para ir al “detalle” de este orden natural dependemos de hipótesis, de conjeturas, pero no parece ser una conjetura que “tiene” que haber un orden, incluso si viéramos todo esto sin presuponer a Dios creador, cosa que en Santo Tomás siempre se supone. Incluso, si S. Hawking tiene razón y el universo implota y explota de una singularidad en la que no están las leyes físicas como hoy las conocemos. Sin embargo, es la filosofía de la física, y no la física, la que nos dice que “algo tiene que haber ahí” que conecte armónicamente el momento cero con el momento 10 a la -43 segundos del universo (si bien sus condiciones iniciales no son ontológicamente necesarias).

Todo esto es muy interesante, “pero” estamos aun en el mundo clásico, como dijimos. La dificultad surge ante los intrincados problemas ontológicos del mundo cuántico, en relación con el cual —no por casualidad— se han desarrollado lógicas no clásicas. La pregunta audaz es esta: ¿Queda algo de la forma sustancial en el mundo cuántico?

5.2 Física cuántica y forma sustancial

Obviamente, todo lo que estamos afirmando sobre la física actual no es nada más que lo que cualquier lector puede encontrar en obras de divulgación. Mi única propuesta, más allá de eso, es la combinación con Santo Tomás y con la teoría de la materia y la forma. Mucho más lo será así con lo que diremos ahora, que está lejos de ser una introducción a la física cuántica. Solo se tratará de recordar al lector interesado en ella que el principio de indeterminación de Heisenberg ha sido interpretado en general de modo gnoseológico, como si la cuestión fuera que no podemos intentar “ver” la posición de una partícula sin modificar su posición. Por lo que hemos leído, eso no es así. La física de las partículas elementales nos introduce en un mundo de verdaderos desafíos ontológicos, en indeterminaciones ontológicas, y no solo gnoseológicas y/o metodológicas. Las nociones habituales que aplicamos a lo que hemos llamado mundo clásico se quedan muy cortas —por decir lo menos— cuando nos aventuramos por el mundo cuántico. Los núcleos, electrones, quaks, etc., no son como soles, planetitas y pequeños satélites, respectivamente. La dualidad onda-partícula que se daría en ellos nos acicatea en nosotros un verdadero interrogante sobre su naturaleza, que está lejos de haber sido respondido. La física cuántica se mantiene hoy como cualquier programa de investigación progresivo, pues sus predicciones se aplican al macrocosmos, pero las hipótesis son sencillamente increíbles. No es que no podamos “ver” dónde están las partículas elementales: es que parece que en realidad son nada de lo que podamos concebir y que obviamente no están en ningún lugar definido. El experimento de la doble rendija, el famoso gato de Schrödinger, el experimento mental de EPR, cuya paradoja gnoseológica fue convertida en ontológica por los teoremas de Bell[2] y el teorema de Kochen-Specker, nos muestra una verdadera indeterminación ontológica, para lo cual nacieron las lógicas no clásicas cuánticas. El famoso experimento mental del gato de Schrödinger tendría implicaciones ontológicas profundas. Como se sabe, cuando la caja está cerrada, no sabemos si el gato está vivo o muerto, pero cuando la abrimos, el gato está vivo o muerto. Lo mismo ocurre con el experimento de la doble rendija: un observador intenta ver si el electrón se comporta como onda o como partícula cuando todo vuelve a “comportarse normalmente”; de lo cual se ha inferido que sería la conciencia del observador lo que hace que la función de onda (de las partículas elementales) “colapase” y entonces todo aparezca en un tiempo-espacio determinado como suponemos en el mundo clásico. El término “colapsar” significa aquí lo contrario de lo habitual: lo que “colapsa” es la indeterminación cuántica; esto es, un gato que estaría vivo y muerto al mismo tiempo; es decir, una partícula elemental que es realmente al mismo tiempo onda y partícula, y es una “nada” de cualquier cosa que pudiéramos concebir como “sustancia tal o cual”. Para decirlo en términos de un genial divulgador[3], el mundo cuántico es como Toy Story: los juguetes realmente hablan y se mueven, pero cuando el niño los ve parecen fijos. El mundo, cuando lo vemos, parece hecho por cosas grandes o chiquitas; sabemos que se mueve, que se expande, pero está realmente compuesto por partículas elementales que van más allá de la suposición de “cositas muy pequeñas”: serían cuántos discretos, verdaderamente indivisibles, de energía, que realmente no estarían en ningún lugar y no serían nada de lo que podemos caracterizar en términos ontológicos tradicionales; como mucho, parecen ser una nube de posibilidades definible con la matemática de la física cuántica y con predicciones que se cumplen en el mundo macroscópico. Esto desafía no solo a Aristóteles y a Santo Tomás: desafía también a Newton y a Einstein.

¿Cómo puede ser esto posible? No se puede salir por la tangente de que esto es solo un modelo matemático y que las teorías no tienen por qué tener algo que ver con la realidad, aunque sus predicciones se cumplan. Esto sí es ya mi especialidad: Bass Van Frassen[4] tiene razón en sus objeciones al realismo, si queremos basar al realismo científico en la sola lógica del método hipotético-deductivo; pero yo estoy trabajando en una tesis epistemológica, que permita refundamentar el realismo popperiano en un isomorfismo no exacto entre valores epistémicos (coherencia, simplicidad, etc) y acercamiento a la realidad. Si quiero ser coherente con ello, no puedo ser instrumentalista cuando una teoría complica mis supuestos ontológicos, y realista en todas las demás.

Uno podría detenerse aquí y decir: no resuelto y listo. Pero no sería coherente con la audacia del mundo cuántico no seguir largando conjeturas explicativas. Claro, mi rol no es el de S. Hawking, que espera unificar su big bang con Einstein y la teoría cuántica, pero sí puedo aventurarme a largar una conjetura de filosofía de la física que tenga que ver con la teoría hilemórfica. ¿No dice esta última que la materia es nada sin la forma? ¿Y no nos sumerge el mundo cuántico en una física de partículas donde estas son nada de lo que habitualmente llamamos “sustancia”? ¿No serán esas partículas la verdadera materia prima del universo, que nada es sin la forma? ¿No habremos llegado con la física cuántica a conjeturar un modelo que describa lo que sería la materiasin la forma?

Lo que estoy sugiriendo es esto: el universo cuántico no colapsa por la presencia de la conciencia. Está colapsado por la forma sustancial, que produce ontológicamente sustancia allí donde las partículas elementales no lo son. Obviamente, no puedo formular esto de manera matemática; tal vez alguien pueda; pero si es así, la física cuántica sería el verdadero atomismo, porque los cuantos son verdaderamente indivisibles; pero se trataría de un atomismo mucho más compatible con la forma sustancial, porque es esta última la que hace que la función de onda colapase, y entonces sí las partículas están no en un lugar, en un espacio-tiempo determinado, sino en una estructura que sí puede concebirse como ladrillitos del macrocosmos. Y si pensamos que la forma sustancial es nada sin el acto de ser, que el acto de ser está siempre dado por Dios, y que además la forma no es más que el grado de ser de lo creado, saque el lector sus propias conclusiones sobre cómo interviene Dios en el orden físico por él creado.

Alguien me dirá: esto es un delirio. Puede ser. Estoy en estado de intederminación cuántica-filosófica. Pero si quremos compatibilizar la física actual con la teoría hilemórfica de Santo Tomás, no se puede evitar pasar por la física cuántica. Yo no soy el adecuado para ese viaje. Pero el que pueda que lo haga. Yo solo quise convencerlo de sacar los pasajes, con la esperanza de que no termine como el astronauta de los agujeros negros de S. Hawking.

 

 

[1] La inteligbilidad de la naturaleza y La mente de universo, op. cit.

[2]Ver Hawking, S. (compilador): Los sueños de los que está hecha la materia, Crítica, Barcelona, 2011; La flecha del tiempo; Crítica, Barcelona, 1988; y Lombardi, O.: Mecánica cuántica: ontología, lenguaje y racionalidad, en Racionalidad en ciencia y tecnología, VVAA, Unam, 2011

[3] Juan José Arango (https://www.youtube.com/channel/UCtPfruCIHDd5KziCo8wAYJg ).

[4] Van Frassen, B. C.: The Scientific Image, Clarendon Press, Oxford, 1980.

 

Gabriel J. Zanotti es Profesor y Licenciado en Filosofía por la Universidad del Norte Santo Tomás de Aquino (UNSTA), Doctor en Filosofía, Universidad Católica Argentina (UCA). Es Profesor titular, de Epistemología de la Comunicación Social en la Facultad de Comunicación de la Universidad Austral. Profesor de la Escuela de Post-grado de la Facultad de Comunicación de la Universidad Austral. Profesor co-titular del seminario de epistemología en el doctorado en Administración del CEMA. Director Académico del Instituto Acton Argentina. Profesor visitante de la Universidad Francisco Marroquín de Guatemala. Fue profesor Titular de Metodología de las Ciencias Sociales en el Master en Economía y Ciencias Políticas de ESEADE, y miembro de su departamento de investigación.

DIOS, LA PSIQUE Y EL LIBRE ALBEDRÍO

Por Alberto Benegas Lynch (h).

 

Nos parece que la religión no es un asunto de los domingos, es mostrar interés de donde venimos y hacia donde nos dirigimos. No es un asunto menor. Los hijos adoptados en algún momento muestran curiosidad por saber quienes son sus padres biológicos, ¿como no vamos a estar interesados el resto de los mortales (y ellos también) en saber acerca de un origen mas profundo y primero?

 

Es inexorable el principio, de lo contrario,  si las causas que nos dieron origen irían en regresión ad infinitum, literalmente nunca hubieran comenzado las causas que nos permiten estar donde estamos hoy. Llamar a la primera causa, Dios, Yahveh, Alá o lo que fuere no resulta relevante, lo importante es la idea necesaria de la primera causa, no como la contradictoria noción panteísta sino agente fuera de la naturaleza. Tampoco es cuestión de pensar que se debe ser religioso, ya bastantes trifulcas, torturas, inquisiciones y matanzas han  habido en nombre de Dios, la misericordia y la bondad como para insinuar obligaciones que no son tales, solamente pensamos que se la pierden los que deciden cerrar los ojos sobre la pesquisa de marras.

 

No solo eso sino que la noción arrogante y absurda que nos fabricamos a nosotros mismos (lo cual sabemos que no es así) o que  todo ocurrió por casualidad no se condice con la realidad en cuanto a que la casualidad no existe, es siempre causalidad. Incluso los llamadas juegos de azar, por ejemplo, los dados responden a causas referidas a la velocidad con que se arrojan, el roce con el paño, el peso de los dados mismos etc. Cuando decimos que “por casualidad” nos encontramos con fulano o mengano es porque nos sorprendió el encuentro pero fue el resultado de nexos causales. Además, aceptando lo inaceptable, hay que preguntarse de donde surgió la posibilidad de la llamada casualidad. Por otra parte, sostener la hipótesis de que todo siempre estaba, es otro modo de pronunciarse sobre la antes referida concatenación de causas en regresión infinita con las consecuencias anteriormente señaladas (en ese supuesto no podría estar escribiendo lo que escribo en este instante). El Big-Bang es una posibilidad cierta pero se trata de lo contingente (puede estar o no estar), a lo que nos referimos es al ser necesario.

 

La humildad de pronunciarse en el sentido  que no somos el ombligo del universo sino que hay instancias que nos superan es una actitud compatible con el espíritu liberal de modestia en contraposición a la presunción del conocimiento y la correspondiente soberbia. La religatio, es decir la  relación con Dios, se traduce en lo que se conoce como el rezo (que no necesitan ser los sugeridos por otros) que es la forma que tenemos los humanos de darnos fuerza para encarar los problemas por los que atravesamos. Y no es que Dios hace o deshace cuando se le pide ya que esto estaría en contradicción con el ser perfecto ya que filosóficamente el movimiento,  es decir, el paso de potencia al acto es incompatible con el Acto Puro, lo contrario revelaría que le faltaría algo. Las fortalezas cuando las hay se han llevado a cabo en el momento uno (el comienzo del tiempo) ya que Dios conoce de antemano los problemas.

 

Esto último, el destino conocido por el ser perfecto, no es obstáculo para que tenga lugar el libre albedrío que es el eje central de la condición humana (Sto. Tomás de Aquino explica el punto con el  ejemplo de una persona que ve desde lo alto de una montaña a varios alpinistas que sin saberlo se encaminan al despeñadero sin que por ello se afecte su libertad). Si no fuéramos seres libres, no habría tal cosa como argumentación, racionalidad, ideas autogeneradas, responsabilidad individual, moral ni, desde luego, libertad. Seríamos loros, loros complejos, pero loros al fin por lo que ni siquiera podría “demostrarse” ni “saberse” sobre el determinismo físico (o materialismo filosófico) ya que lo racional, en este supuesto, está ausente.

 

El libre albedrío implica estados de conciencia, psique o mente independiente de los nexos causales inherentes a la materia ya que los kilos de protoplasma no deciden, eligen o prefieren  sino que están determinados. A su vez, aquellos estados de conciencia al no ser materiales no se extinguen lo cual significa la inmortalidad de la psique (alma en griego) y ese es nuestro destino que conjeturamos será mejor o peor según nuestra conducta sea mejor o peor.

 

Reflexionar sobre estos asuntos resulta de provecho para una detenida introspección. Sócrates mantenía que una vida no examinada no es una vida y Kant sostuvo que hay tres asuntos filosóficos centrales: “la libertad de la voluntad, la inmortalidad del alma y la existencia de Dios”, lo mismo ha dicho Copleston y han subrayado otros pensadores.

 

Seguramente son muchos los motivos de la irreligiosidad pero estimamos que uno muy generalizado que provoca el alejamiento de la religión y un serio obstáculo para el acercamiento a esta esfera consiste en  gran medida en las escandalosas barrabasadas económicas y sociales con implicancias de grave inmoralidad y por tanto devastadoras consecuencias para el futuro de la civilización que lamentablemente han dicho y dicen ciertos representantes de iglesias oficiales (personalmente me he pronunciado públicamente siete veces sobre las ideas del actual Papa de la Iglesia católica), junto a disposiciones absurdas que han proclamado en diversos planos y conductas inaceptables que ahuyentan a fieles y bloquean a otros que por eso tienen una visión sumamente desfigurada de la religatio. Situación ésta que no sucede en el ámbito del deísmo, a saber la religión fuera de las iglesias oficiales. Sin duda que además de lo apuntado, los fanáticos que todo lo justifican son otro motivo preponderante del apartamiento de la religión.

 

Hay una cuestión de gran relevancia para lo que estamos discutiendo y se trata de quienes ignoran la religión basados en el positivismo que sostiene que una proposición no verificable empíricamente no tiene ningún significado cognitivo, pero como se ha dicho, esa misma proposición no es verificable. Además, como también se ha puesto de manifiesto, nada en la ciencia es verificable solo está sujeta a corroboraciones provisorias abiertas a refutaciones. Por otra parte, si bien el decimonónico Círculo de Viena sistematizó el positivismo, contemporáneamente el principal difusor de esa tradición de pensamiento fue Alfred Ayer quien luego escribió en el trabajo compilado por R. A. Varghese titulado Great Thinkers on Great Questions que “El positivismo lógico murió hace mucho tiempo. No creo que sea verdad mucho de lo que dije en Lenguaje, verdad y lógica [probablemente el libro que fuera el más citado y ponderado por los positivistas modernos]. Creo que es una obra llena de errores”. Igual que en ciencias sociales, el tema de la religión no está sujeto al método hipotético-deductivo y al laboratorio propio de las ciencias naturales sino a razonamientos complejos que también derivan de la condición propiamente humana donde hay acción y no mera reacción.

 

Sin duda que muchas son las maneras por las que se inicia el abordaje de la religión. Whittaker Chambers -el célebre arrepentido de ser espía soviético y que luego contribuyó tanto a defender los valores de la sociedad libre- comenzó su religiosidad de manera peculiar. Escribe cuando le preguntan como abandonó las filas comunistas que “lentamente, con desgano, en agonía […] Poco después de mudarme a Washington al departamento de Alger Hiss [secretario de estado de F. D. Roosevelt, condenado por espía soviético], mi hija estaba ubicada en una silla y la estaba observando comer. Era lo más milagroso que ocurría en mi vida […] mis ojos se posaron en sus delicadas orejas, esas intrincadas y perfectas orejas. Mi pensamiento se dirigió a considerar que esas orejas no pueden haber aparecido por azar de una mezcla de átomos, que es la visión comunista[…] La libertad es una necesidad del alma y ninguna otra cosa […] Sin libertad el alma muere. Sin el alma no hay justificación para la libertad” y luego explica el significado del intento humano de acercarse a la perfección, a Dios, y los derechos naturales como mojones o puntos de referencia extramuros de la ley positiva mas allá de la pretendida ingeniería social legislativa diseñada por el hombre.

 

Otra forma de acercarse a la religión queda consignada en un libro escrito por quien ha sido amigo del que esto escribe: Antony Flew, quien me obsequió un par de sus obras y quien participó con otras personas y conmigo en un seminario sobre la sociedad abierta muy a propósito de lo que aquí presentamos, que tuvo lugar en Seúl en agosto de 1995 patrocinado por la International Cultural Foundation, ponencias que fueron editadas en forma de libro bajo el título de Values and the Social Order. Voluntary versus Coercive Orders.

 

Flew fue un conocido ateo durante mucho tiempo, período en el que publicó varios libros sobre el tema, además de sus tratados sobre muy diversos aspectos de la filosofía política. En su última etapa de producción intelectual publicó un libro que refuta su posición anterior titulado en la traducción al castellano Dios existe, en el que incluye reflexiones de otros autores de peso en la misma dirección de su nueva postura, especialmente físicos de la talla de Einstein, Heisenberg y Planck.

 

Para sacarle todo el jugo que tiene este libro de Flew hay que leerlo con atención, pero en esta nota periodística menciono telegráficamente dos puntos. El primero es el abordaje que el autor hace del tema religioso que consiste en concentrarse en el análisis del ADN debido a la enorme complejidad del número y combinaciones de elementos para producir vida. El segundo punto estriba en su refutación a los escritos de Richard Dawkins quien extrapola las características exclusivas de los seres humanos a unos genes peculiares que asimilan al hombre a una máquina.

 

En todo caso, la religatio nos parece un terreno hospitalario y gratificante si se lo despoja de afirmaciones y actitudes que contradicen los valores y principios morales inherentes a la idea de Dios (y expresiones equivalentes). Lo dicho en este campo responde a observaciones que no significan para nada faltarle el respeto a los ateos y agnósticos que, igual que nosotros, asumen sus responsabilidades. De más está decir que el punto de vista aquí expresado no es para implantar en otras personas que tienen otras miradas, lo contrario resultaría incompatible con el valor de la libertad y las consiguientes autonomías individuales. Son reflexiones que nos parecen cruciales que incluyen el libre albedrío y la psique como temas conexos e inseparables.

 

Finalmente, hay quienes rechazan la religión por el llamado “problema del mal”, esto es, niegan el teísmo debido a que hay tantas desgracias, unas atribuidas a acciones de los hombres y otras a episodios de la naturaleza. Pues bien, la eliminación del mal significaría en última instancia la eliminación de las imperfecciones lo cual a su vez eliminaría la posibilidad del universo y la creación ya que constituye una contradicción en los términos la existencia de más de un Dios (una perfección) puesto que uno tendría lo que no tiene el otro. Lo dicho naturalmente para nada significa que el ser imperfecto y limitado -nosotros- pueda abarcar y contestar todo lo relativo al ser perfecto. De todos modos, tal vez sea el momento de reiterar lo consignado en Eclesiástico (27:7), “No elogiéis a nadie antes de oírlo razonar, porque allí es donde se prueban los hombres”.

 

Alberto Benegas Lynch (h) es Dr. en Economía y Dr. en Ciencias de Dirección. Académico de la Academia Nacional de Ciencias Económicas y fue profesor y primer rector de ESEADE.