SANTO TOMÁS Y EL MÉTODO HIPOTÉTICO-DEDUCTIVO

Por Gabriel J. Zanotti. Publicado el 12/9/21 en: http://gzanotti.blogspot.com/2021/09/santo-tomas-y-el-metodo-hipotetico.html

(De mi libro Judeo-Cristianismo, Civilización Occidental y Libertad).

 Aunque Santo Tomás no haya hecho adelantar al paradigma científico de su tiempo, el sistema Ptolemaico, deja abierta la puerta “a otras posiciones” que logren explicar “las apariencias de los cielos”. O sea, un adelanto del método hipotético-deductivo explicado por Hempel y Popper.

          Un texto habitualmente olvidado es In Boethium De Trinitate, Q. 6a a. 1, donde Santo Tomás se pregunta si está bien la clasificación aristotélica de las ciencias especulativas en Filosofía Primera, Matemáticas y Física. Cuando llega a la Física, hace una sorprendente distinción, entre preguntas que la Física (de Aristóteles, o sea, la Física para su tiempo, unida al paradigma ptolemaico) puede contestar deductivamente a partir de primeros principios, y por ende con certeza, y otras que no. Las primeras corresponden a las conclusiones de lo que hoy los tomistas cultivan como la Filosofía de la Naturaleza de Santo Tomás, o sea sus comentarios a nociones aristotélicas como materia y forma, cuerpo, movimiento, espacio (como cantidad del cuerpo), etc., que por supuesto están comprendidas desde su perspectiva cristiana. En las segundas (y ahora citemos directamente a Santo Tomás) “… la inquisición (pregunta) de la razón no puede llegar al término antedicho sino que permanece en ella; por ej. cuando se pregunta y queda en suspenso a distintas respuestas, lo cual acontece cuando se procede por razones probables que producen por sí opinión o creencia, pero no ciencia[1]”.

Por supuesto, esto no implica que Santo Tomás se haya introducido en los debates actuales sobre la probabilidad[2], pero sí que advierte que a veces la razón humana no puede responder con certeza a ciertas preguntas, y que si responde son explicaciones no necesarias que quedan abiertas a otras explicaciones. Me dirán: pero dice que ello es opinión, no ciencia. Si, ello es conforme al uso griego habitual de “episteme” como conocimiento riguroso, “pero” lo más sorprendente es el ejemplo que da de un razonamiento así, donde menos lo esperaríamos. Está comenzando Santo Tomás el tratamiento de la Trinidad en la Suma Teológica, y se hace a sí mismo –como es habitual en el método escolástico de las sumas– una objeción: por qué otros pueblos han imaginado cosas parecidas a la Trinidad. A ello contesta que los seres humanos pueden a veces imaginar ciertas cosas, que no son necesarias, por supuesto, ni reveladas, por el otro lado. ¿Y cuál es el ejemplo? Un aspecto importante del paradigma astronómico de la época, el ptolemaico, que era un paradigma científico en términos de Kuhn. Veámoslo: “…Existen dos clases de argumentación: una, para probar suficiente y radicalmente una aserción cualquiera, como en las ciencias naturales se prueba que el movimiento del cielo es uniforme en su curso; y otra, para justificar, no un fundamento, sino la legítima deducción de las consecuencias o efectos en íntima conexión con una base (positae ) ya admitida de antemano. Así en la astrología se da por sentada la teoría de las excéntricas y de los epiciclos, porque por ella se explican algunos de los fenómenos sensibles (salvari apparentia sensiblia) que se observan en los movimientos de los cuerpos celestes: mas este género de argumentación no es satisfactoriamente demostrativo; porque a una hipótesis (positione) se pudiera sustituir otra, que explicase acaso igualmente la razón de tales hechos” (facta salvari potest).[3]

Observemos: “…otra, (o sea, otro tipo de argumentación) para justificar, no un fundamento (no algo con certeza tipo primeros principios), sino la legítima deducción de las consecuencias o efectos (deducción a partir de una hipótesis) en íntima conexión con una base (positae(o sea una hipótesis) ya admitida de antemano (o sea a priori).”

Y el ejemplo es (nuestro comentario irá en negrita): “…Así en la astrología (la astrología y la astronomía no se distinguieron sino hasta Kepler inclusive) se da por sentada la teoría de las excéntricas y de los epiciclos, (los epiciclos eran lo que hoy llamamos una hipótesis ad hoc para explicar la retrogradación de los planetas en el sistema ptolemaico) porque por ella se explican algunos de los fenómenos sensibles (o sea, con esa hipótesis ad hoc se explica el aludido movimiento observado, que para Santo Tomás es como aparecen los cielos, pero no la certeza de cómo son) (salvari apparentia sensiblia) que se observan en los movimientos de los cuerpos celestes: mas este género de argumentación no es satisfactoriamente demostrativo; porque a una hipótesis (positione) se pudiera sustituir otra, que explicase acaso igualmente la razón de tales hechos” (o sea, una determinada hipótesis se puede sustituir por otra mejor: de hecho ESO es lo que hizo Copérnico cuando retomó la hipótesis de Aristarco para explicar mejor la retrogradación de los planetas) (facta salvari potest).

Por lo tanto, el ejemplo que da Santo Tomás del método hipotético deductivo no sólo corresponde al principal paradigma científico de la época, sino que incluso corresponde a lo que hubiera permitido dejar como perfectamente opinable la tesis de Copérnico como también la de Ptolomeo, lo cual hubiera sido muy útil en el conflicto con Galileo (Santo Tomás, contrariamente a Andreas Ossiander, no consideraba “otras hipótesis” –como la posterior de Copérnico– como una mera hipótesis matemática). Por lo demás, cuando dice “opinión y no ciencia” ello es totalmente compatible con Popper, para el cual la ciencia no es certeza, sino doxa.[4] Eso sí: una doxa cuyo método es conjeturas y refutaciones. O sea, la cuestión no pasa en Popper por la distinción entre certeza y doxa, sino por una doxa metódica y otra que no. Por ende si Santo Tomás ha descubierto una doxa dentro del paradigma científico de su tiempo, ello es un signo de acercamiento con la noción actual de ciencia en Hempel y en Popper con el método hipotético-deductivo.


[1] La traducción es de Celina A. Lértora Mendoza en Tomás de Aquino, Teoría de la ciencia, Buenos Aires, Ediciones del Rey, 1991.

[2] Sobre esta cuestión, dice Celina Lértora Mendoza (op. cit.): “Por su parte “probabilis” también presenta problemas (Cfr. Th. Deman “Notes de lexicographie philosiophique médiéval: Probabilis”, Rev. Science. Phil. Et Theol, 1933, pp. 260-290). Según las acepciones del Glossarium Du Cange (T.V., in voce), significa: 1) rectus – bonus – approbatus; 2) praestans-insignis; 3) habilis-idoneus; 4) probus-legitimus. En el s. XIII, reciben ese nombre los sabios y sus doctrinas (p. 261). Santo Tomás lo usa habitualmente como opuesto a “demostrativo” aunque este uso no es general en su tiempo, salvo cuando se hace referencia a la correspondiente modalidad aristotélica. En un sentido más amplio, también lo usa como sinónimo de contingente, y como tal, es lo que escapa a la legalidad científica (p. 267). En cambio, Kildwardby llama “scientia probabilis”, la que procede por pruebas racionales (cfr. De Ordo Scientia, cap. 2) y en ese sentido se acerca en parte al uso tomista de “probabilis” como hipótesis que da razón de ciertos hechos, como la teoría de los epiciclos (p. 275). En resumen, el uso medieval del vocablo no es contante, pero en sentido general su significación implica la convicción de que todo no es igualmente cognoscible, y está vinculado a una concepción del método científico: la verdad es necesaria, pero puede conocerse por varias vías, algunas de las cuales pudieron comenzar como probables. No es que tal cosa sea probable, sino que se opina tal cosa con probabilidad (p. 287-290). Nota al pie nº 50, p. 41.

[3] Tomás de Aquino, I, q. 32, a. 1 ad 2.

[4] Popper, K., The World of Parmenidesop. cit.

Gabriel J. Zanotti es Profesor y Licenciado en Filosofía por la Universidad del Norte Santo Tomás de Aquino (UNSTA), Doctor en Filosofía, Universidad Católica Argentina (UCA). Es Profesor en las Universidades Austral y Cema. Director Académico del Instituto Acton Argentina. Profesor visitante de la Universidad Francisco Marroquín de Guatemala. Publica como @gabrielmises

La conjetura interpretable o de la filosofía pura

Por Gabriel J. Zanotti. Publicado el 16/2/20 en: http://bactriana.com/la-conjetura-interpretable-la-filosofia-pura/?fbclid=IwAR3caVbt44VBRlKaqzgSlsPf-2W1668dTCFG8i9eymxojbjE0hCMO3KJSeo

 

Ante estas cuestiones, no tenemos más que aceptar la noción de conjetura interpretativa para la intentio auctoris, que puede tener diversos grados de certeza.

Habíamos dicho que la hermenéutica es perfectamente compatible con la verdad y la certeza, que tiene que ver con habitar un mundo. Yo puedo decir «el decano del departamento de filosofía depende en última instancia del rector de la universidad» y puede ser perfectamente verdadero y cierto dado que habito ese mundo, estoy en él y lo «digo». ¿Pero se puede decir lo mismo con respecto a habitar el mundo del autor? Ya vimos que no, porque no somos el autor. Pero cuanto más habite yo el mundo del autor, más cercano estaré a la intentio auctoris. Habitar el mundo del autor es ir a su «yo y circunstancias» y por eso Ortega pudo escribir su ‘En torno a Galileo’, donde el «en torno a» significaba ese habitar (que es lo que no se hace cuando se dice «Galileo dijo que…» sin explicar por qué lo dijo).

La conjetura interpretativa no debe confundirse con «lo que me dijo a mí el autor», porque ello, que a veces puede ser lo más importante y definitorio, es la intentio lectoris. Varias veces yo he trabajado autores diciendo «qué elementos tomo de…», pero para construir mi propia teoría. Ello, sin embargo, implica que mi conjetura sobre lo que el autor quiso decir tiene que ser lo más cercana a su mundo. O sea, desde mi horizonte, desde mis pre-conceptos positivos, ir al de él, habitarlo, luego volver y hablar a mi lector, sobre lo que yo pienso sobre la base de lo que él pensó.

Para que la conjetura sea lo más cercana al mundo del autor, hay que responderse las siguientes preguntas:

– ¿Qué problema estaba tratando de resolver el autor?
¿Sobre qué horizonte histórico de problemas trabajaba?
– A partir de allí, evitaremos decir el qué sin decir el porqué, lo cual es imposible en un sentido profundo de qué dijo como comprensión, aunque posible con la analogía de tocar las notas sin comprender la melodía, o hablar desde el contexto sintáctico-semántico sin el pragmático.

Eso es, al hablar del autor diremos «dado que…» (horizonte de problemas), entonces respondió… que).

– ¿Cuál es el núcleo central del autor?

– ¿Cuál es su «protoplasma»?

Veamos estas dos últimas preguntas.

El núcleo central es lo estrictamente original del autor. Es su aporte clave. Es «lo que fundamentalmente vio».

Veamos, por ejemplo, el caso de Popper. Uno, ¿cuál era el horizonte de sus problemas? Esto es: ¿a quién estaba respondiendo? ¿Con quiénes estaba «discutiendo»? ¿Con los agustinistas? ¿Con los tomistas? No, con los neopositivistas. ¿Y qué les respondió? Que su criterio de demarcación era erróneo. ¿Y qué dijo entonces? Que el criterio de demarcación era la falsación. O sea, afirmó la falsación porque estaba debatiendo el criterio de demarcación con los neopositivistas.

No digo que esto sea tan sencillo, digo más o menos cómo debemos proceder. Ese es su núcleo central.
Una vez que identificamos su núcleo central, pueden venir otras preguntas. Por ejemplo, ¿estamos de acuerdo con ese núcleo, en todo o en parte? ¿Qué me aporta a mí ese núcleo? ¿Cuáles son sus consecuencias no intentadas? ¿Qué se le puede criticar? Pero si el núcleo central está mal identificado, todas esas posteriores respuestas estarán mal planteadas. Es coherente, por ejemplo, que Adorno haya estado en desacuerdo con Popper, porque Adorno identificó bien ese núcleo central y fue eso lo que rechazó comparándolo con su núcleo central. Esto es, el núcleo central de Popper estaba inscrito en un método hipotético deductivo que desde Adorno era parte de la noción de dominio de la razón instrumental y que por eso debía ser rechazado desde un ideal emancipatorio de la razón. Pero cuando un tomista rechaza la falsabilidad popperiana porque no está de acuerdo con lo que Popper dijo sobre metafísica, sobre Dios, sobre la inmortalidad del alma, sobre el libre albedrío o sobre su interpretación de Platón o Aristóteles, entonces está errando en la interpretación de su núcleo central. Porque nada de ello es su núcleo. Yo puedo estar en desacuerdo con lo que Hawking haya dicho de la existencia de Dios, pero ello no refuta sus teorías del universo en expansión, que son tal vez su núcleo central. Ello implica que al lado del núcleo puede haber un protoplasma. Un autor es una célula de afortunado caos e incoherencia, sobre todo, cuantos más son los temas de los que ha hablado. Pero su ADN está en su núcleo.
Sus protoplasmas pueden ser diversos, coherentes, incoherentes entre ellos o con el núcleo, más cercanos o más alejados de él, etc., pero no afectan al núcleo. Ello quiere decir que ese núcleo puede ser trasladado a otro lugar y dar frutos igual que un ADN celular en otra célula. Si sale un monstruo o no, ello depende de la habilidad de ese cirujano que es el lector.

Siguiendo con la analogía lakatosiana del núcleo central, su riqueza es proporcional a las hipótesis ad hoc coherentes con las cuales ese núcleo puede defender y a la vez expandirse a otros ámbitos. O sea, la riqueza del núcleo central puede ser su ventaja y a la vez su problema: tiende a ser «imperialista», tiende a «expandirse a otros ámbitos» precisamente porque su riqueza teorética le permite hacerlo, pero, a la vez, corre el riesgo de extrapolar indebidamente sus conclusiones, o sea, ir hacia lugares a los cuales llega solo negando otros ámbitos. El gran ejemplo de esto es Freud, cuando desde el núcleo central de su teoría de la neurosis (perfectamente apta para tratar acertadamente a un paciente, aunque no a todos en todo) se expande a la explicación del origen del judeocristianismo.
Lo interesante es que no lo hace incoherentemente, sino con la capacidad de expansión de su núcleo. La horda primitiva mata al padre, tiene culpa, le erigen el totem, surge el súper yo, la pulsión de vida se dirige a las hembras exogámicas, surge el tabú del incesto, y todo ello explicaría Dios, los mandamientos, el pecado original, la culpa, etc.

Claro, no es eso el cristianismo, pero puede ser explicado así porque el núcleo «da» para ello.
Refutar a Freud no es, entonces, decir que eso no es el cristianismo. Es obvio que el cristianismo no es eso, pero el núcleo central de Freud no es su noción del cristianismo. Refutar a Freud es negar que el inconsciente sea o exista tal cual él lo explica, y para ello se necesita una teoría de igual riqueza teorética.

Puede ser que estemos en desacuerdo con el núcleo central de un autor, pero aun así debemos reconocer su riqueza teórica, en generar en sus lectores y discípulos hipótesis ad hoc permanentes. Marx es un buen ejemplo de ello. Yo creo que su núcleo central es la dialéctica hegeliana convertida en una dialéctica materialista de la historia humana mediante su teoría de la explotación. Si me equivoco, será un caso de «autor hipotético». Pero ese núcleo central es fuente de innumerables hipótesis ad hoc y reinterpretaciones a lo largo del tiempo con el mismo esquema, cambiando contenidos. Lakatos lo ve como un caso de regresividad del núcleo central. Yo, no tanto. Los «nuevos colectivos explotados» se siguen reproduciendo, pero no arbitrariamente, sino coherentemente con ese núcleo. Antes, los explotados eran los obreros. Ahora son las mujeres, los indígenas, los gais, los trans, y el capitalismo se asocia con el heteropatriarcado blanco. Puede no divertirnos, pero sigue siendo Marx. Sigue siendo su riqueza. ¿Se le puede refutar? Claro que sí, pero no es fácil: hay que salir de Hegel e ir hacia el individuo, la persona individual (santo Tomás, Husserl), al individualismo metodológico y a la refutación de la teoría de la plusvalía de Marx: MengerBohm BawerkMisesHayek. No es nada fácil y por eso muchos que dicen ser no marxistas porque no coinciden con su materialismo, adoptan su teoría de la plusvalía: con ello su dialéctica y con ello su núcleo central de tal modo que, o viven felizmente
en la incoherencia, como casi todos, o se hacen totalmente marxistas. No se puede escapar. Es Hegel. O sales de él o entras en él, pero no hay medias tintas.
Las hipótesis ad hoc a veces se mezclan con las consecuencias no intentadas, pero se pueden diferenciar con el paso de la historia. La hipótesis ad hoc de Descartes para explicar la comunicación entre las dos res fue muy débil (la glándula pineal) pero una de sus principales consecuencias no intentadas es que hasta hoy se sigue hablando de «conciencia» para los problemas mente-cuerpo o mente-cerebro. Descartes sigue vivo.

Las consecuencias no intentadas tienen que ver con lo que Popper llamaba el mundo, el mundo de las teorías en sí mismas. La teoría nunca puede estar «suelta» de ningún mundo, pero sí puede soltarse del mundo del autor y ser adoptada por el mundo del lector, en cierta medida, sin que el autor pueda hacer nada al respecto. Ningún problema con ello; sucede todo el tiempo, y por eso hay autores «clásicos»: porque siempre va a producir consecuencias en el horizonte de los lectores. Claro, eso produce grandes malentendidos cuando los lectores no saben diferenciar entre ellos y el autor, pero ni autor ni lector tienen, en general, conciencia teorética del tema hermenéutico. La mayor vergüenza es que muchas veces los filósofos no tienen conciencia de ello.

 

Gabriel J. Zanotti es Profesor y Licenciado en Filosofía por la Universidad del Norte Santo Tomás de Aquino (UNSTA), Doctor en Filosofía, Universidad Católica Argentina (UCA). Es Profesor titular, de Epistemología de la Comunicación Social en la Facultad de Comunicación de la Universidad Austral. Profesor de la Escuela de Post-grado de la Facultad de Comunicación de la Universidad Austral. Profesor co-titular del seminario de epistemología en el doctorado en Administración del CEMA. Director Académico del Instituto Acton Argentina. Profesor visitante de la Universidad Francisco Marroquín de Guatemala. Fue profesor Titular de Metodología de las Ciencias Sociales en el Master en Economía y Ciencias Políticas de ESEADE, y miembro de su departamento de investigación. Publica como @gabrielmises

LA CARGA DE TEORÍA DE LA BASE EMPÍRICA: ¿EL FIN DE LA FILOSOFÍA DE LA CIENCIA?

Por Gabriel J. Zanotti. Publicado el 5/3/17 en: http://gzanotti.blogspot.com.ar/2017/03/la-carga-de-teoria-de-la-base-empirica.html

 

(Art. publicado en Studium (2015), nro. 34, pp. 469-478).

Resumen: la tesis central de este artículo es si la filosofía de la ciencia no habrá llegado a su fin si se la sigue planteando como un programa de investigación que no se plantee el problema hermenéutico fundamental, a la hora de intentar resolver el problema de la carga de teoría de la base empírica. Para ello se repasa la historia del problema, tanto en sus aspectos metodológicos como filosóficos; se reseña la filosofía de la ciencia posterior a Feyerabend (que nosotros llamamos post-popperiana), y se pone peculiar atención al “nuevo experimentalismo” y a la noción de “teoría” que está en juego en el debate. Allí es donde introducimos la importancia del giro hermenéutico y una propuesta conceptual y terminológica para el famoso “testeo empírico”. Aclaramos luego que el realismo en la filosofía de la ciencia es una cuestión filosófica, no metodológica, para concluir luego en lo que se quería demostrar.

  1. Planteo del problema.

Desde que Popper planteó la cuestión en su famoso primer libro[1], el tema de la “carga de teoría” (theory-laden) de la base empírica se ha convertido en un problema clásico de la filosofía de la ciencia, pero nos atrevemos a diagnosticar que sus implicaciones aún no se quieren asumir.

Según Popper, los famosos enunciados observaciones, esenciales para el testeo empírico de las hipótesis, son interpretados desde la hipótesis que supuestamente los enunciados observacionales “juzgan”. Si queremos testear empíricamente a Newton y hacemos caer libremente un cuerpo y lo hace según 9,8 m por segundo, podemos “interpretar” dicha observación, supuestamente “fáctica” porque la teoría newtoniana nos permite hacerlo. Esto es, son las nociones de gravitación, inercia, etc., las que nos permiten interpretar el fenómeno y hacer las mediciones correspondientes, porque es también esa teoría la que nos permite construir los aparatos de medición y es también esa teoría la que nos permite interpretar y establecer el grado de relevancia de las condiciones iniciales. O sea que los “jueces” de la hipótesis, esto es, la “base empírica” son juzgados a su vez por las hipótesis.

¿Entonces?

La historia es conocida. Popper quiso poner el freno y comenzó a criticar a T. Kuhn[2], para el cual, obviamente, todo (desde los enunciados teoréticos básicos hasta los experimentos del puzzle solving) estaba contenido en el “paradigma”, donde la “carga de teoría” es ahora el paradigma dominante desde el cual “constituimos” el mundo[3]. Lakatos quiso salvar, ante esto, la racionalidad popperiana con sus famosas hipótesis ad hoc falsables pero, eso sí, dentro de su falsacionismo metodológico “sofisticado”[4] donde se daba por supuesto el problema de latheory-laden y se rechazaba el supuesto falsacionismo “ingenuo” de Popper (este no se quedó atrás y trató a Lakatos como un díscolo ex ayudante que no lo entendió: “…he could have asked me”[5]). Por supuesto, el que llevó las cosas a sus últimas conclusiones fue Feyerabend: la carga de teoría hacía desaparecer el papel tradicional del testeo empírico, con lo cual desaparecía nada más ni nada menos que la demarcación tradicional entre ciencia y metafísica[6].

  1. La cuestión metodológica.

Por supuesto, esto ponía serias restricciones al alcance del método hipotético-deductivo concebido, tanto en Hempel[7]como en Popper, como un método para aceptar o rechazar hipótesis, aunque nunca de modo definitivo. Popper rechazó por supuesto el tema de la probabilidad en Hempel y en Carnap[8], pero para el problema de la carga de teoría adoptó una solución convencionalista: cada comunidad científica podía utilizar la base empírica que considerara conveniente[9]. Ello obviamente era casi ponerse en la posición de Kuhn pero Popper jamás aceptó esa derivación. Simplemente utilizó la carga de teoría como una razón más para oponerse al inductivismo de sus predecesores. La hipótesis (conjetura) no sólo es a priori del testeo empírico porque este último sea aquello que juzgaría algo que está supuesto “primero”, sino porque, dado el problema de la carga de teoría, es obvio que siempre es primero la conjetura y luego la observación, que era uno de los lemas anti-inductivistas básicos de Popper. El MHD (método hipótetico-deductivo) quedaba así “bañado” de conjetura. Podemos seguir llamando base empírica al conjunto de condiciones iniciales más predicción, pero la selección e interpretación de las condiciones iniciales están hechas desde la conjetura y la interpretación de los supuestos “datos” de la observación, también. Podríamos preguntarnos qué queda entonces de una observación que sea un “falsador potencial” pero esas preguntas dignas de Feyerabend ya no fueron contestadas por Popper, muy concentrado en su debate con Kuhn.

  1. La cuestión filosófica (el tema del realismo).

Desde luego, esta cuestión ponía en jaque al realismo que muchos suponían en el MHD, basado en la tradicional distinción entre los elementos hipotéticos NO observables y la base empírica que sí lo era. Popper, sin embargo, siempre defendió su realismo como aproximación a la verdad, basado en su igualación entre grado de corroboración y verosimilitud[10]. Pero la cuestión no era tan sencilla. Popper podía tener sus razones filosóficas para ser realista como “no-idealista”[11], y obviamente defendió al realismo frente al supuesto escepticismo de Kuhn, pero desde el punto de vista de la sola lógica del MHD, el éxito predictivo, o sea la no-falsación, nunca había sido razón suficiente para el realismo en filosofía de la ciencia, sobre todo en el convencionalismo y en el instrumentalismo. Autores posteriores al giro histórico de la filosofía de la ciencia[12] (Kuhn-Lakatos-Feyerabend), como Laudan[13] y Van Frassen[14], desafiaron que el realismo fuera una implicación lógica del MHD. En Van Frassen, el círculo entre teoría y observación, que se da precisamente por la theory-laden, es llamado nada más ni nada menos como círculo hermenéutico[15], y llevado claramente a sus consecuencias no-realistas. Ello no implica que nosotros coincidamos con dicha interpretación del círculo hermenéutico[16], sólo mostramos que el problema de la base empírica plantea serios problemas para el realismo que Popper creía no afectado por ese problema.

  1. La filosofía de la ciencia post-popperiana.

Gran parte de los autores que siguieron a Laudan y Van Frassen quisieron luego volver al realismo pero, ya no casualmente, manteniendo a Popper “a parte” de sus propios argumentos. Así, Harman[17] y Lipton[18] sistematizaron la “inferencia a la mejor explicación”, que no era muy diferente a los métodos de Mill que ellos mismos citan: la selección de hipótesis plausibles para la mejor explicación posible y la posterior experimentación para llegar a una de las hipótesis seleccionadas. Claro, con esto no podían dejar de lado el problema de la base empírica, porque para pasar de hipótesis posibles a hipótesis plausibles se necesita una teoría previa que distinga entre ambas….

Lo mismo con el argumento del no-milagro utilizado por Psillos[19], Putnam[20], o Harré[21]. Según este argumento, el éxito predictivo de las hipótesis no puede ser “por milagro” como una especie de “casualidad”, lo cual llevaría a la inferencia de la realidad de las hipótesis y-o de las entidades postuladas por éstas. Pero, de vuelta, con ello no se refutan las implicaciones no realistas (si por realismo se sigue interpretando el realismo de la base empírica) de la carga de teoría. Si se presupone que hay un orden real en el universo, claro que, entonces, el éxito predictivo no es causal, pero para ello hay que suponer nada más ni nada menos la teoría de un orden real en el universo, teoría que forma parte de una filosofía de la física previa al MHD. Por lo demás, claro que suponemos “reales” muchas de las entidades que ahora la ciencia postula (desde las bacterias hasta las “inciertas” partículas elementales de la Física Cuántica) pero ello presupone las teorías que nos permiten interpretar lo “observado”.

No en vano Nancy Cartwright[22] ha escrito un libro cuyo título es, nada más ni nada menos, “Cómo mienten las leyes de la física” poniendo el dedo en la llaga de que todas las predicción de los modelos de la Física son realizadas en condiciones ideales que ya dejan de lado por definición infinitas variables desconocidas, lo cual restringe mucho, obviamente, las pretensiones “realistas” de las hipótesis concebidas como modelos, lo cual está dado, agregamos nosotros, justamente por cómo la teoría concibe los modelos básicos. No por ello Cartwright saca conclusiones anti-realistas, pero para ello hace una sutil combinación entre Mill y Aristóteles cuya evaluación excede los objetivos de este artículo[23].

  1. El nuevo experimentalismo.

El mejor ejemplo de la reacción contra la “theory-laden” es el “nuevo experimentalismo” donde explícitamente se quiere volver a una especie de experimentalismo al estilo Mill donde los experimentos tendrían su vida propia, independientes de la teoría. O, mejor dicho, independientes de teorías de alto nivel, ninguno de estos autores (Hacking[24], Mayo[25], Ackermann[26]) ignora la mínima formación teorética que tiene que tener un científico. Por supuesto, cada uno de estos autores tiene un ejemplo favorito. Para no elegir ejemplos que estén condicionados por aquello que queremos concluir, vamos a dar la forma de su argumentación: sea un caso donde quiero mostrar que dadas ciertas condiciones iniciales, el efecto es NO A, contrariamente a A, que era lo supuesto anteriormente dadas otras condiciones iniciales. Para hacerlo sólo tengo que conocer la mínima teoría anterior de la cual se infería A, no tengo por qué conocer la teoría que retrospectivamente explicará NO A y todas las consecuencias teoréricas no intentadas, retrospectivamente, del experimento. Esto es, suponiendo que los experimentos son obviamente llevados a cabo por científicos, y no por legos, la carga de teoría es la obvia, esto es, ser un científico, pero los experimentos no tienen por qué depender de complejos armados teoréticos: cualquier científico atento al despeje de variables puede llegar a realizar experimentos tales que no se sepa qué teoría esté produciendo ciertos resultados.

Hacking, al tanto perfectamente de todo el debate reseñado hasta el momento, precisamente cuando discute a Feyerabend, hace el comentario clave de toda la cuestión: “…Most of the verbal quibble arises over the world ´theory´”[27]. En efecto, todo el punto es ese: ¿a qué llamamos “teoría”? Como dice Chalmers, “…Nadie puede negar la afirmación de que quien no distinga un imán de una zanahoria no está en capacidad de apreciar qué es un hecho verificado en electromagnetismo”[28].

  1. ¿A qué llamamos “teoría”?

Vayamos, pues, a esta esencial cuestión, y para ello volvamos a los autores del giro histórico. Kuhn no ignoraba de ningún modo que los científicos experimentan todo el tiempo, es más, a eso lo llamaba puzzle solving, la resolución habitual de problemas dentro de un paradigma. Aquí, como vemos, teoría no es cualquier cosa. Es –al decir de Lakatos- el núcleo central del programa de investigación en el que está trabajando. Por supuesto que no siempre está todo claro, por supuesto que en los momentos de “crisis”, el científico no puede plantearse las cosas desde la nueva teoría que luego, retrospectivamente, quedará claramente establecida. Los autores del nuevo experimentalismo parecen haber olvidado algo claramente explicado por Kuhn: la tensión esencial. Para captar “algo” del paradigma alternativo, para barruntar algo de la nueva teoría, o para comenzar a crearla en cierto sentido, es necesario estar formado en una teoría anterior. Por ello la “tensión”: por un lado ello puede implicar que nos aferremos al paradigma, pero por el otro lado ello es condición necesaria para que  comparemos con algo distinto al anterior. El científico no ve hechos sin teoría, sino que, comparando con su formación básica, es capaz de detectar una anomalía donde otros no habían visto nada. Al captar la anomalía ya está barruntando la nueva teoría: nadie dice que es esa nueva teoría la que tiene totalmente in mente, ya desarrollada, sino la teoría anterior, sin la cual no hubiera sido capaz de decodificar el problema. Por supuesto, el “cómo hace eso un científico” depende de algo que los teóricos de la “inferencia a la mejor explicación” no parecen terminar de ver: el carácter creativo no normado de la inteligencia humana. Por ejemplo, veamos este párrafo de Heisenberg: “…En 1900, estudiando la ley de radiación de cuerpo negro que él había descubierto, Planck detectó en los fenómenos ópticos un fenómeno discontinuo totalmente desconocido para la física clásica que, algunos años más tarde, quedó expresado de forma más precisa en le hipótesis de Einstein de los cuantos de luz”[29]. Cualquier interpretación desde el nuevo experimentalismo de este relato no daría importancia, me parece, a las sutiles explicaciones de la psicología de la percepción científica de T. Kuhn.

  1. No se quiere aceptar el giro hermenéutico.

Todo esto implica un diagnóstico: el análisis del realismo que defienden los autores posteriores al giro histórico de la filosofía de la ciencia (obsérvese cómo hemos cualificado al realismo: “….que defienden los autores posteriores al giro histórico de la filosofía de la ciencia”) implica que la filosofía de la ciencia ha llegado a un punto límite. No se ha podido ver el giro hermenéutico que implican los análisis de Koyré, Kuhn, y las conclusiones de Feyerabend, que implican a su vez el debate con Lakatos. Giro iniciado por Karl Popper. Es más: esos mismos autores no lo vieron, porque ellos mismos estaban en su propia “tensión esencial”. Ese giro implica asumir algo que la formación filosófica de todos los filósofos de la ciencia actuales, pobre en su diálogo con la filosofía continental, no pueden ver: los horizontes de pre-comprensión (Gadamer[30]) implícitos en toda teoría y cambio científico. Ello fue dicho en otros términos por Koyré, al afirmar la dependencia filosófica de toda teoría científica[31]; por Kuhn, al explicar las circunstancias filosóficas de los paradigmas y las crisis[32]; por Popper, al re-ubicar la relación entre ciencia y metafísica[33]; por Lakatos, al describir los compromisos metafísicos de los núcleos centrales[34], y obviamente por Feyerabend, cuando comenta y elogia el proceder contra-inductivo de los grandes científicos[35]. Justamente, cuando Feyerabend concluye la no-diferencia entre ciencia y metafísica, de modo desafiante, no quiere decir (el ejemplo es mío) que el experimento de Pasteur fue lo mismo que el argumento de San Anselmo, lo que quiso desatacar es que el compromiso teórico de la Física no se resuelve con ingenuos testeos empíricos que presuponen una base empírica “decisiva”.

Es más, esto último –tomar los límites del testeo empírico como una mala noticia- es un síntoma del positivismo cultural dominante. O sea: quedarse sin base empírica es como quedarse sin nada, cuando, por lo contrario, la ciencia siempre ha progresado en base a la discusión teorética de sus grandes premisas. Lo que hay que hacer –igual que en filosofía- es ir hacia la teoría. Debatir la teoría. Criticar la teoría. La suposición de lo contrario, y el endiosamiento de un testeo empírico imposible, lleva –como bien dijo Popper- a que nuestras universidades actuales se conviertan en fábricas de tecnólogos entrenados….[36]

Pero la hermenéutica, desde las filosofías realistas (ya no desde la ciencia) también parece inaceptable porque estaría irredimiblemente relacionada con las interpretaciones más escépticas de Heidegger (Vatimo[37]) y todo el post-modernismo posterior. Por ello nosotros hemos tratado de desarrollar una hermenéutica realista[38], donde la base de los horizontes de Gadamer esté en Husserl, y la intersubjetividad de este último, en la noción de persona de Santo Tomás de Aquino[39]. Lo más interesante de ello para filosofía de la ciencia, es que el gran inspirador de Kuhn, esto es, Koyré, formó parte del círculo de Gotinga que seguía a E. Husserl[40]. La insistencia de Koyré y Kuhn en la formación teorética de los científicos (como origen de los cambios científicos) no fue casual: tuvo su origen en Husserl, autor esencial para una interpretación fenomenológica y realista de los horizontes de Gadamer.

  1. Una propuesta para la cuestión metodológica: la ilustración.

Alguien podrá decirme: ¿pero entonces el testeo empírico es “imposible” y-o los experimentos son inútiles? No, nadie formado en Kuhn y al tanto de la importancia del puzzle solvingpara las “crisis” podría decir algo así. Claro que la ciencia tiene una instancia práctica donde el científico pretende “manipular” sanamente algo del mundo físico, pero lo que varía es el significado de todo ello. Un experimento lo que produce es una “ilustración”, como bien dijo F. Machlup[41], una “mostración”. Nadie pretende, para ir al principio de este artículo, que dejar caer un cuerpo bajo condiciones iniciales cercanas a las condiciones ideales newtonianas, junto con la medición correspondiente de 9,8 m/s, sea probar o refutar absolutamente la teoría de Newton. Lo que ello hace es “mostrar” a otros la interpretación del mundo físico conforme a Newton, siempre que los “otros” acepten sus premisas. ¿Es ello importante? Sí, siempre que ello sea un elemento que ayude a mostrar una teoría que esté en duda (decimes “ayude”: porque lo esencial es explicar la teoría). El experimento es una forma de ilustrar en la praxis la teoría, una vez que la teoría comienza a ser explicada. Pero la praxis permanente del puzzle solving es también lo que da ocasión al desarrollo de una nueva teoría que tiene que ser intelectualmente vista por el científico (como Copérnico “ve” la hipótesis de Aristarco ante el agotamiento de la praxis habitual de los epiciclos). De ese modo puede surgir progresivamente una nueva teoría que “refute” la anterior (nunca absolutamente). No de un “hecho”, sino de la visualización intelectual de una nueva teoría ante la degeneración teorética de un programa de investigación.

  1. Una propuesta para el problema filosófico: una filosofía de la física realista.

¿Y el realismo? Nuestra conclusión es simple[42]: no surge del MHD, es imposible encontrarlo por allí. La cuestión es elaborar una filosofía de la física según la cual haya cierto orden en el universo y entonces, allí sí, las teorías más simples ante las anteriores puedan ser signos de acercamiento al orden real del universo. Ello no es nada simple, claro está, sólo señalamos el camino del realismo. El MHD es una humilde cuestión de lógica. No se puede extraer de él ninguna conclusión gnoseológica y menos aún ontológica.

  1. ¿El fin de la filosofía de la ciencia?

Conclusión: si la filosofía de la ciencia quiere volver a ser el debate sobre un modo de evaluar las hipótesis más allá de nuestros horizontes de pre-comprensión, no se da cuenta de que ha llegado a su límite. Eso fue la filosofía de la ciencia. Es parte de su presente porque forma parte de su historicidad, sí, pero como programa de investigación, es ya insostenible. La ciencia es creación de teoría, la ciencia es el debate teórico de las teorías. Filosofar sobre ambas cosas, es seguir con la filosofía de la ciencia.

 

 

[1] La lógica de la investigación cientifica, (1934), Tecnos, Madrid, 1985. Cap. V.

[2]  Lakatos and Musgrave, Editors: Criticism and the Growth of Knowledge; Cambridge University Press, 1970. Pág. 51.

[3] Kuhn, T.: La estructura de las revoluciones científicas; FCE, 1971. Pág. 175.

[4] Lakatos, I.: La metodología de los programas de investigación científica; Alianza Ed., Madrid, 1989. Pág. 46.

[5] Replies To My Critics; in The Philosophy of Karl Popper, Part II; Edited by P.

Arthur Schilpp Lasalle; Illinois, 1974. Pág. 999.

[6] Feyerabend, P.: Tratado contra el método; Tecnos, Madrid, 1981.

[7] Hempel, C.: Filosofía de la ciencia natural; Alianza Ed., Madrid, 1981.

[8] Conjeturas y refutaciones; Paidós, Barcelona, 1983. Cap. 11.

[9] La lógica de la investigación científica, op. cit.

[10] Conocimiento objetivo; Tecnos,Madrid, 1988.

[11] Realismo y el objetivo de la ciencia; Tecnos, Madrid, 1985.

[12] Carrier, M.: “Historical Approaches: Kuhn, Lakatos and Feyerabend”, in Robert, J., editor: Philosophy of Science, Key Thinkers, Continuum International Publishers, London and New York, 2012.

[13] Laudan, L.: Progress and its Problems; Toward a Theory ofScientific Growth; University of Califonia Press, 1977.

[14] Van Frassen, B. C.: The Scientific Image, Clarendon Press, Oxford, 1980.

[15] Op.cit., p 56.

[16] Zanotti, G.: Hacia una hermenéutica realista, Austral, Buenos Aires, 2005.

[17] Harman, G. (1965) The inference to the Best Explanation, en The Philosophical Review (pp. 88-95).

[18] Lipton, P.: Inference to the Best Explanation, Routledge, 1991, 2004

[19] Psillos, S.: Scientific Realism, Routledge, 1999

[20] Realism with a Human Face, Harvard University Press, 1992

[21] Sobre Harré, ver Carman, C. (2004): El realismo Científico en Rom Harré (Tesis de Doctorado), Universidad Nacional de Quilmes, Argentina.

[22] Cartwright, N.: How The Law of Phisics Lie; Oxford and New York, Oxford University Press, 1983.

[23] Al respecto, ver Crespo, R.: Nancy Cartwroght, Millian and/or Aristotelian? Conicet, Buenos Aires, 2009.

[24] Hacking, Ian: Representing and intervening, Cambridge University Press, 1983.

[25] Mayo, D.G.: The New Experimentalism, Topical Hypotheses, and Learning from Error; PSA 1994, Vol. 1, pp. 270-279.

[26] Ackermann, R.: The New Experimentalism, Review Article; Brit. J. Phil. Sci. 40 (1989), 185-190.

[27] Hacking. I., op.cit., p. 175.

[28] Chalmers, A.: Qué es esa cosa llamada ciencia (2da. Reimpresión 2013), S. XXI, Madrid, 2013, p. 183.

[29] Heisenberg, W.: “The Development of Quantum Mechanics”, Conferencia Nobel, 11 de Diciembre de 1933, en Hawkin, S., (comp.): Los sueños de los que está hecha la materia; Crítica, Barcelona, 2011, p. 330.

[30] Verdad y método, I, y II [1960/1986]; Sígueme, Salamanca, 1991/1992

[31] En Pensar la ciencia; Paidos, 1994.

[32] La revolución copernicana; Orbis, Madrid, 1985.

[33] Popper, K., Conjeturas y refutaciones, op. cit.

[34] Lakatos, op.cit.

[35] Feyerabend, op.cit

[36] Popper, op.cit., Pág. 1144-46.

[37] Vattimo, G.: Más allá de la interpretación, Paidós, Barcelona, 1994; Más allá del sujeto, Paidós, Barcelona, 1992;Introducción a Heidegger, Gedisa, Barcelona, 1996.

[38] Zanotti, op.cit.

[39] Leocata, F.: Persona, Lenguaje, Realidad, UCA, Buenos Aires, 2003; Filosofía y ciencias humanas, EDUCA, Buenos Aires, 2010.

[40] Solís, C.: Introducción a Pensar la ciencia, de A. Koyré, en Koyré, A.: Pensar la ciencia, Paidós, Barcelona, 1994.

[41] Machlup, F.: El problema de la verificación en la Economía (1955), en Libertas (40), 2004.

[42] Lo habíamos dicho en Zanotti, G.: “Filosofía de la ciencia y realismo: los límites del método”, en Civilizar, 11 (21): 99-118, Julio-Diciembre de 2011.

 

Gabriel J. Zanotti es Profesor y Licenciado en Filosofía por la Universidad del Norte Santo Tomás de Aquino (UNSTA), Doctor en Filosofía, Universidad Católica Argentina (UCA). Es Profesor titular, de Epistemología de la Comunicación Social en la Facultad de Comunicación de la Universidad Austral. Profesor de la Escuela de Post-grado de la Facultad de Comunicación de la Universidad Austral. Profesor co-titular del seminario de epistemología en el doctorado en Administración del CEMA. Director Académico del Instituto Acton Argentina. Profesor visitante de la Universidad Francisco Marroquín de Guatemala. Fue profesor Titular de Metodología de las Ciencias Sociales en el Master en Economía y Ciencias Políticas de ESEADE, y miembro de su departamento de investigación.