Archivo de la categoría: Filosofía de la ciencia

Mecanismos en la ciencia

En la literatura científica, frecuentemente se apela a mecanismos. Cientos de artículos que hacen referencia a mecanismos son publicados cada año en revistas como Nature, Science y The Lancet. Este interés por los mecanismos no es específico de unas pocas áreas, sino que se extiende a lo largo de todo el espectro científico. Los científicos discuten sobre “mecanismos reguladores”, “mecanismos de acción”, “mecanismos de asignación”, “mecanismos de selección”, “mecanismos de supresión”, etc. en muy diversos campos. Ciertamente, parece que los mecanismos juegan un papel importante en la empresa científica. Sin embargo, esto no resulta excesivamente sorprendente. Los principales objetivos de la ciencia son describir, explicar, predecir y controlar fenómenos del mundo, y los mecanismos pueden contribuir a alcanzar esos objetivos. Los mecanismos revelan cómo los fenómenos del mundo ―el objeto de interés de la investigación científica― son constituidos o producidos.

La tradición mecanicista

La relevancia de los mecanismos y de los enfoques basados en mecanismos no ha pasado desapercibida para los filósofos. De hecho, la primera filosofía mecanicista se remonta a la Grecia clásica (c. 500 – c. 323 a. C.) (Popa, 2017). Demócrito de Abdera sostuvo que el mundo está compuesto por dos tipos diferentes de realidades: átomos y vacío. Los átomos son invisibles, no generados, invariables e indestructibles. Son homogéneos y solo difieren en su forma y tamaño. Por otro lado, el vacío es definido como el absoluto no-ser. Los átomos, los cuales son infinitos en número, se mueven en el vacío infinito y se combinan en diferentes agrupaciones. Los objetos macroscópicos son en realidad agrupaciones de átomos invisibles y sus propiedades dependen de qué átomos los constituyan. Los cambios en esos objetos, por tanto, son resultado de reagrupaciones de los átomos. En el atomismo de Demócrito, se considera que cualquier fenómeno del mundo es explicable en términos de átomos, sus propiedades y sus interacciones.

En la segunda mitad del siglo diecisiete, la filosofía mecanicista experimental se convirtió en el enfoque dominante en la filosofía natural. Se trataba de una propuesta altamente influenciada por las artes mecánicas y las ciencias matemáticas contemporáneas, y que se oponía a la ciencia aristotélica y al vitalismo. La filosofía mecanicista moderna, en tanto que programa general, fue introducida por Robert Boyle (Roux, 2017). Esta filosofía adopta una visión reduccionista según la cual la materia pasiva y el movimiento son los constituyentes últimos del mundo. Solo existe una materia universal, la cual es extendida, divisible e impenetrable. El movimiento, el cual es siempre local, divide la materia en partes de diferentes tamaños y formas. La variedad de fenómenos en el mundo es resultado de las diversas formas, tamaños, movimientos y relaciones de las partes de la materia. Además de una posición metafísica, la filosofía mecanicista moderna es una tesis sobre la metodología científica (Psillos & Ioannidis, 2019). Se considera que los fenómenos deben ser explicados en términos de materia y movimiento.

En los siglos posteriores, el enfoque mecanicista continuó siendo una de las principales corrientes dentro de la ciencia. La investigación científica a menudo estaba relacionada con el desarrollo de modelos mecanicistas que daban cuenta de fenómenos observables. Ejemplos representativos de esos modelos son el modelo cinético de los gases de James Clerk Maxwell y el modelo hexagonal de la molécula de benceno de August Kekulé. Sin embargo, no había una interpretación estándar de la filosofía mecanicista compartida por todos los científicos. La interpretación podía variar dependiendo del periodo, la región e incluso la institución (Baracca, 2005). La pluralidad de enfoques mecanicistas iba desde los que defendían las explicaciones en términos de interacciones entre entidades elementales no observables, a los que se centraban en desarrollar sistemas de leyes en base a los principios fundamentales de la dinámica.

En la segunda mitad del siglo XX, tras la acumulación de contraejemplos y la consecuente erosión del modelo explicativo de cobertura legal, algunos filósofos desarrollaron propuestas alternativas de carácter mecanicista. Peter Railton (1978) criticó la concepción del modelo de cobertura legal de las explicaciones probabilísticas de fenómenos particulares (el modelo estadístico-inductivo). Railton cuestiona que las explicaciones probabilísticas sean argumentos y que deban hacer muy probable el explanandum. Considera que entendemos los fenómenos improbables igual de bien que los fenómenos altamente probables. Railton argumenta que la explicación probabilística no consiste en hacer a los fenómenos explanantia nómicamente esperables, si no en entender los mecanismos estocásticos que les dan lugar. Wesley C. Salmon también desarrolló una concepción mecánico/causal de la explicación. En su influyente Scientific Explanation and the Causal Structure of the World (1984), Salmon argumenta que “para entender el mundo y lo que sucede en él, debemos revelar su funcionamiento interno. En la medida en que los mecanismos causales operan, estos explican cómo funciona el mundo” (p. 133, mi traducción). Considera que explicar un fenómeno es mostrar cómo encaja en la estructura causal del mundo. Un fenómeno es satisfactoriamente explicado cuando se identifican (parte de) los procesos y las interacciones causales que le dan lugar.

La nueva filosofía mecanicista

La nueva filosofía mecanicista surgió entre finales de la década de 1980 y principios de la década de 1990. Este surgimiento estuvo relacionado con la publicación de libros como Nuts and Bolts for Social Sciences (1989) de Jon Elster y Discovering Complexity: Decomposition and Localization as Strategies in Scientific Research (1993) de William Bechtel y Robert Richardson. Este nuevo enfoque mecanicista se opone al empirismo lógico y a la concepción de la ciencia en términos de leyes y teorías. Se considera que la investigación científica no debería entenderse como una búsqueda de leyes universales, sino como una búsqueda de mecanismos. Esos mecanismos son representados por medio de modelos, los cuales juegan el papel de las teorías. Los científicos usan los modelos mecanicistas para representar, explicar, predecir e intervenir en el mundo.

Dentro de la nueva filosofía mecanicista, pueden distinguirse dos líneas de trabajo: el nuevo mecanismo y el mecanismo social (Glennan & Illari, 2017). El nuevo mecanismo ha sido desarrollado principalmente por filósofos de la ciencia interesados en las ciencias de la vida (biología, neurociencia, medicina, etc.). Esta línea de trabajo busca caracterizar los mecanismos y, tomándolos como referencia, abordar problemas filosóficos como la causalidad o la explicación científica. Por su parte, el mecanismo social se centra en las ciencias sociales, especialmente en la sociología y la ciencia política. Ha sido desarrollado por científicos sociales y está íntimamente relacionado con la sociología analítica. El nuevo mecanismo y el mecanismo social surgieron independientemente y, durante varios años, las discusiones en filosofía y en ciencias sociales se desarrollaron en paralelo. Sin embargo, la interacción entre ambas líneas de trabajo ha ido creciendo progresivamente.

Al igual que enfoques mecanicistas previos, tales como la filosofía mecanicista moderna o la propuesta de Salmon, la nueva filosofía mecanicista es tanto una filosofía natural como una filosofía de la ciencia (Glennan, 2017). Por un lado, es una investigación filosófica sobre la constitución y organización del mundo. Los nuevos mecanicistas consideran que los mecanismos son uno de los principales constituyentes del mundo y que todos o la mayoría de los fenómenos del mundo dependen de ellos. Investigan la naturaleza de los mecanismos en tanto que categoría ontológica y analizan como estos se relacionan con otras categorías ontológicas como las causas, las propiedades y los niveles de organización. Por otro lado, la nueva filosofía mecanicista es también una investigación filosófica sobre la ciencia. Se considera que los mecanismos tienen un rol central en la empresa científica. Los nuevos mecanicistas estudian el descubrimiento de mecanismos, su representación por medio de modelos y su uso para explicar, predecir y controlar fenómenos. Es importante señalar que no todos los autores que desarrollan su trabajo dentro del marco mecanicista conceden la misma importancia a estos proyectos y están igualmente implicados en ambos. De hecho, algunos de ellos se centran en un proyecto y prácticamente ignoran el otro.

Sin embargo, a diferencia de enfoques mecanicistas previos, la nueva filosofía mecanicista se caracteriza por un énfasis generalizado en la práctica científica real (Glennan, 2017; Machamer et al., 2000; Psillos & Ioannidis, 2019). El objeto de interés primero de los nuevos mecanicistas es el mecanismo en tanto que concepto-en-uso en la ciencia, no en tanto que categoría metafísica abstracta. Están interesados en qué son los mecanismos y para qué son (o podrían ser) buenos en la ciencia. Los nuevos mecanicistas se centran en la práctica científica y la toman como la principal referencia para abordar tanto las cuestiones metodológicas como las cuestiones ontológicas relacionadas con los mecanismos. Entienden que las consideraciones ontológicas sobre los mecanismos en tanto que constituyentes del mundo no pueden pasar por alto el rol de los mecanismos en la ciencia y las ideas de los científicos sobre ellos.

La nueva filosofía mecanicista no es un movimiento completamente homogéneo. Los nuevos mecanicistas no tienen ideas e intereses idénticos. Se trata de un marco general dentro del cual distintas propuestas, las cuales pueden incluso entrar en conflicto, son defendidas. De hecho, aunque los nuevos mecanicistas están de acuerdo en la relevancia de los mecanismos, discrepan respecto a su definición. En este sentido, dentro del nuevo marco mecanicista, ha habido diferentes intentos de ofrecer una caracterización satisfactoria de los mecanismos. Éstas son las definiciones más citadas:

Los mecanismos son entidades y actividades organizadas de tal manera que producen cambios regulares desde las condiciones de inicio o puesta en marcha hasta las de finalización o terminación. (Machamer et al., 2000, p. 3, mi traducción)

Un mecanismo para un comportamiento es un sistema complejo que produce dicho comportamiento mediante la interacción de una serie de partes, donde la interacción entre las partes puede caracterizarse por generalizaciones directas, invariables y relacionadas con el cambio. (Glennan, 2002, p. S344, mi traducción)

Un mecanismo es una estructura que desempeña una función en virtud de sus partes componentes, operaciones componentes y organización. El funcionamiento orquestado del mecanismo es responsable de uno o varios fenómenos. (Bechtel & Abrahamsen, 2005, p. 423, mi traducción)

Un mecanismo para un fenómeno consiste en entidades y actividades organizadas de tal manera que son responsables del fenómeno. (Illari & Williamson, 2012, p. 120, mi traducción)

Un aspecto importante que está presente en las diversas nociones de mecanismo es la voluntad de generalidad (Pérez-González, 2019). Los nuevos mecanicistas consideran que los mecanismos son relevantes en numerosas áreas científicas y entienden que una noción de mecanismo apropiada debería ser adecuada para la mayoría de estas áreas.

A pesar de la diversidad de definiciones y de los desacuerdos entre los nuevos mecanicistas, algunas ideas generales sobre la naturaleza de los mecanismos son compartidas por la mayoría de propuestas. En primer lugar, los mecanismos son parte del mundo real (Glennan, 2017; Glennan & Illari, 2017). Son concebidos como cosas particulares ubicadas en cierto punto del espacio y el tiempo. Hay, por tanto, diferencia entre un mecanismo, el cual es algo real, y un modelo suyo, el cual es a menudo un fragmento de razonamiento científico. No obstante, hay discrepancias respecto a la estabilidad atribuida a los mecanismos. Algunos de los nuevos mecanicistas consideran que todos los mecanismos son sistemas complejos, es decir, configuraciones estables de varios componentes (p. ej. Bechtel & Abrahamsen, 2005). Pero otros argumentan que los procesos causales, que son menos estables y no pueden ser considerados objetos, también pueden constituir mecanismos (p. ej. Illari & Williamson, 2012). En segundo lugar, los mecanismos están compuestos por entidades (o partes) y actividades (o interacciones) (Glennan, 2017; Illari & Williamson, 2012; Machamer et al., 2000). Las entidades son cosas que toman parte en actividades. Normalmente están localizadas espaciotemporalmente, estructuradas y orientadas. Ejemplos de entidades son las neuronas, las empresas y los órganos. Las actividades son sucesos productivos. Tienen orden temporal, ritmo y duración. Ejemplos de actividades son transportar, irradiar y comprar. Las entidades y actividades de un mecanismo están organizadas. Esa organización puede tener muchos aspectos diferentes, tales como temporal, espacial, causal, etc. En tercer lugar, un mecanismo es siempre un mecanismo para un fenómeno (Glennan, 1996; 2017). Por ejemplo, el sistema digestivo es el mecanismo que da lugar al fenómeno de la digestión. La identificación y delimitación de un mecanismo dependen del fenómeno del cual es responsable. Un mecanismo no puede siquiera ser identificado sin indicar qué es lo que hace. Y, en cuarto lugar, hay diferencias significativas entre los mecanismos y las máquinas (Craver & Tabery, 2023). Aunque las máquinas hechas por el hombre (p. ej. relojes) a menudo pueden considerarse mecanismos, la mayoría de los mecanismos estudiados en la ciencia no son máquinas. Su comportamiento no puede ser reducido a ciertas fuerzas mecánicas fundamentales. No obstante, la metáfora de la máquina es aún considerada una herramienta útil para ilustrar el comportamiento de los sistemas naturales complejos.

Otra idea importante compartida por los nuevos mecanicistas es que los mecanismos están anidados y forman una jerarquía (Glennan, 2017; Machamer et al., 2000). Los mecanismos pueden descomponerse en mecanismos de nivel inferior. Un mecanismo está compuesto de entidades y actividades organizadas, las cuales son responsables de sus propiedades y comportamiento. Con frecuencia, esos componentes son asimismomecanismos, cuyas propiedades y comportamiento también dependen de sus respectivos componentes. Por ejemplo, los componentes del sistema nervioso (cerebro, médula espinal, nervios, transmisión de señales, etc.), los cuales son responsables de sus propiedades y comportamiento, son ellos mismos mecanismos. Sin embargo, a diferencia de mecanicistas previos, los nuevos mecanicistas no defienden una concepción reduccionista del mundo (Andersen, 2014). Rechazan que sea posible reducir mecanismos de nivel superior a mecanismos de nivel inferior. Aunque hay relaciones ontológicas y explicativas entre niveles superiores e inferiores, esto no conlleva la eliminación de los niveles superiores ni su reducción a los niveles inferiores.

Mecanismos y explicación científica

La nueva filosofía mecanicista ha demostrado ser un enfoque muy fructífero en filosofía de la ciencia. Dentro de este marco, se han abordado convincentemente la inferencia causal (Russo & Williamson, 2007), la extrapolación de relaciones causales (Steel, 2008), la investigación científica (Bechtel & Richardson, 1993), la evaluación de riesgos (Rocca, 2016), el crecimiento y la organización del conocimiento (Glennan, 2017) y varias otras cuestiones. Sin embargo, con toda probabilidad, en ningún área ha sido tan grande su influencia como en el debate en torno a la explicación científica.

De acuerdo con la nueva filosofía mecanicista, el papel de los mecanismos en la ciencia está a menudo asociado con el objetivo científico de explicar. Un fenómeno es explicado mediante la especificación del mecanismo responsable de producirlo. La concepción mecanicista de la explicación se opone al modelo de cobertura legal y a los acercamientos estadísticos a la explicación científica. Las explicaciones nomológicas y las estadísticas son consideradas “explicaciones de caja negra”. Éstas conectan las condiciones iniciales con el resultado final por medio de leyes universales o generalizaciones estadísticas, pero no abordan los procesos a través de los cuales el explanans y el explanandum están realmente conectados. Por el contrario, las explicaciones mecanicistas son explicaciones-como; ellas especifican como tienen lugar los fenómenos. Las explicaciones mecanicistas abren la caja negra entre explanans y explanandum y detallan los procesos que dan lugar a este último.

Por lo que respecta a la relación entre los mecanismos y los fenómenos de interés, las explicaciones basadas en mecanismos pueden ser causales o constitutivas (Ylikoski, 2013). Tanto la causación como la constitución son relaciones de dependencia, pero hay diferencias metafísicas importantes entre ellas. La causación es habitualmente una relación entre eventos, requiere tiempo y es asimétrica respecto a la manipulación (se puede producir un cambio en el efecto manipulando la causa, pero no al revés). Por otro lado, la constitución es frecuentemente una relación entre propiedades, es sincrónica y es simétrica respecto a la manipulación (se puede producir un cambio en el todo manipulando una parte y al revés). Dependiendo del tipo de relación entre el mecanismo identificado y el fenómeno de interés, una explicación es mecanicista causal o mecanicista constitutiva.

Entre los nuevos mecanicistas, no existe consenso en relación a la naturaleza de las explicaciones mecanicistas (Illari, 2013). Siguiendo a Salmon (1984), algunos mecanicistas consideran que las explicaciones mecanicistas son ónticas. Estos argumentan que las explicaciones basadas en mecanismos explican porque encajan el fenómeno explanandum en la estructura causal del mundo. Para estos autores, las explicaciones son porciones objetivas de la estructura causal del mundo. Sin embargo, otros nuevos mecanicistas consideran que las explicaciones basadas en mecanismos son explicaciones epistémicas. Estos mantienen que las explicaciones basadas en mecanismos explican porque aumentan nuestro entendimiento del mundo. Para los defensores de la concepción epistémica, las explicaciones mecanicistas no son porciones de la estructura causal del mundo, sino representaciones de esas porciones (p. ej. textos).

Las explicaciones mecanicistas son habitualmente presentadas mediante modelos mecanicistas. Un modelo mecanicista consta de dos componentes: una descripción fenoménica y una descripción mecanicista (Glennan, 2017). La descripción fenoménica es un modelo del fenómeno de interés, mientras que la descripción mecanicista es un modelo del mecanismo responsable de ese fenómeno. En las explicaciones basadas en mecanismos, la descripción fenoménica está relacionada con el explanandum y la descripción mecanicista con el explanans. Sin embargo, no hay consenso sobre los detalles de esas relaciones. Para la concepción óntica de las explicaciones mecanicistas, la descripción fenoménica representaría el explanandum y la descripción mecanicista representaría el explanans. Sin embargo, para la concepción epistémica, la descripción fenoménica y la mecanicista serían ellas mismas el explanandum y el explanans respectivamente.

Saúl Pérez-González
Universitat de València

Referencias

  • Andersen, H. (2014). A Field Guide to Mechanisms: Part I. Philosophy Compass, 9(4), 274-283.
  • Baracca, A. (2005). Mechanistic Science, Thermodynamics, and Industry at the End of the Nineteenth Century. En M. M. Capria (Ed.), Physics before and after Einstein (pp. 49-70). IOS Press.
  • Bechtel, W., & Abrahamsen, A. (2005). Explanation: A mechanist alternative. Studies in History and Philosophy of Science Part C: Studies in History and Philosophy of Biological and Biomedical Sciences, 36(2), 421-441.
  • Bechtel, W., & Richardson, R. C. (1993). Discovering Complexity: Decomposition and Localization as Strategies in Scientific Research. The MIT Press.
  • Craver, C., & Tabery, J. (2023). Mechanisms in Science. En E. N. Zalta (Ed.), The Stanford Encyclopedia of Philosophy (Fall 2023). https://plato.stanford.edu/archives/fall2023/entries/science-mechanisms/
  • Elster, J. (1989). Nuts and Bolts for the Social Sciences. Cambridge University Press. Existe traducción al castellano: Tuercas y tornillos Una introducción a los conceptos básicos de las ciencias sociales. Gedisa editorial, 1996.
  • Glennan, S. (2002). Rethinking Mechanistic Explanation. Philosophy of Science, 69(S3), S342-S353.
  • Glennan, S. (2017). The new mechanical philosophy. Oxford University Press.
  • Glennan, S., & Illari, P. (2017). Introduction: Mechanisms and mechanical philosophy. En S. Glennan & P. Illari (Eds.), The Routledge handbook of mechanisms and mechanical philosophy (pp. 1-9). Routledge.
  • Glennan, S. S. (1996). Mechanisms and the nature of causation. Erkenntnis, 44(1), 49-71.
  • Illari, P. (2013). Mechanistic Explanation: Integrating the Ontic and Epistemic. Erkenntnis, 78(2), 237-255.
  • Illari, P. M., & Williamson, J. (2012). What is a mechanism? Thinking about mechanisms across the sciences. European Journal for Philosophy of Science, 2(1), 119-135.
  • Machamer, P., Darden, L., & Craver, C. F. (2000). Thinking about mechanisms. Philosophy of science, 67(1), 1-25.
  • Pérez-González, S. (2019). The Search for Generality in the Notion of Mechanism. Teorema: Revista Internacional de Filosofía, 38(3), 77-94.
  • Popa, T. (2017). Mechanisms: Ancient sources. En S. Glennan & P. Illari (Eds.), The Routledge Handbook of Mechanisms and Mechanical Philosophy (pp. 13-25). Routledge.
  • Psillos, S., & Ioannidis, S. (2019). Mechanisms, Then and Now: From Metaphysics to Practice. En B. Falkenburg & G. Schiemann (Eds.), Mechanistic Explanations in Physics and Beyond (pp. 11-31). Springer.
  • Railton, P. (1978). A deductive-nomological model of probabilistic explanation. Philosophy of Science, 45(2), 206-226.
  • Rocca, E. (2016). Bridging the boundaries between scientists and clinicians—Mechanistic hypotheses and patient stories in risk assessment of drugs. Journal of evaluation in clinical practice, 23(1), 114-120.
  • Roux, S. (2017). From the mechanical philosophy to early modern mechanisms. En S. Glennan & P. Illari (Eds.), The Routledge Handbook of Mechanisms and Mechanical Philosophy (pp. 26-45). Routledge.
  • Russo, F., & Williamson, J. (2007). Interpreting causality in the health sciences. International studies in the philosophy of science, 21(2), 157-170.
  • Salmon, W. C. (1984). Scientific explanation and the causal structure of the world. Princeton University Press.
  • Steel, D. (2008). Across the boundaries: Extrapolation in biology and social science. Oxford University Press.
  • Ylikoski, P. (2013). Causal and Constitutive Explanation Compared. Erkenntnis, 78(S2), 277-297.

Lecturas recomendadas

  • Andersen, H. (2014a). A Field Guide to Mechanisms: Part I. Philosophy Compass, 9(4), 274-283.
  • Andersen, H. (2014b). A Field Guide to Mechanisms: Part II. Philosophy Compass, 9(4), 284-293.
  • Glennan, S. (2017). The new mechanical philosophy. Oxford University Press.
  • Glennan, S., & Illari, P. M. (Eds.). (2017). The Routledge handbook of mechanisms and mechanical philosophy. Routledge.

Recursos en línea

Entradas relacionadas

Cómo citar esta entrada

Pérez-González, S. (2024): “Mecanismos en la ciencia”, Enciclopedia de la Sociedad Española de Filosofía Analítica (URL: http://www.sefaweb.es/mecanismos-en-la-ciencia/)

Filosofía de la Psicología

1. Introducción

La filosofía de la psicología se puede caracterizar inicialmente como la reflexión sobre la psicología en términos similares a los de otras áreas de especialización dentro de la filosofía de la ciencia—como por ejemplo, la filosofía de la física, la filosofía de la biología o la filosofía de la economía. Sin embargo, la filosofía de la psicología también abarca un gran ámbito de temas que se solapan con los de otras disciplinas filosóficas que no derivan de otros cuerpos de conocimiento, y muy especialmente, aquellos que conforman la filosofía de la mente, pero también la epistemología y la filosofía de la acción. En un sentido amplio, la filosofía de la psicología incluye también pues los desarrollos enmarcados dentro de estas disciplinas. En esta entrada, en cambio, tendremos en consideración la filosofía de la psicología principalmente en tanto que aproximación de segundo orden, esto es, como materia que se ocupa del estudio de los principios y métodos de la ciencia psicológica.

Así entendida, la filosofía de la psicología es—junto con los desarrollos empíricamente informados del resto de disciplinas filosóficas que se ocupan de lo mental—el pilar filosófico de la ciencia cognitiva, es decir, el conjunto multidisciplinar que aglutina todo el conocimiento de que disponemos sobre la naturaleza de la mente y que incluye—además de la filosofía y la propia psicología—la neurociencia, la inteligencia artificial, la ciencia computacional, la lingüística y la biología. En tanto que reflexión filosófica, la filosofía de la psicología atañe también al conjunto del conocimiento empírico sobre la mente. Es así que las teorías y enfoques que surgen en el seno de la filosofía de la psicología son típicamente aplicables al conjunto de disciplinas que configuran la ciencia cognitiva.

Para los efectos de esta breve entrada, es también conveniente precisar un poco más el sentido en que consideramos la propia psicología. En general, la psicología es la ciencia empírica que se ocupa de la mente y el comportamiento. La psicología como ciencia es una disciplina joven que surge con las primeras prácticas de experimentación a finales del siglo XIX, y que estuvo además severamente limitada en cuanto a su alcance durante varias décadas. Así pues, si bien las investigaciones psicológicas se originan de la mano de la propia filosofía y ocupan un lugar primordial en la obra de autores como Aristóteles, Descartes, Hume o Kant, no podemos hablar de filosofía de la psicología en el sentido que nos ocupa aquí hasta bien entrado el siglo XX. Hay que tener también en cuenta que, por otro lado, la psicología cubre un abanico muy amplio de especialidades que incluyen la neurología, la psicología del desarrollo, la psicología clínica, la psicología evolutiva o la psicología social por nombrar algunos ejemplos. Aunque típicamente consideramos la filosofía de la psicología en tanto que estudio empírico de la cognición, el comportamiento y las estructuras y procesos mentales, la reflexión filosófica sobre estas otras disciplinas más concretas también caen dentro del ámbito de la filosofía de la psicología.

Es útil ver la filosofía de la psicología como desempeñando una doble función. Por un lado, ofrece una reflexión que hace explícitos los importantes presupuestos y metodologías de investigación que se utilizan a la hora de establecer los resultados y modelos psicológicos. Por otro, la filosofía de la psicología permite examinar y evaluar críticamente los desarrollos de las diferentes corrientes y paradigmas de la psicología y de las ciencias cognitivas en su conjunto. Una ilustración clara de esta doble función lo proporciona el caso del conductismo, un enfoque que dominó los desarrollos psicológicos durante gran parte del siglo XX y que pretendía abordar todos los fenómenos mentales en términos de la conducta observable por parte de los sujetos.

Los presupuestos y metodologías del conductismo fueron claramente delineados gracias a la obra de influyentes psicólogos—como Watson (1913) o Skinner (1974)—y filósofos—como Ryle (1949) o Quine (1960). Estos autores defendían que la ciencia psicológica debía limitarse al estudio de relaciones públicamente observables del tipo estímulo-respuesta. A partir de los años 50, sin embargo, la reflexión crítica sobre estos presupuestos empezó a mostrar sus severas limitaciones a la hora de explicar los resultados experimentales en los que precisamente el conductismo pretendía basarse, al tiempo que invitaba a considerar seriamente los estados y estructuras mentales como entidades no reducibles a categorías observables. Asimismo, los importantes avances en teoría de la computación y la lingüística—alentada por la obra revolucionaria de Alan Turing (1936) y Noam Chomsky (1968)—proporcionaban poderosas alternativas para articular estructuras cognitivas y modelos de desarrollo del lenguaje que eran empíricamente contrastables e iban mucho más allá de la mera conducta. De este modo, los principios y metodologías conductistas fueron explicitados y criticados en un proceso que acabó con el abandono del enfoque conductista en favor de aproximaciones más complejas como el funcionalismo y los modelos computacionales de la llamada “revolución cognitiva”.

Sin embargo, las aportaciones en la filosofía de la psicología se reflejan también en el planteamiento de numerosas cuestiones concretas que son transversales respecto a los enfoques de la psicología y la ciencia cognitiva que se han ido desarrollando, en mayor o menor medida, hasta nuestros días. Algunas de estas cuestiones son: ¿Cuál es la mejor caracterización y el estatus de la psicología sentido común? ¿Cuál es el papel explicativo y la importancia de la representación mental? ¿Debemos abogar por enfoques que prioricen el papel del entorno, la acción y el cuerpo en la concepción de los fenómenos mentales? A modo ilustrativo, en esta entrada consideraremos brevemente algunas de las respuestas que se han ofrecido a estas preguntas clave.

2. La psicología de sentido común

Una de las cuestiones más apremiantes a las que se enfrenta la filosofía de la psicología es la de interpretar y determinar el estatus de los estados mentales que los seres humanos utilizamos a diario a la hora de explicar y predecir la conducta. Entre estos estados, las creencias y deseos ocupan un lugar destacado. Por ejemplo, si sabemos que Eva concierta una entrevista de trabajo el lunes a las 8:00 para la agencia A, las creencias y los deseos que atribuimos a Eva (en concreto, la creencia de que tiene una entrevista ese día a esa hora para A y el deseo de asistir a la misma) nos permiten explicar su comportamiento cuando se levanta el lunes temprano y predecir que Eva, en condiciones normales, efectivamente se presentará ese día a esa hora en las oficinas de A. Este tipo de psicología—la llamada psicología popular o de sentido común—parece así reunir las características explicativas y predictivas de una teoría científica.

Una cuestión preliminar acerca de este tipo de psicología es sobre cómo caracterizarla. ¿Se trata de un tipo de teoría de la mente que empleamos implícitamente—esta es la teoría de la teoría o theory theory (p. ej. Gopnik y Wellman, 1994)o es la psicología de sentido común más bien un tipo de simulación con la que proyectamos en los demás nuestros propios estados mentales—tal y como propone la teoría de la simulación o simulation theory (p. ej. Gordon, 1986)? Una vez precisada su caracterización, existen a grandes rasgos tres tipos de posiciones que se pueden adoptar a la hora de evaluar dicha psicología. Por un lado, los realistas insisten en que no solo están legitimados los estados que postula, sino que además nuestras mejores teorías psicológicas usan representaciones que confirman dichos estados (p. ej. Fodor 1975, 1987). Otros autores optan por una línea instrumentalista según la cual no debemos comprometernos con la existencia de las categorías postuladas por la psicología de sentido común pero estamos legitimados a invocarlas en nuestras explicaciones psicológicas a un cierto nivel (p. ej. Dennett, 1984). Por último, el eliminativismo rechaza frontalmente la legitimidad de la psicología de sentido común comparando su estatus en relación a la ciencia psicológica con el de otras teorías precientíficas y las ciencias propiamente dichas—tales como la física aristotélica en relación a la física moderna (p. ej. Churchland, 1981). Las posiciones eliminativistas e instrumentalistas parecen pues requerir una revisión profunda de la manera en que la gente de la calle explica y predice la conducta. Las disputas sobre el papel de la psicología de sentido común se encargan de examinar en qué medida una tal revisión es posible y deseable.

3. La representación mental

De un modo que exhibe una estrecha relación con el problema de la sección anterior, la representación mental es otra de las cuestiones capitales a las que se enfrenta la reflexión filosófica sobre las prácticas en psicología y ciencia cognitiva. La representación mental es una noción que tiene su origen en el desarrollo de los modelos computacionales de la mente y de procesamiento simbólico de la información (Newell 1980, Marr 1982, Pylyshyn 1984) y viene definida, típicamente, como un estado o conjunto de estados físicos (o neurofisiológicos) del organismo que está por o significa otros estados fuera o dentro del mismo.

Una primera cuestión relativa a las representaciones mentales es sobre si nuestras teorías deben o no recurrir a las mismas. Numerosos desarrollos iniciados a finales del siglo XX e impulsados por autores trabajando desde ángulos bien diversos—

tales como los del experto en inteligencia artificial Rodney Brooks (1991), el filósofo y desarrollador de software Tim van Gelder (1995) o el biólogo y filósofo Francisco Varela (1990) entre muchos otroshan conseguido articular con éxito la posibilidad de aproximaciones a la mente que evitan acudir a representaciones mentales y que, de hecho, consideran una virtud explicativa el no tener que postularlas. Si tenemos en cuenta que las creencias y los deseos son estados claramente representacionales—esto es, estados con contenidos sobre otros estados—esta línea de investigación tiene como consecuencia natural el cuestionamiento e incluso rechazo frontal de la psicología de sentido común. El enfoque anti-representacionalista, que también se nutre de varias corrientes renovadoras dentro de la ciencia cognitiva (algunas de las cuales comentaremos brevemente más abajo), viene motivado en parte por la gran dificultad de (i) caracterizar las representaciones mentales de una manera precisa y (ii) vislumbrar criterios claros que permitan determinar cuándo una representación está justificada o confirmada empíricamente.

Con todo, pese a los serios retos que se han planteado desde el anti-representacionalismo, es justo decir que a día de hoy una mayoría de autores trabajando dentro y fuera de la filosofía considera la representación mental como una categoría fundamental e indispensable en la explicación de la mente y la cognición de criaturas tanto verbales como no verbales (ver Shea, 2018 para un tratamiento reciente). Aún así, el estudio de la naturaleza de la representación plantea una de las tareas más arduas a las que se enfrenta la filosofía de la psicología y la ciencia cognitiva con diversas e importantes ramificaciones. Una controversia célebre ha sido, por ejemplo, el análisis de la estructura de la representación. En concreto, ¿es dicha estructura de tipo lingüístico—de manera que nos permita hablar de un lenguaje del pensamiento (Fodor, 1975, Fodor y Pylyshyn, 1988)—o se trata en cambio de una estructura en forma de conexiones de red (Smolensky, 1987)? Otras cuestiones básicas que solo podemos apuntar aquí incluyen: ¿Cómo debemos caracterizar el contenido de las representaciones mentales? ¿Debemos postular tipos substancialmente distintos de representaciones para dominios cognitivos que son también distintos (tales como el lenguaje y la visión)? ¿Cuál es la diferencia y la relación entre la representación conceptual (que requiere el empleo de conceptos por parte del organismo) y la representación no conceptual? ¿Qué tipos de fenómenos mentales son aquellos que requieren la postulación de representaciones mentales? ¿Cómo podemos caracterizar el poder causal y los mecanismos en los que operan las representaciones mentales? Tras varias décadas de investigación, no disponemos aún de respuestas definitivas a estas y otras preguntas relativas a la naturaleza de la representación mental.

4. El entorno, la acción y el cuerpo

Los modelos computacionales clásicos—lo que John Haugeland (1985) dio en llamar GOFAI (Good Old-Fashioned Artificial Intelligence)—desarrollados en buena medida como reacción al conductismo durante la segunda mitad del siglo XX se han puesto en tela de juicio, con el paso de los años, a través de varios frentes. Dichos modelos, basados fuertemente en la lógica formal y la teoría computacional, dejaron inicialmente de lado aspectos que parecen cruciales en la elucidación de las capacidades cognitivas de organismos reales que se desarrollan en contextos complejos y cambiantes. Mientras podríamos señalar algunos otros aspectos a tener en cuenta, aquí consideraremos en concreto tres claramente interrelacionados: el entorno, la acción y el cuerpo.

Una de las contribuciones más destacadas en la filosofía de la psicología de las últimas décadas viene representada por la eclosión de los modelos de la llamada “mente extendida” (extended mind) (Clark y Chalmers, 1998). En estos modelos, se ofrece una aproximación a las capacidades cognitivas que puede extenderse más allá del cráneo y la piel (beyond skin and skull) y tienen en consideración elementos del entorno inicialmente externos al organismo, tales como un libro de notas o, en lo que sería una versión actualizada y ampliada, nuestro smartphone o tablet y otros recursos tecnológicos, así como redes sociales e institucionales. Esta corriente se opone a los modelos computacionales clásicos en subrayar la importancia y las numerosas posibilidades existentes para la realización física de los procesos cognitivos y la capacidad de los mismos para adaptarse e incorporar nuevos elementos del entorno.

El papel del entorno es también subrayado desde otro ángulo en el llamado enfoque enactivo o ecológico, según el cual, la función básica de la mente y los procesos cognitivos es (sustentar) la interacción directa con el mismo. Este enfoque, o familia de enfoques, encuentra sus raíces en el trabajo de psicólogos de la percepción como James J. Gibson (1979) y filósofos especializados en fenomenología como Maurice Merleau-Ponty (1945) y supone iluminar elementos básicos y automáticos de la cognición que involucran una sincronía o acoplamiento (coupling) con el entorno y la especificación directa de posibilidades para la acción (affordances) en el mismo. Al contrario de lo que ocurre en los modelos clásicos, estos elementos no requieren de la manipulación y procesamiento de información sino solo una captación tácita de la relación entre estimulación sensorial y los movimientos del organismo (ver p. ej. Noë, 2009).

Sin embargo, en tanto que la acción física está necesariamente ligada al cuerpo, los enfoques enactivos o ecológicos no están tampoco lejos, y de hecho en buena medida complementan el enfoque corporeizado de la cognición (embodied cognition) (Varela, Thompson y Rosch 1991, Chemero, 2009). Este enfoque pone el énfasis en el propio cuerpo como la base de la cognición y se distancia así de los modelos clásicos en considerar la realización física como un elemento esencial y no accesorio de los mismos. El enfoque corporeizado puede desarrollarse con numerosos énfasis en los que el cuerpo no meramente impone restricciones o limitaciones a los procesos cognitivos, sino que además los regula y constituye. En una de sus variantes más destacadas—que irrumpió con fuerza en el contexto de la psicología del desarrollo (Thelen y Smith, 1994)—la cognición corporeizada se articula a través de modelos explicativos dinámicos no (necesariamente) representacionales en los que se da cuenta del comportamiento del organismo como una actividad continua cuyo desarrollo a lo largo del tiempo se caracteriza matemáticamente (van Gelder, 1995, 1998).

5. Consideraciones finales

La discusión de la sección anterior no debe entenderse como implicando que los modelos computacionales de la mente han sido superados. Los debates sobre cuál es el mejor enfoque y metodología en psicología y ciencia cognitiva sigue vigente en la actualidad—muchas veces a través de la formulación de híbridos de diversa índole—y es justo decir que las versiones más actuales de dichos modelos—con nuevas ramificaciones que profundizan hacia la neurociencia (neurocomputación) y la física cuántica (computación cuántica)—están lejos de ser abandonadas (ver Piccinini, 2015 para un tratamiento detallado y reciente sobre la noción de computación).

Debemos señalar, a modo de conclusión, que lo que hemos visto aquí es solo una muestra muy pequeña del conjunto de cuestiones que caen dentro del ámbito de la filosofía de la psicología entendida como disciplina de segundo orden. Otras cuestiones centrales que podemos mencionar incluyen: ¿Qué niveles explicativos debemos considerar a la hora de abordar los fenómenos mentales? ¿Cuáles son las condiciones mínimas para que exista cognición? ¿En qué medida las capacidades cognitivas que poseemos son innatas y en qué medida resultado del aprendizaje y condicionamiento ¿Cuál es el papel explicativo de las enfermedades mentales y los casos clínicos a la hora de iluminar la naturaleza de la mente? ¿Cuál es la relación entre la mente individual y las estructuras cognitivas de colectivos y sociedades? ¿Cuál es el papel de la emoción en la cognición? La lista dista mucho de ser exhaustiva. Es conveniente tener asimismo en cuenta que la filosofía de la psicología se aproxima a cuestiones que continuamente se plantean en el seno del conjunto multidisciplinar que conforma la ciencia cognitiva. La reflexión desarrollada en la filosofía de la psicología es, en definitiva, una tarea en constante evolución que debe atender a un número considerable de corrientes y enfoques, pero también a una gran especialización de las cuestiones y avances concretos que contribuyen a una mayor comprensión de la realidad psicológica.

Víctor M. Verdejo
(Universitat de Barcelona)

Referencias

  • Brooks, R. (1991): “Intelligence Without Representation”, Artificial Intelligence, 47, pp. 139-159.
  • Clark, A. y D. Chalmers (1998): “The Extended Mind”, Analysis, 58(1), pp. 7-19. https://www.jstor.org/stable/3328150?seq=1
  • Chomsky, N. (1968): Language and Mind, New York, Harper and Row. [Chomsky, N., N., Catalá, J. A. Díez Calzada y J. E. García-Albea et al. (2002): El lenguaje y la mente, Barcelona, Ariel]
  • Churchland, P. M. (1981): Eliminative materialism and the propositional attitudes, Journal of Philosophy, 78(2), pp. 67-90. [Churchland, P. M. (1995): “El materialismo eliminativo y las actitudes proposicionales”, en E. Rabossi, ed., Filosofía de la mente y ciencia cognitiva, Barcelona, Paidós, pp. 43-68].
  • Chemero, T. (2009): Radical Embodied Cognitive Science, Cambridge, MA., MIT Press.
  • Dennett, D. (1987): “True Believers: The Intentional Strategy and Why it Works”, en A. F. Heath, ed., Scientific explanation, Oxford, Clarendon. [Dennett, D. (1998): “Los verdaderos creyentes: La estrategia intencional y por qué funciona”, en La actitud intencional, Barcelona, Editorial Gedisa, pp. 25-49].
  • Fodor, J. (1975): The Language of Thought, New York, Thomas Cromell. [Fodor, J. (1984): El lenguaje del pensamiento, Madrid, Alianza Editorial].
  • Fodor, J. (1987): Psychosemantics, Cambridge, MA., MIT Press. [Fodor, J. (1994): Psicosemántica, Madrid, Tecnos].
  • Gibson, J. (1979): The Ecological Approach to Visual Perception, Boston, Houghton Mifflin.
  • Gordon, R. (1986): “Folk Psychology as Simulation”, Mind and Language, 1, pp. 158-171.
  • Gopnik, A. y H. Wellman (1994): “The Theory Theory” en Hirschfield, L. and S. Gelman, eds., Mapping the Mind: Domain Specificity in Cognition and Culture, New York, Cambridge University Press, pp. 257- 293.
  • Haugeland, J. (1985): Artificial Intelligence: The Very Idea, Cambridge, MA., MIT Press. [Haugeland, J. (1988): La inteligencia artificial, México, Siglo XXI].
  • Marr, D. (1982): Vision, San Francisco, Freeman Press. [Marr, D. (1985): Visión. Madrid, Alianza].
  • Merleau-Ponty, M. (1945): Phénoménologies de la perception, Paris, Gallimard. [Merleau-Ponty, M. (2000): Fenomenología de la percepción, Barcelona, Península].
  • Newell, A. (1980): “Physical Symbol Systems”, Cognitive Science, 4, pp. 135-183. [Newell, A. (1987): Sistemas de símbolos físicos, en D. A. Norman, ed., Perspectivas de la ciencia cognitiva, Barcelona, Paidós].
  • Noë, A. (2004) Action in Perception. Cambridge, MA., MIT Press.
  • Piccinini, G. (2015): Physical Computation: A Mechanistic Account, Oxford, Oxford University Press.
  • Pylyshyn, Z. (1984): Computation and Cognition: Towards a Foundation for Cognitive Science, Cambridge, MA., MIT Press. [Pylyshyn, Z. (1988): Computación y conocimiento: hacia una fundamentación de la ciencia cognitiva, Madrid, Debate].
  • Quine, W. (1960): Word and Object, Cambridge, MA., MIT Press. [Quine, W. (2001): Palabra y objeto, Barcelona, Herder].
  • Ryle, G. (1949): The Concept of Mind, London, Hutchinson. [Ryle, G. (2005): El concepto de lo mental, Barcelona, Paidós].
  • Shea, N. (2018): Representation in Cognitive Science, Oxford, OUP.
  • Skinner, B. F. (1974): About Behaviourism, New York, Vintage book. [Skinner, B. F. (1975): Sobre el conductismo trad. por F. Barreras, Barcelona, Fontanella].
  • Smolensky, P. (1988): “The Constituent Structure of Connectionist Mental States: A Reply to Fodor and Pylyshyn”, Southern Journal of Philosophy, 26, pp. 137-161.[Smolensky, P. (1995): “La estructura constitutiva de los estados mentales conexionistas: una respuesta a Fodor y Pylyshyn”, en E. Rabossi, comp., Filosofía de la mente y ciencia cognitiva, Barcelona, Paidós].
  • Thelen, E. y L. Smith (1994): A Dynamics Systems Approach to the Development of Perception and Action, Cambridge, MA., MIT Press.
  • Turing, A. (1936): “On computable numbers”, Proceedings of the London Mathematical Society, 42, pp. 230-265.
  • Van Gelder, T. (1995): “What Might Cognition Be if Not Computation?”, Journal of Philosophy, 92, pp. 345-381.
  • Van Gelder, T. (1998): “The Dynamical Hypothesis in Cognitive Science”, Behavioural and Brain Sciences, 21, pp. 615-665.
  • Varela, F. (1988): Cognitive Science. A Cartography of Current Ideas. [Varela, F. (1990): Conocer. Las ciencias cognitivas: Tendencias y perspectivas. Cartografía de las ideas actuales, Barcelona, Gedisa].
  • Varela, F., E. Thompson, E. Rosch, (1991): The Embodied Mind. Cognitive Science and Human Experience, Cambridge, MA., MIT Press. [Varela, F. J., E. Thompson y E. Rosch, (1992): De cuerpo presente. Las ciencias cognitivas y la experiencia humana, Barcelona, Gedisa].
  • Watson, J. B. (1913): “Psychology as the behaviorist views it”, Psychological Review, 20, pp. 158-177. [Watson, J. B. (1990): “La psicología tal como la ve el conductista” en J.M. Gondra, ed., La psicología moderna, Bilbao, Descleé de Brouwer, pp. 399-414].
  • Bermúdez, J.L. (2019): Cognitive Science: An Introduction to the Science of the Mind, New York, Cambridge University Press.
  • Botterill G. y P. Carruthers (1999): The Philosophy of Psychology, Cambridge University Press.
  • Lycan, W. G y J. J. Prinz, ed., (2008): Mind and Cognition: An Anthology, Oxford, Blackwell.
  • Martínez-Freire, Pascual F. (2007): La importancia del conocimiento. Filosofía y Ciencias Cognitivas, La Coruña, Netbiblo.
  • Symons, J. y P. Calvo, eds., (2009): The Routledge Companion to Philosophy of Psychology, London, Routledge.
Cómo citar esta entrada

Víctor M. Verdejo (2018). “Filosofía de la psicología”,  Enciclopedia de la Sociedad Española de Filosofía Analítica (URL: http://www.sefaweb.es/filosofia-de-la-psicologia/)

Filosofía de la Química

1. Introducción

Junto con la física y la biología, tradicionalmente la química ha sido considerada como uno de los paradigmas de la ciencia moderna. Sin embargo, las cuestiones filosóficas asociadas a la química y a sus tecnologías no han sido tan claramente identificadas como en el caso de las otras dos disciplinas mencionadas, reserva aquellas de muchos de los casos estudiados en la filosofía de la ciencia, de la tecnología y en las éticas aplicadas, a pesar de que bastantes cuestiones éticas asociadas con la química (seguridad de los consumidores y de los trabajadores, contaminación ambiental, guerra y armamentos, etc.) están muy presentes en la vida cotidiana. La proliferación de la química en ramas como la química analítica, la bioquímica, la geoquímica, la química física, la inorgánica y la orgánica, entre otras y por no mencionar la atmosférica, la computacional, la de polímeros o la relacionada con las recientes ciencias de la regulación, deja entrever la ubicuidad de esta ciencia particular, sus dimensiones tecnológicas y su amplio abanico de compromisos potenciales de carácter social, ético y político, amén de la profundidad conceptual que le subyace.

Desde una perspectiva filosófica de la química, y sin dejar de lado los aspectos históricos y educativos que impregnan esta ciencia, la agenda conceptual y analítica es considerablemente amplia a día de hoy. La filosofía de la química se concibe, especialmente desde mediados de la década de 1980 (van Brakel, 2000), como una subdisciplina asentada de la filosofía de la ciencia. Su itinerario temático fue dominado en sus inicios por la cuestión de si la química se puede reducir a la física o no, aunque se amplió posteriormente hasta incluir asuntos conceptuales fundamentales de la filosofía de la ciencia tales como la naturaleza de las representaciones en química, la estructura de sus leyes y de sus explicaciones, el carácter de los mecanismos (explicativos y de otros tipos) en esta ciencia o la importancia de un análisis mereológico para entender la dinámica de sus teorías, modelos y artefactos. Junto a ello ha emergido a su vez toda una pléyade de debates acerca de las implicaciones éticas, estéticas e incluso socioculturales de la química (véase la revista Synthese, nº3, vol. 111).

Son dos las revistas que principalmente recogen el trabajo más actualizado de la filosofía de la química: Foundations of Chemistry (creada en 1999) y Hyle: International Journal for Philosophy of Chemistry (creada en 1995), siendo la primera el altavoz de la International Society for the Philosophy of Chemistry (ISPC). Hay que destacar a su vez algunos números especiales de inicios del siglo XXI publicados en Journal of Chemical Education (creada en 1924), en particular el volumen 81, números 6 y 9, de 2004, y el volumen 82, número 2, de 2005. También cabe destacar una serie de libros generales que marcan la pauta de los avances registrados en las publicaciones más especializadas: Philosophy of Chemistry: Between the Manifest and the Scientific Image (van Braakel, 2000), Philosophy of Chemistry: Synthesis of a New Discipline (Baird, Scerri, McIntyre, eds., 2006), Philosophy of Chemistry (Woody, Hendry, Needham, eds., 2012), Philosophy of Chemistry: Growth of a New Discipline (Scerri, McIntyre, eds., 2015), y Essays in the Philosophy of Chemistry (Scerri, Fisher, eds., 2016).

2. Filosofía analítica de la química

La química es la ciencia que se dedica a estudiar la estructura y las transformaciones de la materia. Existen escritos aristotélicos al respecto desde el siglo IV antes de nuestra Era, si bien en ellos solo se identifica una noción de materia ajustada únicamente a unos pocos fenómenos observables. Desde su creación como química moderna, es una ciencia en crecimiento continuo y de enormes proporciones, en la que se publican millones de artículos y se sintetizan miles de nuevas sustancias gracias a una tarea investigadora empírica y a un trabajo teórico que toma formas diversas, desde la programación y la simulación informáticas hasta la matematización más avanzada.

La filosofía de la química básicamente explora dos grandes líneas de investigación que recogen lo que Peter Strawson (Análisis y Metafísica) catalogaría aproximadamente como ‘conceptos (temas) disciplinares propios’ (por ejemplo, la naturaleza de las sustancias químicas, el papel de los átomos y del atomismo en química, el enlace químico, la síntesis química) y ‘conceptos (temas) propios de la estructura general subyacente a toda ciencia’ (entre otros el realismo, la reducción, la explicación, la modelación o la idealización). Entre los conceptos mejor analizados hasta la fecha en la filosofía de la química destacan los siguientes: la estructura química, los mecanismos químicos, la reducción en química, la explicación química y la modelación en química.

2.1 Estructuras

La literatura filosófica sobre el enlace químico comienza con la concepción estructural del enlace químico (Hendry, 2011). Según esta, los enlaces químicos son sub-moleculares, partes materiales de la molécula situadas entre los centros atómicos individuales y responsables de mantener conjuntada la molécula. Se trata de la noción de enlace químico surgida a finales del siglo XIX y base de la química analítica y sintética actuales. Sin embargo, es una concepción criticada en la filosofía de la química desde al menos tres frentes que han abierto un debate especialmente rico desde un prisma conceptual: la cuestión de la incompatibilidad entre la ontología de la mecánica cuántica y la ontología fenoménica del enlace químico, el problema de la química computacional, y el debate sobre el significado de las moléculas enlazadas muy débilmente.

Otras reflexiones de peso se ocupan de la noción misma de estructura molecular, más allá de si esta está vinculada a enlaces o no. Lo primero que interesa en estas reflexiones tiene que ver con la definición correcta de ‘estructura molecular’. Los libros de texto habitualmente describen la estructura de una molécula como la posición de equilibrio de sus átomos. Pero esta es una noción problemática, dado que las moléculas no son entidades estáticas. Por ello, lo segundo que hay que considerar respecto de la estructura molecular es aún más fundamental: ¿tienen las moléculas los tipos de forma y las características direccionales que las fórmulas estructurales representan? Diversas técnicas experimentales (cristalografía de rayos-X, espectroscopia, etc.) han demostrado que no sólo existe la forma, sino formas específicas de especies moleculares específicas. Sin embargo, y a pesar de ello, la mecánica cuántica continúa sospechando de la noción de forma molecular. En los tratamientos mecano-cuánticos de las especies moleculares, la forma no parece surgir a menos que se añada manualmente. Esto ha originado una profunda tensión entre el enfoque mecano-cuántico de las moléculas y los enfoques químicos más familiares.

El caso de la sustancia agua y de su estructura puede servir de ejemplo de análisis filosófico de la cuestión. La afirmación de «el agua es H2O» es uno de los ejemplos favoritos de los filósofos cuando reflexionan sobre cuestiones de ontología en química. Se toma a menudo como verdad incontrovertida y se emplea como evidencia a favor del externismo semántico y del esencialismo sobre géneros naturales (Kripke, 1980; Putnam, 1975). Veamos en qué consiste el esencialismo químico. ¿Es suficiente tener una microestructura esencial común para individuar los géneros naturales y explicar sus características? Si es así, ¿es «ser H2O» suficiente para individuar el agua?

La tesis esencialista a menudo se expresa como «agua = H2O» o bien como «solo el agua es H2O». Sin embargo, no está claro que ninguna de ambas formulaciones exprese el tipo de tesis que el esencialista quiere expresar. «H2O» no es una descripción de microestructura alguna, sino que es una fórmula composicional que describe las proporciones combinatorias de hidrógeno y oxígeno para formar agua. Una paráfrasis razonable de la formulación estándar sería «agua es una colección de moléculas de H2O». Y no obstante, aunque la expresión «molécula de H2O» describa una microentidad particular, no satura los géneros de micropartículas en el agua, y no dice nada de la microestructura mediante la que se relacionan en el agua. Al igual que otras sustancias, la microestructura del agua no se puede simplemente describir como una colección de moléculas individuales (Hendry, 2011).

Tal vez el agua no sea simplemente un conjunto de moléculas de H2O, pero ciertamente tiene una microestructura y quizás la tesis esencialista se podría reformular como «agua es todo aquello que tenga su microestructura». Pero esta tesis aún atribuye la idea de que «agua» es un predicado caracterizado por lo que Putnam llama rasgos estereotípicos. Esto obvia la importancia de las propiedades macroscópicas (científicamente importantes). En realidad, muchos de los criterios que los químicos emplean para determinar la mismidad y la puridad de las sustancias son macroscópicos, no microscópicos (Needham, 2011). Por lo tanto, ¿es el agua H2O? La respuesta se limita a cómo interpretemos la oración. Muchos químicos se sorprenderían si encontraran que el agua no es H2O, lo cual se debe a que ellos leen «H2O» como una abreviatura o como una fórmula composicional. Dado que el agua en realidad se caracteriza mediante una referencia tanto a los rasgos microscópicos como a los macroscópicos, esta identidad no puede proporcionar una justificación para el microesencialismo.

2.2 Mecanismos y explicación

La química involucra transformación continua de sustancias o de la materia. La síntesis es un tipo de proceso desde unas sustancias a otras, y los mecanismos químicos son los que constituyen el marco explicativo de la química a la hora de describir estas transformaciones. La generación de mecanismos para la explicación es algo inherente a la química, especialmente a la orgánica. Los mecanismos químicos se emplean (i) para clasificar las reacciones en diversos tipos, (ii) para explicar el comportamiento químico y (iii) para predecir acerca de reacciones nuevas o de reacciones que tienen lugar en circunstancias novedosas.

La noción más detallada de mecanismo es la que describe un conjunto discreto de pasos de una reacción química. En cada paso se genera un conjunto de reactivos intermedios, que son especies moleculares cuasi-estables que en último término producen los productos de la reacción. Se trata, obviamente, de una descripción del mecanismo de reacción no sólo abstracta, dado que no atiende a muchos detalles, sino también altamente idealizada. Esto se debe a que, según Goodwin (2012), dados los objetivos predictivos y explicativos de los químicos, en realidad no se necesita todo lo que los mecanismos puedan proporcionar en potencia. De hecho, sólo es necesario obtener una caracterización de las estructuras específicas, el estado de transición y los intermediarios reactivos estables para producir explicaciones y predicciones químicas.

Los estudios de mecanismos de reacción confían en técnicas indirectas. De manera ideal, elucidar un mecanismo es como hacer experimentos en biomecánica. Una vez se determinan experimentalmente los productos de la reacción y tras un posible aislamiento de especies intermedias estables, los químicos se basan en las medidas de las proporciones de reacción en diversas condiciones, en la espectroscopia y en el etiquetado isotópico, entre otras técnicas. Son técnicas que ayudan a eliminar candidatos a mecanismo de reacción. Sin embargo, hay mejores análisis de elucidación de mecanismos reactivos en química, como es el caso del enfoque de confirmación llamado ‘inducción eliminativa’ o el de la lógica de descubrimiento de la química sintética. Corey & Cheng (1989) han propuesto que la síntesis de moléculas orgánicas se puede planificar racionalmente según la lógica del análisis retro-sintético. Sistematizando la tradición de la química orgánica sintética, muestran cómo se puede razonar ‘hacia atrás’, a partir de una molécula diana (target), encontrando una serie de desconexiones, enlaces que sabemos cómo llevar a cabo. El árbol resultante de las desconexiones proporciona rutas o trayectorias potenciales para la síntesis que entonces se pueden evaluar con plausibilidad o, simplemente, ensayarlas a modo de prueba en el laboratorio.

2.3 Reducción

La relación entre teorías es también un tema de importancia máxima en la filosofía de la química. Muchos filósofos, aunque no todos, han asumido que la química se reduce a la física. La cuestión de la reducción en química se puede dividir en dos temas: el primero es el más familiar en filosofía y concierne a la relación entre elementos, átomos, moléculas y las partículas fundamentales de la física (Bunge, 1982). Surgen aquí preguntas del tipo «¿son las especies atómicas y moleculares reducibles a sistemas de partículas fundamentales que interactúan según la mecánica cuántica?» (Scerri, 2015). El segundo tema toca la relación entre las descripciones microscópica y macroscópica de las sustancias químicas: ¿son las sustancias químicas reducibles a las especies moleculares? Aquí la cuestión básica es la de si todas las propiedades químicas que se han definido macroscópicamente se pueden redefinir en términos de las propiedades de átomos, moléculas y sus interacciones (Bishop, 2010).

2.4 Modelos, idealización y explicación

La teorización química involucra modelación: la descripción y análisis indirectos de fenómenos químicos reales mediante modelos. La tradición modeladora en química comenzó con los modelos físicos de átomos y moléculas, y hoy son en su mayoría modelos matemáticos (enlace de valencia, orbitales moleculares, semi-empíricos) que se emplean para explicar y predecir la estructura molecular y la reactividad. Los modelos moleculares mecánicos se usan para explicar aspectos de la cinética de las reacciones y de los procesos de transporte. Los modelos de enrejado se emplean para explicar propiedades termodinámicas. Todos ellos son modelos ubicuos en química y se conciben como básicos para la teoría química.

Los químicos son muy permisivos con los tipos de estructuras matemáticas que pueden servir de modelos. Partes de la modelación química son dinámicas, por lo que emplean espacios de trayectorias, los cuales pueden representar el curso de la reacción en el tiempo. Y otros tipos de estructuras matemáticas (grafos, grupos) se pueden emplear para modelar la estructura molecular y la simetría. La propuesta de muchos ejercicios de modelación química es aprender acerca de sistemas reales. En estos casos, el modelo debe establecer ciertas relaciones con los sistemas del mundo real, aunque las relaciones no necesiten a menudo ser de fidelidad alta.

Gran parte de la investigación química actual involucra la aplicación de la mecánica cuántica a la química. Es cierto que no hay soluciones exactas para las descripciones mecano-cuánticas de los fenómenos químicos, pero los avances en la física teórica, en la matemática aplicada y en la computación han posibilitado calcular sin excesiva idealización y con mucha exactitud las propiedades químicas de muchas moléculas. Los químicos cuánticos se esfuerzan por calcular con más exactitud y con el mínimo de idealización. Su idea es ‘des-idealizar’ (concretar) los modelos tanto como se pueda.

Sin embargo, no todos los químicos han compartido esta idea de aproximarse a cálculos cada vez más exactos (Hoffmann, 1998). Hoffmann sugiere que los modelos idealizados, sencillos, sí son importantes para hacer teoría química. Por lo tanto, la cuestión filosófica básica que surge es ésta: ¿por qué también trabajamos con modelos idealizados? Parte de la respuesta señala que empleamos modelos simples, más idealizados, porque se derivan de cierta tradición explicativa en química. Habría dos modos de explicación para sistemas químicos, el horizontal y el vertical: las explicaciones verticales son las denominadas explicaciones nomológico-deductivas (explican un fenómeno químico mediante la derivación de su ocurrencia a partir de la mecánica cuántica); las explicaciones horizontales procuran explicar los fenómenos químicos por medio de conceptos propiamente químicos. Ambos tipos nos proporcionan diferentes géneros de información explicativa. Las explicaciones verticales demuestran que los fenómenos químicos se pueden derivar a partir de la mecánica cuántica. Las horizontales son especialmente adecuadas para hacer explicaciones contrastivas, las cuales permiten la explicación de tendencias (Earley, 2012).

3. Ética y química

La revista Hyle ha sido la que más énfasis ha puesto en el examen de cuestiones éticas que se sitúan más allá de resultados especializados propios de la química. Su objetivo es apuntar a problemas que subyacen a los debates en torno a la regulación, la gestión responsable, los códigos profesionales o los comportamientos personales de quienes se dedican a esta ciencia y a las ingenierías vinculadas a ella. La ética de la química recoge y profundiza en debates acerca de las relaciones entre la comunidad de los químicos y la sociedad en general; es decir, reflexiones sobre la importancia de los valores específicos de los químicos como practicantes y su relación con valores sociales generales. En este sentido, la cuestión fundamental se puede enfocar desde dos perspectivas: la de la comunidad de profesionales de la química y la social.

La primera se concentra básicamente en asuntos tales como los códigos profesionales de conducta de las asociaciones químicas, la relación de los ideales morales putativos con ciertas normas de la química, la naturaleza moral o amoral de la investigación química, así como los vínculos que podemos encontrar entre los valores metodológicos y los valores morales. La perspectiva social más general, en cambio, se pregunta si los químicos tienen algún género específico de responsabilidad y deber ante la sociedad, o si lo tiene la sociedad ante la ciencia química. Con ello se trata de indagar acerca de las lecciones, si las hay, que podríamos aprender de los efectos positivos y negativos de la investigación química, como son el papel de los medicamentos, el avance económico vinculado a esta ciencia, las armas o la contaminación. Las respuestas que se reciban desde ambas perspectivas probablemente tengan implicaciones sobre la manera como la ética de la química se pueda incorporar al currículum académico de estudiantes, profesores y otros profesionales, sea como parte de los métodos de la ciencia, sea como aplicación tecnológica o sea como un marco societario.

4. Química y estudios de ‘Ciencia-Tecnología-Sociedad’ (CTS)

Presentar resultados vinculados con la química en códigos de conducta y en la educación pública origina a su vez otras cuestiones serias de política científica. En la medida en que la comunidad de los químicos pudiera entender la aplicación de la química, así como la educación científica pública, como formas básicas de servir al interés general de una sociedad, sería importante realizar una valoración de dicha ciencia y de sus extensiones en términos del enfoque denominado ‘estudios de ciencia, tecnología, sociedad’ (o estudios CTS) (González, 2005). Estos estudios han destacado en general la importancia de la participación ciudadana en la toma de decisiones que tienen que ver con la ciencia y la tecnología. El concepto de ‘ciencia post-normal’, por ejemplo, sirve de base para promover el reconocimiento de estas interacciones, concepto que se caracteriza como una guía para la ciencia dirigida por cuestiones concretas y en la cual los hechos son considerados como algo incierto (incertidumbre), con valores a menudo enfrentados, pero ante los cuales hay que tomar decisiones, habitualmente urgentes (Funtowicz y Ravetz, 1990). La ciencia post-normal motiva una aproximación hacia la educación pública de carácter conceptual, filosófico y ético, con el fin de gestionar la relación entre la ciencia y la sociedad civil.

Uno de los escenarios más importantes en la química es el de la aplicación de esta ciencia a las políticas reguladoras basadas en la ciencia (Cranor, 1993). Los encargados de la política científica son agentes que deben tomar decisiones en contextos con cantidades excesivas de datos o de información que exigen herramientas que faciliten su tarea. A día de hoy, el denominado ‘análisis de las relaciones estructura-actividad’ (SAR) se emplea cada vez más asiduamente. Este tipo de análisis, en ocasiones denominado QSAR en alusión a su carácter cuantitativo (Nikolova y Jaworska, 2003), es una metodología empleada en la ciencia reguladora con el fin de generar datos científicos dirigidos a la toma de decisiones en la política científica y en las regulaciones que tienen que ver con la ciencia y con la tecnología (Cronin et al., 2003). El objetivo de esta actividad consiste en determinar si una determinada sustancia química puede ser nociva para la saludad humana o para el entorno natural. Sin embargo, dada la gran cantidad de sustancias potencialmente nocivas que existen en el mercado en este sentido (tóxicas, cancerígenas, etc.), una puesta a prueba exhaustiva y detallada de cada sustancia no sería no económicamente viable ni posible en una escala temporal. El análisis SAR es por ello uno de los métodos empleados para tratar de superar esta dificultad. Su proceder consiste en clasificar los compuestos químicos sobre la base de características moleculares y estructurales particulares que ya se han mostrado nocivas o, en su caso, inocuas. La clave de la clasificación radica en las semejanzas que una sustancia de propiedades aún desconocidas pueda tener con respecto a otras sustancias cuyas propiedades ya conocemos (Bengoetxea, 2015). La posesión de ciertos rasgos comunes (estructura molecular, alta movilidad o alta persistencia en el entorno natural, o una capacidad elevada para la bio-acumulación, por ejemplo) permite a los químicos agrupar las sustancias según el potencial de estas para ser nocivas, si bien hay que señalar que dichos rasgos no demuestran por sí mismos que la nocividad esté fuera de toda duda.

Juan Bautista Bengoetxea
(Universitat de les Illes Balears)

Referencias

  • American Chemical Society (2013): The Chemical Professional’s Code of Conduct.
  • Baird, D., E. Scerri y L. McIntyre, eds., (2006): Philosophy of Chemistry: Synthesis of a New Discipline, Dordrecht, Springer.
  • Bengoetxea, J. B. (2015): “Chemistry”, en J. Britt Holbrook, ed., Ethics, Science, Technology, and Engineering: A Global Resource, Vol.1, 2nd edn., Farmington Hills, MI., Macmillan Reference USA, pp. 340-346.
  • Bensaude-Vincent, Bernadette; Stengers, Isabelle (1993): Historia de la química, trad. por Encarnación Hidalgo, Madrid, Addison-Wesley Iberoamericana, 1997.
  • Bhushan, Nalini; Rosenfeld, Stuart (eds.) (2000): Of Minds and Molecules: New Philosophical Perspectives on Chemistry. Oxford: Oxford University Press.
  • Bishop, Robert C. (2010): Whence Chemistry? Studies in History and Philosophy of Modern Physics 41: 171–177.
  • Bunge, Mario (1982): Is Chemistry a Branch of Physics? Journal for General Philosophy of Science 13 (2): 209-223.
  • Corey, Elias J.; Cheng, Xue-Min (1989): The Logic of Chemical Synthesis. New York: Wiley.
  • Cranor, Carl F. (1993): Regulating Toxic Substances: A Philosophy of Science and the Law. Oxford: Oxford University Press.
  • Cronin, Mark T. D.; Walker, John D.; Jaworska, Joanna S.; Comber, Michael H. I.; Watts, Christopher D.; Worth, Andrew P. (2003): Use of QSARs in International Decision-Making Frameworks to Predict Ecologic Effects and Environmental Fate of Chemical Substances. Environmental Health Perspectives 111 (10): 13761390.
  • Earley, Joseph E. (ed.) (2003): Chemical Explanation: Characteristics, Development, Autonomy. New York: The New York Academy of Science.
  • Funtowicz, Silvio O.; Ravetz, Jerome R. (1990): Uncertainty and Quality in Science for Policy. Dordrecht: Kluwer.
  • González, Wenceslao J. (ed.) (2005): Science, Technology and Society: A Philosophical Perspective. A Coruña: Netbiblo.
  • Goodwin, William (2012): Mechanisms and chemical reaction. En Woody, Hendry, Needham (eds.), pp. 309-327.
  • Hendry, Robin F. (2011): Philosophy of Chemistry. En Steven French, Juha Saatsi (eds.): The Continuum Companion to the Philosophy of Science. London: Cotinuum, pp. 293-313.
  • Hoffmann, Roald (1998): Qualitative thinking in the age of modern computational chemistry-or what Lionel Salem knows. Journal of Molecular Structure 424: 1-6.
  • Kripke, Saul (1980): El nombrar y la necesidad. Traducido por Margarita M. Valdés. México: UNAM, 2005.
  • Levere, Trevor H. (2001): Transforming Matter: A History of Chemistry from Alchemy to the Buckyball. Baltimore, NJ: The Johns Hopkins University Press.
  • Llored, Jean-Pierre (ed.) (2013): The Philosophy of Chemistry: Practices, Methodologies, and Concepts. Newcastle upon Tyne: Cambridge Scholars.
  • Needham, Paul (2011): Microessentialism: what is the argument? Noûs 45: 1-21.
  • Nikolova, Nina; Jaworska, Joanna S. (2003): Approaches to Measure Chemical Similarity: A Review. QSAR and Combinatorial Science 22 (9–10): 1006–1026.
  • Putnam, Hilary (1975): El significado de «significado». Teorema XIV, 3/4: 345-405. Traducido por Juan José Acero (1984).
  • Ruthenberg, Klaus; van Brakel, Jaap, eds., (2008): Stuff: The Nature of Chemical Substances. Würzburg: Königshausen & Neumann.
  • Scerri, E. y L. McIntyre, eds., (2015): Philosophy of Chemistry: Growth of a New Discipline, Dordrecht, Springer.
  • Scerri, E. y G. Fisher, eds., (2016): Essays in the Philosophy of Chemistry, Oxford, Oxford University Press.
  • Schummer, J. (2013): Bibliography ‘Chemistry and Humanities, –1990’. HYLE: International Journal for Philosophy of Chemistry.
  • van Brakel, J. (2000): Philosophy of Chemistry: Between the Manifest and the Scientific Image, Lovaina, Leuven University Press.
  • Woody, A., R. F. Hendry y P. Needham, eds., (2012): Philosophy of Chemistry (Handbook of the Philosophy of Science, Vol. 6), Oxford, Elsevier.
Cómo citar esta entrada

Juan Bautista Bengoetxea (2018). “Filosofía de la química”,  Enciclopedia de la Sociedad Española de Filosofía Analítica (URL: http://www.sefaweb.es/filosofia-de-la-quimica/)

Causalidad en la ciencia

1. Teorías de la causalidad

Existe una gran diversidad de teorías de la causalidad. En su primera acepción, todas estas teorías proponen definiciones explícitas de la relación causal, en términos de condiciones necesarias y / o suficientes para la aplicabilidad del término. Pero los análisis de cada una de estas teorías no pueden ser más diferentes y contradictorios entre sí. En esta sección presentamos las cuatro teorías históricamente más influyentes.

1.1. La teoría regularista

David Hume (1748) inaugura la discusión empirista moderna acerca de la causalidad. Asegura que los conceptos generalmente asociados a ésta, como “potencia” y “conexión necesaria”, no tienen fundamento al no ser perceptibles por los sentidos. Debido a que sólo las sucesiones de eventos son percibidas, hablamos de causa y efecto cuando encontramos la conjunción constante de dos eventos del mismo tipo. La conexión necesaria entre éstos y la idea de potencia serían fruto de una mera conjetura de la mente derivada de la idea de volición, la cual no es menos problemática, pues descansa sobre el “misterio de la conexión entre alma y cuerpo” (p. 66). Tras Hume, los análisis de la causalidad en términos de patrones invariantes de sucesiones han convenido en llamarse teorías de la regularidad causal. Dos autores influyentes que han desarrollado esta idea son John Stuart Mill y John L. Mackie.

Mill (1843) señala la existencia de una “pluralidad de causas” para un evento determinado, especificando así que las regularidades no suelen darse tanto entre eventos aislados como entre conjuntos de ellos. Identifica la causa con “la suma total de condiciones positivas y negativas” que anteceden a un evento con regularidad, las cuales se identificarían gracias a su “método de la diferencia”, en el que se alude a las diferencias existentes entre las condiciones en el evento que ocurre y aquellas en que no lo hace. Por su parte, en (1974), Mackie analiza los problemas de la teoría regularista en Hume y Mill, y ofrece su propia caracterización de la causalidad como regularidad en los objetos. Señala que la “causa total” de un efecto ha de entenderse como una disyunción de conjunciones, cada una de ellas suficiente pero no necesaria, compuestas de factores insuficientes pero necesarios (INUS por sus siglas en inglés). Por ejemplo, un cortocircuito eléctrico es una condición INUS de un incendio determinado en una casa. Se trata de un factor necesario pero no suficiente de un conjunto de condiciones (entre los que estará la presencia de oxígeno, de materiales no ignífugos, etc.) suficiente para que el incendio tenga lugar, aunque no necesario (pues éste podría deberse a otro conjunto de factores que incluyesen, por ejemplo, una vela mal apagada).

1.2. La teoría probabilística

La otra aproximación empirista más importante es históricamente más reciente, y deriva de las discusiones en el seno del círculo de Viena sobre la naturaleza de los llamados términos teóricos de la ciencia, en oposición a los empíricos. La cuestión clave desde esta perspectiva consiste en averiguar si algún análisis del concepto de causalidad permite reducirlo a algún conjunto complejo de nociones bien definidas con anterioridad, ya sean de tipo formal, empírico, o una combinación lógica de ambos tipos. De lo contrario, la noción de causalidad devendría vacua, resultando eliminable. Este eliminativismo fue defendido por algún predecesor del círculo de Viena, como Bertrand Russell (1912] 1913), pero rechazado por la mayor parte de los neopositivistas, que consideraron la causalidad como el concepto científico por antonomasia. El mayor defensor de esta reducción es Hans Reichenbach, quien en (1956), propone la que quizás sea la primera teoría comprehensiva probabilística de la causalidad, siendo todas las ulteriores versiones de ésta.

La idea fundamental de cualquier teoría probabilística de la causalidad es que una causa eleva la probabilidad de sus efectos (Hitchcock, 2016). La introducción de la probabilidad requiere, desde un punto de vista formal, entender los “relata” de la relación causal no como eventos si no más propiamente como variables aleatorias. Decimos entonces, de manera genérica, que, según la teoría probabilística, la variable c es la causa de la variable e si y sólo si incrementa su probabilidad [incprob]: Prob (e / c) > Prob (e / ¬ c). Sin embargo, esta condición [incprob], en apariencia tan sencilla, tiene sus dificultades. En primer lugar, cualquier correlación entre dos variables c y e, como la expresada en [incprob], puede ser espuria, en el sentido de que responde a causas subyacentes de ambas variables (es decir: tanto e como c pueden ser efectos de una causa ulterior d que eleva la probabilidad de ambas y explica su correlación). El famoso slogan “correlación no es causación” demuestra que [incprob] es, como mucho, una condición necesaria, pero nunca suficiente para la causalidad, y por lo tanto no puede servir para reducir la relación causal a mera probabilidad. Esto aboca a Reichenbach a enunciar un principio de inferencia causal más elaborado, que se conoce como el “principio de la causa común” [pcc].

Este principio se puede expresar formalmente de la siguiente manera [pcc]: “Si c y e son dos variables correlacionadas (p.e. por cumplir la condición [incprob]), entonces: o bien c causa e, o viceversa, o ambas son efectos de alguna causa común d tal que: Prob (e / c & d) = Prob (e / d)”. La definición ya indica que si d es la causa común de e y c, entonces su presencia debe anular o suprimir la correlación entre e y c, en cuyo caso decimos que la correlación entre e y c es espuria. Aunque este principio parece, en primera instancia, superar las dificultades de la teoría regularista, su validez, incluso como mera condición necesaria pero no suficiente sobre las causas comunes, continúa siendo objeto de un importante debate (Williamson, 2017). En cualquier caso, el [pcc] es, como mucho, una condición necesaria de la causalidad, y no puede utilizarse para reducir analíticamente la relación causal.

1.3. La teoría contrafáctica

En un pasaje de (1748), David Hume identifica su teoría regularista de la causalidad con una definición en términos de dependencia contrafáctica: «podemos definir una causa como un objeto seguido de otro, donde todos los objetos similares al primero son seguidos de objetos similares al segundo. O, en otras palabra, si el primer objeto no se hubiera dado, el segundo nunca habría existido». Esta idea queda inexplorada por los regularistas, y es el filósofo norteamericano David Lewis quien la recoge y desarrolla en 1974, afirmando tomar esta segunda definición de Hume como su definición «no de la causalidad misma, sino de dependencia causal entre eventos». Define ésta en términos de dependencia contrafáctica entre las proposiciones que los describen, mediante el uso de condicionales contrafácticos (del tipo “si A no se hubiera dado, B no habría ocurrido”) y de la semántica de los mundos posibles.

Un mundo posible es un conjunto de eventos (o de proposiciones verdaderas que los describen) que difiere en algún aspecto del mundo real. Los mundos posibles se ordenan según su cercanía al mundo real tomando la cantidad de eventos o proposiciones compartidos con éste como criterio, permitiendo establecer los valores de verdad de los condicionales contrafácticos (es decir, condicionales cuyos antecedentes resultan falsos en el mundo real) de la siguiente forma: un contrafáctico es verdadero si y sólo si en los mundo más cercanos al mundo real en los que el antecedente es verdadero (es decir, aquellos mundo que difieren del mundo real solamente en el valor de verdad del antecedente), es también verdadero el consecuente.

En el caso de las relaciones causales, esto significa que, para dos eventos c y e en el mundo real, podemos decir que e depende causalmente de c, si y sólo si: ocurre que c; ocurre más tarde que e; y además es verdadero, en el sentido establecido anteriormente, el condicional contrafáctico “si no hubiese ocurrido c no habría ocurrido e”. Para superar algunas de las dificultades del análisis regularista, Lewis matiza que, si bien la causalidad es una relación transitiva, la dependencia causal no lo es. Esto es debido a que la causalidad entre dos eventos puede ser mediada por distintos estadios de los que, por separado, el efecto no depende causalmente. Por ello, e puede depender causalmente de c, y, a su vez, c puede depender causalmente de d, sin por ello e depender causalmente de d. El incendio en una casa depende causalmente del cortocircuito, del que también depende causalmente el desplome de potencia en el vecindario; sin embargo el incendio no depende causalmente del desplome de potencia.

Para superar la ambigüedad de la noción de similaridad manejada, Lewis propone que los mundos más similares al real son aquellos que son idénticos en su historia, pero difieren en aspectos inmediatamente anteriores a la ocurrencia del efecto a considerar. Además, Lewis reformula su teoría en (2000), introduciendo la noción de influencia y añadiendo que el condicional contrafáctico no sólo ha de reflejar dependencias basadas en la ocurrencia o no de un evento; sino también en cuándo y cómo ocurre.

1.4. La teoría de procesos

Una cuarta familia de teorías sobre la causalidad tiene su origen en la obra de Wesley C. Salmon, quien propuso tomar los procesos, en oposición a los eventos, como base ontológica del análisis causal. Mientras que los eventos se consideran espaciotemporalmente localizados, los procesos son entidades espacial y temporalmente dilatadas que presentan algún tipo de persistencia estructural. Salmon (1984) distingue los procesos propiamente causales, que transmiten su propia estructura, de aquellos que no lo serían (los pseudo-procesos) mediante un criterio contrafáctico de “transmisión de marca”. Éste consistiría en la capacidad de transmitir de un punto a otro del proceso un cambio inducido por una hipotética intervención en éste. Un ejemplo de pseudo-proceso es el de la proyección de una sombra en movimiento. Una intervención en el movimiento de la sombra – por ejemplo mediante la colocación de un obstáculo en la superficie en que se proyecta – puede modificar su trayectoria puntualmente, pero la modificación no será transmitida por el movimiento, incumpliéndose el criterio de transmisión de marca.

Phil Dowe tomó la teoría de Salmon como punto de partida para elaborar su propia teoría de procesos: la teoría de la “cantidad conservada”. Apoyándose en las ciencias físicas, Dowe propone entender los procesos causales como aquellos en los que una entidad posee una cantidad gobernada por una ley de conservación (por ejemplo la masa-energía, el momento lineal o la carga). Salmon adopta en gran parte la aproximación de Dowe, y desarrolla a partir de ella su nueva “teoría de la cantidad invariante”. En ella, señala que el requisito más relevante para la causalidad no es la conservación de un valor en el tiempo, sino su constancia con respecto a cambios de marco de referencia espaciotemporal.

Existe un número creciente de posturas sobre la causalidad enmarcadas también dentro de una ontología de procesos, pero que difieren de las teorías de Salmon y Dowe, como pueden ser las teorías de transmisión de propiedades o las de mecanismos.

2. Metodología de la Inferencia Causal

En la primera sección apuntamos razones para una concepción deflacionista de la causalidad. En esta segunda sección indicamos cómo el intervencionismo causal de Woodward (2003) se puede utilizar para dar cuenta de la metodología de inferencia causal en cualquier dominio, independientemente de la teoría sobre la causalidad aplicable a tal dominio.

2.1. Concepción deflacionaria de la causalidad

Ninguna de las cuatro teorías que hemos estudiado en la sección anterior tiene éxito como análisis reduccionista de la causalidad. Lo que se presentan como condiciones necesarias y suficientes para un análisis de la causalidad resultan ser condiciones típicas en distintos casos de causalidad efectiva, o para diversas variedades de relaciones causales existentes. Así, la teoría regularista no puede dar cuenta adecuadamente de correlaciones no causales, ni de relaciones causales indeterministas. Por su parte, la teoría probabilística no puede dar cuenta de eventos o variables que aún estando causalmente relacionados con otros eventos, no son capaces de aumentar su probabilidad. Como en los célebres ejemplos de Salmon (1984) y Suppes (1970), en los que p.e. el golpeo de una bola de golf en la dirección opuesta al hoyo reduce la probabilidad de que entre en ese hoyo; sin embargo, la bola accidentalmente golpea en un árbol y, de rebote, entra, sin duda en parte causado por el golpeo inicial. O en los ya más serios ejemplos de Hesslow, y otros casos de paradoja de Simpson. Tampoco puede dar cuenta adecuadamente de la diferencia entre causas comunes y efectos comunes, si no es presuponiendo una flecha temporal de la causalidad.

Por otro lado, la teoría contrafáctica sufre de contraejemplos relativos a casos de sobredeterminación causal (pre-emption). Por ejemplo, supongamos que un incendio es causado parcialmente por un cortocircuito; pero que al mismo tiempo un pirómano acababa de rociarlo con gasolina y estaba a punto de prenderle fuego. El análisis contrafáctico nos dice que el incendio ya no depende causalmente del cortocircuito, puesto que ya no es cierto que de no haberse producido tal cortocircuito, no habría habido incendio. Aunque algunos autores aceptan que las relaciones causales implican contrafácticos, muy pocos hoy en día piensan que los últimos permitan analizar las primeras. El hecho de que el cortocircuito sea la causa (y no haya ninguna otra causa preventiva o sobredeterminada) es lo que hace que el contrafáctico sea verdadero, y no viceversa.

Por último, la teoría de procesos, al requerir una formulación de las relaciones causales como procesos espaciotemporales que preservan ciertas cantidades físicas, no da cuenta de la causalidad en ciencias especiales (naturales emergentes, como la biología o la química, y en ciencias sociales como la psicología, o la economía), que en principio no tiene por qué ser reducida a la causalidad de la física. Además, presenta dificultades para analizar casos de “desconexión”, como la causación por ausencia (p.e. la planta murió porque nadie la regó) o la prevención.

La respuesta que proponemos es deflacionaria. Consiste en abandonar el intento de definir la causalidad y, en su lugar, pasar a concebir cada una de estas teorías de la causalidad como una aproximación metodológica a la inferencia causal en un campo concreto. Sin embargo, en cada campo las condiciones de contorno o contextuales son esenciales para que la inferencia tenga éxito. Cada una de las aproximaciones metodológicas necesitarán de condiciones muy diversas para la validez de sus inferencias causales. En la próxima sección abordamos una posible unificación de estas metodologías.

2.2. Manipulabilidad e Intervención Causal

La cuestión más relevante entonces deviene la siguiente: ¿es posible establecer algún vínculo en común entre todas estas metodologías de inferencia causal tan diversas, en contextos tan distintos, y dotadas de presupuestos metafísicos u ontológicos tan diferentes? En esta sección, presentamos la metodología manipulabilista defendida por Woodward (2003) como un candidato.

Según esta metodología, compatible con las diversas teorías metafísicas descritas en la primera parte, el tipo de evidencia que puede resultar apropiada para cualquier enunciado causal es contextual – tanto en relación con factores subjetivos como objetivos (Suárez, 2014). La idea central del manipulabilismo es que una variable c es una causa de otra variable e si (pero no sólo si) es posible intervenir en c, variando su valor dentro de un cierto rango, y observar el cambio correspondiente en el valor de e, de acuerdo con alguna generalización robusta o invariante que conecte los valores de c y e, donde la relación es “invariante” si y sólo si no depende de la intervención o de los valores de {c,e} dentro de un cierto rango. En otras palabras, c es la causa de e si es cierto que una intervención que altera c genera, de acuerdo con alguna generalización o ley, una alteración de e.

En la concepción de Woodward, una intervención sobre la causa putativa c con respecto a su efecto e es una variable I que actúa directamente sobre c, alterando su valor, y que cumple las siguientes condiciones:

  1. I es una causa directa de c.
  2. I y c no comparten ninguna causa común.
  3. I no causa e por ningún camino indirecto, que no pase por c.
  4. I y e no están estadísticamente correlacionados.

La formulación en términos de condiciones suficientes, pero no necesarias, permite utilizar la metodología manipulabilista como un test de la existencia de una relación causal entre c y e sin, por ello, definir la relación causal misma. Su aplicación a los casos que hemos estudiado requiere conceptualizar causas y efectos como variable multivariadas (con el caso bivariado como caso límite). Esto resulta automático en el caso de la teoría probabilista, y requiere modificaciones mínimas para los casos de las teorías regularista, contrafáctica y de procesos. La metodología manipulabilista, por tanto, es en principio capaz de descubrir relaciones causales mediante la aplicación de la invariancia de la relación causa-efecto bajo intervenciones, independientemente de la teoría que se utilice para definir el concepto de causa.

Esta metodología ha sido criticada desde algunas ramas de las ciencias, por la dificultad de su aplicación en sistemas complejos. Como apuntaremos en la sección 3.2, algunos autores defienden que esta aplicación ha de venir acompañada de la identificación de mecanismos subyacentes (Russo y Williamson, 2007).

3. Aplicaciones a las Ciencias Físicas y Biológicas

Existen numerosas aplicaciones de estas ideas en las diversas ciencias. En esta sección, por cuestión de espacio, nos ceñimos sólo a aquellas que atañen a dos ciencias naturales, la física y la biología. El lector interesado puede encontrar buenas discusiones de la aplicación de ideas similares en la serie de volúmenes y números especiales que se han ido editando en torno a la serie de congresos anuales “Causality in the Sciences”, como son Illari, Russo and Williamson (2011), Russo and Williamson (2007).

3.1. Causalidad en ciencias físicas

Dentro de la física clásica o newtoniana, es longeva la tesis según la cual el concepto dinámico principal, el concepto de fuerza (que viene definido por la famosa segunda ley de Newton como , como una magnitud vectorial proporcional a la masa y la aceleración de cualquier cuerpo), tiene una naturaleza causal. Esto se expresa a menudo en conjunción con la primera ley de Newton que enuncia la inercia de cualquier cuerpo no sometido a fuerza alguna. Así, una fuerza es siempre la causa del movimiento no inercial de cualquier cuerpo y, aunque la existencia de fuerzas newtonianas ha sido objeto de debate, su naturaleza causal no ha sido puesta en duda (Wilson, 2007).

Dentro de los marcos conceptuales dominantes en la física de los s. XX y XXI, la mecánica cuántica y física relativista, el status de la causalidad sí ha sido a menudo cuestionado. En física relativista, por ejemplo, se ha cuestionado a menudo que pueda darse causalidad entre un evento y cualquier otro evento fuera del cono de luz del primero. Se dice de tales eventos que están relacionados espacialmente (“spacelike related”) y el segundo principio de la relatividad (la constancia o invariancia de la velocidad de la luz en todo marco de referencia) se supone que impide su relación causal. Sin embargo, tal conclusión ha sido fuertemente criticada por diversos expertos en fundamentos filosóficos de la física (Maudlin, 1994). Éstos proponen diversas metodologías deflacionarias de la causalidad, incluyendo versiones de la metodología manipulabilista presentada en la sección anterior, que sí permiten establecer relaciones causales fuera del cono de luz.

En el contexto de la mecánica cuántica, el grado de escepticismo con respecto a la causalidad ha sido históricamente, si cabe, aún mayor. Uno de los principales arquitectos de la teoría cuántica en el espacio de Hilbert, el matemático John Von Neumann (1932) incluso se refirió al postulado del colapso dinámico de la función de onda como a-causalista. En la medida en que existen dos evoluciones dinámicas del estado cuántico, una es determinista (viene dada por la ecuación de Schrödinger), mientras que la otra es probabilística (y viene dada por las probabilidades de transición que determina la llamada regla de Born). Von Neumann, junto con muchos otros pensadores influidos por el contexto cultural de la república de Weimar (Foster, 1971), estableció que tal evolución probabilística no podía ser causal y configuraba una crisis profunda en el marco de la física clásica. Sin embargo, el desarrollo posterior de las teorías probabilísticas de la causalidad han puesto fin al debate, abriendo el espacio conceptual necesario para un tipo de causalidad probabilística (Reichenbach, 1954; Suppes, 1970). El debate continúa hoy en día al respecto de si los fenómenos cuánticos son o no describibles en términos causales, entendidos según la metodología manipulabilista, con una mayoría creciente de filósofos defendiendo la aplicación de tales conceptos tanto al proceso de medición cuántica, como a las correlaciones EPR (Suárez y San Pedro, 2011; Suárez, 2012).

3.2. Causalidad en las ciencias biológicas

La gran diversidad de los fenómenos biológicos dificulta el establecimiento de una metodología de inferencia causal única para todas las ramas de la biología. Aquí nos centraremos en la teoría de la evolución, considerada la gran unificadora de dichos fenómenos. El principio de selección natural establece que los individuos mejor adaptados a su medio tienen una mayor capacidad de sobrevivir y reproducirse, y por tanto tenderán a hacerlo con mayor frecuencia, transmitiendo así sus características a la población. Para que este principio no lleve a una explicación circular, es necesario diferenciar entre la capacidad de los individuos a sobrevivir y reproducirse (su aptitud) del resultado concreto derivado de su interacción con el entorno. Ahora bien, establecer relaciones causales que permitan distinguir la evolución por selección natural de cambios evolutivos debidos a otros factores (como la deriva genética) es virtualmente imposible dentro de un marco manipulabilista, debido a que los procesos evolutivos no son repetibles. Aun así, los principios de inferencia causal estadística son utilizados en los estudios poblacionales, como evidencia la discusión del principio de parsimonia dentro de la taxonomía evolutiva como un Principio de Causa Común (véase Sober, 1984).

Sin embargo, muchos autores defienden que, para dar cuenta de la complejidad de las relaciones causales en biología, ha de atenderse a la noción de mecanismo, derivada de las teorías causales de procesos. Ésta noción pretende capturar la idea de que los fenómenos biológicos son producidos por un conjunto de entidades y actividades que interaccionan de forma organizada y no reducible a sus componentes (Craver y Tabery, 2017). El llamado debate entre estatidisticalistas y causalistas ilustra la discusión sobre si los principios mecanístico-causales pueden aplicarse al proceso de evolución, o si por el contrario éste es sólo un agregado estadístico de procesos a nivel individual. Parte de este debate se centra en si es posible establecer una analogía entre los factores evolutivos y las fuerzas newtonianas (para un panorama de esta cuestión, véase Brandon, 2014).

La teoría evolutiva también juega un papel importante en el establecimiento de causas para la existencia de rasgos o procesos concretos en términos de su funcionalidad para un organismo. Las explicaciones evolutivas se centrarían en las llamadas “causas últimas” de un fenómeno; es decir, aquéllas que han posibilitado la aparición y retención de un rasgo dentro de una población en virtud de su conveniencia. En oposición a éstas, las llamadas “causas próximas” son aquéllas que producirían el fenómeno en cuestión a nivel individual, como pueden ser las implicadas en la ontogenia y los procesos metabólicos (sobre esta distinción, véase Mayr, 1961). La naturaleza repetible de estos procesos sí permitiría en principio aplicar los principios manipulabilistas al establecimiento de causas próximas.

Mauricio Suárez & Cristina Villegas,
(Universidad Complutense de Madrid)

Referencias

  • Brandon, R. (2014): “Natural Selection”, en The Stanford Encyclopedia of Philosophy, E. N. Zalta, ed., disponible en https://plato.stanford.edu/archives/spr2014/entries/natural-selection/
  • Craver, C. y J. Tabery (2017): “Mechanisms in Science”, en The Stanford Encyclopedia of Philosophy, E. N. Zalta, ed., disponible en https://plato.stanford.edu/archives/spr2017/entries/science-mechanisms/
  • Dowe, P. (1995): “Causality and conserved quantities: A reply to Salmon”, Philosophy of Science, 62(2), pp. 321-333.
  • Hitchcock, C. (2016): “Probabilistic Causation”, en The Stanford Encyclopedia of Philosophy, E. N. Zalta, ed., disponible enhttps://plato.stanford.edu/archives/win2016/entries/causation-probabilistic/
  • Hume, D. (1748): Philosophical Essays Concerning Human Understanding, London, A. Millar.
  • Illari, P. M., F. Russo y J. Williamson, eds., (2011): Causality in the Sciences, Oxford, Oxford University Press.
  • Lewis, D. (1974): “Causation”, The Journal of Philosophy, 70(17), pp. 556-567.
  • Lewis, D. (2000): “Causation as influence”, The Journal of Philosophy, 97(4), pp. 182-197.
  • Mackie, J. L. (1974): The Cement of the Universe, London, Oxford University Press.
  • Mayr, E. (1961): “Cause and effect in biology”, Science, 134(3489), pp. 1501-1506.
  • Menzies, P. (2014): “Counterfactual Theories of Causation”, en The Stanford Encyclopedia of Philosophy, E. N. Zalta, ed., disponible enhttps://plato.stanford.edu/archives/spr2014/entries/causation-counterfactual/
  • Mill, J.S. ([1843]1893): A system of Logic, Ratiocinative and Inductive, Nueva York, Harper & Brothers.
  • Reichenbach, H. (1956): The Direction of Time, Berkeley, University of California Press.
  • Russell, B. (1912): “On the notion of cause”, Proceedings Aristotelian Society, (13), pp. 1-26.
  • Russo, F. y J. Williamson, eds., (2006): Causality and Probability in the Sciences, London, College Publications.
  • Russo, F. y J. Williamson (2007): “Interpreting causality in the health sciences”, International studies in the philosophy of science, 21(2), pp.157-170.
  • Salmon, W. (1984): Scientific Explanation and the Causal Structure of the World, Nueva York, Princeton University Press.
  • Sober, E. (1984): Common Cause Explanation. Philosophy of Science, 51(2), pp. 212-241.
  • Suárez, M. e I. San Pedro (2011): “Causal Markov, Robustness and the Quantum Correlations”, en M. Suárez ed., Probabilities, Causes and Propensities in Physics, Synthese Library, Dordrecht, Springer, pp. 173-196.
  • Suárez, M. (2012): “Contextos de descubrimiento causal”, Revista de Filosofía, 37(1), pp. 27-36.
  • Suppes, P. (1970): A Probabilistic Theory of Causality, Amsterdam, North Holland Publications.
  • Williamson, J. (2009): “Probabilistic theories of causality” en Beebee H., C. Hitchcock y P. Menzies, eds., The Oxford handbook of causation, Oxford University Press, pp. 185-212.
  • Wilson, J. (2007): “Netwonian forces”, British Journal for the Philosophy of Science, 58, pp. 173-205.
Cómo citar esta entrada

Mauricio Suárez y Cristina Villegas (2018). “Causalidad en la ciencia”,  Enciclopedia de la Sociedad Española de Filosofía Analítica(URL: http://www.sefaweb.es/causalidad-en-la-ciencia/)

Método científico

Apelar a un método es referirse a reglas, pautas de acción, procedimientos estandarizados,…, para conseguir un objetivo. La pregunta por el ”método científico”, que cuenta con una larga tradición filosófica, suscita dos cuestiones fundamentales. La primera es identificar qué prescripciones, normas, etc. constituyen dicho método, algo que parece razonable averiguar a partir de la propia práctica científica. La cuestión ulterior, suponiendo que sea posible aislar un conjunto de principios que caractericen el método científico, es cuál es su estatus y alcance epistemológicos; en definitiva, cuál es su valor normativo. Abordaremos ambas cuestiones por este orden.

Dado el talante tan diferente de las investigaciones que acometen, por ejemplo, un astrónomo, un psicolingüista, un oncólogo o un economista, no es de extrañar que la filosofía de la ciencia contemporánea haya cuestionado si existe un conjunto de reglas comunes a todos los campos de la ciencia. Por eso conviene distinguir niveles dentro de la dimensión metodológica de la ciencia. Hay estrategias y técnicas que se aplican en contextos particulares de la investigación y que no son extrapolables a otros ámbitos. Pensemos en los modos de teñir una preparación para observarla al microscopio, el cálculo de la función matemática que mejor se ajusta a una serie de medidas experimentales, la elaboración de cuestionarios, y de los criterios para valorar las respuestas, etc. En situaciones como estas los científicos a menudo siguen unos protocolos definidos y, salvo que haya razones de peso para hacerlo, no se desvían de ellos, pues quedaría en entredicho la credibilidad de su investigación. Pero aunque todo esto pueda incluirse dentro del plano metodológico de la ciencia, cabe distinguirlo de lo que en filosofía comúnmente se ha entendido por “método científico”. Con esta última expresión se alude a las pautas más generales que regulan la investigación científica, pautas que conforman, supuestamente, lo genuino de la ciencia, entendida como un modo de obtener conocimiento que ha incrementado notablemente nuestra capacidad de transformar la realidad. Así, cuando, desde una perspectiva histórica, se habla del método inductivista baconiano, en honor a Francis Bacon, o del método resolutivo-compositivo (o hipotético-deductivo) de Galileo, o del falsacionismo de Karl Popper, es este sentido más general de “método” el que está en juego (Gower, 1997; Losee, 2004; Laudan, 2010).

La ciencia contemporánea es bastante más diversa y compleja de lo que lo fue en la época de Bacon, Galileo o Newton. Muchas disciplinas científicas actuales ni siquiera existían entonces. Dada esa diversidad, hoy tiene pleno sentido preguntarse si realmente cabe hablar de un método científico, en el sentido más general apuntado antes. En la filosofía de la ciencia de las últimas dos décadas se aprecia un interés creciente por el estudio de la ciencia en relación al contexto en el que surge y se elabora. Ello ha revitalizado la filosofía de la ciencia al promover notablemente el desarrollo de filosofías de la ciencia particulares (filosofía de la biología, filosofía de la economía, filosofía de la medicina,…), a costa, ciertamente, de un detrimento de la filosofía “general” de la ciencia. Esta orientación particularista parece alentar una respuesta negativa a la pregunta de si existe un método científico favoreciendo, tal vez, una suerte de pluralismo metodológico que sustituiría la expresión “método de la ciencia” por “métodos de las ciencias”. Otra alternativa más radical, defendida en los años setenta del pasado siglo por Paul Feyerabend, y que podríamos denominar “nihilismo metodológico”, defendería la inexistencia del método científico en cualquiera de sus acepciones. Su argumento es que la historia de la ciencia contiene demasiados ejemplos donde el quebrantamiento de las pretendidas reglas del método ha sido aceptado por la propia comunidad científica (Feyerabend, 1975).

A partir de estas consideraciones, ¿debería concluirse entonces que no existe algo así como un “método científico”? El auge reciente de las filosofías de la ciencia particulares refleja un cambio de enfoque, pero de ahí no se sigue sin más la inexistencia de un método científico. La cuestión es más bien si, dada la variabilidad existente en la ciencia, puede dotarse de un contenido no trivial a la expresión “método científico”. En cuanto al nihilismo metodológico, a pesar de unos cuantos ejemplos históricos aludidos por Feyerabend, parece injustificado concluir de ahí que en la ciencia “todo vale” desde una perspectiva metodológica. Además, la ciencia persigue objetivos como la eficacia predictiva, el conocimiento de la realidad en su dimensión interna, o la transformación efectiva del medio, y ha tenido un éxito razonable en su consecución. Este éxito es, en principio, el resultado de aplicar ciertas estrategias que se han ido afinando con el tiempo. Esas estrategias son las que constituyen el método científico, a fin de cuentas. El nihilismo metodológico debe aquí reconocer sus limitaciones, ya que se ve forzado a considerar, o bien que el éxito conseguido hasta ahora es resultado del azar, o bien que la ciencia ha sido una empresa fallida que realmente no ha tenido ningún éxito en la consecución de sus objetivos generales.

Dicho esto, nuestra posición aquí será, frente al pluralismo y al nihilismo metodológicos, que sí puede hablarse de principios comúnmente respetados y de estrategias generales en la investigación científica sobre las que se plantean variaciones contextuales en los distintos campos de la ciencia. El lector juzgara si tales principios son triviales, justamente por su generalidad, o si poseen suficiente contenido como para caracterizar el posicionamiento metodológico de la ciencia, en contraposición a otras alternativas planteadas a lo largo de la historia, mucho antes incluso que la ciencia, para conocer y/o transformar la realidad (filosofía, arte, religión, magia,….).

Antes de proseguir en esta línea, conviene mencionar una concepción del método científico muy influyente en su momento, aunque restrictiva en exceso. En los años treinta del pasado siglo Hans Reichenbach diferenció dos ámbitos de reflexión, el “contexto de descubrimiento” y el “contexto de justificación”. El primero refiere a cómo se generan, elaboran, articulan,…, las hipótesis/teorías; el segundo, alude a cómo comprobar si dichas hipótesis/teorías son correctas, o al menos, plausibles. Reichenbach entendía el método científico exclusivamente como un método de justificación. Visto así el método científico debe proporcionar reglas o estrategias para estimar el apoyo, sobre todo empírico, que las hipótesis poseen y, en consecuencia, validarlas o invalidarlas. Su objetivo no es, en absoluto, orientarnos para descubrir o generar dichas hipótesis, entre otras cosas porque, según pensaba Reichenbach, el descubrimiento científico responde a la inspiración y creatividad del individuo y no sigue pauta alguna.

A pesar de su amplio eco en gran parte del siglo XX, esta posición exige matizaciones importantes a día de hoy (Schickore y Steinle, 2006). Quienes han estudiado de cerca el papel del experimento en la ciencia insisten en que este, además de la función contrastadora que tradicionalmente se le ha atribuido, interviene también en el contexto de descubrimiento. La experimentación puramente exploratoria tiene su lugar en la práctica científica (Hacking, 1983). La investigación científica incluye el descubrimiento y elaboración de hipótesis e ideas nuevas, y esta ha sido considerada una fase fundamental en el razonamiento científico, tanto por figuras históricas importantes (Francis Bacon, Isaac Newton o William Whewell) como por muchos científicos actuales en activo. Por eso, identificar esta dimensión de la práctica científica con un momento de inspiración (el “momento eureka”) resulta demasiado pobre. En las últimas décadas ha crecido el interés por analizar los procesos de razonamiento involucrados en los descubrimientos científicos. El análisis de las estrategias cognitivas y los patrones heurísticos directamente aplicados por los científicos (el razonamiento analógico, por ejemplo), o el desarrollo de programas informáticos que generen algorítmicamente soluciones novedosas, son diferentes líneas de trabajo (Meheus y Nickles, 2010 ofrece una buena panorámica).

La reflexión sobre cómo la evidencia empírica incide en la justificación de las hipótesis sigue siendo un asunto importante para la filosofía de la ciencia actual (v. p. ej., Niiniluoto, 2007), pero los resultados mencionados en el párrafo anterior cuestionan que generación y justificación estén radicalmente separadas y permiten hablar de una justificación ligada a la generación de hipótesis. Así, los procedimientos y estrategias seguidos en la práctica a la hora de formular hipótesis comportan una selección de las posibles soluciones que merece la pena articular, esto es, de las que resultan inicialmente plausibles. Aunque esto conferiría una justificación prima facie, y no evitaría comprobaciones posteriores, la distinción entre descubrimiento y justificación se torna borrosa, impidiendo identificar sin más justificación con contrastación. Lo que se pretende, además de incorporar el descubrimiento como una fase más de la metodología científica, es comprender en detalle los procesos que acompañan a la innovación teórico-conceptual, y sugerir mejoras para aumentar la eficiencia de las estrategias aplicadas. Estas investigaciones iluminan una dimensión de la metodología científica arrinconada durante bastante tiempo. Desde luego, en la medida en que los procedimientos y patrones ligados al descubrimiento científico no sean específicos para campos de la ciencia particulares, se trata de elementos que pueden considerarse parte del “método de la ciencia” con pleno derecho.

Hechas estas aclaraciones sobre lo que cabría entender por “método científico”, en singular, a continuación se incluyen algunos de sus rasgos característicos:

  • Distinguir la obtención de información (registros observacionales, datos experimentales,…), de la realización de inferencias a partir de dicha información.
  • Recurrir, cuando sea factible, a la experimentación, esto es, a la generación de situaciones artificiales, con objeto de controlar al máximo los factores intervinientes en el proceso objeto de estudio.
  • Empleo de un lenguaje matematizado.
  • Conservadurismo epistemológico.

Con (1) no se pretende resucitar la dicotomía epistemológica observación/teoría. Tampoco discutiremos aquí la cuestión de si la obtención de información “observacional” implica algún tipo de inferencia, inconsciente tal vez. No obstante, en la práctica científica es importante diferenciar el nivel informacional del inferencial por dos razones al menos. Cada nivel, subdivisible a su vez en diversas fases, genera dinámicas bien distintas en la práctica científica. Por un lado, asegurar la variedad, calidad y fiabilidad en la información recabada, es diferente de extrapolar, explicar o teorizar a partir de ella. Pero además conviene recalcar que las discrepancias habituales, y las más enconadas, entre los científicos no son sobre los datos, registros observacionales, etc., sino sobre lo que se puede inferir a partir de ellos o sobre cómo explicarlos (Mayo, 1996; Bogen 2017).

Respecto a (2), es un elemento distintivo de la ciencia. La puesta a prueba de las teorías –técnicamente, la “contrastación de hipótesis teóricas– ha sido la función típica atribuida al experimento, aunque aparte de eso cumpla otros roles tradicionalmente menoscabados (Franklin, 1990). Ciertamente, hay campos de la ciencia donde realizar experimentos no es factible por razones diversas. No siempre se trata de limitaciones técnicas, como las que puede plantear la planetología, por ejemplo, o las ciencias sociales, interesadas en el estudio de colectivos humanos (Gerring y Christenson, 2017); también intervienen consideraciones morales en la experimentación con personas o animales. Esto no implica, sin embargo, que la teorización en estos campos prescinda de resultados experimentales, ya que a menudo se aprovechan los obtenidos en otros ámbitos científicos donde sí es posible la experimentación.

Desde luego, el impacto efectivo de la evidencia, sea positiva o negativa, sobre las hipótesis y teorías se entiende de muy diversas maneras. Algunos han pensado que es calculable algorítmicamente; piénsese en los bayesianos contemporáneos, por ejemplo (Howson y Urbach, 1993). Otros, en cambio, han apelado a la interpretación particular del científico como un factor crucial que no puede ser neutralizado de ningún modo (Kuhn, 1977). La idea de que los resultados experimentales positivos, en principio, cuentan a favor de la teoría, tampoco es aceptada unánimemente. Para algunos filósofos de la ciencia –Popper y sus seguidores– tales resultados no confieren mayor credibilidad o probabilidad a una hipótesis, y también hay quien ha sostenido que, a pesar de las apariencias, la evidencia no es lo que realmente condiciona las decisiones de la comunidad científica a la hora de aceptar o rechazar una teoría (Collins, 1985).

El recurso a un lenguaje matematizado también se da en diversas fases de la investigación. La conceptualización de las propiedades de los sistemas objeto de estudio, favoreciendo nociones cuantitativas frente a otras cualitativas, o la representación de los datos, mediante tablas, gráficas y funciones matemáticas, serían momentos clave en este sentido. De este modo se evitan sesgos subjetivos, al menos los que puede introducir un sujeto particular (la eliminación de los elementos subjetivos genéricos, esto es, los incorporados por el hecho de que el investigador sea humano, es otra cuestión), y se incorpora una potente herramienta inferencial (Bright Wilson, 1991; Pincock, 2012).

Por último, la compatibilidad con el cuerpo aceptado de conocimientos es, inicialmente, favorecida. Kuhn subrayó especialmente que esta era la tónica dominante en las ciencias maduras, lo que él llamaba periodos de “ciencia normal” (Kuhn, [1962] 1970). No obstante, no hace falta comprometerse con la concepción kuhniana de la ciencia, que sostiene una alternancia cíclica de paradigmas y revoluciones, para constatar que los recursos disponibles en la investigación científica (económicos, humanos, de tiempo,…) no son ilimitados. Centrarse en lo que no contraviene directamente los conocimientos aceptados evita la dispersión de recursos. A esta justificación puramente pragmática, cabe añadir una razón epistemológica: lo ya aceptado posee cierto apoyo evidencial al menos, y consiguientemente, cierta credibilidad, y eso excluye o penaliza, en principio, aquellas hipótesis o teorías que van en su contra. Naturalmente, el conservadurismo se relaja en ciertas condiciones: cuando la propuesta alternativa está basada en información contrastada, cuando la credibilidad de lo hasta ahora aceptado se resiente, bien como consecuencia de descubrimientos experimentales, o al detectar conflictos entre teorías pertenecientes a campos de la ciencia diferentes, etc.

Los cuatro elementos mencionados no pretenden definir el método científico. Más bien deben tomarse como rasgos diferenciales que caracterizan el proceder de la ciencia, y en este sentido son rasgos metodológicos en la acepción más general de esta expresión, frente a otras opciones que a lo largo de la historia han perseguido también el conocimiento y la transformación del mundo que nos rodea.

Recuérdese que al comienzo de esta entrada planteamos dos cuestiones básicas respecto al “método científico”. Supongamos, pues, que hemos resuelto la primera con una caracterización general y no trivial de lo que cabe entender por “método científico”. Contamos, entonces, con una descripción más o menos precisa de lo que es el “método científico”. Sin embargo, la discusión en torno al método de la ciencia involucra directamente una cuestión normativa. Si la ciencia, entendiendo por ello las leyes de la ciencia, o en términos más generales, la visión del mundo que nos da la ciencia, es un producto del método, este se convierte en criterio de demarcación, es decir, en un criterio para distinguir qué es científico y qué no lo es. Con otras palabras, la conformidad con los principios o normas que caracterizan el método sería una garantía de que no estamos ante un saber pseudocientífico, o sea, que no es ciencia, aunque aparente serlo.

Con independencia del interés teórico que suscite la cuestión de la demarcación, debe hacerse notar que aquí hay también un interés práctico, pues lo que sea o deje de ser la ciencia condiciona múltiples decisiones. Piénsese en el peritaje científico en contextos judiciales, o en las políticas científicas, educativas y sanitarias de los gobiernos (¿deben subvencionarse con fondos públicos terapias pseudocientíficas?). Dicho esto, la justificación de un criterio de demarcación, esto es, un criterio que permita distinguir lo que es científico de lo que no lo es, depende tanto de la especificidad metodológica de la ciencia, como del éxito conseguido siguiendo esas pautas o estrategias metodológicas específicas. De lo primero porque lo que queremos discernir es justamente lo que es científico y no otra cosa; de lo segundo, porque no nos basta solamente con distinguir; la distinción tiene implicaciones epistemológicas: la divisoria apunta a la efectividad conseguida hasta ahora, e indirectamente a la efectividad razonablemente esperable, en la consecución de ciertos objetivos. Con esto queda esbozada una estrategia para apuntalar el valor normativo de un criterio de demarcación, aunque conviene señalar sus limitaciones.

En primer lugar, podemos encontrar episodios en la ciencia donde se procede en contra de la metodología (piénsese en casos de prácticas fraudulentas o interesadas por parte de los científicos), y no por eso dejan de considerarse episodios científicos. Esto implica que el criterio de demarcación no puede agotarse exclusivamente en la variable metodológica; de ahí las recientes propuestas demarcacionistas multicriterio, que incorporan otros rasgos igualmente importantes (v. Hansson, 2013).

En segundo lugar, es desacertado hablar del método de la ciencia como un conjunto de principios fijado de un modo a priori, definitivos e irrevisables, porque no existe tal referente. La cuestión no es tanto que la pluralidad de las ciencias complique encontrar un conjunto básico de principios comunes, según dijimos antes, sino que la dinámica histórica de la ciencia permite hablar de descubrimientos metodológicos, igual que ha habido descubrimientos empíricos (restos fósiles, exoplanetas, priones,…) o teóricos (Teoría General de la Relatividad, Tectónica de placas,….). Entre los descubrimientos metodológicos habría que reseñar el uso de técnicas estadísticas a la hora de formular leyes probabilísticas e inferencias casuales a partir de los datos experimentales, por ejemplo. En relación al plano experimental hay otros ejemplos, como la inclusión de un grupo de control, además del grupo experimental, o los procedimientos dirigidos a asegurar la fiabilidad de los datos (técnicas doble-ciego, emparejamiento entre individuos del grupo de control y el experimental,…). Otra novedad metodológica destacable, cuyas implicaciones epistemológicas apenas se han comenzado a analizar, sería la simulación por ordenador (Winsberg, 2010). Nótese que estos elementos metodológicos han sido incorporados de modo rutinario en muchos campos de la ciencia hace solamente unas décadas, y que algunos son abiertamente incompatibles con una concepción determinista de la ciencia, o con el hipotético-deductivismo, ideas que en algún momento fueron consideradas entre los cánones del conocimiento científico.

A lo largo de varios siglos la ciencia, esforzadamente, ha incrementado nuestro conocimiento sobre el mundo que nos rodea; pero también ha aumentado nuestro conocimiento sobre cómo mejorar en ese intento. Admitir que hay descubrimientos metodológicos obliga a considerar el método de la ciencia como un repertorio de estrategias decantado con el tiempo, revisable y justificable en función de los resultados obtenidos, abierto, en fin, a cambios y refinamientos futuros. En consecuencia, un criterio de demarcación que apele al método de la ciencia será tan revisable al menos como lo sea este.

Así pues, aunque el método es un elemento distintivo de la ciencia, y constituye por ello un elemento importante del criterio de demarcación, el registro histórico de la propia ciencia debe hacernos ser cautos respecto al estatus de dicho criterio. Su validez es, en último término, contingente, ligada a los avatares de la propia empresa científica, aunque a efectos prácticos eso sea suficiente para justificar las decisiones concernientes a lo que es ciencia y lo que no lo es.

Por otro lado, nuestra tesis de que hay descubrimientos metodológicos implica reconocer que a lo largo de la historia de la ciencia se han cambiado unas prácticas metodológicas por otras, lo que suscita la pregunta de si tales cambios suponen un progreso o no. La noción de descubrimiento metodológico conduce, pues, a la de progreso metodológico. Ciertamente, la expresión “progreso científico” es ambigua, ya que admite acepciones bien distintas: progreso tecnológico, experimental, social,…. Tradicionalmente la discusión filosófica se ha centrado en dos cuestiones. Por un lado, en precisar en qué consiste el progreso teórico en la ciencia, si es que lo hay; por otro, en esclarecer la relación entre el progreso moral y las otras acepciones de progreso, lo que lleva al problema de la influencia de los valores no epistémicos en la ciencia (Machamer y Wolters, 2004; Douglas, 2009). Sin embargo, la noción de progreso metodológico plantea una problemática específica. Nótese, por ejemplo, que la alternativa más conocida para justificar el progreso teórico –el realismo científico en sus distintas variantes– no puede extrapolarse sin más al terreno metodológico. Se puede defender el realismo respecto a las teorías científicas, comprometiéndose con la existencia de entidades inobservables, o con nociones como verosimilitud, verdad aproximada,…; sin embargo, no tiene sentido plantear tales compromisos respecto al método científico. Por eso la justificación de que los cambios acontecidos en el plano metodológico son progresivos debe buscarse en relación a los fines de la empresa científica. Argumentar a favor del progreso metodológico consistiría en mostrar pormenorizadamente cómo los cambios e innovaciones metodológicas han favorecido la consecución de ciertos objetivos. En cualquier caso, las nociones de descubrimiento y progreso metodológicos quedan como una de las tareas pendientes para la filosofía general de la ciencia.

Valeriano Iranzo
(Universitat de València)

Referencias

  • Bogen, J. (2017): “Theory and Observation in Science”, en The Stanford Encyclopedia of Philosophy, E.N. Zalta, ed., disponible en https://plato.stanford.edu/archives/sum2017/entries/science-theory-observation/ [summer 2017 edition].
  • Bright Wilson, E. (1991): An Introduction to Scientific Research. New York, Dover.
  • Collins, H. (1985): Changing Order: Replication and Induction in Scientific Practice, Chicago, University of Chicago Press.
  • Douglas, H. (2009): Science, Policy and the Value-Free Ideal, Pittsburgh, University of Pittsburgh Press.
  • Feyerabend, P. (1975): Contra el método. Esquema de una teoría anarquista del conocimiento, Barcelona, Tecnos.
  • Gower, B. (1997): Scientific Method: A Historical and Philosophical Introduction, London, Routledge.
  • Franklin, A. (1990): Experiment, Right or Wrong, Cambridge, Cambridge University Press.
  • Gerring, J. y D. Christenson (2017): Applied Social Science Methodology: An Introductory Guide, Cambridge, Cambridge University Press.
  • Hacking, I. (1983): Representing and Intervening, Cambridge, Cambridge University Press.
  • Howson, C. y P. Urbach (1993): Scientific Reasoning. The Bayesian Approach, 2ª ed., La Salle, Illinois, Open Court.
  • Kuhn, Th. ([1962] 1970 ): The Structure of Scientific Revolutions, 2ª ed. Chicago, University of Chicago Press.
  • Kuhn, Th. (1977): ‘Objectivity, Value Judgment, and Theory Choice’, en The Essential Tension, Chicago, University of Chicago Press, pp. 320-39.
  • Laudan, L. ([1981] 2010): Science and Hypothesis. Dordrecht, Springer.
  • Losee, J. (2001): An Historical Introduction to the Philosophy of Science, Oxford, Oxford University Press.
  • Machamer, P. y G. Wolters eds. (2004): Science, Values and Objectivity, Pittsburgh, Pittsburgh University Press.
  • Mayo, D. (1996): Error and the Growth of Knowledge. Chicago, The University of Chicago Press.
  • Meheus, J. y Th. Nickles eds., (2010): Models of Discovery and Creativity, Dordrecht, Springer.
  • Niiniluoto, I. (2007): Evaluation of Theories’, en Th. Kuipers, ed., General Philosophy of Science, Amsterdam, Elsevier, pp. 175-217.
  • Hansson, S. O. (2013): “Defining Pseudo-science and Science”, en Pigliucci M. y M. Boudry eds., Philosophy of Pseudoscience: Reconsidering the Demarcation Problem, Chicago, University of Chicago Press, pp. 61-77.
  • Pincock, Ch. (2012): Mathematics and Scientific Representation, New York, Oxford University Press.
  • Schickore, J. y F. Steinle eds., (2006): Revisiting Discovery and Justification. Historical and philosophical perspectives on the context distinction, Dordrecht, Springer.
  • Winsberg, E. (2010): Science in the Age of Computer Simulation, Chicago, University of Chicago Press.

Lecturas recomendadas en castellano

  • Chalmers, A. (2000;  ampliada): ¿Qué es esa cosa llamada ciencia?, 3ª rev. edn.,  Madrid, Siglo XXI.
  • Franklin, A. (2002): ‘Física y experimentación’, Theoria, 17(2), pp.  221-242.
  • Hacking, I. (1996): Representar e intervenir, Buenos Aires, Paidós.
  • Losee, J. (2004): Introducción histórica a la Filosofía de la Ciencia, Madrid, Alianza.
  • Kuhn, Th. (1982): “Objetividad, juicios de valor y elección de teoría”, en La tensión esencial, México, Fondo de Cultura Económica, pp. 344-364.
  • Popper, K. (1983): “La ciencia: conjeturas y refutaciones”, en Conjeturas y refutaciones. El desarrollo del conocimiento científico, Buenos Aires, Paidós, pp. 57-87.
  • Sober, E. (2015): “Es el método científico un mito?”, Mètode (84), pp. 51-55.
  • Sus, A. (2016): “Los límites del método científico”, Investigación y Ciencia, 475, disponible en web:  https://www.investigacionyciencia.es/revistas/investigacion-y-ciencia/en-busca-del-planeta-x-669/los-lmites-del-mtodo-cientfico-14078.
Cómo citar esta entrada

Valeriano Iranzo (2018). “Método científico”,  Enciclopedia de la Sociedad Española de Filosofía Analítica (URL: http://www.sefaweb.es/metodo-científico)

Realismo científico

1. Antecedentes históricos

El realismo científico, en una de sus acepciones más difundidas, es la tesis según la cual las teorías científicas, al menos en las ciencias que han alcanzado suficiente madurez, deben ser interpretadas como descripciones aproximadamente verdaderas de la realidad. De forma más precisa, las afirmaciones científicas sobre el mundo han de interpretarse como enunciados aproximadamente verdaderos, tanto en lo que establecen sobre los fenómenos observables, como en lo que establecen sobre entidades o procesos no directamente observables. Esta tesis tiene como corolario que las entidades teóricas postuladas por las teorías científicas deben, como regla general, considerarse como existentes. Si una teoría científica postula electrones o quarks, entonces los electrones y los quarks existen. Puede haber excepciones, porque no todos los términos teóricos de la ciencia pretenden tener una referencia real (por ejemplo, ‘homo economicus’, o ‘gas ideal’), pero dejando de lado estos casos, los términos teóricos, según el realista, se refieren a entidades realmente existentes. Los realistas creen, por lo tanto, que las teorías científicas tratan de establecer qué cosas hay en el mundo y por qué se comportan como lo hacen, y, en función de ello, ven la evidencia empírica como una base adecuada para creer en la verdad (aproximada) de la teoría a la que esta evidencia sustente. Pero esta caracterización debe entenderse como una aproximación inicial, porque como se verá a continuación, el realismo científico contiene una variedad de tesis más específicas, y no todas ellas despiertan la misma adhesión entre los autores realistas.

Conviene saber que esta es una discusión que ha tenido un papel central en la propia ciencia. Se pueden señalar al menos tres episodios históricos que delimitan perfectamente los aspectos principales del problema. En primer lugar, el debate sobre la interpretación de los modelos cosmológicos en la astronomía, que surge ya entre los griegos, pero que alcanza su punto culminante con el caso Galileo; en segundo lugar, el debate sobre la existencia de los átomos cuando fueron propuestos por Dalton en la química del siglo XIX, y, en tercer lugar, el debate sobre la interpretación adecuada de la teoría cuántica, que surge con la propuesta inicial de la llamada ‘interpretación de Copenhague de la mecánica cuántica y llega hasta nuestros días (cf. Diéguez, 1998). Los dos primeros debates se cerraron con la victoria del realismo, mientras que el tercer debate no está cerrado, y tras la victoria inicial del antirrealismo de Copenhague, vuelven a cobrar cierta fuerza en años recientes algunas interpretaciones realistas (aunque el realismo que presentan difiera en mucho del que ofrece el sentido común).

También puede citarse como un antecedente (lejano e indirecto) la disputa medieval sobre los universales. El nominalismo defendía que los términos generales –los universales– son meros recursos lingüísticos necesarios para la clasificación de las entidades particulares, que son las únicas que existen realmente. Los realistas, en cambio, sostenían que algo real correspondía a estos términos generales; esto es, que no solo existían los caballos concretos, sino también la propiedad de ser un caballo. Esta propiedad no era una mera construcción de nuestra mente, sino que correspondía a los rasgos objetivos presentados por todos los entes que incluimos bajo el término ‘caballo’ y que constituyen su esencia.

En la época contemporánea, podemos apreciar un resurgir del realismo a finales del siglo XIX y el inicio del XX. Es el caso, por ejemplo, del ‘realismo crítico’ desarrollado dentro del neokantismo por autores como Oswald Külpe y August Messer; del realismo epistemológico defendido por algunos marxistas, como Vladimir I. Lenin; del realismo fenomenológico de Alexander Pfänder y Nicolai Hartmann; o del neorrealismo propugnado por Franz Brentano, Alexius Meinong, William P. Montague, Ralph Barton Perry, George Edward Moore y Bertrand Russell. Los autores antirrealistas más importantes en esos momentos, al menos en lo que respecta a la visión de la ciencia, fueron Ernst Mach, Pierre Duhem y Henri Poincaré. La división entre la filosofía analítica y la filosofía continental (si aceptamos estos términos controvertidos) marcó una diferencia también en la aceptación del realismo. La filosofía continental quedó en manos de corrientes abiertamente antirrealistas, cuando no neo-idealistas, como la fenomenología (en su orientación más influyente), el existencialismo, la filosofía neo-nietzscheana, las corrientes heideggerianas, el estructuralismo y postestructuralismo, el deconstruccionismo y la hermenéutica; aunque en la actualidad se está produciendo una recuperación de las ideas realistas dentro de esta tradición gracias al Nuevo Realismo (Maurizio Ferraris, Markus Gabriel, Mauricio Beuchot, etc.) y al Realismo Especulativo (Graham Harman, Quentin Meillassoux, Alberto Toscano, etc.) (cf. Gabriel, 2015). En la filosofía analítica, la tendencia inicial, propiciada por el neopositivismo, fue la dejar de lado esta discusión, por tratarse de un problema metafísico, aunque de facto la actitud predominante con respecto a las teorías científicas era abiertamente instrumentalista, lo que resultaba más acorde con el empirismo que defendían. La pérdida de influencia del empirismo lógico propició a finales de los 50 la aparición de corrientes críticas, entre ellas, una de corte historicista y antirrealista, representada fundamentalmente por el libro de Thomas Kuhn La estructura de las revoluciones científicas, publicado en 1962, y otra basada en una visión realista de la ciencia, representada inicialmente por Jack J. C. Smart, Wilfrid Sellars, Karl Popper y Grover Maxwell; a los que siguieron Richard Boyd, Hilary Putnam (durante un tiempo), Alan Musgrave, Ilkka Niiniluoto, Jarret Lepin, Philip Kitcher, Mario Bunge, Susan Haack y Stathis Psillos, entre muchos otros autores que podrían citarse. Es de esta última corriente de la que nos ocupamos aquí.

2. Caracterización del realismo científico

Las propuestas centrales del realismo científico pueden cifrarse en los siguientes puntos (cf. Niiniluoto, 1999 y Psillos, 1999):

(a) Existe hipotéticamente un mundo independiente de la mente del observador que nuestras teorías científicas pretenden conocer.

(b) Las teorías científicas bien confirmadas nos proporcionan un conocimiento de ese mundo independiente, no de los meros fenómenos. No son meras construcciones sociales ni simples herramientas conceptuales para la predicción y el control.

(c) Las teorías científicas bien confirmadas contienen muchas afirmaciones verdaderas sobre el mundo. Estas afirmaciones verdaderas no se restringen sólo al ámbito de lo directamente observable, sino que también afectan a entidades no observables.

(d) La verdad debe entenderse en el sentido clásico de la correspondencia entre el contenido de nuestros enunciados y la realidad.

(e) Las teorías científicas actuales son mejores que las del pasado no sólo porque resuelven más y mejores problemas, sino porque contienen más verdades.

(f) El enorme éxito predictivo de nuestras teorías científicas se debe precisamente a que éstas contienen muchas afirmaciones verdaderas acerca de la realidad.

La tesis (a) es el realismo ontológico, y en la actualidad es aceptada de forma generalizada. No quedan apenas idealistas, que serían contrarios a esta tesis, aunque aún quedan bastantes constructivistas sociales, que suelen mantener una posición ambigua en este asunto. Para el realista ontológico el mundo no depende en su existencia, ni en la de algunas de sus propiedades, de los esquemas conceptuales, de los lenguajes o de las ideas que podamos forjar los seres humanos para conocerlo, o de cualquier otra característica mental o epistémica; lo que no impide que podamos conceptualizarlo de diferentes modos en función del contexto y de nuestros intereses. El realismo ontológico es, en efecto, compatible con el pluralismo conceptual (cf. Niiniluoto, 1999 y 2015; Kitcher, 2001 y Diéguez, 2011). Aplicado a las teorías científicas, el realismo ontológico implica que las entidades teóricas postuladas por la ciencia existen con independencia de nuestro conocimiento de ellas, aunque podamos equivocarnos al respecto en diversas ocasiones.

La tesis (b) es el realismo epistemológico, y se opone al idealismo trascendental de Kant, pero también al fenomenismo de Ernst Mach, al realismo interno de Putnam (cf. Putnam, 1988) o al constructivismo social defendido por algunos sociólogos de la ciencia, como Steve Woolgar (cf. Woolgar, 1991). El realismo epistemológico implica que el noúmeno, la cosa-en-sí, es cognoscible, o por mejor decirlo entonces, implica que la distinción kantiana entre fenómeno y noúmeno es insostenible, puesto que éste se consideraba, por definición, inaccesible a nuestro conocimiento.

La tesis (c) es conocida como realismo semántico, y mantiene que la verdad (aproximada) es atribuible no solo a los enunciados que pueden ser empíricamente verificados por versar sobre cosas o propiedades observables, sino también a los enunciados científicos que afirman algo acerca de procesos o entidades no directamente observables. A esta tesis se opone el empirismo constructivo de van Fraassen, para el cual las teorías científicas son aceptadas sólo por su adecuación empírica, es decir, porque sus consecuencias observables son verdaderas, pero sin que de ahí debamos pasar a creer en la existencia de las entidades teóricas que postulan (cf. van Fraassen, 1980). Según el empirismo constructivo, los enunciados científicos que se refieren a entidades inobservables, como los electrones o los quarks, pueden ser verdaderos o falsos, como cree el realista, pero la aceptación de una teoría por parte de un científico no compromete a éste con la aceptación de la existencia de dichas entidades. Puede hacerlo, si quiere, pero no es algo que venga exigido por su aceptación de la teoría en cuestión. Solo la verdad de los enunciados sobre entidades y sucesos observables sin la ayuda de instrumentos (la adecuación empírica de la teoría) es relevante. Para el realista, sin embargo, esta distinción entre lo que es directamente observable para el ser humano y lo que no lo es, no solo es borrosa, sino que carece de relevancia metafísica. En nada cambia la capacidad explicativa de una entidad postulada el hecho de pueda ser observada o no a simple vista, ni tampoco parece haber razones de peso para sostener que no podemos establecer (de forma falible y revisable) la existencia de entidades que no son directamente observables. Los científicos aceptan en general la existencia de átomos y moléculas, aunque no son observables sin ayuda de un instrumental sofisticado. También se oponen al realismo epistemológico los instrumentalistas, para los cuales las teorías científicas son herramientas para la predicción y el control, recursos útiles para compendiar experiencias, estrategias conceptuales para salvar los fenómenos, pero no se puede decir que sean verdaderas o falsas.

La tesis (d) sostiene que la teoría de la verdad que debe aceptar el realista es la vieja teoría de la verdad como correspondencia (reinterpretada, según algunos, a través de los trabajos de Alfred Tarski (cf. Niiniluoto, 1987 y 1999)). Esto implica, en particular, que para el realista no es aceptable ninguna noción epistémica de verdad, esto es, ninguna noción de verdad que la entienda como un estado de conocimiento alcanzado en ciertas circunstancias ideales. Para el realista son posibles, por tanto, verdades que permanecerán siempre desconocidas para el ser humano. Es lo que cabe esperar si se asume el realismo ontológico y la falibilidad de nuestro conocimiento. Por supuesto, el rechazo del realista se extiende también a otras nociones de verdad, como la relativista, la coherentista o la deflacionaria. Algunos realistas “mínimos”, como Ronald Giere, Michael Devitt, Nancy Cartwright o Ian Hacking, prefieren no declarar ningún compromiso concreto con la verdad y consideran que lo único exigible al realista es que asuma la existencia de las entidades teóricas. Por eso son conocidos como ‘realistas sobre entidades’. Pero la mayoría coincide con Niiniluoto y Sankey en que esta actitud no es lo suficientemente fuerte y coherente. El recelo ante la teoría de la verdad como correspondencia no estaría justificado. Es cierto que dicha teoría tiene problemas, pero cualquier otra noción de verdad (e incluso el rechazo de la noción de verdad) tiene problemas comparables, si no más graves.

La tesis (e) es el realismo progresivo, que no debe confundirse con lo que los críticos, y en particular Larry Laudan, suelen llamar ‘realismo convergente’, porque no presupone necesariamente la convergencia hacia una teoría final (ni aspira a lo que Putnam llamaba ‘el punto de vista del ojo de Dios’, es decir, una única teoría completa y verdadera sobre el universo). El realismo progresivo puede asumir un pluralismo perspectivista que rechace la perspectiva total e incondicionada, o desde “ningún lugar”. Autores antirrealistas que han rechazado explícitamente esta tesis son Paul Feyerabend, Thomas Kuhn y Larry Laudan. Para los dos últimos, la ciencia progresa en la medida en que las nuevas teorías resuelven más y mejores problemas, pero no porque sean más verdaderas. Feyerabend, por su parte, considera que la noción de Verdad (así con mayúsculas) es un instrumento ideológico y retórico para imponer ciertas ideas, pero no un objetivo de la ciencia.

Finalmente, la tesis (f) no suele presentarse como una tesis, sino como un argumento conocido como el argumento de ‘no-milagro’. Es el principal argumento que el realismo dice tener en su favor. Tal como lo expuso Putnam en 1975, el realismo es la única filosofía que no hace del éxito de la ciencia un milagro. Si nuestras teorías científicas no fueran (aproximadamente) verdaderas el enorme éxito predictivo e instrumental de dichas teorías sería inexplicable. La verdad (aproximada) de nuestras teorías científicas es la mejor explicación (para algunos, la única) del éxito de la ciencia. Un éxito tan espectacular como el que la ciencia tiene, capaz de predecir con acierto la existencia de entidades y fenómenos desconocidos, como la existencia del planeta Neptuno, o la curvatura de la luz en campos gravitacionales, o el valor hasta el octavo decimal del momento magnético del electrón, sólo es posible si nuestras teorías “han tocado hueso” en la realidad y –por decirlo con Platón– la han “cortado por sus junturas”.

El argumento de ‘no-milagro’ ha recibido diversas réplicas por parte de los antirrealistas. Se ha dicho que es un argumento circular, puesto que se trata de una ‘inferencia de la mejor explicación’, en la que se supone que la mejor explicación de un fenómeno debe ser verdadera, cuando eso mismo es lo que el antirrealista cuestiona, que algo deba ser tenido por verdadero por el mero hecho de ser la mejor explicación que hemos encontrado. No está claro, además, qué debe entenderse por ‘la mejor explicación’ de un fenómeno. Por otro lado, para un crítico como van Fraassen, incluso si admitiéramos que la mejor explicación de un fenómeno ha de ser verdadera, no tenemos nunca la garantía de que entre las explicaciones de las que disponemos en un momento dado esté precisamente la mejor explicación posible de ese fenómeno. Podríamos tener un mal lote de explicaciones, todas ellas falsas, y, por tanto, la mejor de ellas no sería verdadera. Caben además explicaciones alternativas a la realista que pueden ser mejores. Van Fraassen ha ofrecido una basada en el darwinismo. Nuestras teorías actuales son exitosas porque son precisamente las que han sobrevivido en una dura competencia con otras teorías. Las que no eran exitosas fueron pronto abandonadas. A esto último, el realista responde que tal cosa explicaría por qué ahora tenemos teorías exitosas, pero no por qué una teoría concreta tiene éxito.

3. Críticas al realismo científico

El realismo científico ha tenido que enfrentarse a diversas objeciones y desafíos, pero fundamentalmente a tres: la tesis de la inconmersurabilidad de las teorías científicas, propuesta por Kuhn y Feyerabend en 1962, el argumento de la meta-inducción pesimista, formulado de forma precisa por Laudan (cf. Laudan, 1981), y la tesis de la infradeterminación de las teorías por la experiencia. La tesis de la inconmensurabilidad sostiene que no es posible comparar de forma detallada, objetiva y neutral el contenido de las grandes teorías rivales (paradigmas) en función de la evidencia empírica con el fin de determinar cuál es superior o más verdadera. La inconmensurabilidad niega lo que el realismo progresivo defiende: la idea de que la ciencia progresa hacia teorías cada vez más verdaderas o más verosímiles. Básicamente la respuesta realista ha sido mostrar que el grado de continuidad en el cambio científico es mucho mayor que el que sostuvieron Kuhn y Feyerabend (cf. Pearce, 1987; Shankey, 1994). Se ha escrito mucho sobre esta tesis y aquí no podemos sino remitir al lector a la literatura pertinente (comenzando por Oberheim y Hoyningen-Huene, 2016). Describiremos, pues, brevemente las otras dos objeciones y las réplicas pertinentes.

La objeción de la meta-inducción pesimista es quizás la que más fuerza tiene contra el realismo (en concreto, contra el argumento del no-milagro), y la que más respuestas ha suscitado, ayudando incluso a que surjan nuevas modalidades del realismo. Laudan señaló en la historia de la ciencia una serie de teorías que hoy consideramos falsas y que, sin embargo, tuvieron algún tipo de éxito, fundamentalmente explicativo, e. g., la teoría geocéntrica de Ptolomeo, la teoría del flogisto, la del éter electromagnético, etc. A la luz de estos casos del pasado, lo que cabe inferir, según él, es que también en el futuro el éxito de las teorías seguirá desligado de su supuesta verdad. O dicho de otro modo, no hay ninguna conexión necesaria entre verdad y éxito.

La respuesta de algunos realistas a esta objeción ha consistido, en primer lugar, en señalar que el éxito de la mayor parte de los ejemplos citados por Laudan no es el que ellos tienen en mente, a saber: el éxito a la hora de realizar predicciones novedosas (cf. Leplin, 1997), y, en segundo lugar, en adoptar una estrategia de divide et impera, según la cual no todos los componentes de una teoría han de ser considerados como igualmente verdaderos o aceptables y dignos de perpetuación. En los pocos casos en que una teoría falsa haya podido conducir al éxito predictivo, sólo las partes que cumplieron una función imprescindible en la obtención de predicciones acertadas (porque no todo lo que la teoría contiene contribuyó a ese logro) son las que deben considerarse como aproximadamente verdaderas desde nuestros cánones. Esta línea de defensa ha sido calificada como ‘realismo selectivo’ y sus más conocidos defensores han sido Kitcher (1993) y Psillos (1999).

No obstante, para dar por buena esta réplica habría que realizar un trabajo de documentación histórica que mostrase con un número suficiente de casos concretos –algunos ya hay descritos– que estas partes aproximadamente verdaderas y solo ellas han sido las responsables del éxito predictivo, y hacer esto sin que se convierta en una justificación a posteriori de aquello que el realista considera que hay que salvar, es decir, sin preseleccionar estas partes a partir del conocimiento que actualmente tenemos de que, en efecto, fueron las partes que se conservaron de una u otra manera en las teorías posteriores.

El realismo estructural (cf. Worrall, 1989) ofrece una respuesta diferente: lo que se preserva a través del cambio de teorías y, por tanto, lo que podemos considerar responsable del éxito predictivo de la ciencia no son las verdades acerca del comportamiento concreto y las propiedades de las entidades teóricas, sino la estructura matemática utilizada por las teorías exitosas, las relaciones estructurales, a menudo formuladas en ecuaciones, que mantienen las entidades teóricas entre sí. En la versión epistémica del realismo estructural, solo podemos conocer esas estructuras formales, aunque la realidad no se reduzca a ellas, mientras que en la versión ontológica, no hay entidades individuales en la realidad que correspondan a las entidades teóricas porque solo las estructuras formales son auténticamente reales. Ambas interpretaciones presentan, sin embargo, problemas que generan una intensa discusión en la literatura más reciente sobre el realismo.

Finalmente, la tesis de la infradeterminación sostiene que, dada cualquier teoría, es siempre factible la elaboración de una teoría empíricamente equivalente a ella, pero incompatible en los aspectos no observables. Por tanto, puede lograrse que la evidencia empírica que encaja con una teoría encaje igualmente con otra teoría distinta en sus compromisos acerca de las entidades teóricas postuladas. Esto implica que dicha evidencia no puede servir para apoyar la verdad de ninguna de ellas. Los realistas han contraargumentado de dos formas principales. Por un lado, algunos han negado la posibilidad real (no a través de apaños meramente lingüísticos o de ejemplos ficticios y truculentos (cerebros en una cubeta, etc.)) de teorías empíricamente equivalentes ante toda evidencia posible, pasada y futura. En los casos históricos que se han dado de equivalencia empírica, la evidencia permitió decidir finalmente en favor de una de las teorías en liza, y lo mismo se espera que ocurra en los casos presentes o futuros. Por otro lado, si se dieran casos genuinos de equivalencia empírica, hay que tener en cuenta que la evidencia en favor de una teoría no se limita a sus consecuencias empíricas, y que podrían encontrarse elementos de juicio adicionales, pero con valor espistémico para elegir entre ellas, como el carácter no ad hoc de la teoría o el encajar mejor con otras (cf. Laudan y Leplin, 1991).

El debate entre realistas y antirrealistas continúa, y ninguno de los dos bandos parece cercano a alcanzar la victoria. Este hecho ha motivado que algunos lo consideren una confrontación de temperamentos más que de argumentos. Pero este juicio parece injusto cuando consideramos cómo el debate ha contribuido a mejorar nuestra comprensión de la ciencia y a percibir la variedad en el uso y desarrollo de las teorías científicas.

Antonio Diéguez Lucena
(Universidad de Málaga)

Referencias

  • Agazzi, E., ed., (2017): Varieties of Scientific Realism. Objectivity and Truth in Science, Cham, Springer.
  • Borge, B. (2015): “Realismo científico hoy: a 40 años de la formulación del Argumento del No-Milagro”, Acta Scientiarum, 37(2), pp. 221-233. https://doi.org/10.4025/actascihumansoc.v37i2.26933
  • Borge, B. y N. Gentile, eds., (2020): La ciencia y el mundo inobservable. Discusiones contemporáneas en torno al realismo científico, Buenos Aires, Eudeba.
  • Bunge, M. (2007): A la caza de la realidad. La controversia sobre el realismo, Barcelona, Gedisa.
  • Carman, C. C. (2016): “Realismo científico”, en Diccionario Interdisciplinar Austral, Vanney, C. E., I. Silva y J. F. Franck, ed., disponible en http://dia.austral.edu.ar/Realismo_cient%C3%ADfico
  • Cartwright, N. (1983): How the Laws of Physics Lie, Oxford, Clarendon Press.
  • Chakravartty, A. (2007): A Metaphysics for Scientific Realism, Cambridge, Cambridge University Press.
  • — (2016): “Scientific Realism”, en The Stanford Encyclopedia of Philosophy, E. N. Zalta, ed., disponible en https://plato.stanford.edu/archives/win2016/entries/scientific-realism/ [Winter 2016 Edition].
  • Devitt, M. (1984): Realism and Truth, Oxford, Blackwell.
  • Diéguez, A. (1998): Realismo científico. Una introducción al debate actual en la filosofía de la ciencia, Málaga, Universidad de Málaga, https://www.researchgate.net/publication/31735242_Realismo_cientifico_una_introduccion_al_debate_actual_en_la_filosofia_de_la_ciencia_A_Dieguez_Lucena
  • (2001): “Las explicaciones del éxito de la ciencia. Un análisis comparativo”, Themata, 27, pp. 9-23. Disponible online
  • (2006): “Why Does Laudan’s Confutation of Convergent Realism Fail?”, Journal for General Philosophy of Science, 37, pp. 393-403. https://www.jstor.org/stable/25171353
  • (2011): “Kitcher’s Modest Realism: The Reconceptualisation of Scientific Objectivity”, en W. J. González, ed., (2011): Scientific Realism and Democratic Society. The Philosophy of Philip Kitcher, Poznam Studies in the Philosophy of the Sciences and the Humanities, 101, Amsterdam, Rodopi, pp. 141-169. Disponible online
  • Gabriel, M. (2015): Por qué el mundo no existe, Barcelona, Ediciones Pasado y Presente.
  • Giere, R.N. (1999): Science without Laws, Chicago, The University of Chicago Press.
  • Hacking, I. (1996): Representar e intervenir, Barcelona, Paidós.
  • Iranzo, V. (2016): “La defensa abductiva del realismo científico. Estado de la cuestión”, en Gómez, O.L., J.I. Racines, eds., Los límites de la ciencia y la filosofía, Cali, Universidad del Valle, pp. 51-73
  • Kitcher, P. (1993): The Advancement of Science. Science without Legend, Objectivity without Illusion, Oxford, Oxford University Press.
  • (2001): Science, Truth, and Democracy, Oxford, Oxford University Press.
  • Kuhn, T.S. ( [1962]1981): La estructura de las revoluciones científicas, Madrid, F.C.E.
  • Laudan, L. (1981): “A Confutation of Convergent Realism”, Philosophy of Science, 48, pp. 19-48.
  • Laudan, L. y J. Leplin (1991): “Empirical Equivalence and Underdetermination”, Journal of Philosophy, 88, pp. 449-472.
  • Leplin, J. (1997): A Novel Defense of Scientific Realism, New York, Oxford University Press.
  • Liston, M. (s. f.): “Scientific Realism and Antirealism”, Internet Encyclopedia of Philosophy, FIESER, J. y B. DOUDEN, eds., Disponible online
  • Niiniluoto, I. (1987): Truthlikeness, Dordrecht, Reidel.
  • (1999): Critical Scientific Realism, Oxford, Oxford University Press.
  • (2015): “Optimistic Realism about Scientific Progress”, Synthese, 194, pp. 3291-3309. https://doi.org/10.1007/s11229-015-0974-z
  • Oberheim, E. y P. Hoyningen-Huene (2016): “The Incommensurability of Scientific Theories”, en The Stanford Encyclopedia of Philosophy, E.N. Zalta, ed., disponible en https://plato.stanford.edu/cgi-bin/encyclopedia/archinfo.cgi?entry=incommensurability&archive=win2016 [Winter 2016 Edition].
  • Pearce, D. (1987): Roads to Commensurability, Dordrecht, Reidel.
  • Popper, K. (1985): Realismo y el objetivo de la ciencia, Madrid, Tecnos.
  • Psillos, S. (1999): Scientific Realism: How Science Tracks Truth, London, Routledge.
  • Putnam, H. (1983): Realism and Reason, Cambridge, Cambridge University Press.
  • (1987): The Many Faces of Realism, La Salle, Ill., Open Court.
  • (1988): Razón, verdad e historia, Madrid, Tecnos.
  • (1990): Realism with a Human Face, Cambridge, Mass., Harvard University Press.
  • Rivadulla, A. (2015): Meta, método y mito en ciencia, Madrid, Trotta.
  • Sankey, H. (1994): The Incommensurability Thesis, Aldershot, Avebury.
  • (2008): Scientific Realism and the Rationality of Science, Aldershot, Ashgate.
  • Smart, J.J.C. (1975): Entre ciencia y filosofía, Madrid, Tecnos.
  • Stanford, P. K. (2006): Exceeding our Grasp, Oxford, Oxford University Press.
  • Van Fraassen, B. C. (1980): The Scientific Image, Oxford, Clarendon Press.
  • (1989): Laws and Symetry, Oxford, Clarendon Press.
  • (2008): Scientific Representation, Oxford, Clarendon Press.
  • Woolgar, S. (1991): Ciencia: Abriendo la caja negra, Barcelona, Anthropos.
  • Worrall, J. (1989): “Structural Realism: The Best of Both Worlds?”, Dialectica, 43, pp. 99-124.
  • Zamora Bonilla, J. (2019): “Realism versus Anti-realism: Philosophical Problem or Scientific Concern?”, Synthese, 196(10), pp. 3961-3977. DOI:10.1007/s11229-015-0988-6
Cómo citar esta entrada

Diéguez, A. (2018). “Realismo Científico”, Enciclopedia de Filosofía de la Sociedad Española de Filosofía Analítica (URL: http://www.sefaweb.es/realismo-cientifico/)