Todas las entradas de: Cristian Saborido

Causalidad en la ciencia

1. Teorías de la causalidad

Existe una gran diversidad de teorías de la causalidad. En su primera acepción, todas estas teorías proponen definiciones explícitas de la relación causal, en términos de condiciones necesarias y / o suficientes para la aplicabilidad del término. Pero los análisis de cada una de estas teorías no pueden ser más diferentes y contradictorios entre sí. En esta sección presentamos las cuatro teorías históricamente más influyentes.

1.1. La teoría regularista

David Hume (1748) inaugura la discusión empirista moderna acerca de la causalidad. Asegura que los conceptos generalmente asociados a ésta, como “potencia” y “conexión necesaria”, no tienen fundamento al no ser perceptibles por los sentidos. Debido a que sólo las sucesiones de eventos son percibidas, hablamos de causa y efecto cuando encontramos la conjunción constante de dos eventos del mismo tipo. La conexión necesaria entre éstos y la idea de potencia serían fruto de una mera conjetura de la mente derivada de la idea de volición, la cual no es menos problemática, pues descansa sobre el “misterio de la conexión entre alma y cuerpo” (p. 66). Tras Hume, los análisis de la causalidad en términos de patrones invariantes de sucesiones han convenido en llamarse teorías de la regularidad causal. Dos autores influyentes que han desarrollado esta idea son John Stuart Mill y John L. Mackie.

Mill (1843) señala la existencia de una “pluralidad de causas” para un evento determinado, especificando así que las regularidades no suelen darse tanto entre eventos aislados como entre conjuntos de ellos. Identifica la causa con “la suma total de condiciones positivas y negativas” que anteceden a un evento con regularidad, las cuales se identificarían gracias a su “método de la diferencia”, en el que se alude a las diferencias existentes entre las condiciones en el evento que ocurre y aquellas en que no lo hace. Por su parte, en (1974), Mackie analiza los problemas de la teoría regularista en Hume y Mill, y ofrece su propia caracterización de la causalidad como regularidad en los objetos. Señala que la “causa total” de un efecto ha de entenderse como una disyunción de conjunciones, cada una de ellas suficiente pero no necesaria, compuestas de factores insuficientes pero necesarios (INUS por sus siglas en inglés). Por ejemplo, un cortocircuito eléctrico es una condición INUS de un incendio determinado en una casa. Se trata de un factor necesario pero no suficiente de un conjunto de condiciones (entre los que estará la presencia de oxígeno, de materiales no ignífugos, etc.) suficiente para que el incendio tenga lugar, aunque no necesario (pues éste podría deberse a otro conjunto de factores que incluyesen, por ejemplo, una vela mal apagada).

1.2. La teoría probabilística

La otra aproximación empirista más importante es históricamente más reciente, y deriva de las discusiones en el seno del círculo de Viena sobre la naturaleza de los llamados términos teóricos de la ciencia, en oposición a los empíricos. La cuestión clave desde esta perspectiva consiste en averiguar si algún análisis del concepto de causalidad permite reducirlo a algún conjunto complejo de nociones bien definidas con anterioridad, ya sean de tipo formal, empírico, o una combinación lógica de ambos tipos. De lo contrario, la noción de causalidad devendría vacua, resultando eliminable. Este eliminativismo fue defendido por algún predecesor del círculo de Viena, como Bertrand Russell (1912] 1913), pero rechazado por la mayor parte de los neopositivistas, que consideraron la causalidad como el concepto científico por antonomasia. El mayor defensor de esta reducción es Hans Reichenbach, quien en (1956), propone la que quizás sea la primera teoría comprehensiva probabilística de la causalidad, siendo todas las ulteriores versiones de ésta.

La idea fundamental de cualquier teoría probabilística de la causalidad es que una causa eleva la probabilidad de sus efectos (Hitchcock, 2016). La introducción de la probabilidad requiere, desde un punto de vista formal, entender los “relata” de la relación causal no como eventos si no más propiamente como variables aleatorias. Decimos entonces, de manera genérica, que, según la teoría probabilística, la variable c es la causa de la variable e si y sólo si incrementa su probabilidad [incprob]: Prob (e / c) > Prob (e / ¬ c). Sin embargo, esta condición [incprob], en apariencia tan sencilla, tiene sus dificultades. En primer lugar, cualquier correlación entre dos variables c y e, como la expresada en [incprob], puede ser espuria, en el sentido de que responde a causas subyacentes de ambas variables (es decir: tanto e como c pueden ser efectos de una causa ulterior d que eleva la probabilidad de ambas y explica su correlación). El famoso slogan “correlación no es causación” demuestra que [incprob] es, como mucho, una condición necesaria, pero nunca suficiente para la causalidad, y por lo tanto no puede servir para reducir la relación causal a mera probabilidad. Esto aboca a Reichenbach a enunciar un principio de inferencia causal más elaborado, que se conoce como el “principio de la causa común” [pcc].

Este principio se puede expresar formalmente de la siguiente manera [pcc]: “Si c y e son dos variables correlacionadas (p.e. por cumplir la condición [incprob]), entonces: o bien c causa e, o viceversa, o ambas son efectos de alguna causa común d tal que: Prob (e / c & d) = Prob (e / d)”. La definición ya indica que si d es la causa común de e y c, entonces su presencia debe anular o suprimir la correlación entre e y c, en cuyo caso decimos que la correlación entre e y c es espuria. Aunque este principio parece, en primera instancia, superar las dificultades de la teoría regularista, su validez, incluso como mera condición necesaria pero no suficiente sobre las causas comunes, continúa siendo objeto de un importante debate (Williamson, 2017). En cualquier caso, el [pcc] es, como mucho, una condición necesaria de la causalidad, y no puede utilizarse para reducir analíticamente la relación causal.

1.3. La teoría contrafáctica

En un pasaje de (1748), David Hume identifica su teoría regularista de la causalidad con una definición en términos de dependencia contrafáctica: «podemos definir una causa como un objeto seguido de otro, donde todos los objetos similares al primero son seguidos de objetos similares al segundo. O, en otras palabra, si el primer objeto no se hubiera dado, el segundo nunca habría existido». Esta idea queda inexplorada por los regularistas, y es el filósofo norteamericano David Lewis quien la recoge y desarrolla en 1974, afirmando tomar esta segunda definición de Hume como su definición «no de la causalidad misma, sino de dependencia causal entre eventos». Define ésta en términos de dependencia contrafáctica entre las proposiciones que los describen, mediante el uso de condicionales contrafácticos (del tipo “si A no se hubiera dado, B no habría ocurrido”) y de la semántica de los mundos posibles.

Un mundo posible es un conjunto de eventos (o de proposiciones verdaderas que los describen) que difiere en algún aspecto del mundo real. Los mundos posibles se ordenan según su cercanía al mundo real tomando la cantidad de eventos o proposiciones compartidos con éste como criterio, permitiendo establecer los valores de verdad de los condicionales contrafácticos (es decir, condicionales cuyos antecedentes resultan falsos en el mundo real) de la siguiente forma: un contrafáctico es verdadero si y sólo si en los mundo más cercanos al mundo real en los que el antecedente es verdadero (es decir, aquellos mundo que difieren del mundo real solamente en el valor de verdad del antecedente), es también verdadero el consecuente.

En el caso de las relaciones causales, esto significa que, para dos eventos c y e en el mundo real, podemos decir que e depende causalmente de c, si y sólo si: ocurre que c; ocurre más tarde que e; y además es verdadero, en el sentido establecido anteriormente, el condicional contrafáctico “si no hubiese ocurrido c no habría ocurrido e”. Para superar algunas de las dificultades del análisis regularista, Lewis matiza que, si bien la causalidad es una relación transitiva, la dependencia causal no lo es. Esto es debido a que la causalidad entre dos eventos puede ser mediada por distintos estadios de los que, por separado, el efecto no depende causalmente. Por ello, e puede depender causalmente de c, y, a su vez, c puede depender causalmente de d, sin por ello e depender causalmente de d. El incendio en una casa depende causalmente del cortocircuito, del que también depende causalmente el desplome de potencia en el vecindario; sin embargo el incendio no depende causalmente del desplome de potencia.

Para superar la ambigüedad de la noción de similaridad manejada, Lewis propone que los mundos más similares al real son aquellos que son idénticos en su historia, pero difieren en aspectos inmediatamente anteriores a la ocurrencia del efecto a considerar. Además, Lewis reformula su teoría en (2000), introduciendo la noción de influencia y añadiendo que el condicional contrafáctico no sólo ha de reflejar dependencias basadas en la ocurrencia o no de un evento; sino también en cuándo y cómo ocurre.

1.4. La teoría de procesos

Una cuarta familia de teorías sobre la causalidad tiene su origen en la obra de Wesley C. Salmon, quien propuso tomar los procesos, en oposición a los eventos, como base ontológica del análisis causal. Mientras que los eventos se consideran espaciotemporalmente localizados, los procesos son entidades espacial y temporalmente dilatadas que presentan algún tipo de persistencia estructural. Salmon (1984) distingue los procesos propiamente causales, que transmiten su propia estructura, de aquellos que no lo serían (los pseudo-procesos) mediante un criterio contrafáctico de “transmisión de marca”. Éste consistiría en la capacidad de transmitir de un punto a otro del proceso un cambio inducido por una hipotética intervención en éste. Un ejemplo de pseudo-proceso es el de la proyección de una sombra en movimiento. Una intervención en el movimiento de la sombra – por ejemplo mediante la colocación de un obstáculo en la superficie en que se proyecta – puede modificar su trayectoria puntualmente, pero la modificación no será transmitida por el movimiento, incumpliéndose el criterio de transmisión de marca.

Phil Dowe tomó la teoría de Salmon como punto de partida para elaborar su propia teoría de procesos: la teoría de la “cantidad conservada”. Apoyándose en las ciencias físicas, Dowe propone entender los procesos causales como aquellos en los que una entidad posee una cantidad gobernada por una ley de conservación (por ejemplo la masa-energía, el momento lineal o la carga). Salmon adopta en gran parte la aproximación de Dowe, y desarrolla a partir de ella su nueva “teoría de la cantidad invariante”. En ella, señala que el requisito más relevante para la causalidad no es la conservación de un valor en el tiempo, sino su constancia con respecto a cambios de marco de referencia espaciotemporal.

Existe un número creciente de posturas sobre la causalidad enmarcadas también dentro de una ontología de procesos, pero que difieren de las teorías de Salmon y Dowe, como pueden ser las teorías de transmisión de propiedades o las de mecanismos.

2. Metodología de la Inferencia Causal

En la primera sección apuntamos razones para una concepción deflacionista de la causalidad. En esta segunda sección indicamos cómo el intervencionismo causal de Woodward (2003) se puede utilizar para dar cuenta de la metodología de inferencia causal en cualquier dominio, independientemente de la teoría sobre la causalidad aplicable a tal dominio.

2.1. Concepción deflacionaria de la causalidad

Ninguna de las cuatro teorías que hemos estudiado en la sección anterior tiene éxito como análisis reduccionista de la causalidad. Lo que se presentan como condiciones necesarias y suficientes para un análisis de la causalidad resultan ser condiciones típicas en distintos casos de causalidad efectiva, o para diversas variedades de relaciones causales existentes. Así, la teoría regularista no puede dar cuenta adecuadamente de correlaciones no causales, ni de relaciones causales indeterministas. Por su parte, la teoría probabilística no puede dar cuenta de eventos o variables que aún estando causalmente relacionados con otros eventos, no son capaces de aumentar su probabilidad. Como en los célebres ejemplos de Salmon (1984) y Suppes (1970), en los que p.e. el golpeo de una bola de golf en la dirección opuesta al hoyo reduce la probabilidad de que entre en ese hoyo; sin embargo, la bola accidentalmente golpea en un árbol y, de rebote, entra, sin duda en parte causado por el golpeo inicial. O en los ya más serios ejemplos de Hesslow, y otros casos de paradoja de Simpson. Tampoco puede dar cuenta adecuadamente de la diferencia entre causas comunes y efectos comunes, si no es presuponiendo una flecha temporal de la causalidad.

Por otro lado, la teoría contrafáctica sufre de contraejemplos relativos a casos de sobredeterminación causal (pre-emption). Por ejemplo, supongamos que un incendio es causado parcialmente por un cortocircuito; pero que al mismo tiempo un pirómano acababa de rociarlo con gasolina y estaba a punto de prenderle fuego. El análisis contrafáctico nos dice que el incendio ya no depende causalmente del cortocircuito, puesto que ya no es cierto que de no haberse producido tal cortocircuito, no habría habido incendio. Aunque algunos autores aceptan que las relaciones causales implican contrafácticos, muy pocos hoy en día piensan que los últimos permitan analizar las primeras. El hecho de que el cortocircuito sea la causa (y no haya ninguna otra causa preventiva o sobredeterminada) es lo que hace que el contrafáctico sea verdadero, y no viceversa.

Por último, la teoría de procesos, al requerir una formulación de las relaciones causales como procesos espaciotemporales que preservan ciertas cantidades físicas, no da cuenta de la causalidad en ciencias especiales (naturales emergentes, como la biología o la química, y en ciencias sociales como la psicología, o la economía), que en principio no tiene por qué ser reducida a la causalidad de la física. Además, presenta dificultades para analizar casos de “desconexión”, como la causación por ausencia (p.e. la planta murió porque nadie la regó) o la prevención.

La respuesta que proponemos es deflacionaria. Consiste en abandonar el intento de definir la causalidad y, en su lugar, pasar a concebir cada una de estas teorías de la causalidad como una aproximación metodológica a la inferencia causal en un campo concreto. Sin embargo, en cada campo las condiciones de contorno o contextuales son esenciales para que la inferencia tenga éxito. Cada una de las aproximaciones metodológicas necesitarán de condiciones muy diversas para la validez de sus inferencias causales. En la próxima sección abordamos una posible unificación de estas metodologías.

2.2. Manipulabilidad e Intervención Causal

La cuestión más relevante entonces deviene la siguiente: ¿es posible establecer algún vínculo en común entre todas estas metodologías de inferencia causal tan diversas, en contextos tan distintos, y dotadas de presupuestos metafísicos u ontológicos tan diferentes? En esta sección, presentamos la metodología manipulabilista defendida por Woodward (2003) como un candidato.

Según esta metodología, compatible con las diversas teorías metafísicas descritas en la primera parte, el tipo de evidencia que puede resultar apropiada para cualquier enunciado causal es contextual – tanto en relación con factores subjetivos como objetivos (Suárez, 2014). La idea central del manipulabilismo es que una variable c es una causa de otra variable e si (pero no sólo si) es posible intervenir en c, variando su valor dentro de un cierto rango, y observar el cambio correspondiente en el valor de e, de acuerdo con alguna generalización robusta o invariante que conecte los valores de c y e, donde la relación es “invariante” si y sólo si no depende de la intervención o de los valores de {c,e} dentro de un cierto rango. En otras palabras, c es la causa de e si es cierto que una intervención que altera c genera, de acuerdo con alguna generalización o ley, una alteración de e.

En la concepción de Woodward, una intervención sobre la causa putativa c con respecto a su efecto e es una variable I que actúa directamente sobre c, alterando su valor, y que cumple las siguientes condiciones:

  1. I es una causa directa de c.
  2. I y c no comparten ninguna causa común.
  3. I no causa e por ningún camino indirecto, que no pase por c.
  4. I y e no están estadísticamente correlacionados.

La formulación en términos de condiciones suficientes, pero no necesarias, permite utilizar la metodología manipulabilista como un test de la existencia de una relación causal entre c y e sin, por ello, definir la relación causal misma. Su aplicación a los casos que hemos estudiado requiere conceptualizar causas y efectos como variable multivariadas (con el caso bivariado como caso límite). Esto resulta automático en el caso de la teoría probabilista, y requiere modificaciones mínimas para los casos de las teorías regularista, contrafáctica y de procesos. La metodología manipulabilista, por tanto, es en principio capaz de descubrir relaciones causales mediante la aplicación de la invariancia de la relación causa-efecto bajo intervenciones, independientemente de la teoría que se utilice para definir el concepto de causa.

Esta metodología ha sido criticada desde algunas ramas de las ciencias, por la dificultad de su aplicación en sistemas complejos. Como apuntaremos en la sección 3.2, algunos autores defienden que esta aplicación ha de venir acompañada de la identificación de mecanismos subyacentes (Russo y Williamson, 2007).

3. Aplicaciones a las Ciencias Físicas y Biológicas

Existen numerosas aplicaciones de estas ideas en las diversas ciencias. En esta sección, por cuestión de espacio, nos ceñimos sólo a aquellas que atañen a dos ciencias naturales, la física y la biología. El lector interesado puede encontrar buenas discusiones de la aplicación de ideas similares en la serie de volúmenes y números especiales que se han ido editando en torno a la serie de congresos anuales “Causality in the Sciences”, como son Illari, Russo and Williamson (2011), Russo and Williamson (2007).

3.1. Causalidad en ciencias físicas

Dentro de la física clásica o newtoniana, es longeva la tesis según la cual el concepto dinámico principal, el concepto de fuerza (que viene definido por la famosa segunda ley de Newton como , como una magnitud vectorial proporcional a la masa y la aceleración de cualquier cuerpo), tiene una naturaleza causal. Esto se expresa a menudo en conjunción con la primera ley de Newton que enuncia la inercia de cualquier cuerpo no sometido a fuerza alguna. Así, una fuerza es siempre la causa del movimiento no inercial de cualquier cuerpo y, aunque la existencia de fuerzas newtonianas ha sido objeto de debate, su naturaleza causal no ha sido puesta en duda (Wilson, 2007).

Dentro de los marcos conceptuales dominantes en la física de los s. XX y XXI, la mecánica cuántica y física relativista, el status de la causalidad sí ha sido a menudo cuestionado. En física relativista, por ejemplo, se ha cuestionado a menudo que pueda darse causalidad entre un evento y cualquier otro evento fuera del cono de luz del primero. Se dice de tales eventos que están relacionados espacialmente (“spacelike related”) y el segundo principio de la relatividad (la constancia o invariancia de la velocidad de la luz en todo marco de referencia) se supone que impide su relación causal. Sin embargo, tal conclusión ha sido fuertemente criticada por diversos expertos en fundamentos filosóficos de la física (Maudlin, 1994). Éstos proponen diversas metodologías deflacionarias de la causalidad, incluyendo versiones de la metodología manipulabilista presentada en la sección anterior, que sí permiten establecer relaciones causales fuera del cono de luz.

En el contexto de la mecánica cuántica, el grado de escepticismo con respecto a la causalidad ha sido históricamente, si cabe, aún mayor. Uno de los principales arquitectos de la teoría cuántica en el espacio de Hilbert, el matemático John Von Neumann (1932) incluso se refirió al postulado del colapso dinámico de la función de onda como a-causalista. En la medida en que existen dos evoluciones dinámicas del estado cuántico, una es determinista (viene dada por la ecuación de Schrödinger), mientras que la otra es probabilística (y viene dada por las probabilidades de transición que determina la llamada regla de Born). Von Neumann, junto con muchos otros pensadores influidos por el contexto cultural de la república de Weimar (Foster, 1971), estableció que tal evolución probabilística no podía ser causal y configuraba una crisis profunda en el marco de la física clásica. Sin embargo, el desarrollo posterior de las teorías probabilísticas de la causalidad han puesto fin al debate, abriendo el espacio conceptual necesario para un tipo de causalidad probabilística (Reichenbach, 1954; Suppes, 1970). El debate continúa hoy en día al respecto de si los fenómenos cuánticos son o no describibles en términos causales, entendidos según la metodología manipulabilista, con una mayoría creciente de filósofos defendiendo la aplicación de tales conceptos tanto al proceso de medición cuántica, como a las correlaciones EPR (Suárez y San Pedro, 2011; Suárez, 2012).

3.2. Causalidad en las ciencias biológicas

La gran diversidad de los fenómenos biológicos dificulta el establecimiento de una metodología de inferencia causal única para todas las ramas de la biología. Aquí nos centraremos en la teoría de la evolución, considerada la gran unificadora de dichos fenómenos. El principio de selección natural establece que los individuos mejor adaptados a su medio tienen una mayor capacidad de sobrevivir y reproducirse, y por tanto tenderán a hacerlo con mayor frecuencia, transmitiendo así sus características a la población. Para que este principio no lleve a una explicación circular, es necesario diferenciar entre la capacidad de los individuos a sobrevivir y reproducirse (su aptitud) del resultado concreto derivado de su interacción con el entorno. Ahora bien, establecer relaciones causales que permitan distinguir la evolución por selección natural de cambios evolutivos debidos a otros factores (como la deriva genética) es virtualmente imposible dentro de un marco manipulabilista, debido a que los procesos evolutivos no son repetibles. Aun así, los principios de inferencia causal estadística son utilizados en los estudios poblacionales, como evidencia la discusión del principio de parsimonia dentro de la taxonomía evolutiva como un Principio de Causa Común (véase Sober, 1984).

Sin embargo, muchos autores defienden que, para dar cuenta de la complejidad de las relaciones causales en biología, ha de atenderse a la noción de mecanismo, derivada de las teorías causales de procesos. Ésta noción pretende capturar la idea de que los fenómenos biológicos son producidos por un conjunto de entidades y actividades que interaccionan de forma organizada y no reducible a sus componentes (Craver y Tabery, 2017). El llamado debate entre estatidisticalistas y causalistas ilustra la discusión sobre si los principios mecanístico-causales pueden aplicarse al proceso de evolución, o si por el contrario éste es sólo un agregado estadístico de procesos a nivel individual. Parte de este debate se centra en si es posible establecer una analogía entre los factores evolutivos y las fuerzas newtonianas (para un panorama de esta cuestión, véase Brandon, 2014).

La teoría evolutiva también juega un papel importante en el establecimiento de causas para la existencia de rasgos o procesos concretos en términos de su funcionalidad para un organismo. Las explicaciones evolutivas se centrarían en las llamadas “causas últimas” de un fenómeno; es decir, aquéllas que han posibilitado la aparición y retención de un rasgo dentro de una población en virtud de su conveniencia. En oposición a éstas, las llamadas “causas próximas” son aquéllas que producirían el fenómeno en cuestión a nivel individual, como pueden ser las implicadas en la ontogenia y los procesos metabólicos (sobre esta distinción, véase Mayr, 1961). La naturaleza repetible de estos procesos sí permitiría en principio aplicar los principios manipulabilistas al establecimiento de causas próximas.

Mauricio Suárez & Cristina Villegas,
(Universidad Complutense de Madrid)

Referencias

  • Brandon, R. (2014): «Natural Selection», en The Stanford Encyclopedia of Philosophy, E. N. Zalta, ed., disponible en https://plato.stanford.edu/archives/spr2014/entries/natural-selection/
  • Craver, C. y J. Tabery (2017): «Mechanisms in Science», en The Stanford Encyclopedia of Philosophy, E. N. Zalta, ed., disponible en https://plato.stanford.edu/archives/spr2017/entries/science-mechanisms/
  • Dowe, P. (1995): “Causality and conserved quantities: A reply to Salmon”, Philosophy of Science, 62(2), pp. 321-333.
  • Hitchcock, C. (2016): «Probabilistic Causation», en The Stanford Encyclopedia of Philosophy, E. N. Zalta, ed., disponible enhttps://plato.stanford.edu/archives/win2016/entries/causation-probabilistic/
  • Hume, D. (1748): Philosophical Essays Concerning Human Understanding, London, A. Millar.
  • Illari, P. M., F. Russo y J. Williamson, eds., (2011): Causality in the Sciences, Oxford, Oxford University Press.
  • Lewis, D. (1974): “Causation”, The Journal of Philosophy, 70(17), pp. 556-567.
  • Lewis, D. (2000): “Causation as influence”, The Journal of Philosophy, 97(4), pp. 182-197.
  • Mackie, J. L. (1974): The Cement of the Universe, London, Oxford University Press.
  • Mayr, E. (1961): “Cause and effect in biology”, Science, 134(3489), pp. 1501-1506.
  • Menzies, P. (2014): «Counterfactual Theories of Causation», en The Stanford Encyclopedia of Philosophy, E. N. Zalta, ed., disponible enhttps://plato.stanford.edu/archives/spr2014/entries/causation-counterfactual/
  • Mill, J.S. ([1843]1893): A system of Logic, Ratiocinative and Inductive, Nueva York, Harper & Brothers.
  • Reichenbach, H. (1956): The Direction of Time, Berkeley, University of California Press.
  • Russell, B. (1912): “On the notion of cause”, Proceedings Aristotelian Society, (13), pp. 1-26.
  • Russo, F. y J. Williamson, eds., (2006): Causality and Probability in the Sciences, London, College Publications.
  • Russo, F. y J. Williamson (2007): “Interpreting causality in the health sciences”, International studies in the philosophy of science, 21(2), pp.157-170.
  • Salmon, W. (1984): Scientific Explanation and the Causal Structure of the World, Nueva York, Princeton University Press.
  • Sober, E. (1984): Common Cause Explanation. Philosophy of Science, 51(2), pp. 212-241.
  • Suárez, M. e I. San Pedro (2011): “Causal Markov, Robustness and the Quantum Correlations”, en M. Suárez ed., Probabilities, Causes and Propensities in Physics, Synthese Library, Dordrecht, Springer, pp. 173-196.
  • Suárez, M. (2012): “Contextos de descubrimiento causal”, Revista de Filosofía, 37(1), pp. 27-36.
  • Suppes, P. (1970): A Probabilistic Theory of Causality, Amsterdam, North Holland Publications.
  • Williamson, J. (2009): “Probabilistic theories of causality” en Beebee H., C. Hitchcock y P. Menzies, eds., The Oxford handbook of causation, Oxford University Press, pp. 185-212.
  • Wilson, J. (2007): “Netwonian forces”, British Journal for the Philosophy of Science, 58, pp. 173-205.
Cómo citar esta entrada

Mauricio Suárez y Cristina Villegas (2018). “Causalidad en la ciencia”,  Enciclopedia de la Sociedad Española de Filosofía Analítica(URL: http://www.sefaweb.es/causalidad-en-la-ciencia/)

Método científico

Apelar a un método es referirse a reglas, pautas de acción, procedimientos estandarizados,…, para conseguir un objetivo. La pregunta por el ”método científico”, que cuenta con una larga tradición filosófica, suscita dos cuestiones fundamentales. La primera es identificar qué prescripciones, normas, etc. constituyen dicho método, algo que parece razonable averiguar a partir de la propia práctica científica. La cuestión ulterior, suponiendo que sea posible aislar un conjunto de principios que caractericen el método científico, es cuál es su estatus y alcance epistemológicos; en definitiva, cuál es su valor normativo. Abordaremos ambas cuestiones por este orden.

Dado el talante tan diferente de las investigaciones que acometen, por ejemplo, un astrónomo, un psicolingüista, un oncólogo o un economista, no es de extrañar que la filosofía de la ciencia contemporánea haya cuestionado si existe un conjunto de reglas comunes a todos los campos de la ciencia. Por eso conviene distinguir niveles dentro de la dimensión metodológica de la ciencia. Hay estrategias y técnicas que se aplican en contextos particulares de la investigación y que no son extrapolables a otros ámbitos. Pensemos en los modos de teñir una preparación para observarla al microscopio, el cálculo de la función matemática que mejor se ajusta a una serie de medidas experimentales, la elaboración de cuestionarios, y de los criterios para valorar las respuestas, etc. En situaciones como estas los científicos a menudo siguen unos protocolos definidos y, salvo que haya razones de peso para hacerlo, no se desvían de ellos, pues quedaría en entredicho la credibilidad de su investigación. Pero aunque todo esto pueda incluirse dentro del plano metodológico de la ciencia, cabe distinguirlo de lo que en filosofía comúnmente se ha entendido por “método científico”. Con esta última expresión se alude a las pautas más generales que regulan la investigación científica, pautas que conforman, supuestamente, lo genuino de la ciencia, entendida como un modo de obtener conocimiento que ha incrementado notablemente nuestra capacidad de transformar la realidad. Así, cuando, desde una perspectiva histórica, se habla del método inductivista baconiano, en honor a Francis Bacon, o del método resolutivo-compositivo (o hipotético-deductivo) de Galileo, o del falsacionismo de Karl Popper, es este sentido más general de “método” el que está en juego (Gower, 1997; Losee, 2004; Laudan, 2010).

La ciencia contemporánea es bastante más diversa y compleja de lo que lo fue en la época de Bacon, Galileo o Newton. Muchas disciplinas científicas actuales ni siquiera existían entonces. Dada esa diversidad, hoy tiene pleno sentido preguntarse si realmente cabe hablar de un método científico, en el sentido más general apuntado antes. En la filosofía de la ciencia de las últimas dos décadas se aprecia un interés creciente por el estudio de la ciencia en relación al contexto en el que surge y se elabora. Ello ha revitalizado la filosofía de la ciencia al promover notablemente el desarrollo de filosofías de la ciencia particulares (filosofía de la biología, filosofía de la economía, filosofía de la medicina,…), a costa, ciertamente, de un detrimento de la filosofía “general” de la ciencia. Esta orientación particularista parece alentar una respuesta negativa a la pregunta de si existe un método científico favoreciendo, tal vez, una suerte de pluralismo metodológico que sustituiría la expresión “método de la ciencia” por “métodos de las ciencias”. Otra alternativa más radical, defendida en los años setenta del pasado siglo por Paul Feyerabend, y que podríamos denominar “nihilismo metodológico”, defendería la inexistencia del método científico en cualquiera de sus acepciones. Su argumento es que la historia de la ciencia contiene demasiados ejemplos donde el quebrantamiento de las pretendidas reglas del método ha sido aceptado por la propia comunidad científica (Feyerabend, 1975).

A partir de estas consideraciones, ¿debería concluirse entonces que no existe algo así como un “método científico”? El auge reciente de las filosofías de la ciencia particulares refleja un cambio de enfoque, pero de ahí no se sigue sin más la inexistencia de un método científico. La cuestión es más bien si, dada la variabilidad existente en la ciencia, puede dotarse de un contenido no trivial a la expresión “método científico”. En cuanto al nihilismo metodológico, a pesar de unos cuantos ejemplos históricos aludidos por Feyerabend, parece injustificado concluir de ahí que en la ciencia “todo vale” desde una perspectiva metodológica. Además, la ciencia persigue objetivos como la eficacia predictiva, el conocimiento de la realidad en su dimensión interna, o la transformación efectiva del medio, y ha tenido un éxito razonable en su consecución. Este éxito es, en principio, el resultado de aplicar ciertas estrategias que se han ido afinando con el tiempo. Esas estrategias son las que constituyen el método científico, a fin de cuentas. El nihilismo metodológico debe aquí reconocer sus limitaciones, ya que se ve forzado a considerar, o bien que el éxito conseguido hasta ahora es resultado del azar, o bien que la ciencia ha sido una empresa fallida que realmente no ha tenido ningún éxito en la consecución de sus objetivos generales.

Dicho esto, nuestra posición aquí será, frente al pluralismo y al nihilismo metodológicos, que sí puede hablarse de principios comúnmente respetados y de estrategias generales en la investigación científica sobre las que se plantean variaciones contextuales en los distintos campos de la ciencia. El lector juzgara si tales principios son triviales, justamente por su generalidad, o si poseen suficiente contenido como para caracterizar el posicionamiento metodológico de la ciencia, en contraposición a otras alternativas planteadas a lo largo de la historia, mucho antes incluso que la ciencia, para conocer y/o transformar la realidad (filosofía, arte, religión, magia,….).

Antes de proseguir en esta línea, conviene mencionar una concepción del método científico muy influyente en su momento, aunque restrictiva en exceso. En los años treinta del pasado siglo Hans Reichenbach diferenció dos ámbitos de reflexión, el “contexto de descubrimiento” y el “contexto de justificación”. El primero refiere a cómo se generan, elaboran, articulan,…, las hipótesis/teorías; el segundo, alude a cómo comprobar si dichas hipótesis/teorías son correctas, o al menos, plausibles. Reichenbach entendía el método científico exclusivamente como un método de justificación. Visto así el método científico debe proporcionar reglas o estrategias para estimar el apoyo, sobre todo empírico, que las hipótesis poseen y, en consecuencia, validarlas o invalidarlas. Su objetivo no es, en absoluto, orientarnos para descubrir o generar dichas hipótesis, entre otras cosas porque, según pensaba Reichenbach, el descubrimiento científico responde a la inspiración y creatividad del individuo y no sigue pauta alguna.

A pesar de su amplio eco en gran parte del siglo XX, esta posición exige matizaciones importantes a día de hoy (Schickore y Steinle, 2006). Quienes han estudiado de cerca el papel del experimento en la ciencia insisten en que este, además de la función contrastadora que tradicionalmente se le ha atribuido, interviene también en el contexto de descubrimiento. La experimentación puramente exploratoria tiene su lugar en la práctica científica (Hacking, 1983). La investigación científica incluye el descubrimiento y elaboración de hipótesis e ideas nuevas, y esta ha sido considerada una fase fundamental en el razonamiento científico, tanto por figuras históricas importantes (Francis Bacon, Isaac Newton o William Whewell) como por muchos científicos actuales en activo. Por eso, identificar esta dimensión de la práctica científica con un momento de inspiración (el “momento eureka”) resulta demasiado pobre. En las últimas décadas ha crecido el interés por analizar los procesos de razonamiento involucrados en los descubrimientos científicos. El análisis de las estrategias cognitivas y los patrones heurísticos directamente aplicados por los científicos (el razonamiento analógico, por ejemplo), o el desarrollo de programas informáticos que generen algorítmicamente soluciones novedosas, son diferentes líneas de trabajo (Meheus y Nickles, 2010 ofrece una buena panorámica).

La reflexión sobre cómo la evidencia empírica incide en la justificación de las hipótesis sigue siendo un asunto importante para la filosofía de la ciencia actual (v. p. ej., Niiniluoto, 2007), pero los resultados mencionados en el párrafo anterior cuestionan que generación y justificación estén radicalmente separadas y permiten hablar de una justificación ligada a la generación de hipótesis. Así, los procedimientos y estrategias seguidos en la práctica a la hora de formular hipótesis comportan una selección de las posibles soluciones que merece la pena articular, esto es, de las que resultan inicialmente plausibles. Aunque esto conferiría una justificación prima facie, y no evitaría comprobaciones posteriores, la distinción entre descubrimiento y justificación se torna borrosa, impidiendo identificar sin más justificación con contrastación. Lo que se pretende, además de incorporar el descubrimiento como una fase más de la metodología científica, es comprender en detalle los procesos que acompañan a la innovación teórico-conceptual, y sugerir mejoras para aumentar la eficiencia de las estrategias aplicadas. Estas investigaciones iluminan una dimensión de la metodología científica arrinconada durante bastante tiempo. Desde luego, en la medida en que los procedimientos y patrones ligados al descubrimiento científico no sean específicos para campos de la ciencia particulares, se trata de elementos que pueden considerarse parte del “método de la ciencia” con pleno derecho.

Hechas estas aclaraciones sobre lo que cabría entender por “método científico”, en singular, a continuación se incluyen algunos de sus rasgos característicos:

  • Distinguir la obtención de información (registros observacionales, datos experimentales,…), de la realización de inferencias a partir de dicha información.
  • Recurrir, cuando sea factible, a la experimentación, esto es, a la generación de situaciones artificiales, con objeto de controlar al máximo los factores intervinientes en el proceso objeto de estudio.
  • Empleo de un lenguaje matematizado.
  • Conservadurismo epistemológico.

Con (1) no se pretende resucitar la dicotomía epistemológica observación/teoría. Tampoco discutiremos aquí la cuestión de si la obtención de información “observacional” implica algún tipo de inferencia, inconsciente tal vez. No obstante, en la práctica científica es importante diferenciar el nivel informacional del inferencial por dos razones al menos. Cada nivel, subdivisible a su vez en diversas fases, genera dinámicas bien distintas en la práctica científica. Por un lado, asegurar la variedad, calidad y fiabilidad en la información recabada, es diferente de extrapolar, explicar o teorizar a partir de ella. Pero además conviene recalcar que las discrepancias habituales, y las más enconadas, entre los científicos no son sobre los datos, registros observacionales, etc., sino sobre lo que se puede inferir a partir de ellos o sobre cómo explicarlos (Mayo, 1996; Bogen 2017).

Respecto a (2), es un elemento distintivo de la ciencia. La puesta a prueba de las teorías –técnicamente, la “contrastación de hipótesis teóricas– ha sido la función típica atribuida al experimento, aunque aparte de eso cumpla otros roles tradicionalmente menoscabados (Franklin, 1990). Ciertamente, hay campos de la ciencia donde realizar experimentos no es factible por razones diversas. No siempre se trata de limitaciones técnicas, como las que puede plantear la planetología, por ejemplo, o las ciencias sociales, interesadas en el estudio de colectivos humanos (Gerring y Christenson, 2017); también intervienen consideraciones morales en la experimentación con personas o animales. Esto no implica, sin embargo, que la teorización en estos campos prescinda de resultados experimentales, ya que a menudo se aprovechan los obtenidos en otros ámbitos científicos donde sí es posible la experimentación.

Desde luego, el impacto efectivo de la evidencia, sea positiva o negativa, sobre las hipótesis y teorías se entiende de muy diversas maneras. Algunos han pensado que es calculable algorítmicamente; piénsese en los bayesianos contemporáneos, por ejemplo (Howson y Urbach, 1993). Otros, en cambio, han apelado a la interpretación particular del científico como un factor crucial que no puede ser neutralizado de ningún modo (Kuhn, 1977). La idea de que los resultados experimentales positivos, en principio, cuentan a favor de la teoría, tampoco es aceptada unánimemente. Para algunos filósofos de la ciencia –Popper y sus seguidores– tales resultados no confieren mayor credibilidad o probabilidad a una hipótesis, y también hay quien ha sostenido que, a pesar de las apariencias, la evidencia no es lo que realmente condiciona las decisiones de la comunidad científica a la hora de aceptar o rechazar una teoría (Collins, 1985).

El recurso a un lenguaje matematizado también se da en diversas fases de la investigación. La conceptualización de las propiedades de los sistemas objeto de estudio, favoreciendo nociones cuantitativas frente a otras cualitativas, o la representación de los datos, mediante tablas, gráficas y funciones matemáticas, serían momentos clave en este sentido. De este modo se evitan sesgos subjetivos, al menos los que puede introducir un sujeto particular (la eliminación de los elementos subjetivos genéricos, esto es, los incorporados por el hecho de que el investigador sea humano, es otra cuestión), y se incorpora una potente herramienta inferencial (Bright Wilson, 1991; Pincock, 2012).

Por último, la compatibilidad con el cuerpo aceptado de conocimientos es, inicialmente, favorecida. Kuhn subrayó especialmente que esta era la tónica dominante en las ciencias maduras, lo que él llamaba periodos de “ciencia normal” (Kuhn, [1962] 1970). No obstante, no hace falta comprometerse con la concepción kuhniana de la ciencia, que sostiene una alternancia cíclica de paradigmas y revoluciones, para constatar que los recursos disponibles en la investigación científica (económicos, humanos, de tiempo,…) no son ilimitados. Centrarse en lo que no contraviene directamente los conocimientos aceptados evita la dispersión de recursos. A esta justificación puramente pragmática, cabe añadir una razón epistemológica: lo ya aceptado posee cierto apoyo evidencial al menos, y consiguientemente, cierta credibilidad, y eso excluye o penaliza, en principio, aquellas hipótesis o teorías que van en su contra. Naturalmente, el conservadurismo se relaja en ciertas condiciones: cuando la propuesta alternativa está basada en información contrastada, cuando la credibilidad de lo hasta ahora aceptado se resiente, bien como consecuencia de descubrimientos experimentales, o al detectar conflictos entre teorías pertenecientes a campos de la ciencia diferentes, etc.

Los cuatro elementos mencionados no pretenden definir el método científico. Más bien deben tomarse como rasgos diferenciales que caracterizan el proceder de la ciencia, y en este sentido son rasgos metodológicos en la acepción más general de esta expresión, frente a otras opciones que a lo largo de la historia han perseguido también el conocimiento y la transformación del mundo que nos rodea.

Recuérdese que al comienzo de esta entrada planteamos dos cuestiones básicas respecto al “método científico”. Supongamos, pues, que hemos resuelto la primera con una caracterización general y no trivial de lo que cabe entender por “método científico”. Contamos, entonces, con una descripción más o menos precisa de lo que es el “método científico”. Sin embargo, la discusión en torno al método de la ciencia involucra directamente una cuestión normativa. Si la ciencia, entendiendo por ello las leyes de la ciencia, o en términos más generales, la visión del mundo que nos da la ciencia, es un producto del método, este se convierte en criterio de demarcación, es decir, en un criterio para distinguir qué es científico y qué no lo es. Con otras palabras, la conformidad con los principios o normas que caracterizan el método sería una garantía de que no estamos ante un saber pseudocientífico, o sea, que no es ciencia, aunque aparente serlo.

Con independencia del interés teórico que suscite la cuestión de la demarcación, debe hacerse notar que aquí hay también un interés práctico, pues lo que sea o deje de ser la ciencia condiciona múltiples decisiones. Piénsese en el peritaje científico en contextos judiciales, o en las políticas científicas, educativas y sanitarias de los gobiernos (¿deben subvencionarse con fondos públicos terapias pseudocientíficas?). Dicho esto, la justificación de un criterio de demarcación, esto es, un criterio que permita distinguir lo que es científico de lo que no lo es, depende tanto de la especificidad metodológica de la ciencia, como del éxito conseguido siguiendo esas pautas o estrategias metodológicas específicas. De lo primero porque lo que queremos discernir es justamente lo que es científico y no otra cosa; de lo segundo, porque no nos basta solamente con distinguir; la distinción tiene implicaciones epistemológicas: la divisoria apunta a la efectividad conseguida hasta ahora, e indirectamente a la efectividad razonablemente esperable, en la consecución de ciertos objetivos. Con esto queda esbozada una estrategia para apuntalar el valor normativo de un criterio de demarcación, aunque conviene señalar sus limitaciones.

En primer lugar, podemos encontrar episodios en la ciencia donde se procede en contra de la metodología (piénsese en casos de prácticas fraudulentas o interesadas por parte de los científicos), y no por eso dejan de considerarse episodios científicos. Esto implica que el criterio de demarcación no puede agotarse exclusivamente en la variable metodológica; de ahí las recientes propuestas demarcacionistas multicriterio, que incorporan otros rasgos igualmente importantes (v. Hansson, 2013).

En segundo lugar, es desacertado hablar del método de la ciencia como un conjunto de principios fijado de un modo a priori, definitivos e irrevisables, porque no existe tal referente. La cuestión no es tanto que la pluralidad de las ciencias complique encontrar un conjunto básico de principios comunes, según dijimos antes, sino que la dinámica histórica de la ciencia permite hablar de descubrimientos metodológicos, igual que ha habido descubrimientos empíricos (restos fósiles, exoplanetas, priones,…) o teóricos (Teoría General de la Relatividad, Tectónica de placas,….). Entre los descubrimientos metodológicos habría que reseñar el uso de técnicas estadísticas a la hora de formular leyes probabilísticas e inferencias casuales a partir de los datos experimentales, por ejemplo. En relación al plano experimental hay otros ejemplos, como la inclusión de un grupo de control, además del grupo experimental, o los procedimientos dirigidos a asegurar la fiabilidad de los datos (técnicas doble-ciego, emparejamiento entre individuos del grupo de control y el experimental,…). Otra novedad metodológica destacable, cuyas implicaciones epistemológicas apenas se han comenzado a analizar, sería la simulación por ordenador (Winsberg, 2010). Nótese que estos elementos metodológicos han sido incorporados de modo rutinario en muchos campos de la ciencia hace solamente unas décadas, y que algunos son abiertamente incompatibles con una concepción determinista de la ciencia, o con el hipotético-deductivismo, ideas que en algún momento fueron consideradas entre los cánones del conocimiento científico.

A lo largo de varios siglos la ciencia, esforzadamente, ha incrementado nuestro conocimiento sobre el mundo que nos rodea; pero también ha aumentado nuestro conocimiento sobre cómo mejorar en ese intento. Admitir que hay descubrimientos metodológicos obliga a considerar el método de la ciencia como un repertorio de estrategias decantado con el tiempo, revisable y justificable en función de los resultados obtenidos, abierto, en fin, a cambios y refinamientos futuros. En consecuencia, un criterio de demarcación que apele al método de la ciencia será tan revisable al menos como lo sea este.

Así pues, aunque el método es un elemento distintivo de la ciencia, y constituye por ello un elemento importante del criterio de demarcación, el registro histórico de la propia ciencia debe hacernos ser cautos respecto al estatus de dicho criterio. Su validez es, en último término, contingente, ligada a los avatares de la propia empresa científica, aunque a efectos prácticos eso sea suficiente para justificar las decisiones concernientes a lo que es ciencia y lo que no lo es.

Por otro lado, nuestra tesis de que hay descubrimientos metodológicos implica reconocer que a lo largo de la historia de la ciencia se han cambiado unas prácticas metodológicas por otras, lo que suscita la pregunta de si tales cambios suponen un progreso o no. La noción de descubrimiento metodológico conduce, pues, a la de progreso metodológico. Ciertamente, la expresión “progreso científico” es ambigua, ya que admite acepciones bien distintas: progreso tecnológico, experimental, social,…. Tradicionalmente la discusión filosófica se ha centrado en dos cuestiones. Por un lado, en precisar en qué consiste el progreso teórico en la ciencia, si es que lo hay; por otro, en esclarecer la relación entre el progreso moral y las otras acepciones de progreso, lo que lleva al problema de la influencia de los valores no epistémicos en la ciencia (Machamer y Wolters, 2004; Douglas, 2009). Sin embargo, la noción de progreso metodológico plantea una problemática específica. Nótese, por ejemplo, que la alternativa más conocida para justificar el progreso teórico –el realismo científico en sus distintas variantes– no puede extrapolarse sin más al terreno metodológico. Se puede defender el realismo respecto a las teorías científicas, comprometiéndose con la existencia de entidades inobservables, o con nociones como verosimilitud, verdad aproximada,…; sin embargo, no tiene sentido plantear tales compromisos respecto al método científico. Por eso la justificación de que los cambios acontecidos en el plano metodológico son progresivos debe buscarse en relación a los fines de la empresa científica. Argumentar a favor del progreso metodológico consistiría en mostrar pormenorizadamente cómo los cambios e innovaciones metodológicas han favorecido la consecución de ciertos objetivos. En cualquier caso, las nociones de descubrimiento y progreso metodológicos quedan como una de las tareas pendientes para la filosofía general de la ciencia.

Valeriano Iranzo
(Universitat de València)

Referencias

  • Bogen, J. (2017): «Theory and Observation in Science», en The Stanford Encyclopedia of Philosophy, E.N. Zalta, ed., disponible en https://plato.stanford.edu/archives/sum2017/entries/science-theory-observation/ [summer 2017 edition].
  • Bright Wilson, E. (1991): An Introduction to Scientific Research. New York, Dover.
  • Collins, H. (1985): Changing Order: Replication and Induction in Scientific Practice, Chicago, University of Chicago Press.
  • Douglas, H. (2009): Science, Policy and the Value-Free Ideal, Pittsburgh, University of Pittsburgh Press.
  • Feyerabend, P. (1975): Contra el método. Esquema de una teoría anarquista del conocimiento, Barcelona, Tecnos.
  • Gower, B. (1997): Scientific Method: A Historical and Philosophical Introduction, London, Routledge.
  • Franklin, A. (1990): Experiment, Right or Wrong, Cambridge, Cambridge University Press.
  • Gerring, J. y D. Christenson (2017): Applied Social Science Methodology: An Introductory Guide, Cambridge, Cambridge University Press.
  • Hacking, I. (1983): Representing and Intervening, Cambridge, Cambridge University Press.
  • Howson, C. y P. Urbach (1993): Scientific Reasoning. The Bayesian Approach, 2ª ed., La Salle, Illinois, Open Court.
  • Kuhn, Th. ([1962] 1970 ): The Structure of Scientific Revolutions, 2ª ed. Chicago, University of Chicago Press.
  • Kuhn, Th. (1977): ‘Objectivity, Value Judgment, and Theory Choice’, en The Essential Tension, Chicago, University of Chicago Press, pp. 320-39.
  • Laudan, L. ([1981] 2010): Science and Hypothesis. Dordrecht, Springer.
  • Losee, J. (2001): An Historical Introduction to the Philosophy of Science, Oxford, Oxford University Press.
  • Machamer, P. y G. Wolters eds. (2004): Science, Values and Objectivity, Pittsburgh, Pittsburgh University Press.
  • Mayo, D. (1996): Error and the Growth of Knowledge. Chicago, The University of Chicago Press.
  • Meheus, J. y Th. Nickles eds., (2010): Models of Discovery and Creativity, Dordrecht, Springer.
  • Niiniluoto, I. (2007): Evaluation of Theories’, en Th. Kuipers, ed., General Philosophy of Science, Amsterdam, Elsevier, pp. 175-217.
  • Hansson, S. O. (2013): «Defining Pseudo-science and Science», en Pigliucci M. y M. Boudry eds., Philosophy of Pseudoscience: Reconsidering the Demarcation Problem, Chicago, University of Chicago Press, pp. 61-77.
  • Pincock, Ch. (2012): Mathematics and Scientific Representation, New York, Oxford University Press.
  • Schickore, J. y F. Steinle eds., (2006): Revisiting Discovery and Justification. Historical and philosophical perspectives on the context distinction, Dordrecht, Springer.
  • Winsberg, E. (2010): Science in the Age of Computer Simulation, Chicago, University of Chicago Press.

Lecturas recomendadas en castellano

  • Chalmers, A. (2000;  ampliada): ¿Qué es esa cosa llamada ciencia?, 3ª rev. edn.,  Madrid, Siglo XXI.
  • Franklin, A. (2002): ‘Física y experimentación’, Theoria, 17(2), pp.  221-242.
  • Hacking, I. (1996): Representar e intervenir, Buenos Aires, Paidós.
  • Losee, J. (2004): Introducción histórica a la Filosofía de la Ciencia, Madrid, Alianza.
  • Kuhn, Th. (1982): «Objetividad, juicios de valor y elección de teoría», en La tensión esencial, México, Fondo de Cultura Económica, pp. 344-364.
  • Popper, K. (1983): «La ciencia: conjeturas y refutaciones», en Conjeturas y refutaciones. El desarrollo del conocimiento científico, Buenos Aires, Paidós, pp. 57-87.
  • Sober, E. (2015): «Es el método científico un mito?», Mètode (84), pp. 51-55.
  • Sus, A. (2016): «Los límites del método científico», Investigación y Ciencia, 475, disponible en web:  https://www.investigacionyciencia.es/revistas/investigacion-y-ciencia/en-busca-del-planeta-x-669/los-lmites-del-mtodo-cientfico-14078.
Cómo citar esta entrada

Valeriano Iranzo (2018). “Método científico”,  Enciclopedia de la Sociedad Española de Filosofía Analítica (URL: http://www.sefaweb.es/metodo-científico)