1. Teorías de la causalidad
Existe una gran diversidad de teorías de la causalidad. En su primera acepción, todas estas teorías proponen definiciones explícitas de la relación causal, en términos de condiciones necesarias y / o suficientes para la aplicabilidad del término. Pero los análisis de cada una de estas teorías no pueden ser más diferentes y contradictorios entre sí. En esta sección presentamos las cuatro teorías históricamente más influyentes.
1.1. La teoría regularista
David Hume (1748) inaugura la discusión empirista moderna acerca de la causalidad. Asegura que los conceptos generalmente asociados a ésta, como “potencia” y “conexión necesaria”, no tienen fundamento al no ser perceptibles por los sentidos. Debido a que sólo las sucesiones de eventos son percibidas, hablamos de causa y efecto cuando encontramos la conjunción constante de dos eventos del mismo tipo. La conexión necesaria entre éstos y la idea de potencia serían fruto de una mera conjetura de la mente derivada de la idea de volición, la cual no es menos problemática, pues descansa sobre el “misterio de la conexión entre alma y cuerpo” (p. 66). Tras Hume, los análisis de la causalidad en términos de patrones invariantes de sucesiones han convenido en llamarse teorías de la regularidad causal. Dos autores influyentes que han desarrollado esta idea son John Stuart Mill y John L. Mackie.
Mill (1843) señala la existencia de una “pluralidad de causas” para un evento determinado, especificando así que las regularidades no suelen darse tanto entre eventos aislados como entre conjuntos de ellos. Identifica la causa con “la suma total de condiciones positivas y negativas” que anteceden a un evento con regularidad, las cuales se identificarían gracias a su “método de la diferencia”, en el que se alude a las diferencias existentes entre las condiciones en el evento que ocurre y aquellas en que no lo hace. Por su parte, en (1974), Mackie analiza los problemas de la teoría regularista en Hume y Mill, y ofrece su propia caracterización de la causalidad como regularidad en los objetos. Señala que la “causa total” de un efecto ha de entenderse como una disyunción de conjunciones, cada una de ellas suficiente pero no necesaria, compuestas de factores insuficientes pero necesarios (INUS por sus siglas en inglés). Por ejemplo, un cortocircuito eléctrico es una condición INUS de un incendio determinado en una casa. Se trata de un factor necesario pero no suficiente de un conjunto de condiciones (entre los que estará la presencia de oxígeno, de materiales no ignífugos, etc.) suficiente para que el incendio tenga lugar, aunque no necesario (pues éste podría deberse a otro conjunto de factores que incluyesen, por ejemplo, una vela mal apagada).
1.2. La teoría probabilística
La otra aproximación empirista más importante es históricamente más reciente, y deriva de las discusiones en el seno del círculo de Viena sobre la naturaleza de los llamados términos teóricos de la ciencia, en oposición a los empíricos. La cuestión clave desde esta perspectiva consiste en averiguar si algún análisis del concepto de causalidad permite reducirlo a algún conjunto complejo de nociones bien definidas con anterioridad, ya sean de tipo formal, empírico, o una combinación lógica de ambos tipos. De lo contrario, la noción de causalidad devendría vacua, resultando eliminable. Este eliminativismo fue defendido por algún predecesor del círculo de Viena, como Bertrand Russell (1912] 1913), pero rechazado por la mayor parte de los neopositivistas, que consideraron la causalidad como el concepto científico por antonomasia. El mayor defensor de esta reducción es Hans Reichenbach, quien en (1956), propone la que quizás sea la primera teoría comprehensiva probabilística de la causalidad, siendo todas las ulteriores versiones de ésta.
La idea fundamental de cualquier teoría probabilística de la causalidad es que una causa eleva la probabilidad de sus efectos (Hitchcock, 2016). La introducción de la probabilidad requiere, desde un punto de vista formal, entender los “relata” de la relación causal no como eventos si no más propiamente como variables aleatorias. Decimos entonces, de manera genérica, que, según la teoría probabilística, la variable c es la causa de la variable e si y sólo si incrementa su probabilidad [incprob]: Prob (e / c) > Prob (e / ¬ c). Sin embargo, esta condición [incprob], en apariencia tan sencilla, tiene sus dificultades. En primer lugar, cualquier correlación entre dos variables c y e, como la expresada en [incprob], puede ser espuria, en el sentido de que responde a causas subyacentes de ambas variables (es decir: tanto e como c pueden ser efectos de una causa ulterior d que eleva la probabilidad de ambas y explica su correlación). El famoso slogan “correlación no es causación” demuestra que [incprob] es, como mucho, una condición necesaria, pero nunca suficiente para la causalidad, y por lo tanto no puede servir para reducir la relación causal a mera probabilidad. Esto aboca a Reichenbach a enunciar un principio de inferencia causal más elaborado, que se conoce como el “principio de la causa común” [pcc].
Este principio se puede expresar formalmente de la siguiente manera [pcc]: “Si c y e son dos variables correlacionadas (p.e. por cumplir la condición [incprob]), entonces: o bien c causa e, o viceversa, o ambas son efectos de alguna causa común d tal que: Prob (e / c & d) = Prob (e / d)”. La definición ya indica que si d es la causa común de e y c, entonces su presencia debe anular o suprimir la correlación entre e y c, en cuyo caso decimos que la correlación entre e y c es espuria. Aunque este principio parece, en primera instancia, superar las dificultades de la teoría regularista, su validez, incluso como mera condición necesaria pero no suficiente sobre las causas comunes, continúa siendo objeto de un importante debate (Williamson, 2017). En cualquier caso, el [pcc] es, como mucho, una condición necesaria de la causalidad, y no puede utilizarse para reducir analíticamente la relación causal.
1.3. La teoría contrafáctica
En un pasaje de (1748), David Hume identifica su teoría regularista de la causalidad con una definición en términos de dependencia contrafáctica: «podemos definir una causa como un objeto seguido de otro, donde todos los objetos similares al primero son seguidos de objetos similares al segundo. O, en otras palabra, si el primer objeto no se hubiera dado, el segundo nunca habría existido». Esta idea queda inexplorada por los regularistas, y es el filósofo norteamericano David Lewis quien la recoge y desarrolla en 1974, afirmando tomar esta segunda definición de Hume como su definición «no de la causalidad misma, sino de dependencia causal entre eventos». Define ésta en términos de dependencia contrafáctica entre las proposiciones que los describen, mediante el uso de condicionales contrafácticos (del tipo “si A no se hubiera dado, B no habría ocurrido”) y de la semántica de los mundos posibles.
Un mundo posible es un conjunto de eventos (o de proposiciones verdaderas que los describen) que difiere en algún aspecto del mundo real. Los mundos posibles se ordenan según su cercanía al mundo real tomando la cantidad de eventos o proposiciones compartidos con éste como criterio, permitiendo establecer los valores de verdad de los condicionales contrafácticos (es decir, condicionales cuyos antecedentes resultan falsos en el mundo real) de la siguiente forma: un contrafáctico es verdadero si y sólo si en los mundo más cercanos al mundo real en los que el antecedente es verdadero (es decir, aquellos mundo que difieren del mundo real solamente en el valor de verdad del antecedente), es también verdadero el consecuente.
En el caso de las relaciones causales, esto significa que, para dos eventos c y e en el mundo real, podemos decir que e depende causalmente de c, si y sólo si: ocurre que c; ocurre más tarde que e; y además es verdadero, en el sentido establecido anteriormente, el condicional contrafáctico “si no hubiese ocurrido c no habría ocurrido e”. Para superar algunas de las dificultades del análisis regularista, Lewis matiza que, si bien la causalidad es una relación transitiva, la dependencia causal no lo es. Esto es debido a que la causalidad entre dos eventos puede ser mediada por distintos estadios de los que, por separado, el efecto no depende causalmente. Por ello, e puede depender causalmente de c, y, a su vez, c puede depender causalmente de d, sin por ello e depender causalmente de d. El incendio en una casa depende causalmente del cortocircuito, del que también depende causalmente el desplome de potencia en el vecindario; sin embargo el incendio no depende causalmente del desplome de potencia.
Para superar la ambigüedad de la noción de similaridad manejada, Lewis propone que los mundos más similares al real son aquellos que son idénticos en su historia, pero difieren en aspectos inmediatamente anteriores a la ocurrencia del efecto a considerar. Además, Lewis reformula su teoría en (2000), introduciendo la noción de influencia y añadiendo que el condicional contrafáctico no sólo ha de reflejar dependencias basadas en la ocurrencia o no de un evento; sino también en cuándo y cómo ocurre.
1.4. La teoría de procesos
Una cuarta familia de teorías sobre la causalidad tiene su origen en la obra de Wesley C. Salmon, quien propuso tomar los procesos, en oposición a los eventos, como base ontológica del análisis causal. Mientras que los eventos se consideran espaciotemporalmente localizados, los procesos son entidades espacial y temporalmente dilatadas que presentan algún tipo de persistencia estructural. Salmon (1984) distingue los procesos propiamente causales, que transmiten su propia estructura, de aquellos que no lo serían (los pseudo-procesos) mediante un criterio contrafáctico de “transmisión de marca”. Éste consistiría en la capacidad de transmitir de un punto a otro del proceso un cambio inducido por una hipotética intervención en éste. Un ejemplo de pseudo-proceso es el de la proyección de una sombra en movimiento. Una intervención en el movimiento de la sombra – por ejemplo mediante la colocación de un obstáculo en la superficie en que se proyecta – puede modificar su trayectoria puntualmente, pero la modificación no será transmitida por el movimiento, incumpliéndose el criterio de transmisión de marca.
Phil Dowe tomó la teoría de Salmon como punto de partida para elaborar su propia teoría de procesos: la teoría de la “cantidad conservada”. Apoyándose en las ciencias físicas, Dowe propone entender los procesos causales como aquellos en los que una entidad posee una cantidad gobernada por una ley de conservación (por ejemplo la masa-energía, el momento lineal o la carga). Salmon adopta en gran parte la aproximación de Dowe, y desarrolla a partir de ella su nueva “teoría de la cantidad invariante”. En ella, señala que el requisito más relevante para la causalidad no es la conservación de un valor en el tiempo, sino su constancia con respecto a cambios de marco de referencia espaciotemporal.
Existe un número creciente de posturas sobre la causalidad enmarcadas también dentro de una ontología de procesos, pero que difieren de las teorías de Salmon y Dowe, como pueden ser las teorías de transmisión de propiedades o las de mecanismos.
2. Metodología de la Inferencia Causal
En la primera sección apuntamos razones para una concepción deflacionista de la causalidad. En esta segunda sección indicamos cómo el intervencionismo causal de Woodward (2003) se puede utilizar para dar cuenta de la metodología de inferencia causal en cualquier dominio, independientemente de la teoría sobre la causalidad aplicable a tal dominio.
2.1. Concepción deflacionaria de la causalidad
Ninguna de las cuatro teorías que hemos estudiado en la sección anterior tiene éxito como análisis reduccionista de la causalidad. Lo que se presentan como condiciones necesarias y suficientes para un análisis de la causalidad resultan ser condiciones típicas en distintos casos de causalidad efectiva, o para diversas variedades de relaciones causales existentes. Así, la teoría regularista no puede dar cuenta adecuadamente de correlaciones no causales, ni de relaciones causales indeterministas. Por su parte, la teoría probabilística no puede dar cuenta de eventos o variables que aún estando causalmente relacionados con otros eventos, no son capaces de aumentar su probabilidad. Como en los célebres ejemplos de Salmon (1984) y Suppes (1970), en los que p.e. el golpeo de una bola de golf en la dirección opuesta al hoyo reduce la probabilidad de que entre en ese hoyo; sin embargo, la bola accidentalmente golpea en un árbol y, de rebote, entra, sin duda en parte causado por el golpeo inicial. O en los ya más serios ejemplos de Hesslow, y otros casos de paradoja de Simpson. Tampoco puede dar cuenta adecuadamente de la diferencia entre causas comunes y efectos comunes, si no es presuponiendo una flecha temporal de la causalidad.
Por otro lado, la teoría contrafáctica sufre de contraejemplos relativos a casos de sobredeterminación causal (pre-emption). Por ejemplo, supongamos que un incendio es causado parcialmente por un cortocircuito; pero que al mismo tiempo un pirómano acababa de rociarlo con gasolina y estaba a punto de prenderle fuego. El análisis contrafáctico nos dice que el incendio ya no depende causalmente del cortocircuito, puesto que ya no es cierto que de no haberse producido tal cortocircuito, no habría habido incendio. Aunque algunos autores aceptan que las relaciones causales implican contrafácticos, muy pocos hoy en día piensan que los últimos permitan analizar las primeras. El hecho de que el cortocircuito sea la causa (y no haya ninguna otra causa preventiva o sobredeterminada) es lo que hace que el contrafáctico sea verdadero, y no viceversa.
Por último, la teoría de procesos, al requerir una formulación de las relaciones causales como procesos espaciotemporales que preservan ciertas cantidades físicas, no da cuenta de la causalidad en ciencias especiales (naturales emergentes, como la biología o la química, y en ciencias sociales como la psicología, o la economía), que en principio no tiene por qué ser reducida a la causalidad de la física. Además, presenta dificultades para analizar casos de “desconexión”, como la causación por ausencia (p.e. la planta murió porque nadie la regó) o la prevención.
La respuesta que proponemos es deflacionaria. Consiste en abandonar el intento de definir la causalidad y, en su lugar, pasar a concebir cada una de estas teorías de la causalidad como una aproximación metodológica a la inferencia causal en un campo concreto. Sin embargo, en cada campo las condiciones de contorno o contextuales son esenciales para que la inferencia tenga éxito. Cada una de las aproximaciones metodológicas necesitarán de condiciones muy diversas para la validez de sus inferencias causales. En la próxima sección abordamos una posible unificación de estas metodologías.
2.2. Manipulabilidad e Intervención Causal
La cuestión más relevante entonces deviene la siguiente: ¿es posible establecer algún vínculo en común entre todas estas metodologías de inferencia causal tan diversas, en contextos tan distintos, y dotadas de presupuestos metafísicos u ontológicos tan diferentes? En esta sección, presentamos la metodología manipulabilista defendida por Woodward (2003) como un candidato.
Según esta metodología, compatible con las diversas teorías metafísicas descritas en la primera parte, el tipo de evidencia que puede resultar apropiada para cualquier enunciado causal es contextual – tanto en relación con factores subjetivos como objetivos (Suárez, 2014). La idea central del manipulabilismo es que una variable c es una causa de otra variable e si (pero no sólo si) es posible intervenir en c, variando su valor dentro de un cierto rango, y observar el cambio correspondiente en el valor de e, de acuerdo con alguna generalización robusta o invariante que conecte los valores de c y e, donde la relación es “invariante” si y sólo si no depende de la intervención o de los valores de {c,e} dentro de un cierto rango. En otras palabras, c es la causa de e si es cierto que una intervención que altera c genera, de acuerdo con alguna generalización o ley, una alteración de e.
En la concepción de Woodward, una intervención sobre la causa putativa c con respecto a su efecto e es una variable I que actúa directamente sobre c, alterando su valor, y que cumple las siguientes condiciones:
- I es una causa directa de c.
- I y c no comparten ninguna causa común.
- I no causa e por ningún camino indirecto, que no pase por c.
- I y e no están estadísticamente correlacionados.
La formulación en términos de condiciones suficientes, pero no necesarias, permite utilizar la metodología manipulabilista como un test de la existencia de una relación causal entre c y e sin, por ello, definir la relación causal misma. Su aplicación a los casos que hemos estudiado requiere conceptualizar causas y efectos como variable multivariadas (con el caso bivariado como caso límite). Esto resulta automático en el caso de la teoría probabilista, y requiere modificaciones mínimas para los casos de las teorías regularista, contrafáctica y de procesos. La metodología manipulabilista, por tanto, es en principio capaz de descubrir relaciones causales mediante la aplicación de la invariancia de la relación causa-efecto bajo intervenciones, independientemente de la teoría que se utilice para definir el concepto de causa.
Esta metodología ha sido criticada desde algunas ramas de las ciencias, por la dificultad de su aplicación en sistemas complejos. Como apuntaremos en la sección 3.2, algunos autores defienden que esta aplicación ha de venir acompañada de la identificación de mecanismos subyacentes (Russo y Williamson, 2007).
3. Aplicaciones a las Ciencias Físicas y Biológicas
Existen numerosas aplicaciones de estas ideas en las diversas ciencias. En esta sección, por cuestión de espacio, nos ceñimos sólo a aquellas que atañen a dos ciencias naturales, la física y la biología. El lector interesado puede encontrar buenas discusiones de la aplicación de ideas similares en la serie de volúmenes y números especiales que se han ido editando en torno a la serie de congresos anuales “Causality in the Sciences”, como son Illari, Russo and Williamson (2011), Russo and Williamson (2007).
3.1. Causalidad en ciencias físicas
Dentro de la física clásica o newtoniana, es longeva la tesis según la cual el concepto dinámico principal, el concepto de fuerza (que viene definido por la famosa segunda ley de Newton como , como una magnitud vectorial proporcional a la masa y la aceleración de cualquier cuerpo), tiene una naturaleza causal. Esto se expresa a menudo en conjunción con la primera ley de Newton que enuncia la inercia de cualquier cuerpo no sometido a fuerza alguna. Así, una fuerza es siempre la causa del movimiento no inercial de cualquier cuerpo y, aunque la existencia de fuerzas newtonianas ha sido objeto de debate, su naturaleza causal no ha sido puesta en duda (Wilson, 2007).
Dentro de los marcos conceptuales dominantes en la física de los s. XX y XXI, la mecánica cuántica y física relativista, el status de la causalidad sí ha sido a menudo cuestionado. En física relativista, por ejemplo, se ha cuestionado a menudo que pueda darse causalidad entre un evento y cualquier otro evento fuera del cono de luz del primero. Se dice de tales eventos que están relacionados espacialmente (“spacelike related”) y el segundo principio de la relatividad (la constancia o invariancia de la velocidad de la luz en todo marco de referencia) se supone que impide su relación causal. Sin embargo, tal conclusión ha sido fuertemente criticada por diversos expertos en fundamentos filosóficos de la física (Maudlin, 1994). Éstos proponen diversas metodologías deflacionarias de la causalidad, incluyendo versiones de la metodología manipulabilista presentada en la sección anterior, que sí permiten establecer relaciones causales fuera del cono de luz.
En el contexto de la mecánica cuántica, el grado de escepticismo con respecto a la causalidad ha sido históricamente, si cabe, aún mayor. Uno de los principales arquitectos de la teoría cuántica en el espacio de Hilbert, el matemático John Von Neumann (1932) incluso se refirió al postulado del colapso dinámico de la función de onda como a-causalista. En la medida en que existen dos evoluciones dinámicas del estado cuántico, una es determinista (viene dada por la ecuación de Schrödinger), mientras que la otra es probabilística (y viene dada por las probabilidades de transición que determina la llamada regla de Born). Von Neumann, junto con muchos otros pensadores influidos por el contexto cultural de la república de Weimar (Foster, 1971), estableció que tal evolución probabilística no podía ser causal y configuraba una crisis profunda en el marco de la física clásica. Sin embargo, el desarrollo posterior de las teorías probabilísticas de la causalidad han puesto fin al debate, abriendo el espacio conceptual necesario para un tipo de causalidad probabilística (Reichenbach, 1954; Suppes, 1970). El debate continúa hoy en día al respecto de si los fenómenos cuánticos son o no describibles en términos causales, entendidos según la metodología manipulabilista, con una mayoría creciente de filósofos defendiendo la aplicación de tales conceptos tanto al proceso de medición cuántica, como a las correlaciones EPR (Suárez y San Pedro, 2011; Suárez, 2012).
3.2. Causalidad en las ciencias biológicas
La gran diversidad de los fenómenos biológicos dificulta el establecimiento de una metodología de inferencia causal única para todas las ramas de la biología. Aquí nos centraremos en la teoría de la evolución, considerada la gran unificadora de dichos fenómenos. El principio de selección natural establece que los individuos mejor adaptados a su medio tienen una mayor capacidad de sobrevivir y reproducirse, y por tanto tenderán a hacerlo con mayor frecuencia, transmitiendo así sus características a la población. Para que este principio no lleve a una explicación circular, es necesario diferenciar entre la capacidad de los individuos a sobrevivir y reproducirse (su aptitud) del resultado concreto derivado de su interacción con el entorno. Ahora bien, establecer relaciones causales que permitan distinguir la evolución por selección natural de cambios evolutivos debidos a otros factores (como la deriva genética) es virtualmente imposible dentro de un marco manipulabilista, debido a que los procesos evolutivos no son repetibles. Aun así, los principios de inferencia causal estadística son utilizados en los estudios poblacionales, como evidencia la discusión del principio de parsimonia dentro de la taxonomía evolutiva como un Principio de Causa Común (véase Sober, 1984).
Sin embargo, muchos autores defienden que, para dar cuenta de la complejidad de las relaciones causales en biología, ha de atenderse a la noción de mecanismo, derivada de las teorías causales de procesos. Ésta noción pretende capturar la idea de que los fenómenos biológicos son producidos por un conjunto de entidades y actividades que interaccionan de forma organizada y no reducible a sus componentes (Craver y Tabery, 2017). El llamado debate entre estatidisticalistas y causalistas ilustra la discusión sobre si los principios mecanístico-causales pueden aplicarse al proceso de evolución, o si por el contrario éste es sólo un agregado estadístico de procesos a nivel individual. Parte de este debate se centra en si es posible establecer una analogía entre los factores evolutivos y las fuerzas newtonianas (para un panorama de esta cuestión, véase Brandon, 2014).
La teoría evolutiva también juega un papel importante en el establecimiento de causas para la existencia de rasgos o procesos concretos en términos de su funcionalidad para un organismo. Las explicaciones evolutivas se centrarían en las llamadas “causas últimas” de un fenómeno; es decir, aquéllas que han posibilitado la aparición y retención de un rasgo dentro de una población en virtud de su conveniencia. En oposición a éstas, las llamadas “causas próximas” son aquéllas que producirían el fenómeno en cuestión a nivel individual, como pueden ser las implicadas en la ontogenia y los procesos metabólicos (sobre esta distinción, véase Mayr, 1961). La naturaleza repetible de estos procesos sí permitiría en principio aplicar los principios manipulabilistas al establecimiento de causas próximas.
Mauricio Suárez & Cristina Villegas,
(Universidad Complutense de Madrid)
Referencias
- Brandon, R. (2014): “Natural Selection”, en The Stanford Encyclopedia of Philosophy, E. N. Zalta, ed., disponible en https://plato.stanford.edu/archives/spr2014/entries/natural-selection/
- Craver, C. y J. Tabery (2017): “Mechanisms in Science”, en The Stanford Encyclopedia of Philosophy, E. N. Zalta, ed., disponible en https://plato.stanford.edu/archives/spr2017/entries/science-mechanisms/
- Dowe, P. (1995): “Causality and conserved quantities: A reply to Salmon”, Philosophy of Science, 62(2), pp. 321-333.
- Hitchcock, C. (2016): “Probabilistic Causation”, en The Stanford Encyclopedia of Philosophy, E. N. Zalta, ed., disponible enhttps://plato.stanford.edu/archives/win2016/entries/causation-probabilistic/
- Hume, D. (1748): Philosophical Essays Concerning Human Understanding, London, A. Millar.
- Illari, P. M., F. Russo y J. Williamson, eds., (2011): Causality in the Sciences, Oxford, Oxford University Press.
- Lewis, D. (1974): “Causation”, The Journal of Philosophy, 70(17), pp. 556-567.
- Lewis, D. (2000): “Causation as influence”, The Journal of Philosophy, 97(4), pp. 182-197.
- Mackie, J. L. (1974): The Cement of the Universe, London, Oxford University Press.
- Mayr, E. (1961): “Cause and effect in biology”, Science, 134(3489), pp. 1501-1506.
- Menzies, P. (2014): “Counterfactual Theories of Causation”, en The Stanford Encyclopedia of Philosophy, E. N. Zalta, ed., disponible enhttps://plato.stanford.edu/archives/spr2014/entries/causation-counterfactual/
- Mill, J.S. ([1843]1893): A system of Logic, Ratiocinative and Inductive, Nueva York, Harper & Brothers.
- Reichenbach, H. (1956): The Direction of Time, Berkeley, University of California Press.
- Russell, B. (1912): “On the notion of cause”, Proceedings Aristotelian Society, (13), pp. 1-26.
- Russo, F. y J. Williamson, eds., (2006): Causality and Probability in the Sciences, London, College Publications.
- Russo, F. y J. Williamson (2007): “Interpreting causality in the health sciences”, International studies in the philosophy of science, 21(2), pp.157-170.
- Salmon, W. (1984): Scientific Explanation and the Causal Structure of the World, Nueva York, Princeton University Press.
- Sober, E. (1984): Common Cause Explanation. Philosophy of Science, 51(2), pp. 212-241.
- Suárez, M. e I. San Pedro (2011): “Causal Markov, Robustness and the Quantum Correlations”, en M. Suárez ed., Probabilities, Causes and Propensities in Physics, Synthese Library, Dordrecht, Springer, pp. 173-196.
- Suárez, M. (2012): “Contextos de descubrimiento causal”, Revista de Filosofía, 37(1), pp. 27-36.
- Suppes, P. (1970): A Probabilistic Theory of Causality, Amsterdam, North Holland Publications.
- Williamson, J. (2009): “Probabilistic theories of causality” en Beebee H., C. Hitchcock y P. Menzies, eds., The Oxford handbook of causation, Oxford University Press, pp. 185-212.
- Wilson, J. (2007): “Netwonian forces”, British Journal for the Philosophy of Science, 58, pp. 173-205.
Cómo citar esta entrada
Mauricio Suárez y Cristina Villegas (2018). “Causalidad en la ciencia”, Enciclopedia de la Sociedad Española de Filosofía Analítica(URL: http://www.sefaweb.es/causalidad-en-la-ciencia/)