Archivo de la categoría: R

Representación pictórica

¿Qué es una imagen? ¿Y qué la explicación de una imagen? Es larga la historia de las teorías que intentan explicar el fenómeno de la representación pictórica; cada una de ellas propone un conjunto de condiciones necesarias que caracterizan su identidad. Podemos comenzar la presentación de estas teorías introduciendo una especie de “pliego de condiciones” que reúna las siete características propias de las imágenes y que cualquier teoría deberá incluir en su explicación. Las dos primeras se refieren a la propia naturaleza de la explicación, las tres siguientes lo hacen al modo en que experimentamos la representación pictórica (a su fenomenología), y las dos últimas tienen que ver con cuestiones normativas sobre la corrección de las imágenes y la competencia necesaria para reconocer objetos en ellas.

1) Diversidad: Las imágenes son extraordinariamente diversas. Una teoría de la representación visual deberá dar cuenta de toda esa diversidad.

2) Independencia: La representación pictórica es, ante todo, una representación y es su funcionamento como representación lo que las teorías pretenden explicar, ese es su explanandum. La condición que sustenta ese funcionamento constituye el explanans y deberá ser anterior e independiente de la representación. Nos damos cuenta al comprobar que, para la mayoría de las imágenes, no necesitamos saber qué representan para poder ver algo en ellas.

3) Determinación: Las imágenes están más determinadas que otras formas de representación . Cualquier imagen posee un contenido pictórico mínimo, es decir, atribuye propiedades al objeto que representa. Esto sucede también cuando la imagen representa figuras genéricas, como las figuras que representan al género masculino o al femenino en los aseos públicos.

4) Perspectiva: Ver es siempre ver desde un punto de vista y la imagen sitúa al espectador frente a su objeto, aunque lo pueda hacer en distintos grados. Hay imágenes que incluyen varios puntos de vista (como las naturalezas muertas de Cèzanne), imágenes indeterminadas en cuanto a su punto de vista (como en el caso de las figuras de palo) o que no especifican puntos de vista de forma independiente (como el cubo de Nacker).

5) Visibilidad: Las imágenes solo pueden representar lo que es visible por lo que todo lo que puede ser representado pictoricamente también puede ser visto . Esto no solo significa que una representación pictórica retrata las propiedades evidentes del objeto, sino también que cualquier propiedad que la pintura atribuya al objeto será una propiedad a la que el espectador llega por indicios visuales (como las arrugas en la cara revelan el estado de ánimo del modelo).

6) Los límites de una representación correcta: a pesar de ser posible representar de forma errónea un objeto, hay límites claros para la distorsión . Podemos representar un gato con los colores del arcoiris, pero no lo podemos representar como un perro.

7) Transferencia: Las imágenes están dotadas de generatividad propia, que se traduce en el fenómeno de la transferencia visual . Si una niña reconoce la fotografía de un gato y también sabe cómo es un perro en la vida real, será capaz de reconocer un perro en una fotografía. Al contrario que en la lengua: aunque una niña conozca la palabra inglesa “cat” y sepa cómo es un perro real, no será capaz de reconocer naturalmente qué quiere decir la palabra “dog” si no aprende el significado del término.

Provistos de este pliego de condiciones, veamos las ventajas explicativas de las teorías contemporáneas más relevantes de la representación pictórica, divididas en tres grupos. En el primer grupo incluiremos las teorías de la semejanza, en el segundo, las teorías de la experiencia y, en el tercero, las teorías convencionalistas.

1. Teorías de la semejanza

Desde el Crátilo de Platón, la semejanza ha sido una condición central y controvertida de la representación pictórica. Comprendemos las imágenes porque detectamos semejanzas en ella. Esa dimensión visual diferencia profundamente el acto de ver una imagen del de leer una palabra o interpretar un símbolo. Aunque filósofos como Nelson Goodman defendían que en el límite todo puede representar casi todo, parece más intuitivo considerar que las imágenes son, ante todo, fenómenos visuales. Cualquier teoría de la representación pictórica que ignore esta base visual corre el riesgo de estar comprometida desde el inicio. La propuesta más desarrollada en este campo es la de John Hyman, que rechaza la idea de que la semejanza sea una relación simple. En su lugar propone entenderla como una relación invariable entre líneas, formas y colores en la superficie de la imagen y su figura interna. La distinción entre “figura interna” (aquello que vemos cuando miramos la imagen) y “externa” de las imágenes (el objeto exterior al que nos remiten) se basa em la distinción fregeana de sentido y referencia: dos retratos del mismo modelo pueden tener la misma referencia, pero sentidos diferentes, de acuerdo a la figuración adoptada . Por tanto, la semejanza no explicaría la referencia de la imagen, sino su modo de presentación, su sentido.

Hyman identifica tres principios que definen la semejanza perceptiva . El primero es la forma de oclusión: el contorno visible del objeto tal como lo dibujaríamos en un vidrio transparente entre nosotros y la cosa representada. El segundo principio, el tamaño relativo de oclusión, esencial para entender las imágenes anamórficas, reconoce que el tamaño aparente depende de la distancia y del punto de vista. El tercer principio se refiere al color de apertura, un concepto de la psicología de la percepción que consiste en aislar porciones de color para hacer una comparación objetiva entre una imagen y el objeto, incluso bajo diferentes iluminaciones. Para Hyman, estos tres princípios serían suficientes para garantizar la objetividad de la semejanza y, con ella, la comprensión de las imágenes como fenómenos visuales fundados en propiedades constantes. No obstante, esa tentativa de eliminar la subjetividad acaba por revelar las limitaciones de la teoría.

Por ejemplo, al dejar de lado la psicología de la visión, Hyman ignora el papel activo del observador. Muchas imágenes manipulan deliberadamente los mecanismos visuales como los patrones de Akiyoshi Kitaokacreando ilusiones de movimento o profundidad. Tales efectos no son resultado de propiedades objetivas, sino de la forma en que el cerebro interpreta los estímulos visuales. Además, a lo largo de la historia del arte, encontramos sistemas pictóricos que desafían los principios de oclusión: por ejemplo, en la Antigua Grecia se representaban círculos sesgados mediante formas que no corresponden a las elipses prescritas por la perspectiva moderna. A pesar de lo cual los reconocemos como círculos. Esto sugiere que hay un límite condicionado culturalmente para lo que se considera semejante y que la objetividad no es absoluta.

El principio de color de abertura también presenta dificultades. Incluso en obras hiperrealistas es imposible replicar la iluminación de una escena real. Aún así, admiramos la “luz” de Monet o de Vermeer, incluso cuando los colores no coinciden con ninguna referencia objetiva. Lo cual indica que el reconocimiento de semejanza depende de relaciones cromáticas globales y no de la correspondencia exacta de colores aislados.

Finalmente la teoría de Hyman se enfrenta a una tensión entre dos requisitos fundamentales: independencia y diversidad. Una teoría objetivista debería permitir reconocer lo que está representado sin conocimiento previo. Sin embargo, en muchos casos, solo conseguimos identificar lo que representa una imagen porque ya sabemos qué buscar. Al mismo tiempo, imágenes extremadamente diferentes (realistas, caricaturescas, esquemáticas) pueden representar el mismo objeto. Esto desafía la idea de que hay un conjunto fijo de propiedades visuales invariantes capaces de sustentar la representación.

El viraje fregeano de Hyman al separar sentido y referencia es un avance importante, pero insuficiente, para resolver el dilema entre objetividad y diversidad. La teoría de la semejanza perceptiva sigue siendo una propuesta valiosa, especialmente por el intento de fundamentar la representación pictórica en criterios visuales rigurosos. Sin embargo, la experiencia estética y la historia del arte nos demuestran que cualquier teoría que se pretenda universal tendrá que integrar inevitablemente los factores psicológicos, culturales e históricos que moldean nuestra percepción de lo que es, o no es, semejante.

2. Teorías de la experiencia

a. Experiencia de semejanza

Las teorías de la semejanza experimentada defienden que la observación de un objeto puede ser reproducida por una experiencia causada por una configuración visual. Christopher Peacocke propone que la naturaleza visual de las imágenes transita de la interacción entre la forma ocupada por la imagen en el campo visual del observador y la forma que el objeto representado tendría en ese mismo campo visual si fuera directamente observado. Peacocke llama a esta interacción “relación-C” (C se refiere al campo visual del espectador).

La relación-C describe una analogía entre la experiencia visual proporcionada por la imagen y la experiencia de ver el propio objeto. Si una imagen ocupa una región de campo visual semejante a aquella que un objeto como una silla ocuparía, se dice que esa imagen está C-relacionada con el concepto “silla”. Tal como Hyman, Peacoke mobiliza la distinción fregeana entre sentido y referencia, traducida aquí en la oposición entre propiedades sensoriales (dependientes de la percepción visual) y propiedades representacionales (relativas al contenido físico de la forma).

Por ejemplo, al observar el tablero de una mesa blanca y rectangular, percibimos su forma física constante un rectángulo. Sin embargo, si la vemos de lado, su apariencia en el campo visual será trapezoidal y distorsionada. Esa discrepancia define la experiencia sensorial. La semejanza entre imagen y objeto, para Peacoke, reside en la analogía entre estas formas sensoriales y las físicas. Con todo, él reconoce que la correspondencia exacta entre ambas no es ni necesaria, ni suficiente. Un mapa de Italia, por ejemplo, no se experimenta siempre como una bota.

La teoría es intencionalista: una imagen solo es una representación si obedece a la intención de suscitar una relación-C. Mas el objetivo no es que una imagen se asemeje al objeto, sino que provoque una experiencia análoga a la de ver un objeto. En el caso de las caricaturas, como el célebre dibujo de Louis-Philippe como una pera, por Philippon, esa analogía se vuelve problemática. La imagen busca representar una distorsión del objeto, no el objeto en sí. ¿Cómo explicar la experiencia de semejanza, si la imagen no está C-relacionada con el rey real, sino con una deformación que no tenemos razones para reconocer directamente?

Este impasse revela un límite de la teoría: confiar solo en propiedades sensoriales no basta para garantizar la semejanza representacional. Si Peacoke considerase las propiedades representacionales, sería posible explicar cómo reconocemos al rey, incluso en una deformación, a través de nuestra experiencia previa de su aspecto.

Robert Hopkins ofrece una alternativa más robusta. Para él la representación pictórica es una experiencia de semejanza entre la forma de contorno exhibida en la superficie de la imagen y la del objeto representado. Esta forma de contorno es objetiva, definida geometricamente y no depende del campo visual subjetivo del espectador. La experiencia de “ver-en” se torna así en la experiencia de semejanza.

Hopkins consigue explicar por qué continuamos reconociendo el mismo objeto cuando la forma está distorsionada (como en las caricaturas o en los monigotes) atribuyendo esa deformación al estilo o la intención del autor. No obstante, también aquí permanece el problema del reconocimiento: para experimentar esa semejanza es ya necesario ver algo en la imagen lo que suscita dudas sobre la independencia de la representación en relación al conocimiento previo del espectador.

b. Experiencia de ilusión

Ernst Gombrich inauguró el tratamento contemporáneo de la representación pictórica con su teoría de la ilusión parcial, entendida como una experiencia de “ver-como”. Para Gombrich un cuadro funciona como un repositorio de pistas gráficas que inducen una experiencia perceptiva semejante a la de estar ante el objeto representado pero sin confundir al espectador. La ilusión no implica la garantía de estar delante del objeto real (como en el trompe l’oeil), sino tener una experiencia cuyo contenido es equivalente al contenido representacional del cuadro.

La ilusión no es, por tanto, una alucinación ni un error de juicio. Se trata de una experiencia perceptiva causada por un objeto representado de forma diferente de aquello que es. Un cuadro naturalista representa un cierto estado de cosas y el espectador participa de la representación como si lo experimentase directamente. Gombrich insiste en que esa experiencia no puede integrar simultáneamente la atención a las marcas en la superficie y la visión del objeto representado el foco debe estar en la construcción activa de la imagen por el observador.

La psicologia constructivista del New Look y la epistemología de Karl Popper sostienen este enfoque: la percepción no es pasiva, sino un processo activo de proyección de esquemas visuales sobre datos sensoriales incompletos. Un cuadro, incluso con una información visual limitada, invita al espectador a completar la imagen, muchas veces “viendo” lo que no está objetivamente presente.

Esa visión se aplica también a la actividad del artista. El arte tiene una historia porque los artistas ensayan y transmiten esquemas pictóricos que van siendo perfeccionados continuamente un processo de ensayo y error, de “hacer antes de corresponder” (“making before matching”). Gombrich desarrolla esta tesis en Arte e ilusión, defendiendo que toda representación pictórica es conceptual, que depende de convenciones históricas, y que la ilusión es construída culturalmente, no recibida de modo inocente.

Con todo, la teoría encara poderosas críticas. El concepto de “ilusión” es excesivamente amplio y se vuelve vago. Gombrich tiende a minusvalorar movimientos como el cubismo, viéndolos como un rechazo desesperado de la ilusión. Su concepción histórica del arte como un proceso acumulativo de pintura conceptual para crear ilusión es impugnada sobre todo frente al arte moderno y del siglo XX. La relación entre el estilo pictórico y la sustitución de un objeto también se revela inestable pues cualquier imagen puede, en ciertos contextos, convertirse en el sustituto de un objeto.

La crítica más sistemática procede de Richard Wollheim , que apunta a dos debilidades: la complejidad del modelo (ver-como exige dos tiempos de percepción) y la omisión del las intenciones del autor. Como alternativa, Wollheim   propone que la representación pictórica se comprenda a través de tres capacidades perceptivas: ver-en, percepción expresiva y deleite visual. Estas tres capacidades sustentan los tres poderes de la pintura: representar el mundo, expresar estados mentales y proporcionar placer visual  este último ligado a la muchas veces despreciada dimensión decorativa. De este modo, Wollheim transforma la crítica a la teoría de Gombrich en la base de una explicación más abarcante e integrada de la imagen pictórica.

c. Experiencia de ver-en

En la introducción de Arte e ilusión, Gombrich destaca la dificultad de identificar el momento en que dejamos de ver marcas en la superficie de una imagen para ver el objeto representado la “magia fugitiva de la transformación”. Richard Wollheim parte de esta observación para defender que la base de nuestra relación con todas las imágenes es precisamente esa experiencia doble: ver simultáneamente la superficie marcada y el objeto representado. Al contrario de Gombrich, que concibe esa alternancia como una oscilación entre dos experiencias distintas, Wollheim defiende que se trata de dos aspectos inseparables de la misma experiencia perceptiva, a la que denomina “ver-en”.

Ver una representación como representación exige esa atención doble: a la superficie y al objeto. Wollheim ofrece dos argumentos en favor de esa tesis. El primero, descriptivo, sostiene que la atención doble responde a la forma en que vemos las imágenes efectivamente. El segundo, normativo, defiende que esa es la forma en que debemos verlas, puesto que es así como operan historicamente en el campo del arte. Además, Wollheim distingue entre ver-en y ver-como: lo segundo se refiere a la percepción directa de algo como otra cosa (como ver una nube como un conejo), mientras que el primero se refiere a la percepción de algo ausente o inexistente en una superficie marcada.

Wollheim atribuye cuatro funciones centrales al ver-en. En primer lugar, proporciona un fundamento objetivo y no relativista a la representación pictórica. Segundo, permite incluir formas como la pintura abstracta en el campo de la representación, pues también exige esa capacidad perceptiva. Tercero, muestra como esa misma facultad puede sostener lecturas simbólicas complejas, a partir de información suficiente. Y, finalmente, reafirma la intuición de que la representación pictórica es, ante todo, un fenómeno perceptivo no cultural, imaginativo o conceptual.

Para distinguir el ver-en pictórico de otras formas de ver-en (como ver objetos en las manchas de humedad o las nubes), Wollheim introduce un estándar de corrección, basado en la intención del autor. Ver correctamente una imagen requiere reconocer lo que el autor quiso representar. Eso permite distinguir la representación pictórica de otras imágenes: algunas sin estándar de corrección (como los tests de Rorschach) y otras con estándar de corrección, pero no intencional (como las fotografías).

Una consecuencia importante de este enfoque es el rechazo a considerar representaciones ciertas imágenes que suprimen un polo de la experiencia. En el trompe l’oeil, el espectador olvida la superficie marcada, engañado por la verosimilitud. En pinturas abstractas como Vir Heroicus Sublimis, de Barnett Newman, la superficie rechaza cualquier profundidad. Wollheim considera que en ambos casos hay un desequilíbrio que compromete la representación pictórica como tal.

Ahora bien, esta postura genera controversia, sobre todo por su rigidez clasificatoria, que excluye del dominio de la representación muchas formas de arte contemporáneo. Aún así, la teoría de Wollheim continúa ofreciendo uno de los modelos más influyentes y coherentes sobre cómo experimentamos las imágenes pictóricas.

d. Experiencia imaginada

¿Y si la experiencia visual proporcionada por las imágenes fuera simplemente imaginada? Esta es la propuesta de Kendall Walton que recupera y amplía la noción de ilusión de Gombrich, integrando las ideas de Ryle sobre imaginación y hacer como-si, al tiempo que se considera continuador de la noción de ver-en de Wollheim.

Sin embargo, mientras el dualismo de Wolheim implica ver las marcas en una superficie X y, simultáneamente, visualizar un objeto Y, Walton propone una distinción más nítida: vemos X e imaginamos Y.

Para Walton, visualizar Y al ver X sería introducir otra experiencia, violando la integridad de la experiencia unitaria de ver-en. La solución es distinguir entre dos dimensiones no rivales: percepción (X) e imaginación (Y). Así, la experiencia de ver una imagen es un juego de hacer-como-si (make-believe) perceptivo, en el cual el observador se mantiene consciente de las marcas en la superficie y, a la vez, imagina que ve el objeto representado.

Según Walton, ver el objeto Y en la superficie X es imaginar que la experiencia de Y es la experiencia de X. O sea, no basta imaginar que el objeto visto es otro; es preciso imaginar que ver X es como ver Y. La imagen funciona como un utensilio que dispara este juego imaginativo —análogo al modo en que un niño usa una escoba para fingir que es un caballo. Mas, al contrario de la literatura, donde imaginamos contenidos sin una base visual, la imagen implica imaginación dirigida por la percepción: imaginamos a Isabel de Portugal según vemos el cuadro de Tiziano.

A pesar del intento de Walton de integrar su propuesta con la de Wollheim, este rechaza la asociación. Para Wollheim, ver-en es percepción, no imaginación, y enfatiza esa distinción por varias razones:

  1.  La imaginación es voluntaria; ver-en es involuntario muchas veces.
  2. La imaginación prescinde de pormenores visuales, mientras que ver-en
    depende de ellos.
  3. La imaginación no requiere atención continua a la superficie; ver-en la
    exige.
  4. Podemos imaginar sobre lo que vemos, pero eso es diferente de imaginar
    sobre algo ya imaginado.

Un ejemplo ilustra bien esta crítica: al ver el retrato de Isabel de Portugal vemos que sostiene un libro. Podemos imaginar que es la Biblia. Pero distinguimos claramente lo que vemos (el libro) de lo que imaginamos (que es una Biblia). Para Wollheim esta distinción es fundamental, mientras para Walton ambos estados serían imaginativos, que conduce a una fusión indeseada entre ver e imaginar. Así pues, una teoría coherente de la representación pictórica debe permitir distinguir lo que es visto de lo que solo es imaginado. En caso contrario, como argumenta Wilson , se pierde la claridad entre experiencia perceptiva e inferencia imaginativa —una frontera esencial para comprender cómo vemos (o no) en las imágenes realmente lo que representan.

3. Convención

Wollheim no conseguía concebir una teoría de la representación pictórica no basada en la experiencia visual. Al contrario, Nelson Goodman propone exactamente eso: una teoría semiótica que rechaza los fundamentos perceptivos y trata las imágenes como constructos simbólicos. Aunque parece contrariar nuestras intuiciones sobre la relación entre imágenes y objetos representados, Goodman desmonta convincentemente las teorías que basan la representación en la semejanza visual, argumentando que tal semejanza es circular —solo reconocemos la semejanza cuando ya sabemos lo que está representado.

El modelo de Goodman se estrutura en dos momentos: demostrar que las imágenes funcionan como sistemas simbólicos para después identificar lo que las distingue de los otros sistemas, como los lingüísticos o los notacionales. Según él, las representaciones pictóricas forman parte de los sistemas representacionales, que se distinguen de los lingüísticos y notacionales porque no exigen discrección sintáctica ni articulación.

Las imágenes comparten con los sistemas simbólicos cuatro características centrales:

  • Denotación: la  imagen se refiere a un objeto existente, siempre que haya identidad entre la referencia y lo que es retratado.
  • Predicación: una imagen atribuye propiedades a su referente, como el retrato de Isabel de Portugal sugiere predicados como “mujer pálida” o “noble”.
  • Independencia entre la denotación y la predicación: es posible predicar sin denotar, como sucede en las imágenes de los personajes ficcionales.
  • Predicación sin referencia: una imagen de un unicornio, por ejemplo, es una
    predicación visual, sin que haya referencia real.

Al contrario que los sistemas lingüísticos, las imágenes no se basan en reglas codificadas, sino en prácticas culturales inculcadas. La inculcación sustituye al concepto de convención, funcionando a través del hábito, no de una regla explícita. La idea de “realismo”, por ejemplo, no traduce la adecuación objetiva entre imagen y mundo, sino la proximidad entre el sistema pictórico de la imagen y el sistema estándar vigente en una cultura. Así, Goodman proporciona la mejor explicación posible para el requisito explicativo de la diversidad de las imágenes.

Las imágenes se distinguen además por ser analógicas y por su saturación relativa. Son sintáctica y semánticamente densas, es decir, pequeñas diferencias en las marcas gráficas implican diferencias de significado, y hay un número potencialmente infinito de significados atribuibles a una sola imagen. Esto contrasta con los sistemas notacionales, que son discretos y articulados. Por ejemplo, una pequeña alteración en la línea de un dibujo puede implicar un carácter (símbolo) completamente distinto, lo que no sucede con la letra en una palabra.

Estas características vuelven más ambiguas las imágenes (una imagen puede representar varias entidades), redundantes (varios caracteres pueden representar el mismo objeto) y no diferenciadas (siempre se pueden crear nuevos caracteres para nuevos objetos). Goodman afirma que esas propiedades explican por qué las imágenes funcionan como símbolos con reglas propias, sin depender de la percepción visual.

Este modelo ofrece dos ventajas: propone una teoría unificada de los sistemas de símbolos (del lenguaje verbal a los diagramas) y acomoda bien la diversidad de los sistemas pictóricos. No obstante, también encara problemas centrales. Primero, lo que define la naturaleza simbólica de la imagen (la analogía y la saturación) no explica la fenomenología de la experiencia visual (en realidad, Goodman no concede ninguna importancia a las características fenomenológicas de nuestro “pliego de condiciones”). Por otro lado, aquello que intenta explicar esa experiencia —la familiaridad— tampoco aclara lo que convierte una imagen en un símbolo. La teoría oscila entre una explicación del funcionamento simbólico y una descripción de lo que significa ver algo representado en una imagen.

Además, Goodman no proporciona ejemplos empíricos fuertes que sustenten su tesis sobre la arbitrariedad de los sistemas pictóricos. Falta evidencia de sistemas reales en los que las correlaciones simbólicas hayan sido completamente alteradas. Y si algunas imágenes innovadoras permiten el reconocimiento inmediato incluso fuera de sistemas familiares, y si sistemas como el lenguaje, aun siendo fuertemente familiares, no generan semejanzas con sus referentes, entonces el concepto de inculcación no basta para explicar la especificidad de las imágenes visuales. Goodman tampoco responde al sexto requisito porque admite que no hay formas incorrectas de representar pictoricamente.

Otro problema es el anti-psicologismo de la teoría. Goodman rechaza la psicología de la percepción y describe la inculcación como un tipo de aprendizaje, remitiéndonos sin querer a procesos psicológicos. Así pues, sus princípios formales parecen depender, finalmente, de la forma en que los humanos aprenden e interpretan los símbolos —lo que contradice la pretensión de independencia de la psicología.

La transferencia visual es otro punto difícil. Conocer la palabra “cat” en inglés y saber lo que es un perro, no permite reconocer la palabra “dog”. Mas, con las imágenes hay algo que permite ese reconocimiento cruzado —algo que la teoría de Goodman no explica adecuadamente porque asimila demasiado el funcionamento simbólico de los dos sistemas.

Los contraejemplos abundan: hay dispositivos simbólicos análogos y saturados relativamente que no son imágenes, o imágenes que funcionan como representaciones sin depender de esos criterios . Lo cual suscita la cuestión sobre qué distingue, en el fondo, la imagen de los símbolos restantes.

Goodman trata de responder con el concepto de familiaridad, que convierte en “automática” la correlación entre el símbolo gráfico y su significado. Pero, aún así, parece subsistir una diferencia crucial entre la naturaleza del significado y la naturaleza de la representación pictórica que se esconde en la propia gramática: normalmente decimos que las palabras significan mientras que las imágenes representan. Pueden ser formas diferentes de lidiar con las intenciones del autor, si queremos evitar ceder a la psicología de la percepción, pero no todos los usos representacionales implican intenciones, lo que levanta dudas adicionales. Por ejemplo, los bebés reconocen objetos en las imágenes sin tener conciencia de la intención representacional implicada.

John Kulvicki intentó resolver estos problemas proponiendo una versión revisada de la teoría semiótica. Mantiene los conceptos de analogicidad y saturación y añade tres nuevas características:

  • Sensibilidad: cualquier variación gráfica es relevante sintácticamente
  • Riqueza: cada alteración gráfica genera una nueva denotación
  • Transparencia: una parte de una imagen que representa algo comparte propriedades con lo que representa

Es esta última, la transparencia, la que introduce la idea de un “contenido básico de la imagen”, como el patrón de luz y sombra en una fotografía en blanco y negro. Ese contenido sería el mínimo necesario para que un espectador reconociese conceptos como “caballo” u “hombre”.

Ahora bien, incluso esta versión permanece vulnerable a las mismas críticas: falta de atención a las intenciones del artista y persistencia de contraejemplos. Además, esas cuatro propiedades propuestas no son ni necesarias ni suficientes para definir lo que es una imagen.

Al final, la salida del impasse parece pasar por recuperar un enfoque más experiencial: no considerar la naturaleza de la imagen a partir del proceso que la genera sino de la experiencia visual que provoca. Y ahí, como en un círculo inevitable, regresamos a las teorías perceptivas y la idea de semejanza como clave para comprender lo que hace de algo una imagen.

Vítor Moura
(Universidade do Minho)

Referencias

{17525141:Q5PMSRMD};{17525141:Q5PMSRMD};{17525141:Q5PMSRMD};{17525141:LZ9EMPHG},{17525141:CRPXUNAF};{17525141:Z6IKDDEL};{17525141:CTAVPNB2};{17525141:N6D8KIQF};{17525141:Q5PMSRMD};{17525141:Q5PMSRMD};{17525141:AU84I9PA};{17525141:YLCUAPK2},{17525141:2AH7QGHK};{17525141:CRPXUNAF};{17525141:2AH7QGHK},{17525141:CRPXUNAF};{17525141:2AH7QGHK};{17525141:K5HHZH3W};{17525141:FCR6ALZS};{17525141:GYP3E6RJ};{17525141:PLZWFCBH};{17525141:PLZWFCBH} apa creator asc 0 4424

Lecturas recomendadas

Alcaraz León, M. J. (2016). El arte de Ver-en: Reflexiones sobre la naturaleza de la pintura. In M. J. Alcaraz León & A. Bertinetto (Eds.), Las artes y la filosofía (pp. 21–76). Instituto de Investigaciones Filosóficas.

Alpers, S. (with Luca de Tena Navarro, C.). (2020). El Arte de Describir: El Arte Holandés en el Siglo XVII. Ampersand.

Berger, J. (with González Beramendi, J.). (2016). Modos de Ver (1st ed). Gustavo Gili Editorial S.A.

Bryson, N. (1991). Visión y pintura: La lógica de la mirada (C. Luca de Tena, Trans.). Alianza.

Budd, M. (2008). The Look of a Picture. In Aesthetic Essays (pp. 216–238). Oxford University Press.

Currie, G. (2008). Image and mind: Film, philosophy and cognitive science (1. publ., digitally printed version). Cambridge Univ. Press.

Gerwen, R. van. (2007). Richard Wollheim on the art of painting: Art as representation and expression. Cambridge University Press.

Gombrich, E. H. (2000). Art and illusion: A study in the psychology of pictorial representation (Millennium edition, with a new preface by the author). Princeton University Press.

Gombrich, E. H. (with Valverde, J. M.). (2002). Meditaciones sobre un caballo de juguete y otros ensayos sobre la teoría del arte (2a ed.). Debate.

Gombrich, E. H., Ferrater, G., & Gombrich, E. H. (2002). Arte e ilusión: Estudio sobre la psicología de la representación pictórica (2. ed). Debate.

Goodman, N. (with Thiebaut, C.). (1990). Maneras de Hacer Mundos. Visor Distribuciones, S.A.

Goodman, N. (2010). Los lenguajes del arte: Aproximación a la teoría de los símbolos. Paidós.

Hyman, J., & Bantinaki, K. (2021). Depiction. In E. N. Zalta (Ed.), The Stanford Encyclopedia of Philosophy (Fall 2021). Metaphysics Research Lab, Stanford University. https://plato.stanford.edu/archives/fall2021/entries/depiction/

Kulvicki, J. V. (2014). Images. Routledge.

Lopes, D. (2007). Understanding pictures (Reprinted). Clarendon Press.

Lopes, D. M. (2007). Sight and sensibility: Evaluating pictures. Oxford University Press.

McIver Lopes, D. M. (1999). Pictorial color: Aesthetics and cognitive science. Philosophical Psychology, 12(4), 415–428. https://doi.org/10.1080/095150899105666

Mulvey, L., Universidad de Valencia., & Asociación Vasca de Semiótica. (1988). Placer visual y cine narrativo. Episteme.

Nanay, B. (2004). Taking Twofoldness Seriously: Walton on Imagination and Depiction. The Journal of Aesthetics and Art Criticism, 62(3), 285–289. https://doi.org/10.1111/j.0021-8529.2004.0160.x

Newall, M. (2011). What is a picture ? Depiction, realism, abstraction. Palgrave Macmillan.

Panofsky, E., Careaga, V., & Panofsky, E. (2003). La perspectiva como “forma simbólica” (2da. edición). Tusquets.

Pérez Carreño, F. (1988). Los placeres del parecido: Icono y representación. Visor.

Rollins, R. (2002). Pictorial representation. In B. Gaut & D. Lopes (Eds.), The Routledge Companion to Aesthetics (1st ed., pp. 297–312). Routledge.

Walton, K. (2002). Depiction, Perception, and Imagination: Responses to Richard Wollheim. Journal of Aesthetics and Art Criticism, 60(1), 27–35. https://doi.org/10.1111/1540-6245.00049

Wollheim, R. (1997). La pintura como arte. Visor.

Wollheim, R. (2020). El Arte y Sus Objetos: Con Seis Ensayos Suplementarios (D. Díaz Soto, Trans.). Visor Distribuciones, S.A.

Entradas relacionadas

Como citar esta entrada

Moura, V. (2025). Representación pictórica. Enciclopedia de la Sociedad Española de Filosofía Analítica. http://www.sefaweb.es/representacion-pictorica/

 

Realización múltiple

1. Introducción

En filosofía de la mente, la tesis de la realización múltiple sostiene que los tipos mentales se implementan en diversos tipos físicos. En filosofía de la ciencia, la tesis de la realización múltiple afirma que los tipos de las ciencias especiales —esto es, de las ciencias que no son la física— se implementan en diversos tipos de las ciencias físicas. En ambos casos, la realización múltiple constituye un argumento antireduccionista. Mientras que el reduccionismo presenta una relación uno a uno entre tipos mentales (o especiales) y tipos físicos (o de las ciencias físicas), la realización múltiple propone una relación de uno a muchos entre los primeros y los segundos .

La tesis de la realización múltiple encontró terreno fértil inicialmente dentro de la filosofía de la mente como consecuencia del auge de la teoría computacional de la mente en los años 60 . Para esta teoría, la distinción entre software y hardware es esencial; un mismo programa puede implementarse en distintos sustratos físicos, destacándose así la autonomía relativa del primero con respecto al segundo. La discusión sobre la realización múltiple se extendió rápidamente a filosofía de la ciencia, adquiriendo una especial relevancia en filosofía de la biología . En cualquier caso, el elemento distintivo del modelo de la realización múltiple en el ámbito de la filosofía de la ciencia radica en su capacidad para dar cuenta de la autonomía relativa de las ciencias especiales —como la sociología, la psicología y la biología— con respecto a la física .

Para ejemplificar la realización múltiple, consideremos el caso de las feromonas . Estas sustancias químicas son segregadas por ciertos organismos y funcionan como mensajeros entre individuos, generalmente de la misma especie. Las feromonas favorecen comportamientos adaptativos y han sido seleccionadas precisamente por esta razón. Existen diversos tipos de feromonas; algunas indican la disponibilidad sexual («feromonas sexuales»), mientras que otras transmiten información sobre la ubicación de alimentos («feromonas de rastro»), entre otras funciones. Lo fundamental es que, a pesar de desencadenar comportamientos uniformes, estas feromonas no comparten una estructura química común. Así, aunque constituyen una clase natural desde la perspectiva biológica, no lo son desde la perspectiva de la química. Las feromonas permiten explicar y predecir el comportamiento de los organismos de una determinada especie, pese a no poseer una estructura química común .

Uno de los atractivos del modelo de la realización múltiple es su capacidad para combinar el anti-reduccionismo con el fisicalismo, generando así una forma de fisicalismo no reduccionista . El aspecto novedoso de la realización múltiple, tal como lo señaló en su momento Jerry Fodor, es que permite adoptar una posición anti-reduccionista sin caer en el dualismo . En el fisicalismo no reduccionista, los tipos de una disciplina especial siempre requieren una implementación física, pero dicha implementación puede estar múltiplemente realizada en diversos tipos de realizadores físicos.

2. El modelo de la realización múltiple

Hilary Putnam inició el debate sobre la realización múltiple precisando su alcance como modelo alternativo al reduccionismo . Para el reduccionismo de la identidad de tipos, las sensaciones son simplemente procesos cerebrales . Los defensores del modelo de la identidad de tipos mencionan varias razones que militan en favor de dicha teoría. Es una teoría simple, no postula entidades misteriosas, ni desconocidas o inescrutables, explica los procesos mentales sin acudir al dualismo, y es capaz de dar cuenta de la causalidad mental de manera sencilla y transparente como una instancia de causalidad física pura y simple . A pesar de estos méritos del modelo reduccionista, la realización múltiple hizo rápidamente mella en la comunidad filosófica poniendo en duda el cuadro teórico tradicional.

Con la introducción de la noción de realización múltiple, Putnam construye un marco conceptual rival a la teoría de la identidad de tipos. Según Putnam, la determinación de cuál de ambas teorías es correcta es esencialmente una cuestión empírica . El argumento de Putnam tiene dos etapas. En la primera, se identifica cuáles son las condiciones para que la tesis de la identidad de tipos sea correcta. En la segunda, se sostiene que dichas condiciones difícilmente pueden ser satisfechas . Putnam nos invita a pensar en el caso del dolor. Para que la tesis de la identidad de tipos sea correcta, es condición necesaria y suficiente que todo organismo que experimente dolor se encuentre en un estado físico y químico determinado . Satisfacer esta condición —sostiene Putnam— es extremadamente exigente (aunque no empíricamente imposible). Por ello, según Putnam, la cuestión termina siendo empírica:

“This means that the physical-chemical state in question must be a possible state of a mammalian brain, a reptilian brain, a mollusc’s brain (octopuses are Mollusca, and certainly fell pain), etc. At the same time, it must not be a possible (physically possible), state of a brain of any physically possible creature that cannot feel pain. Even if such a state can be found, it must be nomologically certain that it will also be a state of the brain of any extraterrestrial life that may be found that will be capable of feeling pain before we can even entertain the supposition that it may be pain” .

Interpretada en clave de la teoría de la identidad de tipos, una ciencia general del dolor — esto es, una ciencia del dolor que sea válida tanto en mamíferos como en reptiles, etc.— , necesariamente requiere del mismo estado físico subyacente en todas las especies sobre las que dicha ciencia pretenda aplicarse. Según Putnam, esto es poco plausible . La realización múltiple en cambio permite elaborar una ciencia general del dolor para todas las especies, aun cuando la implementación física de ese estado mental varíe de una especie a otra. La realización múltiple permite identificar generalizaciones mentales en diferentes especies, sin concentrarse en los detalles de su implementación física, que pueden, por demás, ser diferentes en cada una de ellas.

El énfasis de Putnam es en instancias de realización múltiple a través de diferentes especies, como en el caso del dolor recién mencionado. Fodor por su parte enfatiza que dicha tesis de la realización múltiple puede generalizarse, y sostiene que la misma puede tener lugar aún dentro de una misma especie, sin que la lógica del modelo difiera de la propuesta de Putnam. Así, podemos contar dentro de una misma especie con generalizaciones psicológicas que no pueden ser capturadas uniformemente a nivel físico. Autores posteriores, como Terry Horgan, adoptan una posición todavía más expansiva de la realización múltiple:

“The intentional mental states we attribute to one another might turn out to be radically multiply realizable at the neurobiological level of description, even in humans; indeed, even in individual humans; indeed, even in an individual human given the structure of his central nervous system at a single moment of his life” .

La propuesta de Fodor es particularmente explícita en cuanto al rol de la realización múltiple dentro de la explicación científica. No es tanto la realización múltiple de tipos per se lo que interesa a Fodor, sino la realización múltiple de leyes, esto es, de enunciados nomológicos que conectan tipos múltiplemente realizados. En la figura 1 se puede observar la representación canónica del modelo de la realización múltiple según Fodor. S1 y S2 son dos tipos de las ciencias especiales nomológicamente conectados. Cada uno de esos tipos está múltiplemente realizado en los realizadores P11, P12, P21, P22, etc. La relación causal tiene lugar entre los realizadores que son instancias físicas del tipo especial.

Figura 1: El Modelo de realización múltiple de Fodor (adaptado de Fodor, 1974, p. 109)

Es fundamental conceptualizar adecuadamente la diferencia entre el modelo de la realización múltiple y el modelo de la identidad de tipos. En el caso del modelo de la identidad de tipos existe siempre una relación uno a uno entre los tipos especiales y los tipos físicos. En el modelo de reducción de Nagel, los tipos especiales y los tipos físicos están conectados por “principios de conectividad” . En el modelo de Fodor dichos “principios de conectividad” son llamados “leyes puente”, y presentados como bicondicionales . La reconstrucción fodoriana ha sido adoptada como canónica aun cuando algunos autores sostienen que Nagel mismo no incluía como una exigencia la bicondicionalidad de dichas leyes puente . Según Fodor, la presencia de realización múltiple implica la no disponibilidad de leyes puente bicondicionales . Esto es precisamente lo que bloquea la posibilidad de reducción.

La realización múltiple ha sido defendida con diversos argumentos. Mencionaré aquí tres de ellos que han gozado de particular importancia dentro de la literatura: el argumento de la equipotencialidad cerebral ; el argumento de la evolución convergente , y finalmente el argumento de los autómatas como evidencia en favor de la realización múltiple .

La doctrina de la equipotencialidad se funda en la idea de Karl Lashley según la cual una gran variedad de funciones psicológicas puede ser ejecutada por una diversidad de estructuras cerebrales. El cerebro, gracias a su plasticidad, tiene la capacidad de reubicar tareas en distintas partes de su tejido cuando alguna sección de este ha sido dañada. Block y Fodor sostienen que esto constituye evidencia en favor de la realización múltiple y en contra de la identidad de tipos . En efecto, si entre las tareas que puede realizar el cerebro y su estructura física hubiese una relación uno a uno, el daño en la estructura cerebral no podría ser subsanado relocalizando esa función en otra sección del cerebro. Por ello, según Block y Fodor, la evidencia empírica en favor de la plasticidad cerebral respalda la tesis de la realización múltiple .

El segundo argumento se apoya en la idea de la evolución convergente . Esta última tiene lugar cuando diferentes especies desarrollan rasgos similares que no han sido heredados de un ancestro común: las alas de los murciélagos y los pájaros, la estructura hidrodinámica de tiburones y delfines, son algunos ejemplos que habitualmente se mencionan como ilustración de la evolución convergente . Block y Fodor afirman que el caso de la evolución convergente sugiere que dos organismos pueden tener los mismos rasgos aún cuando difieran fisiológicamente, y esto es precisamente lo que tendríamos que esperar si hubiese realización múltiple . La existencia de rasgos convergentes, a pesar de la diversidad fisiológica, pondría así en duda la teoría de la identidad de tipos, y constituiría un argumento en favor de la realización múltiple.

Finalmente, el tercer argumento que debe considerarse deriva su fuerza de la existencia de autómatas capaces de satisfacer nomológicamente predicados psicológicos sin satisfacer predicados neurológicos . Este argumento muestra la posibilidad de la realización múltiple introduciendo una instancia concreta en la que ella tendría lugar. Evidentemente el argumento depende de que dichos autómatas sean capaces de satisfacer los predicados psicológicos mencionados. Nótese, sin embargo, el alcance limitado de este argumento. En el más optimista de los escenarios, solo muestra una instancia de realización múltiple. De por sí, el argumento no justifica que existan otros casos de realización múltiple; para obtener tal justificación es necesario aportar evidencia empírica adicional .

3. Coincidencia y selección

La realización múltiple supone la existencia de efectos uniformes a nivel de las ciencias especiales. Según la objeción de la coincidencia cósmica, esto resulta problemático, pues es un misterio cómo realizadores no uniformes pueden generar efectos uniformes. El argumento plantea un dilema. Si los realizadores carecen de un denominador común, obtenemos realización múltiple; pero justamente allí la objeción de la coincidencia cósmica adquiere toda su fuerza, pues queda inexplicado cómo realizadores sin un factor común producen resultados uniformes. Si, en cambio, los realizadores comparten un denominador común, evitamos la objeción de la coincidencia cósmica, pero renunciamos al mismo tiempo a la realización múltiple, ya que ese denominador común constituiría la base para una reducción de tipos. Este argumento fue defendido de diversas maneras por diferentes autores .

Dos aspectos esenciales deben consignarse para refinar la objeción de la coincidencia cósmica. En primer lugar, el argumento no busca refutar la realización múltiple; simplemente cuestiona su credibilidad . En segundo lugar, la crítica no se centra en la realización múltiple de tipos, sino en la realización múltiple de leyes . La diferencia entre ambas es crucial. Un tipo puede estar múltiplemente realizado, aun cuando no esté conectado con otros tipos a través de leyes. Tómese el caso de un sacacorchos; éste puede ser instanciado en diversas sustancias físicas. En la realización múltiple à la Fodor, en cambio, lo que importa es que las leyes que conectan diferentes tipos estén ellas mismas múltiplemente realizadas: es decir, que el mecanismo subyacente sea variable. Aunque la realización múltiple de leyes implica la de tipos, no se cumple la inversa. Nótese que la existencia de tipos múltiplemente realizados no es problemática, por cuanto no se ve afectada por la objeción de la coincidencia cósmica. La complicación surge en el contexto de leyes múltiplemente realizadas. La objeción de la coincidencia cósmica parte de la reconstrucción canónica de Fodor sobre la realización múltiple, destacada en la figura 1. En el ámbito de explicaciones mediante leyes múltiplemente realizadas, resulta problemático asumir sin más que realizadores no uniformes producen efectos uniformes .

Ante esta objeción, una estrategia posible consiste en negar que la convergencia requiera una explicación. Desde esta perspectiva la realización múltiple es un hecho bruto (“brute fact”) que no demanda justificación alguna; se trata de un elemento primitivo, fundamental de la realidad misma. Fodor, de hecho, sugiere precisamente esta salida a la objeción de la coincidencia cósmica:

“Damn near everything we know about the world suggests that unimaginably complicated to-ings and fro-ings of bits and pieces at the extreme micro- level manage somehow to converge on stable macro-level properties. On the other hand, the “somehow” is entirely mysterious” .

Como alternativa a la tesis de Fodor, los defensores del modelo selectivo proponen identificar un mecanismo subyacente que explique cómo realizadores no uniformes pueden generar resultados uniformes. El mecanismo que proponen es la selección. Las explicaciones selectivas se centran exclusivamente en los efectos, reteniendo aquellos realizadores que producen resultados adaptativos. La consecución de este resultado adaptativo puede producirse de diversas maneras, sin necesidad de que exista uniformidad física alguna al nivel de los realizadores . Los defensores del modelo selectivo argumentan que al complementar la realización múltiple con un mecanismo fundado en la selección natural, la objeción de la coincidencia cósmica desaparece, ya que se cuenta, ahora, con un mecanismo que especifica cómo la uniformidad puede lograrse a través de realizadores no uniformes.

Según el modelo selectivo, los realizadores que permanecen en la población son aquellos capaces de generar el resultado adaptativo. El mecanismo selectivo es sin embargo presentado de manera binaria: se tiene en cuenta la capacidad de producción del resultado, sin atender a diferencias en el grado de acierto con que este se alcanza . Parte del atractivo del modelo selectivo depende de esta interpretación binaria de la selección, que permite la coexistencia de realizadores que, aunque producen el mismo resultado adaptativo, lo logran con diverso grado de efectividad. Sin embargo, en un contexto auténticamente competitivo, los realizadores no solo deben ser capaces de producir el resultado adaptativo, sino que también deben superar a todos los demás en la producción de ese resultado. Interpretado de esta manera más estricta, el mecanismo selectivo reduce la variación, y, lejos de proteger la realización múltiple, fortalece los argumentos reduccionistas .

A este resultado general debe matizarse con dos comentarios suplementarios . En primer lugar, en un entorno selectivo, dos realizadores podrían coexistir si son exactamente idénticos en cuanto a la aptitud (“fitness”) con la que producen el resultado adaptativo. Dicho efecto debe entenderse en su sentido más estricto: los realizadores deben ser estrictamente equivalentes; la más mínima diferencia entre ellos implicaría la eliminación del realizador en desventaja. En segundo lugar, se podría aceptar la coexistencia de realizadores que no son igualmente aptos, siempre y cuando ellos pertenezcan a nichos poblacionales diferentes, y por lo tanto no estén en competencia entre sí. En este caso, al no pertenecer al mismo ámbito, no serían sustitutos entre sí (en el sentido económico del término), y por ello, la realización múltiple no se vería amenazada. El ejemplo de Putnam de una ciencia general del dolor, cuyas leyes están implementadas diversamente en cada especie, ilustraría adecuadamente este último escenario . Como sugirió Kim, en cada especie en concreto tendríamos reducción, pero aun así habría realización múltiple porque esa reducción no sería uniforme en todas las especies . La noción de nicho competitivo acomoda este resultado de manera simple y elegante.

4. Individualización y evidencia

No todos los filósofos comulgan con el modelo selectivo ni son particularmente sensibles a la objeción de la coincidencia cósmica. Algunos filósofos sostienen que la objeción de la coincidencia cósmica es simplemente irrelevante, adhiriendo a la posición de Fodor sobre los “hechos brutos”. Otros cuestionan la idoneidad del modelo selectivo para dar cuenta de la realización múltiple . Según este autor, el mecanismo selectivo resulta ser irrelevante, ya que simplemente filtra la variación, y la realización múltiple es anterior al proceso de filtrado. La realización múltiple se manifiesta en la existencia misma de variación. Aunque la selección opera sobre esa variedad, eventualmente reduciéndola, de ninguna manera puede decirse que contribuye a explicarla .

Ciertos críticos atacan la realización múltiple fundándose en consideraciones relativas a la inadecuada individualización de los fenómenos múltiplemente realizados, y la deficiente evidencia disponible en su favor. Bechtel y Mundale objetan que la individualización de los estados cerebrales suele ser excesivamente restrictiva, lo que permite clasificar como una instancia de realización múltiple fenómenos que, bajo una individualización más amplia de los estados cerebrales, no serían clasificados como tales. Desde otro ángulo, se ha objetado que, en el caso de la realización múltiple inter-especies, “se presupone pero no se prueba” la existencia de tipos mentales idénticos en diferentes especies . De hecho, la caracterización de estos estados mentales en diferentes especies resulta problemática porque cada especie cuenta con particularidades propias —sensoriales y motoras—  que se resisten a una individualización uniforme . Sin esa individualización uniforme, la realización múltiple ni siquiera entraría como contendiente.

En un libro reciente, Polger y Shapiro llevan a cabo un escrutinio minucioso de la literatura existente sobre la realización múltiple, y desarrollan un ataque frontal a la ortodoxia en la materia. Polger y Shapiro cuestionan el modelo de la realización múltiple en diversos aspectos, entre los cuales mencionaremos tres de ellos. En primer lugar, objetan que cualquier variación a nivel de los realizadores sea indicativa de realización múltiple. En segundo lugar, ponen en duda tanto la tesis sobre la irrelevancia del material sobre la que se implementa una función, como la tesis de la existencia de un repertorio ilimitado de realizadores que estarían disponibles para realizar ese objetivo. Finalmente, critican el modelo de la realización múltiple por cuanto no tiene en cuenta la importancia de la composición y estructura de los realizadores.

El primer aspecto que disputan estos autores es la tesis según la cual cualquier variación a nivel de los realizadores es indicativa de realización múltiple. Dicha tesis es particularmente evidente en autores como Horgan , aunque también está presente en otros filósofos . En su versión más fuerte, la tesis en cuestión manifiesta una visión heracliteana de la realización múltiple . En contraste, Polger y Shapiro puntualizan que no todas las variaciones son testimonio de la existencia de realización múltiple. La realización múltiple es una forma específica de variación entre tipos diferentes de realizadores . La mera presencia de tokens cerebrales diferentes, que implementan un mismo tipo mental, no significa que haya realización múltiple. La realización múltiple exige, además, que los tokens en cuestión pertenezcan a diferentes tipos cerebrales. Polger y Shapiro rechazan la versión heracliteana de la realización múltiple, y evitan de esta manera el caso extremo defendido por filósofos como Terry Horgan .

El segundo punto que es objeto de crítica es el postulado según el cual el material sobre el que es implementada una función es simplemente irrelevante. Generalmente este argumento viene acompañado de la sugerencia de un repertorio ilimitado de realizadores que pueden ser reclutados para realizar una misma tarea. Cabe recordar que Putnam sostuvo en su momento que no hay argumentos a priori para afirmar que las funciones cognitivas humanas deban estar implementadas exclusivamente en neuronas:

“Strange as it may seem to common sense and to sophisticated intuition alike, the question of the autonomy of our mental life does not hinge on and has nothing to do with that all too popular, all too old question about matter or soul-stuff. We could be made of Swiss cheese, and it wouldn’t matter”

Polger y Shapiro sostienen que ambos extremos requieren de evidencia empírica. Por otra parte, el mero hecho de ser implementado en materias diversas no constituye una prueba de realización múltiple porque el mecanismo subyacente puede ser el mismo en ambos casos. Tomemos, por ejemplo, un reloj de titanio y un reloj de aluminio. Aunque son de diferentes materiales, esto no implica automáticamente que el reloj esté siendo múltiplemente realizado. Según Polger y Shapiro , para calificar el caso como una instancia de realización múltiple, es necesario demostrar que los mecanismos subyacentes son distintos. Este principio se aplica también a casos como el de un cerebro compuesto por neuronas y una computadora hecha de chips de metal: la mera variación en el material no implica realización múltiple. Es la existencia de un mecanismo subyacente distinto para cada caso lo que da testimonio de la existencia de realización múltiple . En resumen, el enfoque en el mecanismo, y no en el material, es lo que permite establecer la existencia de realización múltiple.

Por otra parte, la existencia de un repertorio literalmente infinito de realizadores sobre los que se podría implementar la misma función no puede ser simplemente asumida. Esta tesis requiere al menos algo de evidencia empírica para ser creíble. Obviamente mientras más amplia y variada sea la gama de realizadores que pueden implementar una misma función, más poderoso será el caso en favor de la realización múltiple . Restringir el repertorio de realizadores —siendo menos discriminativo al momento de identificarlos— abre inmediatamente la posibilidad de encontrar posibles identidades reductivas .

El tercer aspecto que debe ser mencionado está íntimamente relacionado con el anterior, y es el rol de la estructura sobre el que se implementan las funciones. Según la ortodoxia, la composición o estructura de los realizadores es irrelevante, de la misma manera que es irrelevante el material sobre el que se implementa la tarea. Esto trae a colación el «principio de Walt Disney» de Ned Block . En el mundo de Disney, objetos como un tomate o un trozo de queso pueden hablar y pensar. Sin embargo, en la realidad, ciertas tareas requieren una estructura específica para poder ser llevadas a cabo. Un simple agregado, como un trozo de queso, carece de la estructura necesaria para poder pensar . Desde que se admite que la composición puede ser relevante, se sugiere que un mecanismo subyacente puede proveer una posible explicación del fenómeno en cuestión. De esta manera, reconocer la importancia de la idea de composición u organización podría habilitar el encuentro de potenciales identidades reductivas.

5. Conclusión

En conclusión, durante el último medio siglo, el modelo de realización múltiple ocupó un lugar destacado en la comunidad filosófica. Con el auge del computacionalismo adquirió el status de una ortodoxia, sobre todo en el ámbito de las ciencias cognitivas y en filosofía de la mente. No obstante, parte de este optimismo con respecto a la realización múltiple se desvaneció en los últimos años. La aplicación excesivamente laxa del concepto de realización múltiple condujo a una interpretación inflacionista del mismo, mermando su credibilidad. Por otra parte, la falta de evidencia empírica concreta puso también en jaque el modelo. Dicho esto, y a pesar de que en la actualidad la realización múltiple no suscita el entusiasmo que generó antaño, aun así continúa siendo un ámbito de debate activo en la comunidad filosófica, no solo en la filosofía de la mente, sino también en la filosofía de la ciencia en general .

Diego Ríos
IIF – SADAF (CONICET)
Buenos Aires, Argentina

 

Referencias

{17525141:2VGP3Q4H};{17525141:T3S99R5P};{17525141:Z47A6ZDZ};{17525141:2VGP3Q4H},{17525141:WDLNG68Z};{17525141:67D53D2Q};{17525141:67D53D2Q};{17525141:ZYNHGQND};{17525141:2VGP3Q4H};{17525141:Q9UUABC5},{17525141:T3S99R5P};{17525141:CGZIZA36};{17525141:WTGJ7A6F};{17525141:T3S99R5P};{17525141:T3S99R5P};{17525141:T3S99R5P};{17525141:T3S99R5P};{17525141:T3S99R5P};{17525141:T3S99R5P};{17525141:2MJ3XGPQ};{17525141:2VGP3Q4H};{17525141:CPDW2HWM};{17525141:2VGP3Q4H};{17525141:Q3A9EIEK};{17525141:Q3A9EIEK};{17525141:2VGP3Q4H};{17525141:Q3A9EIEK};{17525141:Q3A9EIEK};{17525141:Q3A9EIEK};{17525141:BIMUSSUM};{17525141:Q3A9EIEK};{17525141:2VGP3Q4H};{17525141:BIMUSSUM};{17525141:3755A4YH},{17525141:7VKX9VDU},{17525141:LLAHS9UJ};{17525141:3755A4YH};{17525141:3755A4YH},{17525141:QG56KSRB};{17525141:3755A4YH};{17525141:WDLNG68Z};{17525141:7VKX9VDU};{17525141:3755A4YH};{17525141:QA3ZPFF7};{17525141:QA3ZPFF7};{17525141:T3S99R5P};{17525141:R5PQMAVN};{17525141:GQU2GN2V};{17525141:GQU2GN2V};{17525141:BCIBST7V};{17525141:7UNBXKRI};{17525141:7UNBXKRI};{17525141:BIMUSSUM};{17525141:S53HR6L8};{17525141:IDW984JV},{17525141:HK4CXM76},{17525141:S53HR6L8};{17525141:BIMUSSUM};{17525141:BIMUSSUM};{17525141:BIMUSSUM};{17525141:QTEYEK3T};{17525141:BIMUSSUM};{17525141:FTCVHV9D};{17525141:BIMUSSUM};{17525141:BIMUSSUM};{17525141:ZYNHGQND};{17525141:BIMUSSUM};{17525141:VP9FK4CD} apa creator asc 0 3717

Recursos en línea

Mind and Multiple Realizability, entry by William Jaworski, Internet Encyclopedia of Philosophy. https://iep.utm.edu/mult-rea/

Bickle, John. Multiple Realizability", The Stanford Encyclopedia of Philosophy (Summer 2020 Edition), Edward N. Zalta (ed.). https://plato.stanford.edu/archives/sum2020/entries/multiple-realizability/.

On multiple Realizability. Polger, Th. And Shapiro, L. https://blog.apaonline.org/2017/05/10/on-multiple-realization/ 

Entradas relacionadas

Cómo citar esta entrada

Ríos, D. (2024). Realización Múltiple. Enciclopedia de la Sociedad Española de Filosofía Analítica. http://www.sefaweb.es/realizacion-multiple/

 

La referencia

1. Introducción. Dos aproximaciones a la referencia

Las palabras que usamos nos permiten hacer afirmaciones acerca del mundo porque están conectadas con las cosas acerca de las cuales hablamos. Si una proferencia de “Nana es una gata” expresa algo verdadero es porque el nombre “Nana” refiere a un animal, y el predicado “es una gata” refiere a un atributo que la caracteriza correctamente. ¿Qué hace posible que nuestras palabras se conecten con el mundo? Esta es la pregunta fundamental de la teoría de la referencia.

Podríamos decir que la teoría de la referencia es el fundamento de la semántica, ya que esa conexión entre palabras y cosas hace posible que las oraciones representen situaciones reales o posibles, es decir, que expresen proposiciones que tienen condiciones de verdad, condiciones que nos dicen cómo habría de ser el mundo para que esas proposiciones sean verdaderas.

En general podemos identificar dos aproximaciones distintas a la pregunta fundamental de la teoría de la referencia. Por un lado, una aproximación que otorga un papel exclusivo a las mentes de los hablantes, a la información que poseen y a sus creencias, a la hora de explorar cómo se determina la referencia de una expresión lingüística. Por otro lado, un enfoque que incide especialmente en factores objetivos, sociales y físicos, para dar cuenta de la determinación de la referencia de los términos del lenguaje.

El primer enfoque se puede caracterizar como internista, ya que aquello que determina la referencia de una expresión se halla en la mente del hablante, o le es cognitivamente transparente. El segundo enfoque es fundamentalmente externista ya que los factores causales o sociales que determinan la conexión de una expresión con su referente pueden no ser factores mentales, y pueden llegar a ser desconocidos por el hablante.

Las dos formas de concebir la relación de referencia son opuestas y hay una discusión muy activa entre los proponentes de cada enfoque, cuyas objeciones y respuestas les han llevado a perfilar progresivamente las respectivas posiciones. Aquí nos centraremos primordialmente en las discusiones iniciales y en los aspectos más básicos.

2. El descriptivismo. Un enfoque internista

El descriptivismo postula que lo que determina la referencia de un término son las descripciones que los hablantes asocian a dicho término. Así por ejemplo, un término singular, el tipo de término que se aplica a un individuo y que usualmente constituye el sujeto gramatical de la oración, como “George Eliot” refiere a la famosa novelista del siglo XIX porque los hablantes asocian el nombre con una descripción como “la autora de Middlemarch”. Los términos generales, términos que se aplican a varios individuos, como “tigre”, o a varias muestras de una substancia, como “agua”, también refieren gracias a la mediación de descripciones como, por ejemplo, “los grandes felinos de pelaje dorado y rayado” o “la substancia que cae de las nubes en forma de lluvia y que llena nuestros ríos y lagos”. Esta es una aproximación internista a la teoría de la referencia porque las descripciones que determinan aquello a lo que refieren los términos que usamos están, por así decir, en las mentes de los hablantes, les son cognitivamente accesibles.

El descriptivismo es, sin duda, un enfoque extremadamente plausible. Cuando incorporamos un término a nuestro vocabulario, lo hacemos porque aprendemos algo nuevo, algo que identifica la referencia del término y que lo hace significativo. Empezamos a usar el nombre “Aristóteles” porque en una clase introductoria de filosofía se nos dice que Aristóteles fue un gran filósofo griego, que defendió la teoría del hilemorfismo, etc. Sin esa información, la palabra es un sonido vacío para un hablante. Parece obvio, pues, que esa información identificadora determina aquello acerca de lo cual hablamos cuando usamos el término.

La presentación más tradicional del enfoque descriptivista es la versión individualista sugerida por Gottlob Frege (1892 [1991, p. 25, n.1]) y por Bertrand Russell (1910, pp. 114 y 123), según la cual cada hablante asocia su propia descripción a un término y, en principio, distintos hablantes pueden asociar descripciones distintas. Esto, naturalmente crea problemas a la hora de dar cuenta de la comunicación. Según Frege, la comunicación consiste en la transmisión de un pensamiento, una proposición. Supongamos que un hablante asocia a “Aristóteles” la descripción “el discípulo de Platón nacido en Estagira” y otro hablante asocia la descripción “el filósofo griego que defendió la teoría hilemórfica”. Cuando el primero de ellos profiere “Aristóteles fue un gran filósofo” y el segundo asiente, ¿qué proposición expresa el primero, y a qué proposición asiente el segundo? Aunque se puede argumentar, como Frege mismo lo hizo, que lo importante es que ambos están hablando acerca de (refiriendo a) el mismo individuo, en realidad no están ambos aprehendiendo la misma proposición. Este es un problema que no surgiría si el descriptivismo postulase que a cada término le corresponde una única descripción que todos los hablantes del lenguaje comparten; una especie de definición como las proporcionadas por un diccionario. Esta versión parece plausible para ciertos términos. Por ejemplo, se puede argumentar que el término “tungsteno” se define como “la substancia cuyo número atómico es 74” y que un hablante que desconoce esta definición no es un usuario competente del término. Pero esta forma de concebir el descriptivismo no parece plausible para una gran cantidad de términos del lenguaje. Por ejemplo no hay una definición única que todos los hablantes compartan de una palabra como “agua”. Incluso en el caso del tungsteno, un cocinero que compra cuchillos de tungsteno por su dureza y precisión puede desconocer el número atómico de ese metal. Y, por supuesto, para nombres propios parece obvio que no hay una única definición de diccionario.

En la versión social del descriptivismo que defendió John Searle (1958), la comunidad lingüística asocia un combinado [“cluster”] de descripciones a un término, y el referente es aquello que satisface un número suficientemente importante de los atributos asociados con el término. Distintos hablantes pueden asociar parte de ese combinado al término; no es preciso que todo el combinado se encuentre en la mente de ningún hablante en particular. Distintos atributos tienen pesos diferentes y algunos de ellos pueden ser erróneos. Por ejemplo, en el caso de “Aristóteles”, ser filósofo es un atributo con más peso que haber nacido en Estagira. Es incluso posible que sea un error situar el nacimiento de Aristóteles en Estagira. Es crucial, sin embargo, que haya un núcleo de atributos con alto peso que sean suficientes para determinar un referente.

En cualquiera de las versiones del descriptivismo, se supone que las descripciones asociadas, o el combinado asociado, deben individualizar o, dicho de otro modo, deben seleccionar un referente específico. En caso contrario, el término en cuestión carece de referencia.

El enfoque descriptivista explica de forma natural cuestiones de suma importancia para la filosofía del lenguaje, por ejemplo, por qué un hablante que ha aceptado como verdadera una oración como “Cicerón era un orador romano” puede dudar de la verdad de “Marco Tulio era un orador romano”, a pesar de que ambos nombres son correferenciales. Esas dos oraciones difieren en valor cognitivo: un hablante competente puede aceptar una y rechazar la otra. Y eso se explica, según el enfoque descriptivista, porque el hablante en cuestión asocia una descripción a “Cicerón” (digamos, “el senador romano que denunció la conspiración de Catilina”) y otra descripción distinta a “Marco Tulio” (por ejemplo “el autor de De Amicitia”).

De la misma forma, el descriptivismo también explica cómo es posible que “María cree que Cicerón era un orador romano” pueda ser verdadera en tanto que “María cree que Marco Tulio era un orador romano” pueda ser falsa. Desde el punto de vista descriptivista, las dos oraciones subordinadas no aseveran simplemente que un cierto individuo era orador romano, sino que expresan proposiciones distintas. Una de ellas expresa que el senador que denunció a Catilina era un orador romano, cosa que no es lo que asevera la otra oración.

3. Argumentos anti-descriptivistas de Kripke y Donnellan

El descriptivismo fue durante mucho tiempo el enfoque dominante en la teoría de la referencia. Pero en 1970 Saul Kripke y Keith Donnellan, separadamente, aportaron importantes argumentos en su contra, aunque la contribución de Kripke no se publicó hasta 1980.

Kripke y Donnellan observaron que a menudo usamos un término sin estar en posesión de información individualizadora, es decir, sin estar en posesión de información asociada al término que seleccione un referente específico determinado. Por ejemplo, Kripke observa que muchos hablantes asocian al nombre “Richard Feynman” la descripción “un físico contemporáneo famoso”, pero esa descripción no distingue Richard Feynman de otros muchos físicos contemporáneos famosos. Si el enfoque descriptivista fuese correcto, deberíamos decir que el nombre “Richard Feynman”, tal como lo usan muchos hablantes, carece de referencia, que los hablantes que se preguntan si Feynman trabajó para el MIT o para Cal Tech no están hablando de nadie pues la información descriptiva que asocian al nombre no consigue seleccionar un referente. Pero claramente, argumenta Kripke, esos hablantes refieren a un individuo. Este argumento, que se conoce típicamente como el argumento de la ignorancia, muestra, según Donnellan, que estar en posesión de una descripción definida que seleccione un referente no es necesario, pues los hablantes refieren a un individuo a pesar de que desconocen una descripción que lo especifique.

Por otro lado, Kripke y Donnellan observaron también que a menudo asociamos a un nombre descripciones erróneas. Por ejemplo, muchos hablantes asocian a “Cristóbal Colón” la descripción “el primer europeo en llegar a América”, pero esa descripción en realidad se aplica a algún navegante vikingo que llegó al nuevo continente durante el siglo XI. A pesar de ello, los hablantes que discuten si Colón nació en España o en Italia definitivamente no están hablando acerca de un vikingo. Este argumento, conocido como el argumento del error, muestra, según Donnellan, que asociar una descripción no es suficiente para referir al individuo seleccionado por la descripción en cuestión, pues el nombre “Cristóbal Colón” no refiere al vikingo que satisface la descripción asociada. Argumentos similares a los de la ignorancia y el error también pueden ser fácilmente construidos para términos generales, como “tigre” o “agua” (véase Fernández Moreno, 2016).

Podría parecer que los argumentos de la ignorancia y el error no afectan el descriptivismo social de Searle, pues un hablante individual puede ignorar información individualizadora, o asociar atributos erróneos a un nombre. Para que un uso de un nombre refiera, según esta versión del descriptivismo, basta con que el combinado que la comunidad de hablantes en su totalidad asocia al nombre seleccione un único individuo, y que los atributos que se asocian erróneamente no estén entre aquellos que más peso tienen a la hora de determinar la referencia. Pero el descriptivismo propuesto por Searle tampoco es inmune a las críticas de Kripke y Donnellan, pues puede ocurrir que las descripciones contenidas en el combinado que la comunidad de hablantes asocia al nombre no determinen un único individuo como referente, al ignorar los miembros de la comunidad información individualizadora. Y también puede ocurrir que las descripciones con más peso del combinado sean erróneas. Por ejemplo, durante mucho tiempo se creyó que los neutrinos carecían de masa. Esa propiedad estaba en el centro mismo del combinado de descripciones atribuidas a los neutrinos. Fue una sorpresa para la comunidad científica descubrir en 1998 que los neutrinos tenían masa. Ese descubrimiento no podría tener sentido si carecer de masa fuese uno de los atributos centrales que contribuían a determinar la referencia de “neutrino”; deberíamos más bien pensar que la palabra “neutrino” tal como se usaba antes de 1998 no refería a nada y no que estábamos equivocados acerca de las propiedades centrales de los neutrinos.

4. Una aproximación externista a la referencia. El enfoque histórico-causal

Los argumentos anti-descriptivistas de Kripke y Donnellan son primordialmente negativos; están destinados a mostrar que el descriptivismo no da cuenta de qué es lo que hace que un término refiera, pues asociar una descripción a una expresión no es ni necesario ni suficiente para determinar la referencia.

Pero Kripke y Donnellan sugieren también, a grandes pinceladas, una teoría positiva de la determinación de la referencia, una aproximación que se conoce como el enfoque histórico-causal. Kripke y Donnellan observan que, típicamente, la referencia de un nombre queda fijada por ostensión, en un bautismo más o menos formal, en el que la entidad nombrada está presente y es percibida por los participantes en el bautismo o acto de nombrar. Algo parecido ocurre cuando se nombra una substancia o una especie, por ejemplo, a partir de la observación de algunos de sus ejemplares. Posteriormente, los participantes en el acto inicial en el que el nombre se conecta con la cosa o la clase de cosas, usan el nombre y lo transmiten a otros miembros de la comunidad lingüística, creándose así una especie de cadena de comunicación en la que la capacidad de referir usando el término en cuestión es transmitida de generación en generación.

Esta aproximación intuitiva a la introducción y transmisión de los nombres de cosas o de clases de cosas ha sido posteriormente desarrollada por Michael Devitt y Kim Sterelny (1999). Devitt y Sterelny mantienen una posición filosófica de corte fisicalista, y defienden que el acto de bautismo, así como la transmisión de la capacidad de referir, se explican en términos puramente causales y físicos que pueden no ser aprehendidos por las mentes de los hablantes.

Pero tanto Kripke como Donnellan, Devitt y Sterelny observan que el bautismo inicial de un objeto o una clase de cosas también puede hacerse a través de una descripción definida. Por ejemplo, Kripke menciona el caso de Leverrier que introdujo el nombre “Neptuno” usando la descripción “el planeta que causa alteraciones en la órbita de Urano” mucho antes de que se hubiese observado Neptuno con un telescopio. Dado que la referencia puede ser establecida mediante una descripción, ¿qué es lo que hace que el enfoque de estos filósofos no sea una forma de descriptivismo? La diferencia crucial entre el descriptivismo y el enfoque histórico-causal se halla en la concepción de la transmisión. Para los defensores del enfoque histórico-causal, los usuarios de un nombre pueden no conocer la descripción que fue usada originalmente para fijar la referencia. Muchos usuarios actuales de “Neptuno” desconocen dicha descripción. Por tanto, la capacidad de referir, según los defensores del enfoque histórico-causal, se transmite sin necesidad de transmitir la descripción responsable de la fijación de la referencia.

Este enfoque es externista: lo que determina la referencia de un uso de “Neptuno” por parte de un hablante real no es lo que ese hablante tiene en su mente. Un hablante puede asociar al nombre “Neptuno” una descripción como “un planeta de nuestro sistema solar“, que no individúa a Neptuno, ni a ningún otro planeta, o incluso pueden asociar una descripción errónea como, por ejemplo, “el sexto planeta de nuestro sistema solar” que designa a Saturno. A pesar de lo que tenga en mente, un hablante de nuestra comunidad que usa la palabra “Neptuno” refiere a Neptuno, en virtud del hecho de ser un vínculo en la cadena de transmisión del lenguaje, y un miembro de una comunidad de hablantes que usa un nombre con una historia referencial que lleva hasta el planeta Neptuno, un hecho objetivo, físico y social que puede no tener una representación fidedigna en la mente del hablante.

El enfoque histórico-causal no niega que las intenciones y los estados mentales de los hablantes juegan un papel fundamental en los procesos por los que un término llega a conectarse con su referente. Lo que niega el enfoque es que todos los elementos que determinan esa conexión referencial tengan que ser cognitivamente accesibles a los hablantes.

5. Externismo, referencia y condiciones de verdad. Proposiciones singulares

El enfoque histórico-causal es una aproximación a la referencia, es una forma de explicar cómo un término del lenguaje se conecta con una parte del mundo. Pero el enfoque va de la mano de una teoría de las condiciones de verdad, de las proposiciones expresadas por proferencias de oraciones. Desde el punto de vista externista, las condiciones de verdad de proferencias de “Marco Tulio era orador” y “Cicerón era orador” (dos oraciones que se distinguen únicamente por la presencia de dos nombres correferenciales distintos) son las mismas: son verdaderas justamente si el individuo al que los nombres refieren era un orador. Esas condiciones de verdad son, por tanto, singulares: dependen de si el referente ejemplifica la propiedad que se le atribuye. Así pues, las proposiciones que expresan las proferencias de esas dos oraciones, lo que aseveran, es lo mismo: que un cierto individuo tenía la propiedad de ser orador dado que, desde el punto de vista externista, no hay una descripción asociada a cada nombre que determine su referencia y que pueda constituir parte de lo que las proferencias de esas oraciones aseveran (parte de la proposición que expresan).

Esta concepción de las condiciones de verdad se halla influida por los argumentos anti-descriptivistas de Kripke (1980). Kripke argumenta que las condiciones de verdad de lo que expresamos cuando proferimos una oración como “Aristóteles era filósofo” dependen de si Aristóteles (el referente del nombre “Aristóteles”) era o no era filósofo. No dependen de si alguien que era el tutor de Alejandro Magno, es decir, alguien que satisfaga la descripción “el tutor de Alejandro Magno” (que hubiese podido ser otra persona) era o no filósofo. Es sobre esta base que defensores del enfoque externista, y anti-descriptivistas han postulado que las condiciones de verdad de proferencias de oraciones como “Aristóteles era filósofo” (y, por tanto, las proposiciones que esas proferencias expresan) son singulares, dependientes del individuo mismo, tanto si ese individuo satisface condiciones descriptivas asociadas al nombre como si no.

6. Cuestiones abiertas para el enfoque externista

Las críticas al descriptivismo de Kripke, Donnellan y otros autores tuvieron una importante influencia en el panorama de la filosofía del lenguaje. A pesar de la casi generalizada aceptación de las críticas y del enfoque histórico-causal, quedan cuestiones abiertas para el nuevo enfoque, especialmente cuestiones para las que el internismo descriptivista aportaba respuestas naturales.

6.1. Las diferencias en valor cognitivo

Términos correferenciales como “Cicerón” y “Marco Tulio” tienen distinto valor cognitivo. Como ya hemos mencionado, un hablante competente puede asentir a una proferencia de “Cicerón era un orador romano” y rechazar una de “Marco Tulio era un orador romano”. La explicación descriptivista apela a las distintas proposiciones que, según el descriptivismo, son expresadas por esas proferencias. Según el enfoque anti-descriptivista, en cambio, ambas proferencias expresan la misma proposición singular, y por tanto, el enfoque externista no puede atribuir la diferencia en valor cognitivo al hecho de que el hablante aprehende dos proposiciones distintas.

Defensores de posiciones externistas como John Perry (1980) y François Recanati (2012) argumentan que cuando aprendemos un término, ya sea un nombre propio o un término general, los usuarios abrimos una especie de fichero o dossier en el que depositamos información y datos, a veces datos erróneos, acerca del referente. Esos ficheros no determinan la referencia, pero explican la significatividad, el valor cognitivo, de los términos para el hablante. Desde este punto de vista, se puede aceptar el supuesto descriptivista según el cual los hablantes asocian descripciones a los términos que usan, y esas descripciones explican el valor cognitivo. Sin embargo, esas descripciones no determinan la referencia (que se halla determinada por los factores, en parte externos a la mente del hablante, que postula la teoría histórico-causal) y no constituyen parte de la proposición que expresan oraciones que contienen los términos en cuestión. Es importante resaltar que esta explicación anti-descriptivista rompe uno de los supuestos iniciales de la semántica tal como la concibieron Frege y Russell, pues la explicación que apela a los dosieres mentales no intenta explicar todas las cuestiones de interés semántico, como, por ejemplo, el valor cognitivo, apelando a la proposición expresada.

6.2. Enunciados de creencia

Tradicionalmente en semántica se ha considerado que los enunciados de creencia (y en general las llamadas actitudes proposicionales, como las expresadas por los verbos “desear”, “pensar”, imaginar”, etc.) expresan relaciones entre una persona y una proposición. El descriptivismo explica de forma natural por qué un enunciado como “María cree que Cicerón era orador” puede ser verdadero en tanto que “María cree que Marco Tulio era orador” puede ser falso, ya que esos enunciados expresan una relación de María con dos proposiciones distintas. Pero desde el punto de vista externista, la proposición expresada por ambas oraciones subordinadas es exactamente la misma.

Esta cuestión ha sido muy discutida por defensores del enfoque anti-descriptivista. Algunos autores (Soames, 2002, caps. 6-8; Salmon, 1989) consideran que si el primer enunciado de creencia es verdadero, también lo es el segundo, y atribuyen la suposición de que difieren en valor de verdad a una cuestión puramente pragmática. Otros autores (Crimmins y Perry, 1989; Richard, 1983) han argumentado que hay que romper con otro de los supuestos tradicionales de la semántica, y proponen analizar los enunciados de creencia no como relaciones simples entre una persona y una proposición, sino como relaciones complejas con más elementos además de la proposición expresada por la oración subordinada.

6.3. Términos sin referencia

Leverrier postuló la existencia de un planeta causante de anomalías en la órbita de Urano, y antes incluso de observarlo, lo llamó “Neptuno”. Leverrier también postuló la existencia de un planeta entre Mercurio y el Sol, y para ese supuesto planeta introdujo el nombre “Vulcano”. Pero no hay ningún planeta entre Mercurio y el Sol. Vulcano no existe (aunque exista “otro” Vulcano en algunas obras de ficción). ¿Cómo explica el anti-descriptivista la significatividad de oraciones como “Vulcano se encuentra entre Mercurio y el Sol” o “Vulcano no existe”? Dado que no hay tal planeta, las proferencias de esas dos oraciones, desde un punto de vista anti-descriptivista, no deberían expresar ninguna proposición. Esto no es un problema para el descriptivismo, pues aun cuando “Vulcano” carezca de referente, la descripción que un hablante asocia al nombre contribuye con un elemento a la proposición expresada.

De nuevo, una parte de las respuestas anti-descriptivistas rechazan que sea la proposición expresada lo que proporciona las respuestas a la cuestión semántica. Aunque “Vulcano” carezca de referente, la cadena de comunicación que postula la teoría histórico-causal existe, y es el hecho de que exista esa cadena de transmisión del término lo que explica que el nombre no sea un mero sonido asignificativo para los hablantes, a pesar de que, como indica Donnellan (1974) la cadena acaba «en un bloqueo».

La discusión sobre estas cuestiones continúa en la actualidad, con nuevas propuestas desde ambas aproximaciones a la referencia. Un artículo introductorio más extenso sobre este tema, Martí (en prensa), se puede consultar online. Véase también Martí (2022).

Genoveva Martí
(ICREA y Universidad de Barcelona)

Referencias

  • Crimmins, M. y Perry, J. (1989). The prince and the phone booth: Reporting puzzling beliefs. The Journal of Philosophy, 86(12), 685-711.
  • Devitt, M. y Sterelny, K. (1999). Language and Reality. An Introduction to the Philosophy of Language. 2ª ed. revisada y ampliada. Oxford: Blackwell.
  • Donnellan, K. (1970).Proper names and identifying descriptions. Synthese, 21, 335-358.
  • Donnellan, K. (1974). Speaking of nothing. The Philosophical Review, 83, 3-31.
  • Fernández Moreno, L. (2016). The Reference of Natural Kind Terms. Frankfurt: Peter Lang.
  • Frege, G. (1892). Uber Sinn und Bedeutung. Zeitschrift für Philosophie und Philosophische Kritik, 100, 25-50. Existe traducción al castellano: Sobre sentido y referencia. En: La búsqueda del significado. Valdés Villanueva, L.M. (comp.), Madrid: Tecnos, 1991, 24-45.
  • Kripke, S. (1980). Naming and Necessity. Cambridge, MA: Harvard University Press. Existe traducción al castellano: El nombrar y la necesidad. México: Instituto de Investigaciones Filosóficas, 2017.
  • Martí, G. (2022). Reference and theories of reference. En: The Cambridge Handbook of the Philosophy of Language. Ed. por Stalmaszczyk, P. Cambridge: Cambridge University Press, 233-248.
  • Martí, G. (en prensa) Referencia. En: Temas de filosofía del lenguaje. Ed. por Vicario, I. Madrid: Tecnos. Versión pre-publicación en https://philpapers.org/archive/MARRPK-2.pdf.
  • Perry, J. (1980). A problem about continued belief. Pacific Philosophical Quarterly, 61, 317-332.
  • Recanati, F. (2012). Mental Files. Oxford: Oxford University Press.
  • Richard, M. (1983). Direct reference and ascriptions of belief. Journal of Philosophical Logic, 12, 425-452.
  • Russell, B. (1910). Knowledge by acquaintance and knowledge by description. Proceedings of the Aristotelian Society, 11, 108-128. Existe traducción al castellano: Conocimiento por familiarización y conocimiento por descripción. En: Misticismo y lógica; y otros ensayos. Ed. por Russell, B. Buenos Aires: Paidós, 1951, 203-227.
  • Salmon, N. (1989). Illogical belief. Philosophical Perspectives, 3, 243–285.
  • Searle, J. (1958). Proper names. Mind, 67, 166-173.
  • Soames, S. (2002). Beyond Rigidity. Oxford: Oxford University Press.

Lecturas recomendadas en castellano

  • Ezcurdia, M. (1995). Modos de presentación y modos de determinación.  Crítica, 27 (80), 57-96.
  • Frápolli, M.J. y Romero, E. (1998). Una aproximación a la Filosofía del lenguaje. Madrid: Síntesis, caps. 2 y 5.
  • García Suárez, A. (1997). Modos de significar. Una introducción temática a la filosofía del lenguaje. Madrid: Tecnos, sec. 1, caps. 1-3.
  • Martí, G. (en prensa) Referencia. En: Temas de filosofía del lenguaje. Ed. por Vicario, I. Madrid: Tecnos. Versión pre-publicación en https://philpapers.org/archive/MARRPK-2.pdf.
  • Vicario, I. (2002). “Paderewski” y el problema del valor cognoscitivo en Frege. Revista de Filosofía, 27(2), 361-387.

Recursos en línea

Entradas relacionadas

Cómo citar esta entrada

Martí, G. (2024). La referencia. Enciclopedia de la Sociedad Española de Filosofía Analítica.  http://www.sefaweb.es/la-referencia/

 

 

Realismo científico

1. Antecedentes históricos

El realismo científico, en una de sus acepciones más difundidas, es la tesis según la cual las teorías científicas, al menos en las ciencias que han alcanzado suficiente madurez, deben ser interpretadas como descripciones aproximadamente verdaderas de la realidad. De forma más precisa, las afirmaciones científicas sobre el mundo han de interpretarse como enunciados aproximadamente verdaderos, tanto en lo que establecen sobre los fenómenos observables, como en lo que establecen sobre entidades o procesos no directamente observables. Esta tesis tiene como corolario que las entidades teóricas postuladas por las teorías científicas deben, como regla general, considerarse como existentes. Si una teoría científica postula electrones o quarks, entonces los electrones y los quarks existen. Puede haber excepciones, porque no todos los términos teóricos de la ciencia pretenden tener una referencia real (por ejemplo, ‘homo economicus’, o ‘gas ideal’), pero dejando de lado estos casos, los términos teóricos, según el realista, se refieren a entidades realmente existentes. Los realistas creen, por lo tanto, que las teorías científicas tratan de establecer qué cosas hay en el mundo y por qué se comportan como lo hacen, y, en función de ello, ven la evidencia empírica como una base adecuada para creer en la verdad (aproximada) de la teoría a la que esta evidencia sustente. Pero esta caracterización debe entenderse como una aproximación inicial, porque como se verá a continuación, el realismo científico contiene una variedad de tesis más específicas, y no todas ellas despiertan la misma adhesión entre los autores realistas.

Conviene saber que esta es una discusión que ha tenido un papel central en la propia ciencia. Se pueden señalar al menos tres episodios históricos que delimitan perfectamente los aspectos principales del problema. En primer lugar, el debate sobre la interpretación de los modelos cosmológicos en la astronomía, que surge ya entre los griegos, pero que alcanza su punto culminante con el caso Galileo; en segundo lugar, el debate sobre la existencia de los átomos cuando fueron propuestos por Dalton en la química del siglo XIX, y, en tercer lugar, el debate sobre la interpretación adecuada de la teoría cuántica, que surge con la propuesta inicial de la llamada ‘interpretación de Copenhague de la mecánica cuántica y llega hasta nuestros días (cf. Diéguez, 1998). Los dos primeros debates se cerraron con la victoria del realismo, mientras que el tercer debate no está cerrado, y tras la victoria inicial del antirrealismo de Copenhague, vuelven a cobrar cierta fuerza en años recientes algunas interpretaciones realistas (aunque el realismo que presentan difiera en mucho del que ofrece el sentido común).

También puede citarse como un antecedente (lejano e indirecto) la disputa medieval sobre los universales. El nominalismo defendía que los términos generales –los universales– son meros recursos lingüísticos necesarios para la clasificación de las entidades particulares, que son las únicas que existen realmente. Los realistas, en cambio, sostenían que algo real correspondía a estos términos generales; esto es, que no solo existían los caballos concretos, sino también la propiedad de ser un caballo. Esta propiedad no era una mera construcción de nuestra mente, sino que correspondía a los rasgos objetivos presentados por todos los entes que incluimos bajo el término ‘caballo’ y que constituyen su esencia.

En la época contemporánea, podemos apreciar un resurgir del realismo a finales del siglo XIX y el inicio del XX. Es el caso, por ejemplo, del ‘realismo crítico’ desarrollado dentro del neokantismo por autores como Oswald Külpe y August Messer; del realismo epistemológico defendido por algunos marxistas, como Vladimir I. Lenin; del realismo fenomenológico de Alexander Pfänder y Nicolai Hartmann; o del neorrealismo propugnado por Franz Brentano, Alexius Meinong, William P. Montague, Ralph Barton Perry, George Edward Moore y Bertrand Russell. Los autores antirrealistas más importantes en esos momentos, al menos en lo que respecta a la visión de la ciencia, fueron Ernst Mach, Pierre Duhem y Henri Poincaré. La división entre la filosofía analítica y la filosofía continental (si aceptamos estos términos controvertidos) marcó una diferencia también en la aceptación del realismo. La filosofía continental quedó en manos de corrientes abiertamente antirrealistas, cuando no neo-idealistas, como la fenomenología (en su orientación más influyente), el existencialismo, la filosofía neo-nietzscheana, las corrientes heideggerianas, el estructuralismo y postestructuralismo, el deconstruccionismo y la hermenéutica; aunque en la actualidad se está produciendo una recuperación de las ideas realistas dentro de esta tradición gracias al Nuevo Realismo (Maurizio Ferraris, Markus Gabriel, Mauricio Beuchot, etc.) y al Realismo Especulativo (Graham Harman, Quentin Meillassoux, Alberto Toscano, etc.) (cf. Gabriel, 2015). En la filosofía analítica, la tendencia inicial, propiciada por el neopositivismo, fue la dejar de lado esta discusión, por tratarse de un problema metafísico, aunque de facto la actitud predominante con respecto a las teorías científicas era abiertamente instrumentalista, lo que resultaba más acorde con el empirismo que defendían. La pérdida de influencia del empirismo lógico propició a finales de los 50 la aparición de corrientes críticas, entre ellas, una de corte historicista y antirrealista, representada fundamentalmente por el libro de Thomas Kuhn La estructura de las revoluciones científicas, publicado en 1962, y otra basada en una visión realista de la ciencia, representada inicialmente por Jack J. C. Smart, Wilfrid Sellars, Karl Popper y Grover Maxwell; a los que siguieron Richard Boyd, Hilary Putnam (durante un tiempo), Alan Musgrave, Ilkka Niiniluoto, Jarret Lepin, Philip Kitcher, Mario Bunge, Susan Haack y Stathis Psillos, entre muchos otros autores que podrían citarse. Es de esta última corriente de la que nos ocupamos aquí.

2. Caracterización del realismo científico

Las propuestas centrales del realismo científico pueden cifrarse en los siguientes puntos (cf. Niiniluoto, 1999 y Psillos, 1999):

(a) Existe hipotéticamente un mundo independiente de la mente del observador que nuestras teorías científicas pretenden conocer.

(b) Las teorías científicas bien confirmadas nos proporcionan un conocimiento de ese mundo independiente, no de los meros fenómenos. No son meras construcciones sociales ni simples herramientas conceptuales para la predicción y el control.

(c) Las teorías científicas bien confirmadas contienen muchas afirmaciones verdaderas sobre el mundo. Estas afirmaciones verdaderas no se restringen sólo al ámbito de lo directamente observable, sino que también afectan a entidades no observables.

(d) La verdad debe entenderse en el sentido clásico de la correspondencia entre el contenido de nuestros enunciados y la realidad.

(e) Las teorías científicas actuales son mejores que las del pasado no sólo porque resuelven más y mejores problemas, sino porque contienen más verdades.

(f) El enorme éxito predictivo de nuestras teorías científicas se debe precisamente a que éstas contienen muchas afirmaciones verdaderas acerca de la realidad.

La tesis (a) es el realismo ontológico, y en la actualidad es aceptada de forma generalizada. No quedan apenas idealistas, que serían contrarios a esta tesis, aunque aún quedan bastantes constructivistas sociales, que suelen mantener una posición ambigua en este asunto. Para el realista ontológico el mundo no depende en su existencia, ni en la de algunas de sus propiedades, de los esquemas conceptuales, de los lenguajes o de las ideas que podamos forjar los seres humanos para conocerlo, o de cualquier otra característica mental o epistémica; lo que no impide que podamos conceptualizarlo de diferentes modos en función del contexto y de nuestros intereses. El realismo ontológico es, en efecto, compatible con el pluralismo conceptual (cf. Niiniluoto, 1999 y 2015; Kitcher, 2001 y Diéguez, 2011). Aplicado a las teorías científicas, el realismo ontológico implica que las entidades teóricas postuladas por la ciencia existen con independencia de nuestro conocimiento de ellas, aunque podamos equivocarnos al respecto en diversas ocasiones.

La tesis (b) es el realismo epistemológico, y se opone al idealismo trascendental de Kant, pero también al fenomenismo de Ernst Mach, al realismo interno de Putnam (cf. Putnam, 1988) o al constructivismo social defendido por algunos sociólogos de la ciencia, como Steve Woolgar (cf. Woolgar, 1991). El realismo epistemológico implica que el noúmeno, la cosa-en-sí, es cognoscible, o por mejor decirlo entonces, implica que la distinción kantiana entre fenómeno y noúmeno es insostenible, puesto que éste se consideraba, por definición, inaccesible a nuestro conocimiento.

La tesis (c) es conocida como realismo semántico, y mantiene que la verdad (aproximada) es atribuible no solo a los enunciados que pueden ser empíricamente verificados por versar sobre cosas o propiedades observables, sino también a los enunciados científicos que afirman algo acerca de procesos o entidades no directamente observables. A esta tesis se opone el empirismo constructivo de van Fraassen, para el cual las teorías científicas son aceptadas sólo por su adecuación empírica, es decir, porque sus consecuencias observables son verdaderas, pero sin que de ahí debamos pasar a creer en la existencia de las entidades teóricas que postulan (cf. van Fraassen, 1980). Según el empirismo constructivo, los enunciados científicos que se refieren a entidades inobservables, como los electrones o los quarks, pueden ser verdaderos o falsos, como cree el realista, pero la aceptación de una teoría por parte de un científico no compromete a éste con la aceptación de la existencia de dichas entidades. Puede hacerlo, si quiere, pero no es algo que venga exigido por su aceptación de la teoría en cuestión. Solo la verdad de los enunciados sobre entidades y sucesos observables sin la ayuda de instrumentos (la adecuación empírica de la teoría) es relevante. Para el realista, sin embargo, esta distinción entre lo que es directamente observable para el ser humano y lo que no lo es, no solo es borrosa, sino que carece de relevancia metafísica. En nada cambia la capacidad explicativa de una entidad postulada el hecho de pueda ser observada o no a simple vista, ni tampoco parece haber razones de peso para sostener que no podemos establecer (de forma falible y revisable) la existencia de entidades que no son directamente observables. Los científicos aceptan en general la existencia de átomos y moléculas, aunque no son observables sin ayuda de un instrumental sofisticado. También se oponen al realismo epistemológico los instrumentalistas, para los cuales las teorías científicas son herramientas para la predicción y el control, recursos útiles para compendiar experiencias, estrategias conceptuales para salvar los fenómenos, pero no se puede decir que sean verdaderas o falsas.

La tesis (d) sostiene que la teoría de la verdad que debe aceptar el realista es la vieja teoría de la verdad como correspondencia (reinterpretada, según algunos, a través de los trabajos de Alfred Tarski (cf. Niiniluoto, 1987 y 1999)). Esto implica, en particular, que para el realista no es aceptable ninguna noción epistémica de verdad, esto es, ninguna noción de verdad que la entienda como un estado de conocimiento alcanzado en ciertas circunstancias ideales. Para el realista son posibles, por tanto, verdades que permanecerán siempre desconocidas para el ser humano. Es lo que cabe esperar si se asume el realismo ontológico y la falibilidad de nuestro conocimiento. Por supuesto, el rechazo del realista se extiende también a otras nociones de verdad, como la relativista, la coherentista o la deflacionaria. Algunos realistas “mínimos”, como Ronald Giere, Michael Devitt, Nancy Cartwright o Ian Hacking, prefieren no declarar ningún compromiso concreto con la verdad y consideran que lo único exigible al realista es que asuma la existencia de las entidades teóricas. Por eso son conocidos como ‘realistas sobre entidades’. Pero la mayoría coincide con Niiniluoto y Sankey en que esta actitud no es lo suficientemente fuerte y coherente. El recelo ante la teoría de la verdad como correspondencia no estaría justificado. Es cierto que dicha teoría tiene problemas, pero cualquier otra noción de verdad (e incluso el rechazo de la noción de verdad) tiene problemas comparables, si no más graves.

La tesis (e) es el realismo progresivo, que no debe confundirse con lo que los críticos, y en particular Larry Laudan, suelen llamar ‘realismo convergente’, porque no presupone necesariamente la convergencia hacia una teoría final (ni aspira a lo que Putnam llamaba ‘el punto de vista del ojo de Dios’, es decir, una única teoría completa y verdadera sobre el universo). El realismo progresivo puede asumir un pluralismo perspectivista que rechace la perspectiva total e incondicionada, o desde “ningún lugar”. Autores antirrealistas que han rechazado explícitamente esta tesis son Paul Feyerabend, Thomas Kuhn y Larry Laudan. Para los dos últimos, la ciencia progresa en la medida en que las nuevas teorías resuelven más y mejores problemas, pero no porque sean más verdaderas. Feyerabend, por su parte, considera que la noción de Verdad (así con mayúsculas) es un instrumento ideológico y retórico para imponer ciertas ideas, pero no un objetivo de la ciencia.

Finalmente, la tesis (f) no suele presentarse como una tesis, sino como un argumento conocido como el argumento de ‘no-milagro’. Es el principal argumento que el realismo dice tener en su favor. Tal como lo expuso Putnam en 1975, el realismo es la única filosofía que no hace del éxito de la ciencia un milagro. Si nuestras teorías científicas no fueran (aproximadamente) verdaderas el enorme éxito predictivo e instrumental de dichas teorías sería inexplicable. La verdad (aproximada) de nuestras teorías científicas es la mejor explicación (para algunos, la única) del éxito de la ciencia. Un éxito tan espectacular como el que la ciencia tiene, capaz de predecir con acierto la existencia de entidades y fenómenos desconocidos, como la existencia del planeta Neptuno, o la curvatura de la luz en campos gravitacionales, o el valor hasta el octavo decimal del momento magnético del electrón, sólo es posible si nuestras teorías “han tocado hueso” en la realidad y –por decirlo con Platón– la han “cortado por sus junturas”.

El argumento de ‘no-milagro’ ha recibido diversas réplicas por parte de los antirrealistas. Se ha dicho que es un argumento circular, puesto que se trata de una ‘inferencia de la mejor explicación’, en la que se supone que la mejor explicación de un fenómeno debe ser verdadera, cuando eso mismo es lo que el antirrealista cuestiona, que algo deba ser tenido por verdadero por el mero hecho de ser la mejor explicación que hemos encontrado. No está claro, además, qué debe entenderse por ‘la mejor explicación’ de un fenómeno. Por otro lado, para un crítico como van Fraassen, incluso si admitiéramos que la mejor explicación de un fenómeno ha de ser verdadera, no tenemos nunca la garantía de que entre las explicaciones de las que disponemos en un momento dado esté precisamente la mejor explicación posible de ese fenómeno. Podríamos tener un mal lote de explicaciones, todas ellas falsas, y, por tanto, la mejor de ellas no sería verdadera. Caben además explicaciones alternativas a la realista que pueden ser mejores. Van Fraassen ha ofrecido una basada en el darwinismo. Nuestras teorías actuales son exitosas porque son precisamente las que han sobrevivido en una dura competencia con otras teorías. Las que no eran exitosas fueron pronto abandonadas. A esto último, el realista responde que tal cosa explicaría por qué ahora tenemos teorías exitosas, pero no por qué una teoría concreta tiene éxito.

3. Críticas al realismo científico

El realismo científico ha tenido que enfrentarse a diversas objeciones y desafíos, pero fundamentalmente a tres: la tesis de la inconmersurabilidad de las teorías científicas, propuesta por Kuhn y Feyerabend en 1962, el argumento de la meta-inducción pesimista, formulado de forma precisa por Laudan (cf. Laudan, 1981), y la tesis de la infradeterminación de las teorías por la experiencia. La tesis de la inconmensurabilidad sostiene que no es posible comparar de forma detallada, objetiva y neutral el contenido de las grandes teorías rivales (paradigmas) en función de la evidencia empírica con el fin de determinar cuál es superior o más verdadera. La inconmensurabilidad niega lo que el realismo progresivo defiende: la idea de que la ciencia progresa hacia teorías cada vez más verdaderas o más verosímiles. Básicamente la respuesta realista ha sido mostrar que el grado de continuidad en el cambio científico es mucho mayor que el que sostuvieron Kuhn y Feyerabend (cf. Pearce, 1987; Shankey, 1994). Se ha escrito mucho sobre esta tesis y aquí no podemos sino remitir al lector a la literatura pertinente (comenzando por Oberheim y Hoyningen-Huene, 2016). Describiremos, pues, brevemente las otras dos objeciones y las réplicas pertinentes.

La objeción de la meta-inducción pesimista es quizás la que más fuerza tiene contra el realismo (en concreto, contra el argumento del no-milagro), y la que más respuestas ha suscitado, ayudando incluso a que surjan nuevas modalidades del realismo. Laudan señaló en la historia de la ciencia una serie de teorías que hoy consideramos falsas y que, sin embargo, tuvieron algún tipo de éxito, fundamentalmente explicativo, e. g., la teoría geocéntrica de Ptolomeo, la teoría del flogisto, la del éter electromagnético, etc. A la luz de estos casos del pasado, lo que cabe inferir, según él, es que también en el futuro el éxito de las teorías seguirá desligado de su supuesta verdad. O dicho de otro modo, no hay ninguna conexión necesaria entre verdad y éxito.

La respuesta de algunos realistas a esta objeción ha consistido, en primer lugar, en señalar que el éxito de la mayor parte de los ejemplos citados por Laudan no es el que ellos tienen en mente, a saber: el éxito a la hora de realizar predicciones novedosas (cf. Leplin, 1997), y, en segundo lugar, en adoptar una estrategia de divide et impera, según la cual no todos los componentes de una teoría han de ser considerados como igualmente verdaderos o aceptables y dignos de perpetuación. En los pocos casos en que una teoría falsa haya podido conducir al éxito predictivo, sólo las partes que cumplieron una función imprescindible en la obtención de predicciones acertadas (porque no todo lo que la teoría contiene contribuyó a ese logro) son las que deben considerarse como aproximadamente verdaderas desde nuestros cánones. Esta línea de defensa ha sido calificada como ‘realismo selectivo’ y sus más conocidos defensores han sido Kitcher (1993) y Psillos (1999).

No obstante, para dar por buena esta réplica habría que realizar un trabajo de documentación histórica que mostrase con un número suficiente de casos concretos –algunos ya hay descritos– que estas partes aproximadamente verdaderas y solo ellas han sido las responsables del éxito predictivo, y hacer esto sin que se convierta en una justificación a posteriori de aquello que el realista considera que hay que salvar, es decir, sin preseleccionar estas partes a partir del conocimiento que actualmente tenemos de que, en efecto, fueron las partes que se conservaron de una u otra manera en las teorías posteriores.

El realismo estructural (cf. Worrall, 1989) ofrece una respuesta diferente: lo que se preserva a través del cambio de teorías y, por tanto, lo que podemos considerar responsable del éxito predictivo de la ciencia no son las verdades acerca del comportamiento concreto y las propiedades de las entidades teóricas, sino la estructura matemática utilizada por las teorías exitosas, las relaciones estructurales, a menudo formuladas en ecuaciones, que mantienen las entidades teóricas entre sí. En la versión epistémica del realismo estructural, solo podemos conocer esas estructuras formales, aunque la realidad no se reduzca a ellas, mientras que en la versión ontológica, no hay entidades individuales en la realidad que correspondan a las entidades teóricas porque solo las estructuras formales son auténticamente reales. Ambas interpretaciones presentan, sin embargo, problemas que generan una intensa discusión en la literatura más reciente sobre el realismo.

Finalmente, la tesis de la infradeterminación sostiene que, dada cualquier teoría, es siempre factible la elaboración de una teoría empíricamente equivalente a ella, pero incompatible en los aspectos no observables. Por tanto, puede lograrse que la evidencia empírica que encaja con una teoría encaje igualmente con otra teoría distinta en sus compromisos acerca de las entidades teóricas postuladas. Esto implica que dicha evidencia no puede servir para apoyar la verdad de ninguna de ellas. Los realistas han contraargumentado de dos formas principales. Por un lado, algunos han negado la posibilidad real (no a través de apaños meramente lingüísticos o de ejemplos ficticios y truculentos (cerebros en una cubeta, etc.)) de teorías empíricamente equivalentes ante toda evidencia posible, pasada y futura. En los casos históricos que se han dado de equivalencia empírica, la evidencia permitió decidir finalmente en favor de una de las teorías en liza, y lo mismo se espera que ocurra en los casos presentes o futuros. Por otro lado, si se dieran casos genuinos de equivalencia empírica, hay que tener en cuenta que la evidencia en favor de una teoría no se limita a sus consecuencias empíricas, y que podrían encontrarse elementos de juicio adicionales, pero con valor espistémico para elegir entre ellas, como el carácter no ad hoc de la teoría o el encajar mejor con otras (cf. Laudan y Leplin, 1991).

El debate entre realistas y antirrealistas continúa, y ninguno de los dos bandos parece cercano a alcanzar la victoria. Este hecho ha motivado que algunos lo consideren una confrontación de temperamentos más que de argumentos. Pero este juicio parece injusto cuando consideramos cómo el debate ha contribuido a mejorar nuestra comprensión de la ciencia y a percibir la variedad en el uso y desarrollo de las teorías científicas.

Antonio Diéguez Lucena
(Universidad de Málaga)

Referencias

  • Agazzi, E., ed., (2017): Varieties of Scientific Realism. Objectivity and Truth in Science, Cham, Springer.
  • Borge, B. (2015): “Realismo científico hoy: a 40 años de la formulación del Argumento del No-Milagro”, Acta Scientiarum, 37(2), pp. 221-233. https://doi.org/10.4025/actascihumansoc.v37i2.26933
  • Borge, B. y N. Gentile, eds., (2020): La ciencia y el mundo inobservable. Discusiones contemporáneas en torno al realismo científico, Buenos Aires, Eudeba.
  • Bunge, M. (2007): A la caza de la realidad. La controversia sobre el realismo, Barcelona, Gedisa.
  • Carman, C. C. (2016): “Realismo científico”, en Diccionario Interdisciplinar Austral, Vanney, C. E., I. Silva y J. F. Franck, ed., disponible en http://dia.austral.edu.ar/Realismo_cient%C3%ADfico
  • Cartwright, N. (1983): How the Laws of Physics Lie, Oxford, Clarendon Press.
  • Chakravartty, A. (2007): A Metaphysics for Scientific Realism, Cambridge, Cambridge University Press.
  • — (2016): “Scientific Realism”, en The Stanford Encyclopedia of Philosophy, E. N. Zalta, ed., disponible en https://plato.stanford.edu/archives/win2016/entries/scientific-realism/ [Winter 2016 Edition].
  • Devitt, M. (1984): Realism and Truth, Oxford, Blackwell.
  • Diéguez, A. (1998): Realismo científico. Una introducción al debate actual en la filosofía de la ciencia, Málaga, Universidad de Málaga, https://www.researchgate.net/publication/31735242_Realismo_cientifico_una_introduccion_al_debate_actual_en_la_filosofia_de_la_ciencia_A_Dieguez_Lucena
  • (2001): “Las explicaciones del éxito de la ciencia. Un análisis comparativo”, Themata, 27, pp. 9-23. Disponible online
  • (2006): “Why Does Laudan’s Confutation of Convergent Realism Fail?”, Journal for General Philosophy of Science, 37, pp. 393-403. https://www.jstor.org/stable/25171353
  • (2011): “Kitcher’s Modest Realism: The Reconceptualisation of Scientific Objectivity”, en W. J. González, ed., (2011): Scientific Realism and Democratic Society. The Philosophy of Philip Kitcher, Poznam Studies in the Philosophy of the Sciences and the Humanities, 101, Amsterdam, Rodopi, pp. 141-169. Disponible online
  • Gabriel, M. (2015): Por qué el mundo no existe, Barcelona, Ediciones Pasado y Presente.
  • Giere, R.N. (1999): Science without Laws, Chicago, The University of Chicago Press.
  • Hacking, I. (1996): Representar e intervenir, Barcelona, Paidós.
  • Iranzo, V. (2016): “La defensa abductiva del realismo científico. Estado de la cuestión”, en Gómez, O.L., J.I. Racines, eds., Los límites de la ciencia y la filosofía, Cali, Universidad del Valle, pp. 51-73
  • Kitcher, P. (1993): The Advancement of Science. Science without Legend, Objectivity without Illusion, Oxford, Oxford University Press.
  • (2001): Science, Truth, and Democracy, Oxford, Oxford University Press.
  • Kuhn, T.S. ( [1962]1981): La estructura de las revoluciones científicas, Madrid, F.C.E.
  • Laudan, L. (1981): “A Confutation of Convergent Realism”, Philosophy of Science, 48, pp. 19-48.
  • Laudan, L. y J. Leplin (1991): “Empirical Equivalence and Underdetermination”, Journal of Philosophy, 88, pp. 449-472.
  • Leplin, J. (1997): A Novel Defense of Scientific Realism, New York, Oxford University Press.
  • Liston, M. (s. f.): “Scientific Realism and Antirealism”, Internet Encyclopedia of Philosophy, FIESER, J. y B. DOUDEN, eds., Disponible online
  • Niiniluoto, I. (1987): Truthlikeness, Dordrecht, Reidel.
  • (1999): Critical Scientific Realism, Oxford, Oxford University Press.
  • (2015): “Optimistic Realism about Scientific Progress”, Synthese, 194, pp. 3291-3309. https://doi.org/10.1007/s11229-015-0974-z
  • Oberheim, E. y P. Hoyningen-Huene (2016): “The Incommensurability of Scientific Theories”, en The Stanford Encyclopedia of Philosophy, E.N. Zalta, ed., disponible en https://plato.stanford.edu/cgi-bin/encyclopedia/archinfo.cgi?entry=incommensurability&archive=win2016 [Winter 2016 Edition].
  • Pearce, D. (1987): Roads to Commensurability, Dordrecht, Reidel.
  • Popper, K. (1985): Realismo y el objetivo de la ciencia, Madrid, Tecnos.
  • Psillos, S. (1999): Scientific Realism: How Science Tracks Truth, London, Routledge.
  • Putnam, H. (1983): Realism and Reason, Cambridge, Cambridge University Press.
  • (1987): The Many Faces of Realism, La Salle, Ill., Open Court.
  • (1988): Razón, verdad e historia, Madrid, Tecnos.
  • (1990): Realism with a Human Face, Cambridge, Mass., Harvard University Press.
  • Rivadulla, A. (2015): Meta, método y mito en ciencia, Madrid, Trotta.
  • Sankey, H. (1994): The Incommensurability Thesis, Aldershot, Avebury.
  • (2008): Scientific Realism and the Rationality of Science, Aldershot, Ashgate.
  • Smart, J.J.C. (1975): Entre ciencia y filosofía, Madrid, Tecnos.
  • Stanford, P. K. (2006): Exceeding our Grasp, Oxford, Oxford University Press.
  • Van Fraassen, B. C. (1980): The Scientific Image, Oxford, Clarendon Press.
  • (1989): Laws and Symetry, Oxford, Clarendon Press.
  • (2008): Scientific Representation, Oxford, Clarendon Press.
  • Woolgar, S. (1991): Ciencia: Abriendo la caja negra, Barcelona, Anthropos.
  • Worrall, J. (1989): “Structural Realism: The Best of Both Worlds?”, Dialectica, 43, pp. 99-124.
  • Zamora Bonilla, J. (2019): “Realism versus Anti-realism: Philosophical Problem or Scientific Concern?”, Synthese, 196(10), pp. 3961-3977. DOI:10.1007/s11229-015-0988-6
Cómo citar esta entrada

Diéguez, Antonio (2018) «Realismo Científico», Enciclopedia de Filosofía de la Sociedad Española de Filosofía Analítica (URL: http://www.sefaweb.es/realismo-cientifico/).

 

Razones para actuar

¿Por qué mientes siempre? ¿Huck Finn debería haber delatado a Jim? ¿Por qué vende su coche? Las preguntas sobre las razones que tenemos para algo y, en particular, por las razones para actuar son parte de las preguntas más frecuentes que como humanos nos hacemos. La mayoría de los filósofos contemporáneos, en sus intentos por comprender la naturaleza de tales razones, parten de la distinción entre dos tipos de razones para actuar: las razones «normativas”; razones que, a grandes rasgos, cuentan a favor de una acción, o la justifican, desde el punto de vista de un observador bien informado e imparcial, y las razones «motivadoras»; que, también a grandes rasgos, son razones que el «agente” (la persona que actúa) considera que cuentan a favor de una acción o la justifican y que guían su actuación. Pero hay, además, razones «explicativas»: razones que explican una acción sin necesariamente justificarla o sin motivar al agente.

Esta entrada examina las distintas formas en las que los filósofos han explicado los diversos tipos de razones y sus interconexiones, así como los desacuerdos que existen entre ellos en estas cuestiones.

1. La variedad de las razones

Los seres humanos deliberamos sobre lo que hacer y cómo hacerlo, y a menudo actuamos a la luz de razones que, por tanto, pueden explicar nuestras acciones e incluso justificarlas. Como mencionábamos en la introducción, en los debates contemporáneos se suele distinguir entre razones normativas y motivadoras. Jonathan Dancy (2000) sugiere que la distinción entre diferentes tipos de razón se entiende mejor como una distinción entre las preguntas que podemos hacer sobre ellas (Baier 1958). Según él, existe una única noción de razón que se utiliza para responder a preguntas distintas: podemos preguntarnos, por una parte, si hay alguna razón para que alguien haga algo (normativa) y, por otra, cuál es la razón por la que alguien hace algo (motivadora). En cada caso, centramos nuestra atención en cuestiones o de justificación, o de motivación.

Si esta propuesta es correcta, lo más probable es que el panorama sea más complejo de lo que sugiere la dicotomía entre «normativo y motivador», ya que parece que podemos hacernos al menos tres preguntas distintas sobre la relación entre razones y acciones: preguntas acerca de si existe una razón que cuenta a favor de la acción de alguien, preguntas acerca de qué razón motiva a alguien a actuar y también preguntas acerca de qué razones explican su acción.

Consideremos el comportamiento de Otelo en la obra de Shakespeare de ese mismo nombre. Otelo mata a Desdémona porque cree, inducido por Yago, que ella le ha sido infiel. La tragedia, sin embargo, es que Desdémona es inocente. Es evidente que no hay ninguna razón que justifique el asesinato (ninguna razón normativa). Pero hay dos cosas que podemos decir sobre la razón para actuar de Otelo y su acción. Lo primero es que Otelo se ve motivado a matar a Desdémona por el (supuesto) hecho de que Desdémona ha sido infiel. Lo segundo es que podemos explicar su acción de matarla haciendo referencia al hecho de que él cree que Desdémona ha sido infiel. Parece que tenemos dos razones diferentes: una razón que explica la acción de Otelo (el hecho de que cree que Desdémona ha sido infiel) y una razón que lo motiva a actuar (la supuesta infidelidad). Examinaremos más adelante las razones por las que no debemos pensar que la razón motivadora de Otelo es simplemente el hecho de que cree que Desdémona ha sido infiel y qué consecuencias tiene esto para la clasificación de tipos de razones.

Hasta hace poco, se pensaba que la distinción entre diferentes tipos de razones implicaba que cada razón era de naturaleza distinta. Las razones normativas se concebían como hechos y, como tales, se las consideraba independientes de la mente. Por el contrario, las razones motivadoras y explicativas se concebían como estados mentales de los agentes y, por tanto, como entidades que dependen de que alguien piense o crea ciertas cosas (Audi, 2001 y Mele, 2003). En los últimos años, sin embargo, esta suposición ha sido cuestionada, dando lugar a una serie de disputas sobre la ontología de las razones, es decir, disputas en torno a qué tipo de cosa o cosas son las razones. Mientras examinamos los diferentes tipos de razones, encontraremos algunos de estos debates ontológicos.

2. Razones normativas

Decimos que una razón es «normativa» porque cuenta a favor de la actuación de alguien o, en términos de justificación, porque justifica o hace que sea correcto que alguien actúe de cierta manera. Por ello, se denominan también «razones justificativas». El término «razón normativa» deriva de la idea de que existen normas o principios que prescriben acciones: hacen que sea correcto o incorrecto hacer ciertas cosas. Por ejemplo, la razón que hace que sea correcto estrechar la mano de alguien que conocemos por primera vez en el Reino Unido es el hecho de que hay una norma de etiqueta que así lo prescribe.

Existe un cierto consenso en torno a la idea de que las razones normativas son hechos (Raz, 1975 y Scanlon, 1998), aunque el consenso no es universal. Por ejemplo, John Mackie (1977) argumenta que no hay hechos morales ya que, si los hubiese, tendrían que ser objetivos y motivar necesariamente a quienes los conocen, lo cual, según él, es totalmente inverosímil. Si está en lo cierto, entonces las razones morales no son razones normativas o, al menos, las razones morales (que son normativas) no son hechos.

Entre quienes sostienen que las razones normativas son hechos, algunos consideran que los hechos son proposiciones verdaderas y, por tanto, que las razones normativas también lo son (Darwall, 1983; Smith, 1994 y Scanlon, 1998). Otros rechazan la idea de que las razones normativas puedan ser proposiciones verdaderas. Dancy (2000), por ejemplo, sostiene que mientras que las proposiciones son abstractas y representacionales (representan cómo es el mundo), las razones deben ser concretas y no representacionales (son maneras en que el mundo es). Aunque estos problemas son complejos no podemos, y tal vez no necesitemos, resolverlos aquí, pues la idea de que las razones normativas son hechos implica generalmente una noción de hechos poco exigente.

Hay menos consenso en torno a lo que fundamenta la capacidad de las razones normativas para justificar acciones, es decir, para hacer que cierta acción sea la correcta. Una propuesta es que la normatividad de tales razones depende de la bondad, intrínseca o instrumental, de hacer lo que las razones dictan (Aristóteles, Anscombe, 1957 y Dancy, 2000) mientras que otros enfoques fundamentan dicha normatividad en el concepto de racionalidad (Korsgaard, 1996; Smith, 1994 y Gert, 2004). Una propuesta diferente afirma que la normatividad de las razones se basa en su relación con nuestros deseos: si hay o no razón para hacer algo depende en última instancia de los deseos y las motivaciones de quien realiza la acción (Williams, 1979 y 1989; Schroeder, 2008 y Goldman, 2009).

El hecho de que algo sea una razón normativa para actuar suele considerarse un hecho «relacional»: consiste en una relación entre un hecho, un agente y un tipo de acción. La relación es la de «ser una razón para» (Raz, 1975; Dancy, 2004 y Cuneo, 2007). Por ejemplo, el hecho de que una persona haya ingerido un veneno letal puede ser una razón para que los paramédicos den a esa persona un antídoto. Esta visión proporciona un sentido mínimo en el que las razones normativas son «relativas al agente» (relacionan a los agentes con las razones). No obstante, hacer relativas las razones al agente plantea preguntas sobre las condiciones que determinan cuándo una razón para actuar se aplica a un agente en particular.

Entre otras cosas, plantean la cuestión de si las razones dependen de los conocimientos y las creencias de los agentes. Otelo, por un lado, no parece tener una razón para matar a Desdémona y la razón que él cree que tiene (que ella ha sido infiel) no es en absoluto razón alguna. Por otro lado, parecería que, desde su perspectiva, Otelo tiene una razón para hacer lo que hace porque cree que Desdémona ha sido infiel y que debe restaurar su reputación con su muerte.

Podemos intentar resolver esta tensión diciendo que Otelo no tiene ninguna razón normativa para matar a Desdémona pero que la falsedad que cree constituye una razón motivadora (Smith, 1994 y Dancy, 2000). Algunos hablan de razones normativas «objetivas» y «subjetivas», de modo que Otelo tendría una razón normativa subjetiva pero no objetiva para matar a Desdémona (Schroeder, 2008). Estas posiciones son «objetivistas» en el sentido de que presuponen que si un agente tiene una razón normativa (objetiva) para actuar ello depende únicamente de los hechos y no de sus creencias (Williams, 1979). Los «perspectivistas”, por el contrario, afirman que el que alguien tenga una razón normativa para hacer algo no es independiente de su perspectiva, la cual incluye sus creencias (Fantl y McGrath, 2009 y Gibbons, 2010).

Los perspectivistas defienden su posición apelando a la racionalidad: los agentes se encuentran a menudo en situaciones en las que no conocen todos los hechos relevantes y, sin embargo, hacen lo que es razonable o racional desde su perspectiva. En relación con la justificación se articulan argumentos similares: aunque la justificación de una acción depende de si hay razones que la justifiquen, hay casos en los que una acción estaría justificada a pesar de que existan razones concluyentes en contra de hacerlo – y estaría justificada precisamente porque el agente no conoce esas razones. Por ejemplo, el hecho de que una tarta esté envenenada es una razón concluyente para no ofrecerla a unos invitados, pero la acción de ofrecerla podría estar justificada, dice el perspectivista, si el agente no sabe que está envenenada.

Un objetivista puede admitir que un agente que actúa según su perspectiva epistémica guiado por una falsa creencia actúa racionalmente, pero negar que ello implique que el agente actúe por razones normativas. Actuar racionalmente puede requerir solamente actuar de una manera que sea consistente con las propias creencias, siempre y cuando éstas sean racionales. Esta respuesta podría basarse, por ejemplo, en la concepción de la racionalidad de Derek Parfit (2001), que requiere actuar guiado por razones reales o aparentes.

En cuanto a la justificación de la acción, el objetivista puede negar que las acciones de los agentes que actúan en ignorancia o guiados por una creencia equivocada estén justificadas. La justificación de la acción sólo depende de si hay hechos que hacen que dicha acción sea correcta. Así que, en el ejemplo anterior, la acción de ofrecer la tarta envenenada a los invitados no está justificada: no hay ninguna razón normativa que haga que sea lo correcto, independientemente de lo que el agente sepa o crea. Otra cuestión, dirá el objetivista, es si un agente que hace algo incorrecto debido a sus creencias falsas o a su ignorancia está justificado y/o merece ser reprochado por ello. Este ejemplo muestra cómo preguntas sobre las razones normativas inciden directamente en la cuestión de la justificación de los agentes, que es diferente de la cuestión de la justificación de sus acciones, al plantear preguntas sobre las razones motivadoras.

3. Razones motivadoras y razones explicativas

Decíamos que, aunque tradicionalmente se han dividido las razones en normativas y motivadoras/explicativas, parece que tiene sentido distinguir también entre razones motivadoras y razones explicativas. La existencia de tres preguntas distintas sobre las razones indicaba la pertinencia de tal distinción (Baier, 1958; Alvarez 2007, 2009 y 2010 y Hieronymi, 2011). Como vimos, el hecho de que Otelo cree que Desdémona ha sido infiel explica por qué la mató, pero ese hecho no es la razón por la que la mata; la razón que, desde su perspectiva, cuenta a favor de matarla.

Una de las cuestiones más debatidas es la ontología de las razones motivadoras y explicativas. Durante la última mitad del siglo XX se consideraba que las razones motivadoras y explicativas, no distinguidas explícitamente entonces, eran entidades psicológicas, en particular, estados mentales de los agentes (como el creer Otelo que Desdémona ha sido infiel); una visión de la ontología de las razones que a menudo se llama «psicologismo». Este consenso comenzó a disolverse al final del siglo y el psicologismo fue fuertemente cuestionado por una posición comúnmente conocida como «antipsicologismo».

En su artículo «Acciones, razones y causas», considerado el locus classicus del psicologismo, Donald Davidson caracteriza una “razón primaria” como la combinación de dos estados mentales: una actitud favorable y una creencia.

C1. R es una razón primaria por la que un agente realizó la acción A en la descripción d, sólo si R consiste en una actitud favorable del agente hacia las acciones que poseen cierta propiedad y en una creencia suya de que A en la descripción d tiene esa propiedad (Davidson, 1963, p.687 [1995, p. 20]).

Estas “razones primarias” son, en efecto, razones explicativas: razones que explican las acciones. El psicologismo resulta muy atractivo ya que parece correcto que cuando un agente actúa por una razón, actúa motivado por un fin que desea y guiado por una creencia acerca de cómo lograr ese fin. Así, es posible explicar su acción citando su deseo y su creencia en las cosas relevantes. Este tipo de consideración condujo a una aceptación generalizada de la idea de que las razones explicativas son estados mentales y, puesto que no se distinguían de las razones motivadoras, contribuyó también a la idea de que las razones motivadoras son estados mentales.

Algunos psicologistas, sin embargo, sostienen que estos dos tipos de razones, en lugar de estados mentales, son hechos mentales o psicológicos. Esto se debe a que el psicologismo sostiene que las razones son estados mentales tales como “el creer (o desear o conocer) algo” y es fácil pasar de la afirmación de que la razón de alguien es su creer algo (un estado mental) a la afirmación de que su razón es que cree en algo (un hecho psicológico). Por ejemplo, es fácil pasar de decir que la razón por la que José corre es su creer que llega tarde (un estado mental) a decir que la razón de José es (el hecho de) que cree que llega tarde.

Mientras que el psicologismo sostiene que las razones motivadoras y explicativas son estados mentales o hechos sobre los estados mentales de los agentes, el antipsicologismo afirma que tales razones, como las normativas, son hechos sobre todo tipo de cosas, incluyendo los estados mentales de los agentes.

3.1 Razones motivadoras

Usamos el término «razón motivadora» para referirnos a una razón que el agente considera que cuenta a favor de su acción y a la luz de la cual actúa. Las razones motivadoras son, además, consideraciones que pueden figurar como premisas en un razonamiento práctico que conduce a la acción. Dado que el concepto es algo técnico, resulta pertinente realizar dos aclaraciones.

Primero, el uso actual del término excluye algunos posibles candidatos a ser razones motivadoras; como los objetivos o las intenciones que alguien tiene al actuar, estados de deseo, emociones o consideraciones sobre la bondad o el valor de lo que se desea; ya que en ningún caso constituyen consideraciones a la luz de las cuales un agente actúa. Por ejemplo, lo que Otelo desea (matar a Desdémona), su objetivo (ajustar cuentas por su traición), la emoción que experimenta (celos) son cosas que lo motivan a matar a Desdémona, pero no son sus razones motivadoras en el sentido técnico estipulado. En segundo lugar, el discurso sobre la razón motivadora de alguien implica siempre cierta simplificación porque un agente puede estar motivado a actuar por más de una razón y puede considerar también hechos que cuentan en contra de su actuación.

Un argumento contra el psicologismo y su visión de las razones motivadoras como estados mentales o hechos sobre tales estados pone el énfasis en lo que los agentes mismos consideran sus razones para actuar y en lo que típicamente ofrecen y aceptan como sus razones motivadoras. El razonamiento de Otelo, cuando delibera sobre qué debe hacer (incluso bajo el influjo de los celos) no incluye consideraciones acerca de si él cree esto o aquello, sino consideraciones acerca de lo que Desdémona ha hecho. Las cosas que Otelo considera, entonces, no son sus estados mentales sino hechos, o supuestos hechos, sobre el mundo que le rodea, en particular, sobre Desdémona. Este argumento cobra fuerza al tener en cuenta que las razones motivadoras son las que figuran como premisas en la reconstrucción del razonamiento práctico del agente, que suelen ser consideraciones sobre el mundo, sobre el valor o la bondad de las cosas y de las personas, etc.

El antipsicologismo, por su parte, no está exento de dificultades. Los «casos de error» suponen un problema central para esta postura pues, si las razones motivadoras son hechos, entonces ¿cuál es la razón del agente cuando se encuentra motivado a actuar por una consideración falsa?

Una propuesta para resolver este problema es decir que, en los casos de error, los agentes actúan por una razón que es una falsedad que el agente cree, es decir, las razones podrían ser falsas creencias: son un hecho supuesto que el agente toma como un hecho, como en el caso de Otelo (Dancy, 2000, 2008 y 2014 y Hornsby 2007 y 2008). Jennifer Hornsby defiende esta postura ofreciendo una concepción disyuntiva de las razones para actuar: cuando señalamos las razones para actuar de alguien hacemos referencia a un hecho o a lo que el agente cree, según el caso. Sin embargo, al exponer estas supuestas razones en casos de error nos solemos encontrar ante paradojas o aseveraciones “desafortunadas”. Muchos argumentarían que una afirmación como «la razón de Elena para pisarte es que tú la estás pisando a ella, aunque no la estás pisando» es paradójica. Por el contrario, no hay ninguna paradoja en la afirmación correspondiente a las creencias de Elena: «Elena cree que la estás pisando aunque no la estás pisando». Si esto es correcto, entonces el operador «su razón es que…», a diferencia de «su creencia es que…» requiere la verdad de la proposición expresada con la cláusula «que». Esta respuesta a los casos de error es, por tanto, problemática.

Una respuesta alternativa mantiene que, en los casos de error, un agente actúa basándose en algo que trata como una razón y a la luz de lo cual actúa, aunque en realidad ese algo no constituya una razón. En estos casos, un agente actuaría guiado por una «razón aparente» (Alvarez, 2010 y Williamson 2017). Parfit caracteriza de modo similar las razones aparentes: “tenemos una razón aparente cuando tenemos una creencia cuya verdad nos daría esa razón” (Parfit, 2001, p. 25;  2004, p. 77). Desde este punto de vista, una razón motivadora aparente no es sólo una mala razón sino simplemente no es una razón. Así, los agentes que actúan guiados por creencias falsas están efectivamente motivados por algo: una creencia falsa, pues tratan esa creencia como una razón y se guían por ella al actuar. Sin embargo, esa falsa creencia no es una razón motivadora porque no es un hecho sino sencillamente un hecho aparente y, por tanto, sólo una razón aparente.

Podría parecer que la diferencia entre estas dos alternativas antipsicologistas no es más que una disputa terminológica, no obstante, algunas opciones terminológicas son más aptas que otras porque reflejan una comprensión más precisa del concepto en cuestión. La problemática fundamental que parece estar en el fondo de este debate es si la noción de razón que aplicamos en diferentes contextos es una noción unificada. De ser así, la elección entre los puntos de vista antipsicologistas alternativos esbozados en los párrafos anteriores dependerá en gran medida de las características que consideremos esenciales para esa noción.

3.2 Razones explicativas

La acción de una persona puede ser explicada de varias maneras. Por ejemplo, si queremos explicar por qué Ana fue al hospital podemos decir que quería tranquilizar a su padre (objetivo), que siempre va los martes (hábito), que es una hija muy cumplidora (rasgo de carácter) o que su padre estaba en cuidados intensivos (razón que, desde su perspectiva, cuenta a favor de la acción de ir al hospital). Esta última constituye la explicación de una acción intencional que racionaliza la acción: explica la acción haciendo referencia a la razón que el agente tiene para actuar (Davidson, 1963).

Un argumento a favor del psicologismo de las razones explicativas es que para que una razón pueda racionalizar una acción, dicha razón debe formar parte de la psicología del agente. Un hecho que está «allá afuera» no puede explicar por qué un agente hace algo. Su creencia o conocimiento de ese hecho, en cambio, puede explicar por qué actúa de una manera determinada. Por tanto, las razones que explican sus acciones deben ser estados mentales.

Se podría responder que, aunque un hecho no pueda ser la razón que explica la acción de un agente a menos que éste lo conozca, ello no implica que la explicación de la acción deba mencionar que el agente conoce la razón de su acción. Por ejemplo, podemos explicar por qué Ana fue al hospital haciendo referencia a su razón para ir (que su padre había sido ingresado en la unidad de cuidados intensivos) sin necesidad de mencionar ningún hecho psicológico, como que ella sabía que su padre había sido ingresado, aunque la explicación lo presupone. Frente a esta sugerencia, un defensor del psicologismo podría decir que estas explicaciones son crípticas y que cuando analizamos detalladamente su explanans (la parte de la explicación que desempeña el papel de explicar) éste contiene hechos relacionados con lo que ella sabía o creía.

¿Pero son estas explicaciones realmente crípticas? Parece innegable que una persona no puede actuar por la razón de que p a menos que se encuentre en alguna relación epistémica con p. Sin embargo, de ello no se deduce que todas las racionalizaciones de una acción necesiten mencionar hechos psicológicos y que, cuando no lo hacen, sean crípticas. Tal vez el hecho de que el agente sepa las cosas relevantes es simplemente una condición necesaria para que su razón sea el explanans en una explicación de la razón.

Independientemente de cómo resolvamos la cuestión de las racionalizaciones, tenemos que señalar dos cosas. Primero, en los «casos de error», los explanans de una explicación verdadera han de ser hechos psicológicos. La explicación de por qué Otelo mata a Desdémona no puede ser lo que él cree (que Desdémona ha sido infiel) sino el hecho de que lo cree, o similar. Esto se debe a que las explicaciones son, en general, factuales: una verdadera explicación no puede tener una falsedad como explanans. No podemos decir que Otelo mató a Desdémona porque ella había sido infiel cuando en realidad no lo había sido. Lo segundo es que, aunque el psicologismo sea correcto para las razones explicativas, ello no implica que también lo sea para las razones motivadoras porque estas razones no tienen por qué ser las mismas.

No todos los que se oponen al psicologismo aceptan la idea de que las razones explicativas son estados mentales, o hechos sobre ellos, incluso en los casos de error. Dancy (2000) sostiene que siempre podemos explicar una acción especificando la razón por la que se hizo, incluso cuando la «razón» es alguna falsedad que el agente creyó y a la luz de la cual actuó. En esos casos, según él, podemos decir que tal acción se hizo «por la razón de que p» sin comprometernos por ello a que p sea lo que explica la acción.

No obstante, decir que «Otelo mató a Desdémona por la razón de que Desdémona le había sido infiel, aunque no lo había sido» también suena paradójico. Además, si bien decir que la razón que explica una acción es el hecho de que se hizo por la razón de que p permite a Dancy aceptar que todas las explicaciones son factuales, ello socava su idea de que las razones que explican una acción son también las razones que motivan al agente que la lleva a cabo. Dancy sostiene que la razón que motiva a Otelo es que Desdémona es infiel, mientras que, según esta nueva sugerencia, la razón que explica su acción es que la realizó por la razón de que ella es infiel.

Independientemente de lo que pensemos sobre la nueva propuesta de Dancy, vale la pena recalcar una vez más que la distinción entre razones explicativas y motivadoras permite eludir estas cuestiones. Puede decirse que la razón que explica por qué Otelo mató a Desdémona es el hecho psicológico de que creía que ella le había sido infiel sin que tengamos que aceptar que esa es la razón que motivó la acción. Su razón motivadora fue el supuesto hecho de que ella había sido infiel (el cual algunos describirían como una razón aparente). En resumen, incluso si alguna forma de psicologismo es correcta para las razones explicativas, de ahí no se deduce que también lo sea para las razones motivadoras: en algunos casos, ambas pueden diferir entre sí.

4. Conclusión

Las limitaciones de espacio impiden el examen detallado de otros debates sobre las razones para actuar. Lo examinado hasta ahora constituye una visión general de una serie de problemas sobre las razones prácticas y su amplia significación. Tal exposición habría de haber mostrado cómo estos problemas y sus múltiples ramificaciones alcanzan muchos aspectos de nuestras vidas y tienen consecuencias importantes para nuestra comprensión de nosotros mismos como agentes racionales.

María Álvarez
(King’s College London)

Marta Cabrera
(Universitat de València)

Referencias

  • Alvarez, M. (2007): “The Causalism/Anti-Causalism Debate in the Theory of Action: What it is and why it matters”, en A. Leist, ed., Action in Context, Berlin, Germany, Walter De Gruyter, pp.103-123.
  • ––– (2009): “How Many Kinds of Reasons?”, Philosophical Explorations, 12(2), pp. 181-93.
  • ––– (2010): Kinds of Reasons: An Essay on the Philosophy of Action, Oxford, Oxford University Press.
  • Anscombe, G. E. M. (1957): Intention, Oxford, Blackwell. [ Anscombe, G. E. M. (1991): Intención, trad. por Ana Isabel Stellino, Barcelona, Paidós].
  • Aristóteles (2014): Ética a Nicómaco, trad. por María Araujo y Julián Marías, Edición Bilingüe, Madrid, Centro de Estudios Políticos y Constitucionales.
  • Audi, R. (2001): The Architecture of Reason, Oxford, Oxford University Press.
  • Baier, K. (1958): The Moral Point of View, Ithaca, Nueva York, Cornell University Press.
  • Cuneo, T. (2007): The Normative Web. An Argument for Moral Realism, Oxford, Oxford University Press.
  • Dancy, J. (2000): Practical Reality, Oxford, Clarendon Press.
  • ––– (2004): Ethics Without Principles, Oxford, Oxford University Press.
  • ––– (2008): “On How to Act—Disjunctively”, en Haddock, A. y F. MacPherson, eds., Disjunctivism: Perception, Action, Knowledge, Oxford, Oxford University Press, pp. 262-279.
  • ––– (2014): “On Knowing One’s Own Reasons”, en Littlejohn, C. y J. Turri, eds., Epistemic norms, new essays on action, belief and assertion, Oxford, Oxford University Press, pp. 81-96.
  • Darwall, S. (1983): Impartial Reason, Ithaca, Nueva York, Cornell University Press.
  • Davidson, D. (1963): “Actions, Reasons, and Causes”, The Journal of Philosophy, 60(23), pp. 685-700. [ Reimpreso en Davidson, D. (1980): Essays on Actions and Events, Oxford, Clarendon Press, pp. 3-21. Davidson, D. (1995): “Acciones, razones y causas”, trad. Handsberg, O., J. A. Robles y M. Valdés, Ensayos sobre acciones y sucesos, Instituto de Investigaciones Filosóficas, Universidad Nacional Autónoma de México, Barcelona, Crítica, pp. 17-36].
  • Fantl, J. y M. McGrath (2009): Knowledge in an Uncertain World, Oxford, Oxford University Press.
  • Gert, J. (2004): Brute Rationality: Normativity and Human Action, Cambridge, Cambridge University Press.
  • Gibbons, J. (2010): “Things that Make Things Reasonable”, Philosophy and Phenomenological Research, 81(2), pp. 335-361.
  • Goldman, A.H. (2009): Reasons from Within: Desires and Values, Oxford, Oxford University Press.
  • Hieronymi, P. (2011): “Reasons for Action”, Proceedings of the Aristotelian Society, 111, pp. 407-27.
  • Hornsby, J. (2007): “Knowledge, Belief, and Reasons for Acting”, en Penco, C., M. Beaney y M. Vignolo, eds., Explaining the Mental, Newcastle, Cambridge Scholars Publishing, pp. 88-105.
  • ––– (2008): “A Disjunctive Conception of Acting for Reasons”, en Haddock, A. y F. MacPherson, eds., Disjunctivism: Perception, Action, Knowledge, Oxford, Oxford University Press, pp. 244-261.
  • Korsgaard, C. (1996): The Sources of Normativity, Cambridge, Cambridge University Press. [Korsgaard, C. (2000): Las fuentes de la normatividad, trad. por Laura Lecuona y Laura E. Manríquez, Universidad Nacional Autónoma de México].
  • Mackie, J.L. (1977): Inventing Right and Wrong, Londres, Pelican Books. [ Mackie, J.L. (2000): Ética. La invención de lo bueno y lo malo, trad. por Tomás Fernández Aúz, Barcelona, Gedisa].
  • Mele, A. (2003): Motivation and Agency, Oxford, Oxford University Press.
  • Parfit, D. (2001): “Rationality and Reasons”, en Egonsson, D., J. Josefsson, B. Petersson y T. Rønnow-Rasmussen, eds., Exploring Practical Philosophy: From Action to Values, Ashgate, pp. 19-39. [ Parfit, D. (2004): “Racionalidad y razones”, trad. por José Óscar Benito Vicente, Personas, racionalidad y tiempo, Madrid, Síntesis, pp. 64-92].
  • Raz, J. (1975): Practical Reasoning and Norms, Londres, Hutchinson & Co.. [Reimpreso (1990) (1999) Oxford University Press.] [ Raz, J. (1991): Razón práctica y normas, trad. J. Ruiz Manero, Madrid, Centro de Estudios Constitucionales].
  • Scanlon, T.M. (1998): What We Owe to Each Other, Cambridge, MA., Belknap Press of Harvard University Press. [Scanlon, T.M. (2003): Lo que nos debemos los unos a los otros: ¿qué significa ser moral?, trad. por E. Wikert García, Barcelona, Paidós].
  • Schroeder, M. (2008): “Having Reasons”, Philosophical Studies, 139, pp. 57-71.
  • Smith, M. (1994): The Moral Problem, Oxford, Blackwell. [Smith, M. (2015): El problema moral, trad. por Sánchez Brigido, R. y A. Embrioni, Madrid, Marcial Pons].
  • Williams, B.A.O. (1979): “Internal and External Reasons”,[ Reimpreso en Williams, B.A.O., (1981) Moral Luck, Cambridge, Cambridge University Press, pp. 101-113].[Williams, B.A.O. (1994): “Razones internas y externas”, trad. por S. Marín, La fortuna moral, México, Instituto de Investigaciones Filosóficas].
  • Williamson, T. (2017): “Acting on Knowledge”, en Carter, J. A., E. Gordon y B. Jarvis, eds., Knowledge-First, Oxford, Oxford University Press.

Lecturas recomendadas en castellano

  • Austin, J.L. (1989): “Un alegato en pro de las excusas”, trad. por A. García Suárez, en Ensayos filosóficos, Madrid, Alianza, pp. 169-192.
  • Broncano, F. (2017): Racionalidad, acción y opacidad: sujetos vulnerables en tierras libres, Buenos Aires, Eudeba.
  • Cruz, M. (1995): “Atar corto a la intención”, en ¿A quién pertenece lo ocurrido? Acerca del sentido de la acción humana, Madrid, Taurus, pp. 65-102.
  • Elster, J. (1984): Ulises y las sirenas. Estudios sobre racionalidad e irracionalidad, trad. por J. J. Utrilla, México, Fondo de Cultura Económica.
  • Ferrer, U. (1990): Perspectivas de la acción humana, Barcelona, Promoción de Publicaciones Universitarias.
  • Frankfurt, H. G. (2006): La importancia de lo que nos preocupa. Ensayos filosóficos, trad. por Weinstabl, V. I. y S. M. Hagen, Buenos Aires, Katz.
  • Gil, T. (2010): Acciones, normatividad, historia, Barcelona, Herder Editorial.
  • Hume, D. (2004): Investigación sobre el entendimiento humano, trad. por Sanfélix, V. y C. Ors, Madrid, Istmo.
  • ––– (2005): Tratado de la naturaleza humana, trad. por F. Duque, Madrid, Tecnos.
  • Mosterín, J. (2008): Lo mejor posible: racionalidad y acción humana, Alianza Editorial.
  • Moya, C. (2008): “Razones, justificación y causalidad”, en Caorsi, C. E. y W. Silva-Filho, eds., Razones e interpretaciones. La filosofía después de Donald Davidson, Ediciones del Siglo, Buenos Aires, pp. 59-75.
  • ––– (2001): “Sentimientos y teoría de la acción”, Isegoría, 25, pp. 19-40.
  • Nagel, T. (1996): Una visión de ningún lugar, trad. por J. Issa González, México, Fondo de Cultura Económica.
  • ––– (2004): La posibilidad del altruismo moral, trad. por A. Dilon, Fondo de Cultura Económica.
  • Nino, C. S. (1987): “Motivos y razones”, en Introducción a la filosofía de la acción humana, Buenos Aires, Eudeba, pp. 79-86.
  • Parfit, D. (2004): “Razones y motivación”, trad. por José Óscar Benito Vicente, en Parfit, D., Personas, racionalidad y tiempo, Madrid, Síntesis, pp. 27-62.
  • Searle, J. (2000): Razones para actuar: una teoría del libre albedrío, trad. por L. M. Valdés Villanueva Oviedo, Nobel.
  • Strawson, P.F. (1997): “Causación y explicación”, trad. por N. Guasch Guasch, en Análisis y metafísica, Barcelona, Paidós, pp. 167-193.
  • White, A. R. (1976): La filosofía de la acción, trad. por Sonia Block Sevilla, Madrid, Fondo de Cultura Económica.
Cómo citar esta entrada

Álvarez, María y Cabrera, Marta (2018) “Razones para actuar”, Enciclopedia de Filosofía de la Sociedad Española de Filosofía Analítica (URL: http://www.sefaweb.es/razones-para-actuar/).

 

Realismo moral

1. Introducción

Atendamos al siguiente enunciado, que expresa un  juicio moral:

(1) El entierro de Polinices por Antígona es una acción moral correcta.

El realismo moral sostiene que el juicio contenido en (1) es verdadero (o, según otros, falso) en virtud de un hecho que constituye su verdad. Y, consecuentemente, el realismo moral es rechazado por aquellos autores que sostienen que los juicios morales no son susceptibles de ser verdaderos o falsos, lo que se conoce como no-cognoscitivismo moral (Ayer, 1936; Stevenson, 1944). Hay otra forma de rechazar el realismo moral según la cual los juicios morales son susceptibles de ser verdaderos o falsos, pero son todos falsos porque no existen los hechos en el mundo en virtud de los cuales podrían ser verdaderos, lo que se conoce como teoría del error (Mackie, 1977). Es decir, el realismo moral supone que hay algunos juicios morales verdaderos.

Esto es todo lo que asume el realismo moral. Por lo tanto, el realismo moral es compatible, como veremos, con diversas doctrinas metafísicas (en especial con el naturalismo y con el no-naturalismo) y, también, con diversas doctrinas éticas sustantivas (con el consecuencialismo y con el deontologismo, por ejemplo) (Sayre-McCord, 2017).

En la presentación de las diversas concepciones realistas de la moral se hallan imbricadas múltiples cuestiones; aparte de cuestiones metafísicas o semánticas como las apuntadas arriba, el realismo moral implica cuestiones epistemológicas y de teoría de la acción humana, por ejemplo. Sin embargo, en esta entrada, me centraré en las cuestiones metafísicas y, al final, diré algo de las cuestiones semánticas puesto que creo que estas son las dimensiones centrales de esta concepción. En primer lugar, se presentarán las concepciones realistas naturalistas. En segundo lugar, he de ocuparme de las concepciones realistas no-naturalistas. Y, al final, me referiré a algunas cuestiones semánticas.

2. El realismo naturalista

Una de las doctrinas sustantivas más relevantes de la moralidad ha sido y continúa siendo el utilitarismo (Bentham, 1789; Mill, 1861; Sidgwick, 1907 y recientemente Lazari-Radek, Singer, 2014). Según la doctrina utilitarista la acción de Antígona de enterrar a su hermano Polinices es correcta si y sólo si contribuye a la maximización de la felicidad. Es irrelevante ahora si la felicidad es comprendida en un sentido hedonista, como presencia de placer y ausencia de dolor, o de otro modo, como realización de nuestras preferencias, por ejemplo. Para esta doctrina, como vemos, la corrección de las acciones morales depende de la existencia en el mundo de determinados hechos naturales, hechos acerca del bienestar de los seres humanos (o, como quieren algunos utilitaristas, de todos los seres sentientes). Los hechos morales son entonces reducibles a hechos naturales.

No sólo el utilitarismo presenta esta versión naturalista de los hechos morales. También el denominado naturalismo subjetivista, para el cual un enunciado como (1) significa

(2) Yo apruebo  (o deseo) que Antígona entierre a Polinices,

propone una reducción semejante, pero ahora reducible a experiencias psicológicas individuales. Y, tal vez, lo mismo puede decirse de la llamada teoría disposicional del valor (Lewis 1989), según la cual (1) significa

(3) En condiciones ideales, X aprobaría (o desearía) que Antígona entierre a Polinices.

Tal vez pueda situarse en Principia Ethica de G.E. Moore (1903, pp. 6-21) el inicio de la reflexión contemporánea en metaética y dicho comienzo ocurre con la crítica a esta posición metafísica precisamente. Esta obra plantea el conocido argumento de la pregunta abierta, conforme al cual un predicado moral como ‘bueno’ no es analizable en términos naturalistas, puesto que cuando afirmamos que la propiedad moral M es idéntica a la propiedad natural N siempre estamos sujetos a la pregunta significativa acerca de si N es realmente M. No ocurre lo mismo, según Moore, con los verdaderos enunciados de identidad: si decimos que ‘soltero’ significa ‘no casado’ carece de sentido preguntarnos sobre si realmente un no casado es soltero. Por esta razón, según Moore, el predicado ‘bueno’ se refiere a una propiedad no-natural, a una propiedad sui generis, podríamos decir. Convencidos por el argumento de Moore, pero descontentos con la idea de añadir propiedades tan extrañas a nuestro mobiliario ontológico, muchos filósofos rechazaron el realismo moral. Parcialmente por esta razón, muchos filósofos analíticos suscribieron durante décadas alguna variante expresivista, como el emotivismo y el prescriptivismo (véase nota 2).

En los últimos veinte años, sin embargo, otros filósofos han puesto de manifiesto que el argumento de la pregunta abierta suponía la asunción de determinadas tesis filosóficas que después han sido cuestionadas. Quine (1951) había arrojado dudas relevantes sobre la distinción entre enunciados analíticos y sintéticos (Quine, 1951). Y, por otra parte, muchos filósofos están dispuestos en la actualidad a sostener la verdad de enunciados de identidad, necesarios (verdaderos en todos los mundos posibles), pero a posteriori. Por ejemplo, la identidad entre ‘agua’ y ‘H2O’ es de este tipo según los defensores de la teoría causal de la referencia. De esta forma, la identidad entre una propiedad moral M y una propiedad natural N no se vería afectada por el argumento de la pregunta abierta. Lo anterior ha conducido a considerar que una comprensión naturalista del mundo puede albergar propiedades morales, propiedades que pueden ser a posteriori reducibles a propiedades naturales. Con lo cual existe hoy en día una amplia familia de concepciones que defienden el realismo naturalista. Y que consideran que podemos reducir, de un modo u otro, las propiedades morales a propiedades naturales (para la variedad realista de Cornell consultar Boyd, 1988; Brink, 1989 y Sturgeon, 1985; para la variedad funcionalista de Canberra consultar Jackson, 1998; para una variedad realista y relativista consultar Harman, 1977 y Harman-Thomson, 1996).

3. Realismo moral no-naturalista

Algunos autores se sienten incómodos con esta reducción de las propiedades morales a propiedades naturales, principalmente porque esta concepción desafía la conocida ley de Hume según la cual no es posible obtener conclusiones normativas de premisas fácticas. Del hecho de que, por ejemplo, el entierro de Polinices por Antígona aumente la felicidad agregada no es posible obtener la conclusión de que enterrar a Polinices es correcto moralmente, o que Antígona tiene dicha obligación moral.

Es tal vez por dicha razón que en la última década ha habido poderosas defensas del realismo moral no-naturalista (Shafer-Landau, 2003; Wedgwood, 2007; Enoch, 2011). Los juicios morales, para esta concepción, son verdaderos en virtud de determinadas propiedades no-naturales, propiedades normativas.

Esta concepción debe, sin embargo, mostrarnos cuáles son las relaciones entre estas propiedades no-naturales y las propiedades naturales. Si no fuese así estas propiedades serían realmente misteriosas, sujetas al argumento de la queerness que les dirigió Mackie (1977). Y estas relaciones, al parecer, sólo pueden ser o bien la relación de superveniencia (Kim, 1993) o bien la relación de fundamentacióngrounding– (Fine, 2001; Rosen, 2010). Con la relación de superveniencia se trata de explicar en qué sentido unas propiedades son más básicas que otras y las determinan. Así, tal vez, las propiedades mentales se basan en determinadas propiedades físico-químicas de nuestros cerebros. La literatura de la superveniencia acaba reconociendo, sin embargo, que dicha relación es una relación simétrica, demasiado superficial en cualquier caso para dar cuenta del hecho de que determinadas propiedades se dan en virtud de la existencia de otras propiedades. La relación que, se cree, podría desempeñar este cometido es la relación de fundamentación (o grounding).

Pues bien, ambas relaciones metafísicas, como determinada literatura reciente pone de manifiesto (Bader, 2017; Rosen, 2017) han de superar el desafío consistente en mostrar la irreducibilidad de las propiedades que se fundan o se basan en otras propiedades más básicas. Y ello no es fácil: si la propiedad A superviene o se funda en la propiedad B de manera necesaria (y esta característica modal es la que pretenden explicar dichas relaciones), entonces parece que la propiedad A es reducible a la propiedad B.

Un modo de, tal vez, superar esta dificultad (véase la discusión en Rosen, 2017 y en Enoch, 2017) es distinguir entre la fundamentación metafísica y la fundamentación normativa. La idea es la siguiente: mi obligación de ir a cenar con mi hija Júlia mañana se fundamenta metafísicamente en el hecho de que ayer se lo prometí (le llamé por teléfono para decírselo, por ejemplo), pero el hecho de que lo prometí no es suficiente fundamento de mi obligación moral de ir a cenar con ella, hace falta añadir una fundamentación normativa: la existencia del principio moral conforme al cual, en las circunstancias adecuadas, es obligatorio moralmente cumplir las promesas. A lo que habrá que añadir que la existencia de dichos principios morales no es reducible a hechos naturales (Cohen 2003). Las intrincadas cuestiones de metafísica que subyacen a este debate deberemos dejarlas para otra ocasión.

Sin embargo, vale la pena recordar que hay una posición al menos para la que la apelación a los principios morales no sería una solución. Se trata del particularismo (Dancy, 1993, 2004; Corbí, 2003). Para dicha concepción, no hay ninguna pauta regular que una las propiedades naturales con las propiedades morales a través de los principios morales. Juzgar moralmente no consiste en subsumir acciones individuales en acciones genéricas, sino en ser capaz de percibir el modo en que las propiedades están moldeadas en una situación concreta, lo que determina para esa situación el curso de acción moral sobresaliente. Cuál deba ser el modo en el que, sin embargo, es posible el razonamiento moral en dicha versión extrema del particularismo, que rechaza el lugar de los principios morales, es una cuestión que no puede ser abordada aquí.

Debo terminar este apartado señalando que existe un conjunto de autores que piensan que es posible defender una versión del realismo no-naturalista sin compromiso metafísico. Esta posición sostiene que las cuestiones ontológicas son internas a su propio ámbito y, en la medida en que no colisionan con otros ámbitos –en especial con el ámbito de las ciencias empíricas- su validez interna es suficiente para su verdad, sin que sea necesario postular externamente su existencia y comprometerse ontológicamente (Nagel, 1986; Dworkin, 1996, 2011; Scanlon, 2014 y Parfit, 2011, 2017. Se puede consultar también la discusión de Parfit en Singer, 2016). De un modo cercano al ficcionalismo, tal vez, podemos afirmar que los números existen, aunque ello sólo significa que el discurso matemático los toma como variables de su cuantificación junto con la ausencia de colisión de estas afirmaciones con las verdades de las ciencias empíricas. De un modo similar a como aceptamos la verdad de ‘Sherlock Holmes vive en Londres’ entendida como una verdad interna a la ficción de Conan Doyle, como ‘En la ficción C. Doyle, Sherlock Holmes vive en Londres’. No hay sólo una noción de existencia, sino varias nociones de existencia. Hay modos de existir que no tienen implicaciones causales ni requieren la ocupación de un lugar espacio-temporal.

Recientemente Parfit (2011, pp. 464-487) ha elaborado un conjunto de argumentos para distinguir entre varios tipos de existencia, donde hay lugar para las verdades matemáticas y para las verdades morales sin compromiso ontológico.

Parfit (2011, p. 466) comienza con una posición sumamente restrictiva:

Fundamentalismo: Todo lo que existe son los últimos constituyentes de la realidad.

Según este punto de vista, sólo existen las partículas subatómicas, y no hay ni átomos, ni estrellas, ni sillas. Es, como Parfit sostiene, un punto de vista muy implausible. El hecho de que muchos objetos físicos sean compuestos, en el sentido de que están hechos de elementos más pequeños, es consistente con la existencia de estos objetos, que no existen separadamente de sus componentes.

Otro punto de vista, menos restrictivo que el anterior es (Parfit, 2011, p. 467):

Actualismo: Ser, o existir, es ser real –actual-, esto es no puede haber algo que sea meramente posible.

Pero entonces, sigue Parfit, no elegiríamos entre varios actos posibles, ni tendríamos razones para arrepentirnos de lo que no hicimos, por ejemplo. El actualismo no es tampoco plausible, debemos adoptar algo como (Parfit,  2011, p. 467):

Posibilismo: Hay algunas cosas que nunca son reales, sino que son meramente posibles. Hay algunas cosas que podrían ocurrir pero realmente nunca ocurrieron y algunas cosas que podrían existir pero nunca existen realmente.

Por dicha razón, Parfit (2011, p. 469) rechaza que las palabras ‘hay’ o ‘existe’ deban siempre usarse en el mismo y único sentido y adopta un punto de vista plural según el cual hay un sentido restringido de ‘existir’ para el que las cosas que existen son partes concretas del mundo espacio-temporal, y hay otro sentido más amplio según el cual hay actos y cosas posibles.

La existencia de los mundos posibles es una cuestión, como es obvio, altamente controvertida en filosofía y la traemos a colación solamente para mostrar que Parfit sostiene que hay otros candidatos a la existencia como los números, las proposiciones, las verdades lógicas o las razones normativas que no existen en ninguno de los sentidos anteriores.

Comencemos con los números y las verdades matemáticas. Según Parfit (2011, pp. 479-450): ‘Algunos ejemplos, sugiero, son verdades matemáticas. Nada puede ser más verdadero que las verdades que 2 es mayor que 1, que 2+2 = 4 y que hay números primos mayores que 100. Ni siquiera Dios podría hacer estos juicios falsos. Para que estos juicios sean verdaderos, ha de haber algún sentido en que haya números, o en que los números existan. Pero al decidir qué juicios matemáticos son verdaderos, no necesitamos contestar a la pregunta de si los números realmente existen en un sentido ontológico, aunque no en el espacio y en el tiempo. Similares observaciones se aplican a algunas otras entidades abstractas, como las verdades lógicas y los argumentos válidos’.

Y este es también el tipo de existencia de los hechos y razones normativos que carecen de estatus ontológico (Parfit, 2011, p. 486):

Hay algunos juicios que son irreduciblemente normativos en el sentido de que comportan razones, y que son en el sentido más fuerte verdaderos. Pero estas verdades no tienen implicaciones ontológicas. Para que tales juicios sean verdaderos, estas propiedades que comportan razones no necesitan existir ni como propiedades naturales en el mundo espacio-temporal, ni en alguna parte de la realidad no-espacio-temporal.

Esta es una posición cognoscitivista y racionalista, pero que evita comprometerse metafísicamente y, en ese sentido, rechaza el naturalismo. Se trata de lo que Parfit denomina un cognoscitivismo normativo no-naturalista y no-metafísico.

Si este es un punto de vista ontológicamente plausible, entonces hay verdades normativas irreducibles sin compromiso con un realismo robusto, es decir, sin compromiso ontológico. Obviamente para mostrar que es un punto de vista ontológicamente plausible hay que mostrar que la práctica de la moralidad produce juicios objetivos en los que agentes racionales y razonables convergerían. Y para ello sería necesario un análisis detallado de la impresionante contribución de Parfit en el debate con las otras grandes posiciones acerca de los fundamentos de la ética. Lo que está más allá de los propósitos de esta entrada. Aquí basta con sostener que hay concepciones, como la de Parfit, en las que queda un espacio para las verdades normativas irreducibles sin hechos normativos robustos, que hay un espacio para la objetividad moral sin platonismo, como hay un espacio para la objetividad de las matemáticas sin platonismo.

4. Algunas cuestiones semánticas para terminar

Al comienzo hemos dicho que las posiciones realistas en filosofía moral se contraponen al no-cognoscitivismo, según el cual los juicios morales no son susceptibles de verdad o falsedad. Esta posición presupone que la verdad de nuestros juicios, de nuestras proposiciones, está basada en determinados hechos del mundo. Sin embargo, recientemente muchos se adhieren a lo que ahora se conoce como una teoría minimalista de la verdad (Horwich, 1990), con arreglo a la cual la verdad no es una propiedad de las proposiciones, la verdad es sólo un mecanismo que permite el desentrecomillado, es decir: ‘La nieve es blanca’ es verdadera si y sólo si la nieve es blanca y, del mismo modo, ‘El entierro de Polinicies por Antígona es moralmente correcto’ si y sólo si el entierro de Polinices por Antígona es moralmente correcto. En resumen, cualquier oración que admite el prefijo ‘es verdad que’ (von Wright, 1984) es candidata a expresar una proposición, puede ser combinada con otra proposiciones mediante las conectivas clásicas y admite significativamente formar parte de contextos indirectos como ‘Todo lo que dijo Tiresias es verdad’, por ejemplo.

Si se acepta la teoría minimalista de la verdad, entonces otros autores que consideran que en el mundo no caben, en el sentido metafísico, hechos morales, pueden también referirse a los juicios morales como verdaderos o falsos. Esta es la posición de los actuales defensores del expresivismo (como Gibbard, 1990, 2003 o Blackburn, 1993, 1999, que lo denomina cuasi-realismo). De este modo, es posible conjeturar que aún si no hay propiedades morales en nuestro universo ontológico, hay sin embargo un espacio para los conceptos morales que podemos usar significativamente y que forman parte de proposiciones sujetas al análisis veritativo-funcional, combinadas del modo estándar con otras proposiciones.

Todo ello tal vez sugiera, al menos así lo creo yo, que la pregunta fundamental acerca de la moralidad no es la cuestión ontológica, sino la cuestión de si hay un espacio para la objetividad en cuestiones morales. Y esta segunda cuestión convoca ecuménicamente un amplio espectro de concepciones de la metafísica de la moral distintas entre sí. Al fin y al cabo nadie duda de la objetividad del juicio matemático según el cual tres más cuatro es igual a siete, a pesar de que para algunos dicha verdad está fundada en la existencia platónica de los números, mientras para otros aunque los números no existen, son construidos o fingidos por los humanos.

Josep Joan Moreso
(Universitat Pompeu Fabra)

Referencias

  • Ayer, A. J. (1971): Language, Truth and Logic. Harmondsworth, Middlesex, Penguin Books.
  • Bentham, J. (1982): An Introduction to the Principles of Morals and Legislation, Oxford, Oxford University Press.
  • Bader, Ralf M. (2017): The Grounding Argument against Non-reductive Moral Realism, Oxford Studies in Metaethics, 12, pp. 106-134.
  • Blackburn, S. (1993): Essays in Quasi-Realism, Oxford, Oxford University Press.
  • Blackburn, S. (1999): Ruling Passions, Oxford, Oxford University Press.
  • Boyd, R. (1988): «How to Be a Moral Realist», en G. Sayre-McCord, ed., Essays on Moral Realism, Ithaca, New York, Cornell University Press, pp. 181-228.
  • Brink, D. (1989): Moral Realism and the Foundations of Ethics, Cambridge, Cambridge University Press.
  • Cohen, Gerald A. (2003): “Facts and Principles”, Philosophy & Public Affairs, 31, pp. 211-245. https://philpapers.org/go.pl?id=COHFAP-2&proxyId=&u=http%3A%2F%2Fdx.doi.org%2F10.1111%2Fj.1088-4963.2003.00211.x
  • Corbí, Josep E. (2003): Un lugar para la moral, Madrid, La Balsa de la Medusa.
  • Dancy, J. (1993): Moral Reasons, Oxford, Basil Blackwell.
  • — (2004): Ethics without Principles, Oxford, Oxford University Press.
  • Dworkin, R. (1996): “Objectivity and Truth: You’d Better Believe It”, Philosophy and Public Affairs, 25, pp. 97-139. https://doi.org/10.1111/j.1088-4963.1996.tb00036.x
  • — — — (2011): Justice for Hedgehogs, Cambridge, Mass., Harvard University Press.
  • Enoch, D. (2011): Taking Morality Seriously. A Defense of Robust Realism, Oxford, Oxford University Press.
  • — — — (2017): «How Principles Ground», https://www.academia.edu/34219914/How_Principles_Ground.
  • Fine, K. (2001): ‘The Question of Realism’, Philosophers’ Imprint, 1, pp. 1-30.
  • Gibbard, A. (1990): Apt Feelings, Wise Choices, Oxford, Oxford University Press.
  • — (2003): Thinking How to Live, Cambridge, Mass., Harvard University Press.
  • Hare, R.M. (1952): The Language of Morals, Oxford, Oxford University Press.
  • Harman, G. (1977): The Nature of Morality, Oxford, Oxford University Press.
  • Harman, G. y J. Thomson (1986): Moral Relativism and Moral Objectivity, Oxford, Basil Blackwell.
  • Horwich, P. (1990): Truth, Oxford, Blackwell.
  • Jackson, F. (1998): From Metaphysics to Ethics. A Defence of Conceptual Analysis, Oxford, Oxford University Press. doi: 10.1093/0198250614.001.0001
  • Kim, J. (1993): Supervenience and Mind: Selected Philosophical Essays, Cambridge, Cambridge University Press.
  • Kripke, S. (1980): Naming and Necessity, Oxford, Basil Blackwell.
  • Lazari-Radek, K. de y P. Singer (2014): The Point of View of the Universe: Sidgwick and Contemporary Ethics, Oxford, Oxford University Press. DOI:10.1093/acprof:oso/9780199603695.001.0001
  • Lewis, D. ([1989] 2000): «Dispositional Theories of Value», en Papers in Ethics ands Social Philosophy, Cambridge, Cambridge University Press, pp. 68-93.
  • Mackie, J. L. (1977): Ethics: Inventing Right and Wrong, Harmondsworth, Penguin.
  • Mill, J. S. ([1998] 1961): Utilitarianism, Roger Crisp, ed., Oxford, Oxford University Press.
  • Moore, G.E. (1903): Principia Ethica, Cambridge, Cambridge University Press.
  • Nagel, T. (1986): The View from Nowhere, Oxford, Oxford University Press.
  • Parfit, D. (2011): On What Matters, 1, 2, Oxford, Oxford University Press.
  • — — — (2017): On What Matters, 3, Oxford, Oxford University Press.
  • Quine, W. v. O. (1953): «Two Dogmas of Empiricism», en From a Logical Point of View, Cambridge, Mass., Harvard University Press, pp. 20-46. [Quine, W. v. O. (1951): Philosophical Review 60, 1951 pp. 20-43].
  • Putnam, H. (1975): «The Meaning of ‘Meaning’», en Mind, Language, and Reality, Cambridge, Cambridge University Press, pp. 215-271.
  • Rosen, G. (2010): “Metaphysical Dependence: Grounding and Reduction”, en Hale, R. y A. Hoffman, eds., Modality: Metaphysics, Logic, and Epistemology, Oxford, Oxford University Press, pp. 109-136.
  • — — — (2017): «What is a Moral Law», Oxford Studies in Metaethics, 12, pp. 135-159.
  • Sayre-Mccord, G. (2017): “Moral Realism”, en The Stanford Encyclopedia of Philosophy, E. N. Zalta, ed., disponible en <https://plato.stanford.edu/archives/fall2017/entries/moral-realism/> [Fall 2017 Edition].
  • Scanlon, T.M. (2014): Being Realistic About Reasons, Oxford, Oxford University Press.
  • Shafer-Landau, R. (2003): Moral Realism: A Defence, Oxford, Oxford University Press.
  • Sidgwick, H. (1907): The Methods of Ethics, 7 ed., London, MacMillan & Co..
  • Singer, Peter, ed., (2016): Does Anything Really Matter? Essays on Parfit and Objectivity, Oxford, Oxford University Press.
  • Stevenson, Charles L. (1944): Ethics and Language, New Haven, Yale University Press.
  • Sturgeon, N. (1985): «Moral Explanations», en Copp, D., D. Zimmerman, eds., Morality, Reason and Truth, Totowa, New Jersey, Rowman & Littlefield, pp. 49-78.
  • Von Wright, G. H. (1984): «Demystifying Propositions», en Wright, G. H. v., Truth, Knoweldge, and Modality, Philosophical Papers, 3, Oxford, Basil Blackwell, pp. 14-25.
  • Wedgwood, R. (2007): The Nature of Normativity, Oxford, Oxford University Press.
Cómo citar esta entrada

Moreso, Josep Joan (2018) «Realismo moral», Enciclopedia de la Sociedad Española de Filosofía Analítica (URL: http://www.sefaweb.es/realismo-moral/).