Filosofía de la información

1. Introducción

Se dice que la información ocupa un papel central en nuestra sociedad actual. Pero ¿qué es la información? En una definición preliminar, llamaríamos ‘información’ a cualquier conjunto de datos transmisibles que nos proporcionarían conocimiento. En las últimas décadas nuestra sociedad ha experimentado un incremento exponencial de la información que almacenamos y comunicamos, popularizándose la idea de que nos encontramos en la ‘era de la información’. Esto conllevó una proliferación de ideas sobre la información en todas las esferas culturales, desde la jurídica (e.g., acceso a la información como un derecho) hasta la física (e.g., el universo constituido por unidades de información) o incluso la biológica (e.g., el ADN como una secuencia de información genética). En definitiva, la información ha alterado por completo no solo nuestra realidad sociocultural sino también la forma en la que los seres humanos nos relacionamos con dicha realidad.

En este escenario emerge la filosofía de la información como disciplina filosófica que busca enfrentarse a cuestionas nuevas (e.g., ¿cuáles son los retos éticos de las IAs?) y antediluvianas (e.g., ¿qué es el conocimiento?) relacionadas con la informacionalización de nuestra realidad como objeto de reflexión. Para responder a estas cuestiones, desde la filosofía de la información se emplean como herramientas distintos conceptos de información. Entre este rosario conceptual, destacaríamos por su potencial filosófico (como veremos más adelante) la noción de información semántica, que denota a aquel tipo particular de información que posee significado o refiere a eventos o entidades.

Pero además del uso de la noción de información semántica, ¿en qué consiste la filosofía de la información? En un sentido amplio, la filosofía de la información abarcaría una reflexión que trata sobre algún ‘fenómeno informacional’, por ejemplo el monográfico de Timpson (2013) sobre la información cuántica, o un análisis minucioso de un concepto de información, como el artículo de Lombardi, Holik y Vanni (2016) sobre la noción técnica de información de Shannon. En un sentido restringido, la filosofía de la información refiere a una subdisciplina filosófica institucionalmente consolidada circa 2010, eminentemente promovida por el filósofo italo-británico Luciano Floridi (2011, 2013, 2019). Tanto en un sentido amplio como un sentido restringido, la filosofía de la información se caracteriza por su amplia interseccionalidad, afrontando cuestiones semánticas, epistemológicas, de la filosofía del lenguaje y de la ciencia, ontológicas, éticas o incluso políticas entre otras.

Así, la filosofía de la información en sentido estricto se asentó en los 2000 mediante su demarcación respecto a otras áreas próximas, como la filosofía de la computación (cf. The Blackwell Guide to the Philosophy of Computing and Information, 2003) o las epistemologías naturalistas, adquiriendo autonomía disciplinar en la década de 2010. Es en estos años cuando empiezan a surgir los primeros monográficos enmarcados dentro de este campo filosófico, como The Cambridge Handbook of Information and Computer Ethics (2010) o The Routledge Handbook of Philosophy of Information (2016).

Primero, detallaremos en la sección 2 los aspectos básicos de la noción asemántica de información de Shannon. Después, ofreceremos un recorrido por los principales hitos en la historia de la filosofía de la información en la sección 3, desde las investigaciones de Carnap y Bar-Hillel en 1952 hasta los herederos actuales de la epistemología naturalizada de Dretske o Skyrms. En la sección 4 se expondrá parte del programa fundacional de Floridi (2011, 2013, 2019), donde la filosofía de la información es entendida como ‘filosofía primera’. Finalmente, los principales análisis filosóficos del uso de nociones informacionales en las ciencias físicas y biológicas serán detallados en la sección 5.

2. La información de Shannon

La información de Shannon es el concepto técnico de información que mayor impacto ha tenido en la historia intelectual de las últimas siete décadas. Claude Shannon desarrolló durante los años 1940 una medida de cantidad de información, partiendo de un modelo de comunicación en el que el emisor transmite un mensaje codificado por una fuente mediante un canal comunicativo a un receptor. En su célebre artículo de 1948 Shannon publicó su medida de información bajo el nombre de ‘entropía’ H, la cual cuantifica a través de bits (o unidades binarias) cuánto de improbable es la ocurrencia de una secuencia de símbolos en un mensaje considerando la probabilidad con la que ocurren los símbolos. Ilustrativamente, si consideramos la frecuencia con la que ocurren las letras en cualquier texto escrito en español, el mensaje m1= ‘WYX’ transmitirá más cantidad de información de Shannon (i.e., bits) que el mensaje m2 = ‘EAE’ precisamente porque las letras ‘W’ o ‘X’ ocurren con menos frecuencia que las letras ‘E’ o ‘A’. Interesantemente, la cantidad de bits generados por un mensaje es independiente del significado de cada símbolo particular o de la secuencia completa. Por ejemplo, la cantidad de información generada por m3 = ‘CASA’ es independiente de lo que significa ‘CASA’. Como apuntó Shannon: “Estos aspectos semánticos de la comunicación son irrelevantes para el problema de la ingeniería” (Shannon 1948, 379). Así, hablaríamos, al menos en principio (Martinez 2019), del concepto de Shannon como una noción de información asemántica.

3. Las filosofías de la información de Carnap, Dretske y el programa naturalista

En el primer texto filosófico sobre cuestiones informacionales (nótese que seis décadas antes de que la filosofía de la información en sentido estricto se consolidara), Rudolf Carnap y Yehoshua Bar-Hillel criticaron el uso extendido en 1949-1952 de la información de Shannon como una noción semántica: “Nos hemos dado cuenta de que el ascetismo [semántico de la información de Shannon] no siempre se cumple en la práctica y a veces importantes conclusiones semánticas se obtienen a partir de asunciones asemánticas.” (Carnap y Bar-Hillel 1952, 1).

Por otro lado, Carnap y Bar-Hillel (1952) utilizaron elementos de la teoría de la inducción del primero para confeccionar una noción refinada de información que fuese (a diferencia de la noción de Shannon) propiamente semántica, con vistas a ser aplicable en escenarios filosóficos. Para ello, dispusieron que la cantidad de información semántica contenida en cualquier proposición p sería inversamente proporcional al número total de mundos o situaciones posibles compatibles con el contenido de p. Es decir, si agarrásemos sin mirar una bola en una bolsa con diez bolas de las que nueve son azules y una roja, la proposición p1: ‘esta bola es azul’ poseerá (independientemente del color de la bola) a priori menos información semántica que la proposición p2: ‘esta bola es roja’, debido a que el número de posibles escenarios compatibles con p1 es mayor que el de compatibles con p2. Nótese que esta noción de información semántica no se define directamente sobre la verdad o falsedad de las proposiciones. Esto genera la paradoja de Bar-Hillel-Carnap (Floridi 2011, 108-110), la cual afirma que las proposiciones que contienen más información semántica son aquellas que son siempre falsas (contradicciones) mientras que las que poseen menos información semántica son aquellas que son siempre verdaderas (tautología).

Tres décadas después del artículo de Carnap y Bar-Hillel, Fred Dretske (1981) desarrolló por primera vez una teoría del conocimiento perceptivo fundamentada sistemáticamente sobre nociones informacionales. En su célebre Knowledge and the Flow of information, Dretske propuso construir una epistemología naturalizada de la percepción a partir de un concepto estadístico de información semántica basado en el marco teórico de Shannon. Y es que para Dretske, la información debe comprenderse esencialmente como un bien o recurso que los agentes epistémicos obtienen a través de señales, almacenan y procesan para obtener conocimiento relevante. Es por esta función epistémica que la verdad es una propiedad necesaria de la información semántica, por lo que: “la información falsa, la información errónea y la desinformación no son especies de información, así como un pato de juguete no es una especie de pato” (Dretske 1981, 45). Esto le permite a Dretske esquivar satisfactoriamente la paradoja de Bar-Hillel-Carnap.

En lo que respecta a su propuesta técnica, una señal r contendría información semántica de que F (y no G, digamos) es el estado-de-cosas actual solo si p(F | r) = 1; es decir, solo si la probabilidad condicional de que ocurra F dada la señal r es 1 (véase Dretske 1981 68). En términos cotidianos, esto implica que siempre que aparezca la señal r, tengamos también F. Ilustrativamente, la luz verde parpadeante del lavavajillas como señal r contiene información semántica sobre que F (siendo F que ‘el programa de lavado ha acabado’) debido a que p(F | r) = 1. Esta noción de ‘información-que’ captaría las tramas de relaciones nomológicas (dónde ‘relación nomológica’ refiere a regularidad conforme a una ley de la naturaleza, como un lápiz que siempre se cae al suelo debido a la ley de la gravedad) existentes entre señales percibidas y estados-de-cosas modelados en términos de correlaciones estadísticas.

Más allá de esta propuesta conceptual, el objetivo principal de Dretske en esta obra fue refundar la epistemología sobre una base informacional: “Propongo sustituir este relato tradicional [conocimiento como creencia, verdadera y justificada] por un análisis teórico de la información” (Dretske 1981, 85). Este análisis se basó en la definición por la que un agente a sabe que x es F si y solo si la creencia que x es F es causada (o propiamente ‘causalmente sostenida’) por la información de que, de hecho, x es F. Dretske (1981, 87-88) ilustró esta definición con el caso de un espía a esperando la llegada de un mensajero a la puerta de su habitación, dónde tal llegada quedaría señalizada por tres golpes rápidos a su puerta seguidos de un silencio y otros tres golpes rápidos (digamos señal s1). En tanto que la creencia b1 = ‘el mensajero ha llegado’ ha sido causada por la información factiva de que el mensajero ha llegado, esta creencia b1 constituye una pieza de conocimiento según la definición de Dretske. Nótese que si la creencia b1 hubiese sido causada por la escucha de a de unos ruidos metálicos en el pasillo, esta creencia b1 no constituiría propiamente una pieza de conocimiento en tanto que tales sonidos (entendidos como señales) no contienen información semántica alguna sobre la llegada del mensajero.

Entre las virtudes que Dretske destacó de su epistemología informacional de la percepción se encuentra su inmunidad respecto a los casos Gettier o a la intromisión de cualquier forma de suerte epistémica. La idea es que, en tanto que el conocimiento perceptivo se fundamente únicamente (por definición) en creencias causalmente generadas por piezas de información fáctica, cualquier resultado de otra generación de creencias distinta a esta quedará excluido de caracterizarse como conocimiento. Retomando el ejemplo anterior, el espía a puede obtener la creencia b1 = ‘el mensajero ha llegado’ a partir de escuchar unos ruidos metálicos del pasillo. Aunque el contenido de b1 es, de hecho, verdadero, esta factividad de su creencia es meramente fortuita y no se ha generado causalmente a partir de una pieza de información semántica; por tanto, la creencia b1 no es susceptible de elevarse al nivel de ‘pieza de conocimiento’ según la definición de Dretske.

Qué duda cabe de que el programa naturalista de epistemología informacional de Dretske tuvo un enorme impacto entre las siguientes generaciones. Si bien su propuesta ha sido descartada dentro del debate actual, una gran parte de los epistemólogos post-dretskeanos siguen reconociendo el valor de su giro ‘informacionalista’, como es el caso de Brian Skyrms: “Dretske pedía una reorientación de la epistemología. No creía que los epistemólogos debieran dedicar su tiempo a pequeños rompecabezas o a reeditar antiguos argumentos sobre el escepticismo. Más bien, sostenía que la epistemología estaría mejor servida estudiando el flujo de información” (Skyrms 2010, 34).

Es precisamente Skyrms (2010) uno de los principales epistemólogos informacionales que nos encontramos en el panorama filosófico actual. También de marcado carácter naturalista, Skyrms se separa de la ortodoxia dretskeana analizando cómo los distintos sistemas de señalización que encontramos no solo en humanos sino también en animales evolucionan mediante mecanismos de cooperación y competición, permitiendo así que el flujo de información transmitida y procesada se degrade u optimice. Para ello Skyrms substituye la probabilidad condicional à la Dretske por el vector Kullback-Leibler como medida de la información semántica contenida en una señal, incorporando la teoría de juegos (en particular, de ‘juegos de señalización’) como una herramienta clave para modelar formalmente cómo la información fluye dentro de los sistemas de señalización.

Finalmente cabría mencionar la obra reciente de Manolo Martinez y Marc Artiga como una muestra de informacionalismo naturalista à la Skyrms en el ámbito filosófico español. Una de sus principales líneas de trabajo se centra en desarrollar una teoría naturalista del significado (aplicable tanto para estados mentales como para señales naturales) ya sea a partir de elementos propios de la teoría de Shannon (e.g., Martinez 2019) y/o mediante la teoría de juegos de señalización (e.g., Artiga 2020).

4. La filosofía de la información de Floridi

Si bien es evidente su carácter informacional, las propuestas de Carnap, Bar-Hillel, Dretske o Skyrms no se suelen reconocer como parte de una filosofía de la información en sentido estricto, en tanto que disciplina socioinstitucionalmente consolidada y con una metodología propia. Fue el italo-británico Luciano Floridi quien más claramente contribuyó a asentar los cimientos de la filosofía de la información a comienzos del S.XXI, erigiéndose como uno de los fundadores de esta reciente rama de la filosofía. Su ambicioso programa filosófico recibe el nombre de Prima Philosophiae Informationis, un conjunto de obras en las que se defiende la filosofía de la información como una suerte de ‘filosofía primera’ de la que emergen el resto de las subáreas filosóficas: la semántica, la epistemología y la ontología son tratadas en el volumen The Philosophy of Information (2011); la ética y la filosofía de los valores en The Ethics of Information (2013); la metafilosofía y la metodología filosófica en The Logic of Information (2019); y un próximo cuarto volumen (dividido en The Ethics of Artificial Intelligence y The Politics of Information) dedicado a analizar las agencias artificiales y grupales, respectivamente.

A diferencia de las filosofías de la información de corte naturalista à la Dretske o Skyrms, dónde la información es algo ‘dado’ naturalmente en las señales, Floridi (2019, Cap.1) propone una filosofía de la información de corte construccionista (no ‘constructivista’). El construccionismo como metodología asume que la tarea central de la filosofía no es ni describir la realidad ya dada (como ocurre en el naturalismo) ni construir desde cero una realidad (como supone el constructivismo), sino diseñar, construir y reconstruir aparatos semánticos o ‘conceptos’ que nos permitan interactuar de una manera óptima con nuestro entorno informacional-natural. Además, Floridi (2019, Cap.3) critica la visión naturalista del agente epistémico como un mero sujeto pasivo receptor de información, promoviendo desde una óptica neokantiana la imagen del agente como un ‘constructor de significado’: “el construccionismo desplaza el foco del conocimiento mimético, pasivo y declarativo de que algo es el caso, para concentrarse más en el conocimiento poiético, interactivo y práctico de que algo es el caso, es decir, de los artefactos semánticos” (Ibid, 27-28).

Todo el edificio teórico de la Prima Philosophiae Informationis de Floridi descansa sobre su concepto de información semántica, a cuya definición exhaustiva le dedica el primero de los volúmenes mencionados (Floridi 2011). Partiendo de las tecnologías de la información y la comunicación o ‘TIC’, Floridi define su propia noción de información semántica a partir de la idea de datos del siguiente modo: un conjunto de datos s (siendo un ‘dato’ cualquier estructura discreta como una secuencia de números, símbolos, letras, etc.) constituyen una pieza de información semántica si y solo sí s es un conjunto de datos bien-formados, con significado y además verdaderos. Según el autor, un conjunto cualquiera de datos está sintácticamente bien-formado si sigue unas reglas de conformación (e.g., ‘CASA LA’ no se encuentran bien-formado de acuerdo a la sintaxis del español, por la que el artículo debe ir antes del nombre) y posee significado si se le puede asociar una referencia (los datos bien-formados ‘ESA CASA’ son significativos porque se les puede asociar una casa particular como referencia). Al igual que para Dretske, para Floridi (2011, Cap.3) cualquier pieza de información semántica (en particular, lo que el autor llama ‘información semántica fuerte’) será siempre verdadera, evitando así ciertas inconsistencias lógicas propias de las teorías de la ‘información semántica débil’ como la paradoja de Bar-Hillel-Carnap ya mencionada.

Esta definición de información semántica fuerte de Floridi le permite desplegar además una epistemología informacional construccionista. Defendiendo la irresolubilidad lógica del problema de Gettier (a saber, no es posible coordinar la producción de ‘verdad’ y la generación ‘justificación’ para cualquier caso), Floridi (2011, Cap.9) propone sustituir la idea tripartita tradicional del conocimiento como ‘creencia verdadera justificada’ por la siguiente definición informacional: una pieza de información semántica i constituye una unidad de conocimiento si y solo si el contenido informacional de i (i) es relevante para responder una cuestión particular y (ii) se encuentra respaldado (‘accounted’) por el contenido de otras piezas dentro de un circuito de información semántica relevante. Por ejemplo, la pieza i1 = ‘el mensajero ha llegado’ constituye una unidad de conocimiento en tanto que el contenido informacional de i1 es relevante para responder la pregunta ‘¿quién hay al otro lado de la puerta?’ y se encuentra respaldado por el contenido informacional relevante de otras piezas (i2 = ‘el mensajero llama tres veces’, i3 = ‘han llamado tres veces’, etc.). Sin embargo, el propio Floridi (2019, 289) reconoce que esta forma de esquivar los casos de suerte epistémica tiene como consecuencia directa la posibilidad de dudar acerca de la validez del circuito informacional en el que se encuentra inserta la pieza de información semántica. Ante este último dilema (gettierización vs escepticismo), Floridi opta por poner en valor un escepticismo pragmático en la línea de Peirce, por el que un uso estratégico de la duda sobre las redes de información semántica a las que accedemos nos puede servir para mejorar la calidad de nuestro conocimiento.

5. Información en filosofía de la física y de la biología

Además de la semántica y la epistemología, otro de los ámbitos filosóficos en los que la idea de información ha sido más diseccionada es la filosofía de la ciencia. Y es que desde los años cincuenta, en parte debido a la exitosa divulgación de la teoría de comunicación de Shannon (1948), los conceptos informacionales han ido ganando en la segunda mitad del S.XX un papel central en las ciencias, particularmente en la física y la biología.

Por un lado, diversos filósofos de la física de las últimas décadas han analizado el uso de la información en nuestras mejores teorías físicas. En un influyente doble artículo, John Earman y John Norton (1999) estudiaron los llamados principios de Szilard y de Landauer, los cuales afirman que obtener o eliminar información genera necesariamente entropía, respectivamente. Tras analizar cómo estos principios habían sido utilizados en el S.XX para salvaguardar a la segunda ley de la termodinámica (i.e., la entropía solo puede aumentar) del ‘Demonio de Maxwell’ (i.e., la entropía puede disminuir), Earman y Norton defendieron que tales usos eran ilícitos debido a que se asentaban sobre nociones teórica y empíricamente injustificadas. Este artículo generó en los años posteriores un importante debate sobre la validez teórica o experimental de ideas informacionales como el principio de Landauer, encabezado por James Ladyman (2018) como principal filósofo informacionalista y Norton (2018) como filósofo crítico con el informacionalismo.

Otro debate clave dentro de la filosofía de la física consiste en dilucidar si la aparición de la información en nuestras teorías físicas tiene consecuencias ontológicas, es decir, si debemos creer en la ‘información’ como parte de la realidad física. Entre los promotores de una metafísica informacional nos encontramos la rompedora propuesta de Ladyman y Ross (2007) en su Every Thing Must Go, donde desde una óptica naturalista defendieron que, si bien no debemos creer literalmente en la información como una cosa o substancia, sí que por otra parte deberíamos creer (de acuerdo con nuestras mejores teorías físicas) en la naturaleza informacional de la estructura fundamental de nuestra realidad. En el lado deflacionario del debate se sitúa Timpson (2013), quien argumenta que los usos de nociones informacionales en la mecánica cuántica no justifican una actitud realista sobre la información. En este sentido, Lombardi, Fortin y López (2016) defienden que cualquier actitud ontológica sobre un uso de conceptos informacionales depende de especificar una interpretación ‘física’ (es decir, delimitar a qué tipo de propiedad física se refiere una noción de información) que justifique dicha creencia; a lo que Anta (2022) responde que solo la capacidad explicativa de la información podría eventualmente justificar tal actitud ontológica, lo cual no es siempre el caso en todas las áreas de la física (véase también Anta 2021).

Por otro lado, los filósofos de la biología han prestado si cabe aún más atención al papel que desempeña la omnipresente jerga informacional en las teorías biológicas (ver Godfrey-Smith, 2007), especialmente en genética y biología molecular. En estas áreas se usan expresiones como ‘este gen contiene información sobre un rasgo del organismo’ o terminología evidentemente informacional como ‘transcripción’ o ‘código’. Por ejemplo, en los libros de texto se caracteriza al código genético de un organismo particular como el conjunto de información codificada en ADN acerca de cómo construir las proteínas que dan lugar estructural y funcionalmente al organismo. Sin embargo, existe un consenso dentro de la filosofía de la biología acerca de la problematicidad de la información de Shannon como noción relevante en este ámbito científico, precisamente porque el carácter asemántico de este concepto le impide dar cuenta, por ejemplo, de la capacidad de un gen específico para referirse o denotar un procedimiento para construir proteínas. Es por ello que autores como Maynard Smith (2000) han buscado desarrollar sofisticadas nociones de información semántica capaces de explicar cómo surge evolutivamente la función de los genes de contener ‘información sobre un rasgo’ a partir de la selección natural.

Al igual que ocurría en la filosofía de la física, un debate clave aquí es cómo se usa el concepto de información en biología. Una visión en este respecto la encontramos en el ‘ficcionalismo informacional’ de Levy (2011), quien propone que los usos de nociones informaciones no deben comprenderse en un sentido literal sino de manera metafórica. Es decir, cuando un biólogo afirma ‘este gen posee información’ el término ‘información’ no refiere directamente a una propiedad real del gen (es decir, un gen no contiene información de la misma manera que un jarrón puede contener agua) sino indirectamente a una panoplia de relaciones causales biomoleculares en las que interviene el gen. Es por ello que, según Levy (2011), podemos explicar cómo las nociones informacionales son capaces de proporcionarnos una cierta comprensión heurística de procesos causales en las ciencias biológicas aún sin comprometernos ontológicamente con estas nociones.

6. Conclusiones

La filosofía de la información es una de las nuevas disciplinas o propuestas filosóficas que mayor impacto han tenido en los últimos años, pero este momentum histórico no debe fundamentarse sobre una aceptación incondicional de cualquier producto que lleve la etiqueta sugerente de ‘información’. Así, el potencial de la filosofía de la información no reside (o no debe residir) en parasitar modas intelectuales, sino en nutrirse de los frutos teóricos que nos han proporcionado diversas tradiciones filosóficas como las aquí señaladas: la ingeniería conceptual carnapiana, la epistemología naturalista de Dretske o Skyrms, el construccionismo de Floridi, o la filosofía especializada de la física y la biología, entre otras. En definitiva, de estas fructíferas corrientes de pensamiento filosófico emanan directamente los recursos que le permiten a la filosofía de la información adoptar una perspectiva crítica respecto al rosario de desafíos intelectuales a los que nos enfrentamos en lo que se ha venido a llamar como ‘era de la información’.

Javier Anta
(Universidad de Sevilla)

Referencias

  • Anta, J. (2021). Can Informational Thermal Physics explain the Approach to Equilibrium? Synthese 199 (1-2):4015–4038
  • — (2023). Can Information Concepts have Physical Content? Perspectives on Science 31 (2): 207–232.
  • Artiga, M. (2020). Models, information and meaning. Studies in History and Philosophy of Science Part C: Studies in History and Philosophy of Biological and Biomedical Sciences 82:101284.
  • Carnap, R., & Bar-Hillel, Y. (1952). An Outline of a Theory of Semantic Information, Technical Report No. 247, Research Laboratory of Electronics, MIT.
  • Earman, J., & Norton, J. (1999). Exorcist XIV: the wrath of Maxwell’s Demon. P. II. From Szilard to Landauer and beyond. Studies in History and Philosophy of Modern Physics 30(1), 1–40.
  • Dretske, F. (1981). Knowledge and the Flow of Information. MIT Press.
  • Floridi, L. (2004). The Blackwell Guide to the Philosophy of Computing and Information (Editor). Wiley-Blackwell Publishing Ltd.
  • — (2011). The Philosophy of Information. Oxford University Press.
  • — (2012). The Cambridge Handbook of Information and Computer Ethics. (Editor). Cambridge University Press.
  • — (2013). The Ethics of Information. Oxford University Press.
  • — (2016). The Routledge Handbook of Philosophy of Information. (Editor). Routledge.
  • — (2019). The Logic of Information. Oxford University Press.
  • Godfrey-Smith, P. (2007). Information in Biology, En The Cambridge Companion to the Philosophy of Biology, D. Hull y M. Ruse (eds.), Cambridge: Cambridge University Press.
  • Ladyman, J. (2018). Intension in the Physics of Computation: Lessons from the Debate about Landauer’s Principle. En Physical Perspectives on Computation, Computational Perspectives on Physics, Cuffaro, E. y Fletcher, S. (eds.) Cambridge University Press, 219-239.
  • Levy, A. (2011). Information in Biology: A Fictionalist Account”, Noûs, 45(4): 640–657.
  • Lombardi, O; Fortin, S., & López, C. (2016). Deflating the deflationary view of information. European Journal for Philosophy of Science 6 (2), 209-230.
  • Lombardi, O.; Holik, F., & Vanni, L. (2016). What is Shannon information? Synthese 193 (7), 1983-2012.
  • Martínez, M. (2019). Representations are Rate-Distortion Sweet Spots. Philosophy of Science 89, p.1214-226.
  • Maynard Smith, J., 2000, The Concept of Information in Biology, Philosophy of Science, 67(2): 177–194.
  • Norton, J. (2018). Maxwell’s Demon Does not Compute. En Michael E. Cuffaro y Samuel C. Fletcher, (eds.), Physical Perspectives on Computation, Computational Perspectives on Physics. Cambridge University Press.
  • Shannon, C. (1948). A Mathematical Theory of Communication. En Collected Papers. Sloane NJA y Wyner AD (editores), IEEE Press.
  • Skyrms, B. (2010). Signals: Evolution, Learning, and Information. Oxford University Press.
  • Timpson, C. G. (2013). Quantum Information Theory and the Foundations of Quantum Mechanics. Oxford University Press.

Entradas relacionadas

Cómo citar esta entrada

Anta, J. (2023). Filosofía de la información. Enciclopedia de la Sociedad Española de Filosofía Analítica. http://www.sefaweb.es/filosofia-de-la-informacion/