El conexionismo es una teoría sobre la arquitectura cognitiva—la forma de entender la estructura y el funcionamiento de los sistemas cognitivos—que apareció en los años 80. En cierto modo, el conexionismo supuso un desafío para la teoría dominante en las ciencias cognitivas y la inteligencia artificial de la época y ofreció nuevas herramientas para entender la forma en la que los procesos cognitivos (p.ej., percepción, atención, memoria, lenguaje) pueden estar implementados o pueden emerger de sistemas neuronales.
Los debates propiciados por la aparición del conexionismo siguen vigentes en la ciencia cognitiva contemporánea y en su filosofía. Además, la investigación más puntera en modelos de redes neuronales mantiene su inspiración en propuestas conexionistas y comparte muchos de sus principios básicos. El conexionismo es, por tanto, una teoría que ayuda a comprender tanto el desarrollo histórico de las ciencias cognitivas como su estado actual.
1. Breve Historia
Desde la revolución cognitiva a finales de los años 50 (Miller, 2003), tanto las ciencias cognitivas como la investigación en inteligencia artificial han estado dominadas por un paradigma basado en principios representacionalistas y computacionales que ha venido a ser llamado cognitivismo (Garnham, 2009). El cognitivismo se fundamenta en la metáfora computacional: el sistema mente-cerebro es una computadora. Más concretamente, la mente es el software que funciona sobre el hardware cerebral (Thagard, 2005).
Entre otros factores, el cognitivismo encontró su éxito gracias a que la metáfora computacional permitía el estudio de la mente desde coordenadas puramente físicas. Los estados mentales, antaño restringidos a la esfera privada que no era accesible desde los métodos de la ciencia contemporánea, podían ahora ser entendidos como estados de un sistema computacional mediante el uso de herramientas formales (Anderson, 1983, 2007; Newell, 1990; Russell y Norvig, 2003). Además, la metáfora computacional resolvía el problema mente-cerebro: los estados mentales son estados semánticos que se procesan en términos puramente sintácticos (formales) en los mecanismos cerebrales. De este modo, al igual que no hay problemas para reconciliar software y hardware en una computadora, no los hay para reconciliar mente y cerebro.
El cognitivismo enfrentaba y enfrenta serios problemas tanto teóricos como empíricos (McCarthy y Hayes, 1969; Searle, 1980). Sin embargo, pronto se convirtió en el paradigma dominante en las ciencias cognitivas. Una de las consecuencias de este hecho es que los detalles de implementación de los procesos cognitivos quedaron relativamente relegados en la investigación cognitiva. Las computadoras se pueden entender como sistemas formales que pueden implementarse físicamente de formas muy diversas. Del mismo modo, si el sistema mente-cerebro es una computadora, puede ser estudiado en términos formales y el hecho de que su implementación sea una compleja red neuronal no es, en principio, central para la explicación—la idea general tras esta afirmación se ha llamado realización múltiple en algunos círculos filosóficos (Polger y Shapiro, 2016): si la metáfora computacional típica del cognitivismo es cierta, entonces la mente es múltiplemente realizable y esto conlleva que la implementación de los estados mentales no es central para la explicación de la naturaleza de estos estados. En otras palabras, las computadoras son independientes de su medio de implementación y, por tanto, el sistema mente-cerebro también lo es.
A pesar de la poca atención que el cognitivismo, en general, presta a la implementación de los estados cognitivos, esta no ha sido la actitud general a lo largo de la historia de la psicología y de las ciencias cognitivas. Ya desde los años 40, arquitecturas que, hasta cierto punto, imitaban la estructura de red del cerebro se empezaron a desarrollar—por ejemplo, las pequeñas redes desarrolladas por McCulloch y Pitts (1943) o el pandemonium (Selfridge, 1959). Sin embargo, en pleno dominio cognitivista, no es hasta los años 80 que ideas sobre la relevancia de la implementación de los procesos cognitivos vuelven a la palestra, a través, por ejemplo, de los modelos de memoria asociativa en paralelo (Hinton y Anderson, 1981) o el propio conexionismo (Rumelhart y McClelland, 1986). Estos modelos buscaban desarrollar arquitecturas cognitivas inspiradas en redes neuronales biológicas que pudiesen dar cuenta de diversos procesos cognitivos. En este sentido, se convirtieron en desafíos e incluso alternativas al cognitivismo en tanto que perseguían la explicación de los mismos fenómenos desde asunciones teóricas distintas en lo que tiene que ver con su implementación o con las nociones de computación y representación, por ejemplo. De todas ellas, el conexionismo es la más rica y compleja. Y, sin duda, la que ha tenido una mayor influencia en la ciencia cognitiva.
2. Principios básicos
El elemento fundamental para entender el lugar del conexionismo en la ciencia cognitiva, así como sus principios básicos, es que es una arquitectura cognitiva que, como el cognitivismo, es computacional. Las redes conexionistas están vagamente inspiradas en las redes neuronales de los cerebros biológicos. En las redes conexionistas, las unidades que imitan las neuronas implementan algún tipo de función computacional. Así, estas redes se pueden entender como un sistema computacional en paralelo, es decir, en el que las unidades de computación actúan simultáneamente.
Con esta idea en mente, las redes conexionistas son modelos computacionales que se basan de una forma abstracta en lo que sabemos sobre el cerebro y las redes neuronales que lo constituyen. Se cree que el cerebro humano contiene entre 1010 y 1011 neuronas y cada una de ellas puede llegar a tener 105 conexiones con otras neuronas. Estas conexiones pueden ser excitatorias, las que fomentan la actividad de otras neuronas, o inhibitorias, las que frenan o bloquean la actividad de otras neuronas. Además, el aprendizaje de nuevas habilidades y contenidos se basa en la modificación de estas conexiones, usualmente entendida como el refuerzo o la debilitación de sus sinapsis.
Dados estos hechos sobre el cerebro humano, las redes conexionistas consisten en un número de elementos simples, llamados unidades o nodos, que actúan de manera similar a las neuronas biológicas y que están conectados a través de unas conexiones que les permiten transmitir señales simples. Estas conexiones, que pretenden ser análogas a las sinapsis y que pueden ser tanto excitatorias como inhibitorias, tienen un peso que determina la forma en la que el nodo conectado a uno de sus extremos puede influenciar al nodo conectado en el otro extremo. Los nodos (o unidades) están normalmente organizados en capas. Una capa de entrada, que lleva la información del exterior al sistema, una capa de salida que devuelve el resultado del procesamiento de la información y una o varias capas escondidas (que no están siempre presentes en las redes conexionistas), que se sitúan entre las capas de entrada y salida y que no tienen contacto con el entorno del sistema (Figura 1). En los modelos más básicos de redes conexionistas, las capas se conectan unidireccionalmente y las conexiones van de la capa de entrada a la de salida pasando por la capa escondida. En otros modelos mas avanzados, que incluyen retroalimentación, por ejemplo, las conexiones entre nodos pueden ser cíclicas o de otro tipo.
En general, los nodos y las conexiones en redes conexionistas tienen habilidades muy limitadas. A través de sus conexiones de salida, los nodos solamente transmiten valores números que son una función de los valores numéricos que reciben a través de sus conexiones de entrada (o que reciben del entorno, en el caso de los nodos de la capa de entrada). Usualmente, cada nodo toma un grupo de valores de entrada y los transforma, mediante un proceso computacional, en un único valor de salida que es transmitido a los nodos de la siguiente capa. Estas transformaciones están normalmente limitadas a operaciones matemáticas muy simples, como diversos tipos de suma (para una explicación técnica de los aspectos básicos de las redes conexionistas, ver Rumelhart y McClelland, 1986, p. 45 y siguientes).
3. ¿Cómo funciona una red conexionista?
Teniendo en cuenta que tanto nodos como conexiones tienen un funcionamiento simple y limitado, la pregunta es: ¿Qué hacen las redes conexionistas para conseguir llevar a cabo procesos complejos? La respuesta ya ha sido anticipada: procesamiento paralelo. Los procesos computacionales llevados a cabo por la red conexionista ocurren en paralelo a lo largo de los nodos en lugar de ocurrir en serie, como es el caso en la computación tradicional. En este sentido, los nodos mismos, como unidades computacionales, no son individualmente responsables de solucionar un problema, sino que lo solucionan de forma colectiva.
De forma general, la información que llega a la red conexionista es distribuida por toda la red. En este sentido, las redes conexionistas instancian lo que se puede llamar representaciones distribuidas: patrones de activación simultánea de todos los nodos de la red. Así, por ejemplo, un patrón de activación en particular a través de los 15 nodos de la red conexionista de la Figura 1 puede ser la representación de “cebra”, mientras que otro patrón de activación a través de los mismos nodos puede ser la representación de “jirafa”. Por lo tanto, una red conexionista podría ser capaz de producir la palabra “cebra”, cuando la información de entrada fuese una fotografía de una cebra, alcanzando el patrón de activación de “cebra” en sus nodos y, de la misma forma, producir la palabra “jirafa”, cuando la información de entrada fuese la fotografía de una jirafa, alcanzando el patrón de activación de “jirafa” en sus nodos. Este ejemplo nos lleva a los dos aspectos fundamentales del funcionamiento de una red conexionista: la activación de los nodos y el algoritmo de retropropagación.
3.1 La activación de los nodos
Los nodos en una red conexionista implementan una función de transferencia que determina la forma en la que el valor de cada nodo se actualiza en función de la información de entrada que recibe desde el entorno (en el caso de los nodos de la capa de entrada) o desde los nodos de otra capa (en el caso de los nodos de la capa escondida y de la de salida). Normalmente, la función de transferencia trata computacionalmente la información que recibe y la aplica a una función de activación que es la que determina el valor de salida que va a entregar a la siguiente capa de la red (Figura 2).
Un tipo de procesamiento habitual en la función de transferencia de un nodo dado es la multiplicación de las activaciones que recibe desde los nodos de la capa previa por los pesos de las conexiones por las que esas activaciones llegan (este proceso es a veces referido como función de entrada de red), para después sumar los resultados de esas multiplicaciones y enviarlas a la función de activación (Figura 2A). La función de activación, entonces, aplica algún tipo de computación a esa entrada, y de esa computación depende el perfil de activación del nodo (Figura 2B). Por ejemplo, la función de activación puede requerir un nivel de entrada mínimo para entonces provocar un aumento súbito en la activación del nodo y así enviar esa activación hacia la siguiente capa de la red. Esta función de activación se puede entender como un umbral de activación. En otros nodos, la función de activación puede simplemente requerir un valor específico de entrada para provocar la máxima activación del nodo y enviarla hacia la siguiente capa de la red. Esta función de activación se puede entender como una activación gaussiana.
3.2 El algoritmo de retropropagación
En las redes conexionistas, la activación de cualquier nodo depende de las activaciones de entrada que recibe desde las capas previas o desde el entorno de la red. Las funciones de transferencia de los nodos—que comprenden la función de entrada de red y la función de activación—suelen ser fijas y no cambian durante el funcionamiento de la red. Sin embargo, las conexiones entre nodos sí que pueden cambiar su peso y, por tanto, influir en la información que llega a los nodos. En este sentido, la clave de la evolución y el aprendizaje en las redes conexionistas tiene que ver con los cambios que se producen en los pesos de las conexiones entre nodos. La forma en la que estos cambios se producen suele estar basada en algoritmos de retropropagación.
El primer algoritmo de retro-propagación (“backpropagation” en inglés) en el contexto de redes conexionistas fue introducido por Rumelhart, Hinton y Williams (1986). Diferentes métodos de retropropagación se venían desarrollando desde los años 60 (Bryson, 1961; Kelley, 1960). Entre ellos, el conocido como regla delta ganó relevancia y, a mitad de los años 80, los mencionados fundadores del conexionismo generalizaron la regla delta para su propio modelo de red conexionista. Fundamentalmente, lo que la regla delta y los algoritmos de retroprogramación llevan a cabo es un cambio de los pesos de las conexiones entre los nodos usando como referencia la diferencia entre los resultados de las operaciones de la red y los resultados esperados si la red tuviese un comportamiento exitoso. La regla delta simple usa una tasa de error basada en esta diferencia para llevar a cabo los cambios en los pesos de las conexiones entre nodos. Por su parte, la regla delta generalizada lleva a cabo un proceso similar, pero tiene en cuenta las contribuciones de los nodos al error total y la forma en la que tal error se distribuye a través de las diferentes capas de la red. En este sentido, la señal de error se retropropaga a través de las capas de la red y guía las modificaciones de los pesos de sus conexiones.
Los principios básicos de la regla delta y de su generalización como algoritmo de retropropagación son el refuerzo sináptico y el aprendizaje supervisado. Por un lado, Donald Hebb (1949) demostró que las conexiones sinápticas entre neuronas en cerebros biológicos se refuerzan cuando las neuronas conectadas están activas simultáneamente. Se cree que este fenómeno es uno de los mecanismos fundamentales del aprendizaje y, en este sentido, inspira la idea del cambio de pesos de las conexiones entre nodos de las redes conexionistas como fundamento de los procesos de aprendizaje que en ellas se dan. Por otro lado, el aprendizaje supervisado es una forma básica de aprendizaje tanto en humanos como en animales. Madres y padres corrigen a sus hijas e hijos, profesoras y profesores a sus alumnas y alumnos, etc. Cuando un aprendiz comete un error, quien se encarga de la supervisión hace ese error explícito e intenta provocar un cambio en el aprendiz para que el error no se produzca y la tarea sea exitosa. En los algoritmos de retro-propagación, la tasa de error calculada al comparar los resultados obtenidos a los resultados esperados en la actividad de la red conexionista, cumple el papel de supervisión en su proceso de aprendizaje. En este sentido, el funcionamiento de las redes conexionistas, tanto al nivel nodos y conexiones individuales como a nivel general en términos de actividad y aprendizaje, está inspirado en aspectos conocidos de los sistemas cognitivos biológicos.
4. Algunos problemas del conexionismo
La viabilidad del conexionismo como paradigma para el desarrollo de la inteligencia artificial y, en general, como paradigma de las ciencias cognitivas ha sido puesta en cuestión desde diversas perspectivas. Por un lado, el hecho de que el conexionismo ponga en juego la idea de representaciones distribuidas—o, incluso, la eliminación del concepto de representación (Churchland, 1989)—ha sido visto como un problema para dar cuenta de uno de los aspectos esenciales de la psicología popular: la idea de que estados mentales funcionalmente discretos y semánticamente interpretables tienen poderes causales (Ramsey, Stich y Garon, 1990). La funcionalidad de una red conexionista está basada en la distribución de los pesos de las conexiones entre sus nodos tal que una sola distribución puede hacer que la red exhiba la funcionalidad deseada (p.ej., categorización o aprendizaje del tiempo pasado). En este sentido, los estados de las redes conexionistas no son funcionalmente discretos ni semánticamente interpretables, con lo que una de las intuiciones fundamentales de la psicología popular es abandonada.
Por otro lado, y sobre todo en los albores del conexionismo como paradigma, las redes conexionistas fueron puestas en cuestión en base a consideraciones biológicas. En particular, la plausibilidad biológica de las redes conexionistas fue altamente cuestionada. En estas redes, los nodos tenían un comportamiento similar, las capas de nodos eran capas discretas, y el flujo de información era unidireccional, por ejemplo. Ninguna de estas tres características da cuenta de las propiedades anatómicas y funcionales de los cerebros. Por tanto, las redes conexionistas eran consideradas poco realistas. Este hecho, entre otros, fue el que llevó a la evolución de las diversas generaciones de redes conexionistas que han surgido en las ultimas décadas y que se acercan más a una situación de realismo biológico.
Más allá de cuestiones de compatibilidad con la psicología popular o con la biología cerebral, el gran reto teórico que el conexionismo ha tenido que enfrentar es el reto de la sistematicidad propuesto por Jerry Fodor y Zenon Pylyshyn (1988). El reto de la sistematicidad se enmarca en el debate entre conexionismo y cognitivismo. El conexionismo se presenta como una alternativa al cognitivismo y, por ello, debe dar cuenta de los mismos fenómenos. O, al menos, esta es la idea de algunos defensores del cognitivismo, como lo eran Fodor y Pylyshyn. Para ellos, las redes conexionistas no pueden dar cuenta del pensamiento humano porque el pensamiento humano es sistemático y las redes conexionistas no lo son. Y, más aún, si las redes conexionistas pudiesen dar cuenta de la sistematicidad del pensamiento humano, se convertirían en meros modelos de implementación del cognitivismo.
La sistematicidad se fundamenta en otra propiedad: la composicionalidad. Un sistema es composicional cuando está constituido por elementos atómicos que pueden combinarse siguiendo unas determinadas reglas. Por ejemplo, la lengua castellana es composicional. La frase “Juan quiere a Lola” esta constituida por tres partes: “Juan”, “quiere a”, y “Lola”. Y el significado de la frase depende de las partes que la componen y la sintaxis del castellano. Algunos sistemas composicionales son también sistemáticos, es decir, son capaces de producir cualquier combinación legal de los átomos que los constituyen. De nuevo, el lenguaje castellano es sistemático: al igual que puede producir “Juan quiere a Lola”, puede producir “Lola quiere a Juan”.
De acuerdo con Fodor y Pylyshyn, el pensamiento humano es composicional y sistemático: está constituido por representaciones/conceptos y es capaz de producir cualquier combinación legal de ellos. Sin embargo, las redes conexionistas no son sistemáticas porque no son composicionales. Las representaciones distribuidas típicas de las redes conexionistas no son atómicas: la representación “Lola quiere a Juan” consiste en un patrón especifico de activaciones de todas las unidades de la red. Esta representación no puede cambiar a “Juan quiere a Lola” sin cambiar el patrón de activación de toda la red. En este sentido, no hay elementos atómicos que constituyan el sistema composicional, por lo que las redes conexionistas no son composicionales. Y al no ser composicionales, no pueden ser sistemáticas.
Los defensores del conexionismo han respondido al reto de la sistematicidad de muy diversas maneras (Calvo y Symons, 2014). Por un lado, los hay que han intentado argumentar que las redes conexionistas pueden ser sistemáticas. Por ejemplo, Smolensky (1987, 1988) defiende que la sistematicidad se puede basar en una noción de composicionalidad débil en la que los estados de una red conexionista se pueden entender como vectores definidos por las matrices de los pesos de las conexiones de la red y los componentes de esos estados (p.ej., “Juan” en “Juan quiere a Lola”) como los vectores individuales que componen el vector de la red. Estos vectores se pueden combinar siguiendo ciertas normas y dependiendo del contexto. En este sentido, la combinación de vectores individuales da cuenta de la composicionalidad sin necesidad de apelar a estados funcionalmente discretos y, por tanto, las redes conexionistas pueden ser sistemáticas.
Por otro lado, los hay que argumentan que el pensamiento humano no es sistemático y que, por tanto, las redes conexionistas no necesitan serlo. Este es el caso de Chemero (2014), que analiza la noción de sistematicidad usada por Fodor y Pylyshyn y que concluye que no hay sustento empírico para ella tras un recorrido por los usos de la palabra “sistematicidad” en las ciencias cognitivas. En este sentido, el reto de la sistematicidad es un argumento hegeliano: un argumento basado en pura especulación, pero sin respaldo en la ciencia cognitiva. Chemero (2009) considera que los argumentos hegelianos son poco convincentes, lo que va en contra del reto de la sistematicidad. A pesar de ello, es un hecho constatable que el reto de la sistematicidad sigue vigente en las disputas teóricas respecto al conexionismo.
5. Conexionismo hoy
Las redes conexionistas han sido aplicadas a tareas cognitivas muy diversas, tales como tareas lingüísticas, de percepción, o de toma de decisiones. Con su éxito, el conexionismo ha demostrado que ciertas asunciones del cognitivismo no son necesarias para comprender y explicar la forma en la que los sistemas cognitivos funcionan—por ejemplo, las redes conexionistas no precisan de una descripción formal o de reglas explícitas de procesamiento computacional. Este hecho diferenciador ha provocado un amplio desarrollo del paradigma conexionista desde que apareció en los años 80 y, hoy en día, podemos hablar de una segunda, una tercera, e incluso una cuarta generación del conexionismo (las generaciones son también conocidas como “olas del conexionismo”).
Un importante ejemplo de las redes conexionistas de segunda generación es el predictor de oraciones de Elman (1990). La mayor novedad de este predictor de segunda generación con respecto a las redes conexionistas de primera generación es que está basado en una red recurrente. Las redes recurrentes se distinguen por incluir una capa de nodos de contexto que actúan como una forma de memoria (Figura 3). Normalmente, la capa de contexto copia los estados de la capa escondida y los reintroduce en esa capa en el siguiente ciclo de activación. En este sentido, las redes recurrentes explotan las propiedades temporales de la actividad de las redes conexionistas para así proporcionar a la red mayor capacidad de procesamiento.
La tercera generación de conexionismo, el conexionismo dinámico (McClelland et al., 2010), introduce en las redes conexionistas algunas características que aumentan su plausibilidad biológica. Por ejemplo, permitiendo diferencias entre los nodos para usar algunos de ellos con propósitos especiales, incluyendo una conectividad más compleja, retardos, procesamiento en tiempo continuo, entradas analógicas, ruido, etc. Y la cuarta generación, más actual si cabe, es la que introduce principios del procesamiento predictivo (Friston, 2010) en la arquitectura conexionista, permitiendo el procesamiento bidireccional basado en probabilidad bayesiana. En estas redes, el aprendizaje se consigue mediante la combinación de flujos informativos bidireccionales—esto es, de la capa de entrada a la de salida y viceversa.
El conexionismo, por tanto, sigue siendo un paradigma relevante dentro de las ciencias cognitivas y sigue proponiendo alternativas a los modelos clásicos tanto en psicología y neurociencia cognitiva como en inteligencia artificial. Además, es de esperar que el avance en el conocimiento de los sistemas neuronales biológicos repercuta en los modelos conexionistas y que estos sean cada vez más refinados y puedan seguir contribuyendo al avance del conocimiento de los procesos cognitivos.
Vicente Raja
(Rotman Institute of Philosophy,
Western University)
Referencias
- Anderson, J. R. (1983): The Architecture of Cognition, Cambridge, Mass., Harvard University Press.
- ———— (2007): How Can the Human Mind Occur in the Physical Universe?, Oxford, Oxford University Press.
- Bryson, A. E. (1961): “A gradient method for optimizing multi-stage allocation processes”, en Proceedings of the Harvard University Symposium on Digital Computers and their Applications, Cambridge, Mass., Harvard University.
- Calvo, P. y J. Symons (2014): The Architecture of Cognition, Cambridge, Mass., MIT Press.
- Chemero, A. (2009): Radical Embodied Cognitive Science, Cambridge, Mass., MIT Press.
- ———— (2014): “Systematicity and interaction dominance”, en Calvo, P. y J. Symons, eds., The Architecture of Cognition, Cambridge, Mass., MIT Press, pp. 353-369.
- Churchland, P. M. (1989): A Neurocomputational Perspective: The Nature of Mind and the Structure of Science, Cambridge, Mass., MIT Press.
- Elman, J. (1990): “Finding structure in time”, Cognitive Science, 14(2), pp. 179-211.
- Fodor, J. y Z. Pylyshyn (1988): “Connectionism and cognitive architecture: A critical analysis”, Cognition, 28, pp. 3-71.
- Friston, K. (2010): “The free-energy principle: A unified brain theory?”, Nature Reviews Neuroscience, 11(2), pp. 127-138.
- Garnham, A. (2009): “Cognitivism”, en Symons, J. y P. Calvo, eds., The Routledge Companion to Philosophy of Psychology, Nueva York, Routledge, pp. 99-110.
- Hebb, D.O. (1949): The Organization of Behavior, Nueva York, Wiley.
- Hinton, G. y J. Anderson (1981): Parallel Models of Associative Memory, Hillsdale, Lawrence Erlbaum Assoc.
- Kelley, H. J. (1960): “Gradient theory of optimal flight paths”, ARS Journal, 30(10), pp. 947-954.
- McCarthy, J. y P. Hayes (1969): “Some philosophical problems from the standpoint of artificial intelligence”, en Meltzer, B. y D. Michie, eds., Machine Intelligence 4, Edimburgo, Escocia, Edinburgh University Press, pp. 463-502.
- McClelland, J. L., M. M. Botvinick, D. C. Noelle, D. C. Plaut, T. T. Rogers, M. S. Seidenberg y L. B. Smith (2010): “Letting structure emerge: Connectionist and dynamical systems approaches to cognition”, TRENDS in Cognitive Sciences, 14(8), pp. 348-356.
- McCulloch, W. y W. Pitts. (1943): “A logical calculus of the ideas immanent in nervous activity”, Bulletin of Mathematical Biophysics, 5, pp. 115-133.
- Miller, G. A. (2003): “The cognitive revolution: A historical perspective”, TRENDS in Cognitive Sciences, 7(3), pp. 141-144.
- Newell, A. (1990): Unified Theories of Cognition, Cambridge, Mass., Harvard University Press.
- Polger, T. y L. Shaprio (2016): The Multiple Realization Book, Oxford, Oxford University Press.
- Ramsey, W., S. Stich y J. Garon (1990): “Connectionism, eliminativism and the future of folk psychology”, Philosophical Perspectives, 4, pp. 499-533.
- Rumelhart, D. E., G. E. Hinton y R. J. Williams (1986): “Learning internal representations by error propagation”, en Rumelhart, D. E. y J. L. McClelland, eds., Parallel Distributed Processing: Explorations in the Microstructure of Cognition. Vol. 1, Foundations, pp. 318-362, Cambridge, Mass., MIT Press.
- Rumelhart, D. E., J. L. McClelland y PDP Research Group (1986): Parallel Distributed Processing, 1, 2, Cambridge, Mass., MIT Press.
- Russell, S. J. y P. Norvig (2003): Artificial Intelligence: A Modern Approach, Upper Saddle River, Prentice Hall.
- Searle, J. (1980): “Minds, brains, and programs”, Behavioral and Brain Sciences, 3, pp. 417-457.
- Selfridge, O. G. (1959): “Pandemonium: A paradigm for learning”, en Blake, D. V. y A. M. Uttley, eds., Proceedings of the Symposium on Mechanisation of Thought Processes, pp. 511-529, Londres.
- Smolensky, P. (1987): “The constituent structure of mental states: A reply to Fodor and Pylyshyn”, Southern Journal of Philosophy, 25, pp.137-460.
- ———— (1988): “On the proper treatment of connectionism”, Behavioral and Brain Sciences, 2, pp. l-23.
- Thagard, P. (2005): Mind: Introduction to Cognitive Science, Cambridge, Mass., MIT Press.
Lecturas recomendadas en castellano
- Bechtel, W. y A. Abrahamsen (2002): Connectionism and the Mind: An Introduction to Parallel Processing in Networks 2ª ed., Cambridge, Mass., Basil Blackwell.
- Bishop, C. M. (1995): Neural Networks for Pattern Recognition, Oxford, Reino Unido, Oxford University Press.
- Campanario, J. M. (2004): “El enfoque conexionista en psicología cognitiva y algunas aplicaciones sencillas en didáctica de las ciencias”, Enseñanza de las Ciencias, 22(1), pp. 93-104.
- Clark, A. (1993): Associative Engines: Connectionism, Concepts and Representational Change, Oxford, Oxford University Press.
- Clark, A. (2014): Mindware: An Introduction to the Philosophy of the Cognitive Science, 2ª ed., Oxford, Oxford University Press.
- Haykin, S. (1994): Neural Networks: A Comprehensive Foundation, Upper Saddle River, Nueva Jersey, Prentice Hall.
- McClelland, J. L. y D. E. Rumelhart (1989): Explorations in Parallel Distributed Processing: A Handbook of Models, Programs, and Exercises, Cambridge, Mass., MIT Press.
- Pineda, D. (2012): La Mente Humana: Introducción a la Filosofía de la Psicología, Madrid, España, Ediciones Cátedra.
- Pons Parra, R. M. y J. M. Serrano Gonzalez-Tejero (2011): “Conexionismo e Instrucción”, Educación y Humanismo, 13(21), pp. 51-82.
Cómo citar esta entrada
Raja, Vicente (2019): “Conexionismo”, Enciclopedia de la Sociedad Española de Filosofía Analítica (URL: http://www.sefaweb.es/conexionismo/).