Mostrando entradas con la etiqueta El autor no era un desconocido.... Mostrar todas las entradas
Mostrando entradas con la etiqueta El autor no era un desconocido.... Mostrar todas las entradas

10/7/11

Paco Calvo & Toni Gomila, Handbook of Cognitive Science. An Embodied Approach, Amsterdam, Elsevier, 2008

“Is cognitive activity more similar to a game of chess than to a game of pool?” This is the opening question of this volume and every social scientist concerned with the explanation of our decisions should carefully consider the answer. At least, they should if they use standard intentional explanations, where decisions result from a particular combination of beliefs and desires that purportedly captures our folk understanding of action. If we are not uncomfortable with such foundation is mostly thanks to the progress of cognitive science that shows how our beliefs and desires can be processed, beyond folk psychology, as “a computational manipulation of representational inner states”. If you are already wondering if there is anything else to a decision, you probably consider cognitive ability akin to a game of chess. The authors in this volume would rather see it as a game of pool, that is, a non-formal game in which you need to take into account real-time physical interactions. In the case of decisions, our sensorimotor interaction with a given environment plus our social interaction with other agents. All this conceived as a continuous process that should be modeled (and explained) as such: i.e., describing the range of changes that the agent-cum-environment system experiences over real time. In principle, there is no need to invoke standard mental representations or a global plan of action.

This seems to be the explanatory approach emerging in the interdisciplinary field of embodied cognitive science, at least according to the editors of this Handbook (p.13). Calvo and Gomila are well aware that not every author in their volume would accept such an approach to explanation. The aim of this compilation is precisely to bring the different agendas in this new field to converge on a joint research program (p.15). Among these agendas, the editors cite: ecological psychology, behavior-based AI, embodied cognition, distributed cognition, perceptual symbol systems, some forms of connectionism, interactivism and dynamical systems theory. Their common thread, according to Calvo and Gomila, is to conceive of cognition and behavior “in terms of the dynamical interaction (coupling) of an embodied system that is embedded in the surrounding environment” (p. 7). The reader is properly warned that many of these terms are still awaiting a more precise definition ―including here “embodied” (p.12)―, but Calvo and Gomila believe that the success obtained by this approach in certain particular domains justifies a generalization that would first redefine the research agenda of cognitive science. And then eventually expand into every other field in the social sciences where cognition plays an explanatory role.

The structure of the volume somehow reflects the current disunity of this project: it goes through the fields listed above, including several surveys, a number of success stories and a few conceptual discussions of the pros and cons of this emerging approach as opposed to mainstream cognitive science. The main division, for the purposes of this review, is between the analysis of, so to speak, lower and higher cognitive processes. The former are covered in sections 2-4, namely: “Robotics and Autonomous Agents”, “Perceiving and Acting” and “A Dynamic Brain”. These three sections exemplify several tenets that the editors present as distinctive in the embodied approach. For instance, the claim about perception being active and action perceptually guided is explored in chapters dealing with a control system for human avatars (ch. 8), an analysis of the use of inconsistent visual information for the control of our actions (ch. 11), experimental evidence on visual processes guiding sorting tasks (ch. 10) and, finally, a dynamical system model of the interaction of the neural network, the body and the environment of an evolutionary agent featuring visually guided object discrimination (ch. 6).

The evidence presented in these three sections is fascinating, at least for readers like me without any competence in the topics addressed therein. However, it is not presented in the systematic fashion you would expect from a Handbook. It is more a collection of papers representing the diversity of perspectives announced in the Introduction, but they rarely engage with the claims made by each other. The editors have a point when they call for an empirical comparison of the different post-cognitive hypotheses in order to ponder their merit within the joint agenda (p. 15). But such comparison rarely features in the Handbook, which is perhaps an accurate portrait of the state of the art in this field.

Nonetheless, we should grant that the evidence accumulated at these lower levels of cognitive activity is compelling enough to reconsider several traditional tenets about them. E.g., whereas in the traditional approach (both in philosophy and in cognitive science) vision was most often understood as yielding “internal representations for general-purpose use”, the brick-sorting experiment presented in chapter 10 compellingly suggests that eye movements are task-oriented instead. The evidence for this hypothesis is provided by an experimental setup in which subjects operate in a virtual environment wearing a head mounted display tracking their eye movements and manipulating a mechanical arm with their hands. Variations in the visual cues of the bricks during the sorting task revealed, for instance, that the subjects retrieved the relevant information either from the scene or from their working memory. An implicit cost function regulating visual attention seems to be at work here, even if we still do not know much about the mechanism implementing it. It probably evaluates such aspects as metabolic cost, cognitive load, temporal urgency, etc. The subjects themselves are certainly unaware of it being at work. According to Calvo and Gomila (p. 12), in this experiment perceptions seems to be more than building visual representations: it seems active and guides action in quite a straightforward manner.

However, as the authors of chapter 10 (Droll and Hayhoe) point out the evidence presented is not contradictory with “formal models of executive control in which high-level decision processes [about the relevant visual parameters] affect lower level sensory selection” (p. 202). In other words, these experiments can also be interpreted as speaking for a certain continuity/compatibility between embodied and traditional approaches to cognition. The former may well help us in reconsidering certain low level cognitive activities, but maybe at a higher scale the latter may still play a role. This is the problem that the editors dub “scaling-up”: can we explain high level cognition in an embodied fashion? This is the topic of sections 5-7, which cover “Embodied Meaning”, “Emotion and Social Interaction” and a general discussion of the transition from lower to higher levels of cognition.

In chapter 15, Lotte Meteyard and Gabriela Vigliocco present a wonderful review of the embodied theories of semantic representation. As they recall, in this approach, we apprehend linguistic meaning simulating the sensory-motor information produced by the referent of a word or a proposition. They distinguish between stronger and weaker versions of this approach according to the degree to which semantic content depends on this sensory-motor information (what the authors call their engagement hypothesis), reviewing the available evidence (namely behavioral and neurological) for or against each version. The authors conclude that there is a tie between them, but the evidence speaks against those who deny the engagement hypothesis and claim absolute independence between semantic and sensory-motor information. Chapter 16 presents one particular approach to embodied meaning, stemming from the Neural Theory of Language project, taking concept learning as case in point. The two remaining chapters in this section on embodied meaning deal with mathematics: in the former, Rafael Núñez applies a metaphorical approach to mathematics he developed with Lakoff to the analysis of axiomatic systems; in the latter, Arthur Glenberg draws out the practical implications of this approach for the teaching of mathematics. This Handbook is mainly aimed at practitioners of the cognitive sciences, but, all in all, this is probably the section that impinges most on the main tenets of mainstream analytic philosophy and I miss a straightforward discussion of the philosophical “paradigm shift” implicit in its claims.

There is quite a contrast between sections 6 and 7. In the former, on “Scaling up” , two of the three papers compiled seem quite deflationary, at least if we measure by the standards of the editors. In chapter 19, Margaret Wilson explores the possible mechanisms by which abstract de-contextualized thought may have emerged from sensorimotor abilities applied to immediate situations. However, she argues explicitly against reducing human cognition to situated cognition, which, in principle, leaves some room for traditional approaches to the former. In a similar vein, Michael Anderson (ch. 21) analyses brain imaging results showing cognitive overlaps between different areas of the brain and discusses to what extent these images speak unambiguously for embodied cognition. E.g., there is evidence that perceiving objects an object names activate brain regions associated with grasping. But this may be explained as a result of the redeployment of neural circuits across different domains in the evolution of our brain. Some sort of functional inheritance would often ensue as a result, without any further implication about their “embodied” connection.

The tone in the two papers compiled in section 7 is inflationary, by contrast. For instance, Shaun Gallagher (ch. 22) argues for an embodied alternative to standard theories of mind, in which we would not need belief or desire attribution to understand each other’s actions. This understanding would often be primary, originating in body expressions that we would apprehend directly through perception without mental representations. Gallaguer’s paper puts forward a different worldview than the sort of empirically informed hypotheses that abound in this volume. However, it is worth reading, even if just to have a flavor of what a fully embodied approach would entail ―even more so for M. Sheets-Johnstone final chapter.

The volume ends abruptly or, at least, I miss a final overview taking stock of all the evidence compiled and assessing the viability of the research program outlined by the editors in the introduction. The only general discussion can be found at the beginning, in the first two chapters ―therefore written without any explicit reference to the volume. M. Bickhard presents a conceptual argument against standard models of representation in cognitive science: they cannot account, he claims, for the possibility that the organism detects and corrects its own errors. Following Bickhard, if we ground representations on embodied interaction instead, it is possible to account for errors. Interactions involve a circular causal flow between the system and the environment, according to a range of indicated possibilities. Errors will be detected by the system when this range is violated in the interaction. Again, we may wonder how this error-detection model applies to higher level representations, but the volume is not very rich on suggestions about this particular point.

Hence, the only really general discussion of the project in the volume is Andy Clark’s paper on “Embodiment in explanation” (ch.2). Clark defends a somewhat conservative position: mainstream cognitive science should take into account the many findings of the embodied approach, without abandoning its current paradigm. Clark’s argument is based on a review of a significant sample of current research. Had he used the evidence compiled in this Handbook, it would have made an excellent conclusion. His conservatism originates in his skepticism regarding the possibility of a total identification between an agent’s experience and the underlying sensorimotor exercise, as it is often assumed in the most radical versions of the embodied approach ―for instance, the connection between bodily experience and our basic conceptual repertoire, as it is sometimes presented by Lakoff and Johnson.

This Handbook certainly feeds Clark’s skepticism. Despite the effort of the editors, I cannot discern in the papers compiled the possibility of building a general paradigm for cognitive science, impinging on the very foundations of our many theories of social interaction. But I may be just short-sighted. Nonetheless, it is a good invitation to rethink many deeply rooted assumptions across the social sciences.

20/1/10

H.D. Thoreau, Sobre el deber de la desobediencia civil (1849), Edición crítica bilingüe de Antonio Casado da Rocha, Iralka, Irún, 1995.

Acaba de ver la luz una nueva edición en castellano de la obra que el estadounidense Henry David Thoreau diese originalmente a la imprenta, en 1849, como Resistence to Civil Government y que, por deseo de sus editores, acabaría después publicándose como Civil Disobedience (1866) para evitar así cualquier asociación con el recentísimo levantamiento de los Estados del sur contra la Unión. Aún en la actualidad, se diría que los ecos de las obras de Thoreau no dejan de resonar en el día a día de los Estados Unidos de América: ¿cómo no recordar la cabaña de la laguna de Walden ante la imagen de esa otra en Lincoln (Montana) -El País, 8/4/1996-, sin agua corriente ni electricidad, donde vivía el matemático Ted Kaczynski, alias Unabomber, y en la cual preparaba, al parecer, los explosivos que luego remitía a cuantas instituciones (Universidades, aeropuertos, &c.) representaban para él el avance de las ciencias -acaso por creer, como nuestro autor, que "las oportunidades de vivir disminuyen proporcionalmente al aumento de los llamados medios de vida"-?

"¿Cómo le conviene comportarse a un hombre con este gobierno americano hoy?", se preguntaba Thoreau en su Resistence...: "Respondo que no puede asociarse con él sin deshonra" ¿No es un mismo dilema el suyo y el de los miembros de esas 441 milicias repartidas hoy por los EE.UU.(según El Mundo 19/4/1996), mundialmente conocidas a raíz del atentado, en abril del pasado año, contra el edificio del Gobierno federal en Oklahoma? Desde luego, no sería nada extraño que este opúsculo de Thoreau se leyese en los medios libertarios estadounidenses, aunque sería ciertamente injusto olvidarnos de sus restantes lectores, pues según algunos observadores (D.Walker Howe), éste es uno de los libros desde siempre más difundidos entre los estudiantes norteamericanos -ese fue el caso, por ejemplo, de M.Luther King-. Lo cual se corresponde, en efecto, con las ochenta y ocho ediciones impresas sólamente en los EE.UU. antes de 1977 (National Union Catalogue), por dar uno solo de los datos que encontramos en la Introducción de ésta que ahora comentamos. Ello, por supuesto, sin olvidar a sus incontables incondicionales a lo largo y ancho del mundo -v.gr., Gandhi-, España incluida, donde al menos se conocen ya cinco ediciones de Resistence to Civil Government.

Antonio Casado da Rocha, becario del Departamento de Filosofía de los Valores en la UPV, nos ofrece ahora, por su parte, una cuidada versión castellana según el original inglés de 1849, que va igualmente incluido en la obra, más su introducción, un extenso aparato crítico -que comprende las variantes de 1866-, un apéndice en el que se recogen interesantes comentarios de muy distintos autores, un índice de términos, cronología y bibliografía. Una magnífica edición crítica, en suma, con otro encabezamiente consagrado por el uso ya desde 1903, Sobre el deber de la desobediencia civil. Su actualidad, como vemos, no puede ser mayor: considerando, además, la importancia de lo que en ella se discute, a la vez que su inmensa difusión, es obligado para El Basilisco enfrentarla con su mirada.

El contenido de las apenas veinticinco páginas de la obra es el siguiente: a causa de la guerra de su país con Méjico en 1846 y de la legalidad de la esclavitud, Thoreau entiende que al verdadero americano no le queda otra opción que desobedecer la ley si no quiere perder su condición de Hombre, si no quiere actuar contra su conciencia y degradarse en máquina. Así, forzaría al gobierno a elegir entre "mantener en prisión a todos los hombres justos o acabar con la guerra y la esclavitud". "La única obligación que tengo derecho a asumir es la de hacer en cada momento lo que creo justo", declara Thoreau y, consecuentemente, exige un gobierno que deje las decisiones de justicia a las conciencias, al individuo, pues su convicción era que los gobiernos, particularmente el norteamericano, no son otra cosa que obstáculos para el desarrollo de los pueblos. En cualquier caso, dice, "no soy el responsable del buen funcionamiento de la maquinaria de la sociedad. No soy el hijo del ingeniero", y si el Estado no atiende sus demandas, le "retirara su apoyo" -objeción fiscal, &c.-, convencido de que la verdadera vida se vive más allá de su ley (¿Walden?). Su propia desobediencia, relatada en la obra, consistió en su negativa a pagar un impuesto de capitación durante seis años: pasó por ello arrestado una noche en la carcel y salió al día siguiente cuando una familiar, contra la voluntad de Thoreau, pagó la deuda.

Ahora bien, conviene advertir que en este opúsculo no se encontrará la menor explicación, ni siquiera por alusiones, de las ideas que lo articulan, las de individuo, conciencia, justicia, &c., ni análisis alguno acerca de la esclavitud o la guerra con Méjico -los motivos de su desobediencia-, ni, desde luego, ningún desarrollo de sus alternativas. El discurso, que no argumentación, de nuestro autor es un discurso vacío. Pero en ello radican, creemos, las auténticas razones de su inmensa difusión: cabrá reinterpretarlo infinitas veces, apelando a motivos análogos -genéricamente: guerras, opresión, &c.- para asignar luego los valores que cada cual asuma a las funciones justicia, Estado, conciencia, &c.. La clave de lectura (la forma de la función), nos la ofrece el eje que articula el discurso, su idea de sujeto, o individuo, interpretado desde su atributo conciencia, que nos indica a su vez, creemos, cuál es la escala a la que acontece -masivamente, por cierto- su recepción.

En cuanto a esta clave, y ateniéndonos a las coordenas empleadas para el análisis de la idea de conciencia expuestas por "Pedro Belarmino" en estas mismas páginas (El Basilisco, 2aépoca, 2 (1989):73-88), es obvio que la de Thoreau es una concepción absoluta de la conciencia, desligada del cuerpo, de su comunidad y, por supuesto, del Estado: las masas sirven al Estado con sus cuerpos, dice, y no con sus conciencias, se vuelven así "máquinas" y su dignidad es la de "un monton de estiercol"; a sus conciudadanos les niega mayoritariamente la condición humana (i.e., la conciencia): "¿Cuántos hombres hay en este país por cada mil millas cuadradas? Difícilmente uno."; &c.

Y en cuanto la recepción de este opúsculo, vaya por nuestra parte la siguiente propuesta para su análisis: nos parece que sería interesante estudiarla mediante la investigación de la constitución de la misma subjetividad de su autor, apelando para ello a una figura antropológica que alguna vez nos proponía Gustavo Bueno ("Psicoanalistas y epicúreos", El Basilisco, 1aépoca, 13 (1982): 12-39): el individuo flotante. Creemos, en efecto, que lo esencial en la construcción de Thoreau no son las ideas que pueda recoger de su amigo Emerson (la doctrina de la realidad como proyección de la "Super-Alma" o Dios, &c.), pues su discurso, aunque contenga filosofemas, no es, desde luego, filosófico -no es siquiera crítico, no considera o discute alternativa alguna: ¿no será, más bien, la doctrina de una hetería?-. Es cierto que su difusión sería inexplicable de no atender a los materiales que Thoreau recoge de las fuentes cristianas de la idea de conciencia y su relación con la desobediencia civil (y aquí cabría analizar su raíz puritana: el congregacionalismo, &c.), pero lo esencial aquí es que apela a ellas en un momento su sentido político es ya, en los EE.UU., muy otro que el que reciben de nuestro autor: el de un modelo de gobierno, la democracia de raíz puritana de los Estados del norte, enfrentado al que defendía la Confederación sudista. Un momento en el que los Estados Unidos alcanzan ya las proporciones imperiales que actualmente le conocemos (la guerra con Méjico, &c.), y cabe que los fines particulares de algunos de sus ciudadanos resulten "desconectados" de los planes o programas colectivos, para moldearse ahora sus contenidos a la escala de la individualidad, una individualidad exenta, "flotante".

¿No será este el caso del Thoreau que declara: "No es asunto mío andar solicitando al gobernador o a la legislatura más de lo que ellos me solicitan a mí; si no escuchasen mi solicitud ¿qué haría yo entonces? Pero en este caso el Estado no ha provisto medio alguno: su propia Constitución es el mal"?. ¿Hasta qué punto no es ésta la situación de muchos de sus lectores? ¿Hasta qué punto no es la de muchos de los desobedientes o insumisos que actualmente conocemos?

Tales son, aunque expuestas apresuradamente, las impresiones que nos causa la lectura de este opúsculo de Thoreau, absolutamente incomprensibles sin una edición de la riqueza de esta de Antonio Casado da Rocha, a la que únicamente se podría objetar, atendiendo a la lectura que aquí sugerimos, que no ahonde más en la inscripción del autor en su época. En cualquier caso, de la valía del carácter filosófico de Antonio Casado cabe esperar una magnífica Tesis doctoral sobre Thoreau y la cuestión de la desobediencia civil que venga a renovar su discusión académica.

{¿1996?}
{El Basilisco 20 (1996)}


DESOBEDIENCIA CIVIL E INDIVIDUOS FLOTANTES: O DE LAS DIFICULTADES DEL INSUMISO CON LOS PIES SOBRE LA TIERRA

Antonio Casado da Rocha
20 de junio de 1996

EN 1989, las páginas de la revista El Basilisco acogían un minucioso y documentado artículo de Pedro Belarmino sobre una controvertida cuestión de ética y moral: la “objeción de conciencia”. En él, el autor concluía que tal fórmula es, como concepto y como figura legal, contradictoria. Y que, en la práctica, se resuelve en (1) un “mero trámite de declaración de exceptuación de la norma” (es el caso del prestacionista), (2) en la “rebelión o desobediencia civil” (es el caso del objetor fiscal, un contribuyente que se niega a ingresar en el Tesoro la cantidad que le corresponde según el Impuesto), o (3) en “en una impugnación de una norma constitucional que, de no cursarse por la vía de reforma de la Constitución, se convertirá en una impugnación, por vía de hecho, antidemocrática, si razonamos en el supuesto de que la mayoría de los ciudadanos aceptan la norma” (es el caso, siempre según este autor, de los insumisos agrupados en el MOC).

En consecuencia —y aquí el estado de guerra es invocado como situación límite aunque del todo pertinente—, esta contradictoria objeción de conciencia no debiera ser, no ya regulada, sino ni siquiera tolerada por el Estado. Pedro Belarmino sugiere la justicia de fusilar a los sedicentes objetores de conciencia, o al menos de privarles de derechos civiles tales como el acceso a la función pública, etc. Al fin y al cabo, se nos dice, tales objetores no deberían aceptar ninguna clase de complicidad con un Estado que definen como militarista ni con una Constitución que consideran manchada de sangre. De modo que lo que Pedro Belarmino parece exigir es únicamente coherencia para que, si se admite esa contradicción de la “objeción de conciencia”, se la lleve hasta las últimas consecuencias.

El tiempo le ha dado, si no la razón, al menos cumplida prueba de su capacidad profética. Al día de hoy los insumisos son inhabilitados (e.e., privados de ciertos derechos civiles) merced al nuevo código penal; y el servicio militar obligatorio tiene los años contados (siempre que el Presupuesto, nuestro nuevo “Dios mortal”, nos lo permita). Sin embargo, y en el ínterin, la controversia dista mucho de estar resuelta. Al menos en lo que a mí respecta, la ha venido a renovar una amable reseña que David Teira dedica a mi edición del clásico de Henry David Thoreau sobre la desobediencia civil. Siempre es de agradecer que la gente se tome su tiempo para leer las cosas que uno, mal que bien, va pergeñando. Mas, de entre las que he recibido hasta la fecha, es ésta la primera reseña que merece el adjetivo de crítica, y por ello me es doblemente valiosa. Así que trataré de estar a la altura intentando a mi vez una réplica medianamente crítica, poniendo de relieve, en pro de la discusión, más puntos de desacuerdo que de acuerdo (que también los hay).

Para empezar, y continuando con el artículo de Pedro Belarmino, ya en el inicio de su lectura se nos advierte que en el planteamiento del problema se procederá analizando por separado sus partes, para considerar a continuación su mutuo engarce haciendo abstracción de cualquier “sentido global originario” que la fórmula pudiera tener. Admitiendo que esta estrategia analítica se revela harto fértil en su desarrollo, no puedo dejar de apuntar aquí que el todo de la fórmula “objeción de conciencia” tiene, como mínimo, una unidad de sentido que es, en este siglo, históricamente anterior al uso que de sus partes se hace hoy. Me refiero a la que para algunos constituye la primera vez que se utilizó la expresión conscientious objection, hacia 1906, en la actual Sudáfrica durante las campañas de “desobediencia civil” de Gandhi (que conocía esta fórmula gracias a su lectura de Thoreau) en contra de la legislación racista. Como señala Rafael Sainz de Rozas, “resulta revelador constatar que [el equivalente a nuestra “objeción de conciencia”] no fue acuñado por los desobedientes sudafricanos que exigían sus derechos civiles, sino por el militar inglés encargado de su represión.” De modo que, ciñéndonos a este siglo, primero está la desobediencia civil y sólo después —intentando asimilar este “cuestionamiento de una situación injusta de militarización mediante la movilización coordinada y pública de los que estaban destinados a sostenerla mediante su colaboración” (ibid.)— surge la fórmula “objeción de conciencia”. Este dato ya invitaría a examinar la primera “desobediencia civil” de Thoreau; por otro lado, los propios miembros del MOC (Sainz de Rozas es de los más destacados) han reaccionado al intento de “integración de la disidencia” que supone la legislación española sobre objeción de conciencia acuñando a su vez el término insumisión y definiéndolo repetidamente en claves de desobediencia civil muy alejadas de la definición de objetor que se desprende de la legislación vigente —“persona que, por razones de conciencia, se muestra contrario [sic] a la prestación del servicio militar”— y que es la que Pedro Belarmino critica de manera, por lo demás, impecable.

(Valga esto como preámbulo, y pasemos a desarrollar brevemente algunos comentarios.)

1. La reseña comienza con el inestimable acierto de relacionar el contenido del libro con sucesos recientes de indudable importancia. El caso del Unabomber es —en estos tiempos y lugares en los que los paquetes bomba son cosa próxima— muy digno de ser tenido en cuenta. El detalle de la cabaña de Ted Kaczynski no es gratuito, ya que se corresponde con total exactitud a los bocetos que nos han quedado de la de Thoreau en Walden. De modo que es muy probable que exista una relación directa; por lo que me cuentan, en los EE.UU. pueden adquirirse por correo hasta reproducciones “listas para montar” de esa cabaña, y es que Thoreau se ha convertido en un “caso” célebre y su chabola ha pasado a formar parte del imaginario norteamericano. Y, como también se ha dicho, numerosos escolares de enseñanza secundaria leen el panfleto “sobre el deber de la desobediencia civil” que nos ocupa.

Acierta también la reseña al destacar el carácter vacuo del discurso de Thoreau, y su consiguiente universalidad:

El propio gobierno, que es sólo el medio elegido por el pueblo para ejecutar su voluntad, es igualmente susceptible de abuso y corrupción antes de que el pueblo pueda servirse de él. Vean si no la presente guerra de X, obra de relativamente unos pocos individuos que usan el actual gobierno como instrumento a su servicio; pues, de entrada, el pueblo no habría consentido esta medida. (p. 1)

Basta sustituir la variable X (que en el texto de 1849 contenía el valor “Méjico”) por los valores “Vietnam”, “Bosnia”, o incluso “Itoiz”, para advertir la inmediata aplicabilidad de este discurso, su enorme capacidad mimética.

2. Admito que el término conciencia, tal como es empleado por Thoreau, remite a un “concepto espiritualista y mentalista de estirpe claramente teológico cristiana, y más concretamente protestante”, conciencia subjetiva que se erige, tal como dice G. B., en un “Tribunal Supremo que reclama ante todo el respeto incondicionado de todos los demás” (ibid.)

Mas no sé yo si la concepción de la conciencia de Thoreau merece el calificativo de absoluta, más que nada porque Gustavo Bueno señala como paradigmas históricos de esa concepción el Dios aristotélico o la conciencia trascendental de Kant. Y esas son palabras mayores... Más bien, creo que la argumentación de Thoreau en torno a la conciencia merece los calificativos de teleológica y circular, pues apela a una supuesta finalidad inscrita en lo específicamente humano: “¿Para qué tiene cada hombre su conciencia?” (p. 3), se pregunta. Y la respuesta dada es: como para algo la tendrá, será para algo que le constituya como humano (ya que no se conoce conciencia moral entre los animales), con lo que Thoreau concluye que “debiéramos ser primero hombres [con conciencia] y después súbditos [sin ella]” (ibid.). La conciencia queda instalada como ultima ratio moral.

Parafraseando a Pedro Belarmino (1982:77-8), podría decirse que la conciencia moral de Thoreau habría despertado —si analizamos en estos términos el relato de su estancia en prisión— en el momento en el que los principios (ortogramas) que regulaban su acción (conducta) en Walden (su palacio ) se encontraron, al intentar salir de él, no ya con el dolor y con la muerte, sino con la esclavitud y la alienación de los esclavos negros y de sus propios vecinos.

3. Ya que de discursos se trata, espero que se me perdone que me ponga algo filológico. El discurso de Resistance es susceptible de ser utilizado por las heterías, no cabe duda. Que el propio Thoreau fuera adepto a una de ellas, o que el MOC lo sea, es más discutible.

Creo que lo que ocurre con el individuo Thoreau (como paradigma) no es que se halle flotando a fuerza de perder conexión con los programas colectivos, sino que tiene que elegir entre un programa genérico que le dice que todos los hombres son libres e iguales y un plan universal que provoca esclavitud e injusticias. El problema de la desobediencia se traduce en un conflicto entre obediencias mutuamente excluyentes, entre fidelidades contrapuestas.

Me explico. La declaración de independencia es el perfecto “programa genérico”, así como la famosa doctrina del “destino manifiesto” es buen ejemplo de “plan universal” siguiendo la terminología de G. B. Como sabéis, el 4 de julio de 1776 (Independence Day, fiesta nacional), es adoptada la Declaración de Independencia (redactada en su mayor parte por Thomas Jefferson) que, en su segundo párrafo —su fragmento más célebre— reza así: “We hold these Truths to be self-evident, that all Men are created equal, that they are endowed by their Creator with certain unalienable Rights, that among these are Life, Liberty, and the Pursuit of Happiness — That to secure these Rights, Governments are instituted among Men, deriving their just Powers from the Consent of the Governed, that whenever any Form of Government becomes destructive of these Ends, it is the Right of the People to alter or abolish it, and to institute new Government, laying its Foundation on such Principles, and organizing its Powers in such Form, as to them shall seem most likely to effect their Safety and Happiness. Prudence, indeed, will dictate that Governments long established should not be changed for light and transient Causes; and accordingly all Experience hath shewn, that Mankind are more disposed to suffer, while Evils are sufferable, than to right themselves by abolishing the Forms to which they are accustomed. But when a long Train of Abuses and Usurpations, pursuing invariably the same Object, evinces a Design to reduce them under absolute Despotism, it is their Right, it is their Duty, to throw off such Government, and to provide new Guards for their future Security”

Asumiendo parte del utillaje conceptual de Bueno, podría aventurarse como hipótesis que el caso Thoreau se resuelve en el desarraigo provocado por el conflicto entre la fidelidad al relato fundacional de los EE.UU. y la obediencia a la política vigente en 1848: destino manifiesto, guerra con Méjico, etc. (En realidad, esto no hace si no daros la razón.)

4. Que los anteriores fines sean metafísicos, o que se basen en una concepción del individuo irreal (porque el individuo aislado será algo imposible, porque el principio de todo planteamiento político no será el “yo”, sino el “nosotros”) no eliminan el hecho de que existe un país, los EE.UU. de América, cuyo relato fundacional descansa en esas ficciones. Y un país, por cierto, que ostenta una envidiable eutaxia (o supervivencia de la propia unidad política, medida a través de su duración temporal). Eutaxia que, según tengo entendido, es el único criterio objetivo que reconoce el Materialismo Filosófico para medir la fuerza de un modelo político.

Relato fundacional que viene a ser el de un “nosotros” (We hold...) que deciden instituir un gobierno con el fin de asegurar esos derechos a todos los “yoes” (varones, eso sí: all Men). Efectivamente, en la declaración de Independencia es el “nosotros” el principio de todo planteamiento político (y aquí estoy de acuerdo con Bueno), pero lo peculiar de ese “nosotros” es que instituye un programa colectivo en el que convierten a los “yoes” en los sujetos políticos. Y en el que, precisamente, se trata de hacer abstracción de los enclasamientos de esos “yoes”:

“Individuo flotante”, ese pleonasmo. El individuo, tal como sociológicamente se concibe en nuestra sociedad, es flotante por definición. La gente se considera “individuo” en la medida en que puede sustraer energías y fidelidad a los fines, planes y programas colectivos. Que eso sea moralmente bueno o no, es otro cantar. Pero ¿quién se atreve a decir hoy que sus fines se hallan perfectamente integrados en los planes o programas colectivos? Sólo algunos exaltados, probablemente mucho más peligrosos que cualquier individuo que, mal que bien, vaya flotando por ahí.

26/4/09

Luis Enrique Alonso, La mirada cualitativa en sociología, Fundamentos, Madrid, 1998, 268 pp.

Aún no son muchas las aportaciones españolas a las técnicas de investigación sociológicas, y no es de extrañar, por tanto, que en nuestro país todavía sea raro, aunque no inexistente, el debate sobre tales métodos. Cabe decir, entonces, que La mirada cualitativa en sociología es un libro excepcional, pues su objeto no es otro que la discusión de las técnicas desarrolladas por la escuela madrileña de los Jesús Ibáñez, Ángel de Lucas, Alfonso Ortí, etc., a la que el propio Alonso es afín. Ahora bien, como el propio autor nos advierte, no es este un libro de metodología, i.e., no contiene una reexposición de las técnicas analizadas, ni tampoco una casuística acerca de sus usos más convenientes.

Luis Enrique Alonso es, sin duda, un sociólogo en ejercicio, pero en este ensayo quiere situarse más allá de la práctica sociológica, en “el ámbito de la mirada”, sinónimo -se nos dice- de aproximación o enfoque, tal y como éstos se interpretan en las distintas ciencias sociales. Sin embargo, al examinar el contenido de La mirada..., recordaremos que también mirar está en la raíz griega de theorein, y se diría, en efecto, que lo que aquí se nos ofrece es un ensayo sobre la teoría que corresponde a las técnicas cualitativas, radicalmente distinta, en muchos aspectos, a la elaborada por el propio Ibáñez.

Tres de seis capítulos que componen La mirada... se dedican, así, a la interpretación de algunos emblemas de la sociología cualitativa madrileña: el grupo de discusión (cap.3), la entrevista (cap.2) y los estudios sobre el consumo (cap.5). La teoría aplicada en éstos se desarrolla en los tres capítulos restantes, los más ambiciosos y originales de la obra, sin olvidar una introducción y un epílogo no menos interesantes. Para Luis Enrique Alonso, el objeto de la sociología cualitativa sería el análisis del discurso, puesto que a través de la acción comunicativa se obraría la construcción social de la realidad. Ante la diversidad de acepciones de discurso, Alonso nos propone una concepción hermenéutica (con Ricoeur y otros muchos autores) mediante la cual cupiese reformular, por una parte, la dicotomía cuantitativo/cualitativo (cap.1), distinguiendo así los distintos dominios de la sociología, y dotar de una interpretación social a la propia acción comunicativa, por otra, evitando a un tiempo el relativismo pansemiologista y el determinismo estructuralista (cap.4).

En efecto, nuestro autor pretende interpretar las técnicas cualitativas como núcleo de una pragmática en la que se articulen constricciones sociales y lingüísticas, de modo que ni aquéllas se resuelvan en las ilimitadas opciones exegéticas que nos ofrece el Texto, ni éstas se agoten en una expresión más del Poder. Alonso nos propone operar a una escala intermedia, la del sujeto, a partir de la reconstrucción siempre contextual de su práctica discursiva, pues en ella se manifestaría tanto el sentido intrínseco de su acción (conjugando aquí su acepción intencional (finalidad) y semántica (representación)), como sus determinaciones extrínsecas, propiamente sociales.

Pero ¿cómo dar cuenta de esta articulación? Quizá sea éste el nudo argumental de la obra, al menos para el lector, pues, por una parte, la apelación de L.E.Alonso a las condiciones materiales que explicarían en cada caso el desarrollo de la acción comunicativa no puede ser más explícita (cap.6). Pero también lo es su aspiración de edificar una macropragmática “referida a los espacios y conflictos sociales que producen y son producidos por los discursos”, y no a cada acto comunicativo en particular. Buena parte de la obra se desarrolla a esta escala macroscópica, considerando las abundantes alternativas teóricas que se nos ofrecen hoy para construir tal suma sociológica. De ello dan cuenta sus más de veinte páginas de bibliografía, y no podemos dejar de anotar, por cierto, uno de los mayores defectos de la edición: la ausencia de índices de autores y temas, que a menudo dificulta la consulta de una obra tan enjundiosa.

La solución ensayada por Alonso es dúplice: en principio, adopta una posición constructivista en lo que se refiere a los mecanismos cognitivos de formación de conceptos (cap.1), intentando recorrer a través de la hermenéutica la vía abierta por Durkheim (i.e., la organización social del cosmos, y su expresión simbólica: metáforas, etc.). No obstante, superada ya la genealogía, aparece la dificultad de explicar la acción comunicativa, una vez constituido y en marcha el campo discursivo. No es una dificultad menor si consideramos que las técnicas cualitativas como el grupo de discusión se refieren antes al análisis de la estructura de los discursos que a su génesis, y se diría, por ello, que acaso sea éste el motivo central de la obra.

Aparentemente, Alonso intenta superar este paso, soldando los modelos comunicativos centrados en la negociación (pongamos Bourdieu) con aquellos otros basados en el consenso (sea Habermas): aquélla cargaría con el peso de las constricciones sociales en las que se inscribe la acción, y éste con la capacidad para superarlas; i.e., una vía media entre pansemiologistas y estructuralistas, y aún entre las mismas posiciones de los citados Bourdieu y Habermas. Mas ¿es posible este equilibrio?

Es aquí donde aparece el tópico cualitativo de la reflexividad, o bien, la presentación de la sociología como “epistemología de lo cotidiano”. Pues por más que se apele a las condiciones materiales en las que se inscribe, en cada caso, la acción, lo cierto es que el canon hermenéutico no sería solamente una guía para su análisis sociológico: proveería también un ideal comunicativo, valores éticos que orientarían el desarrollo de la acción, y que al sociólogo le cabría promover con su intervención, más allá de las constricciones partidistas que su análisis descubriese (cf. el prólogo y especialmente el epílogo a este respecto). Así, el sociólogo no sólo afirmaría la libertad del sujeto para decir el curso de sus actos, sino que contribuiría él mismo a ejercitarla.

La inversión operada por Alonso en lo que a la concepción de la sociología cualitativa se refiere es muy notable, si volvemos a la comparación con Ibáñez: si en éste aparecía como una “física social de segundo orden”, con un sesgo manifiestamente estructuralista y postmoderno, Alonso opta, en cambio, por la hermenéutica y la modernidad: Habermas se impone a Deleuze. Lo que para muchos ganará en inteligibilidad el discurso, para otros lo perderá quizá en radicalidad política. A los sociólogos comprometidos en su desarrollo les corresponde, sin duda, decidirlo.

Pero puede que no sean muchos los que se sientan aludidos por los argumentos de Alonso, que acaso perciban como excesivamente filosóficos. Recordarán quizá aquella anécdota transmitida por Diógenes Laercio (Vidas..., VIII.8), según la cual la vida se parecería a unos juegos: unos acuden para competir; otros por el comercio, pero los mejores, asistirán como espectadores (theoroi), y éstos serían los filósofos. En España, se puede ya competir académicamente con las técnicas cualitativas y, por supuesto, se puede obtener de ellas un notable rendimiento comercial, pero ¿a quién interesará la mirada de un espectador?

Contra tales dudas, buena parte de los argumentos que se ofrecen en La mirada... clamarán por una interpretación sociológica de algunas tesis característicamente filosóficas, aunque sirven más, creemos, para ilustrar las dificultades de la empresa, que para llevarla a buen puerto. Pues una vez rendidas las armas sociológicas a la hermenéutica, ¿cómo explicar que “el discurso no se explica por el discurso mismo” (pág.78)? Después de asumir la crítica sociológica al idealismo lingüístico, ¿por qué detenerse ante la comunidad ideal de habla (pág.232)?

En realidad, los dilemas enfrentados en La mirada... son muy antiguos, y quién sabe si irresolubles: algunos presocráticos, como Demócrito, defendieron que el ojo era una superficie reflectante en la que se proyectaban pasivamente las imágenes de los cuerpos; a éstos se oponían otros que, como los pitagóricos y también algunas veces el propio Alonso (e.g., pág.17), afirmaron que el ojo, agua y fuego, veía por sí mismo emitiendo rayos que alumbraban los objetos. Otras veces (e.g., pág.242), Alonso nos recordará más a Empédocles, quien sostuvo, al parecer, la actividad de ambos elementos, ojo y objeto, en el acto de la visión. ¿Habrá quizá una cuarta alternativa? ¿Será el constructivismo sociológico capaz de proporcionárnosla?

{Septiembre 1999}
{Revista Española de Investigaciones Sociológicas 91 (2000), pp.196-199}

16/4/09

Pierre-Charles Pradier, La notion de risque en économie, Paris, La Découverte, 2006

Encore un ouvrage sur l'économie du risque ! Celui-ci choisit une optique assez originale, entre histoire économique et histoire des théories économiques. Si l'histoire des faits et de leurs représentations sociales constitue une tradition française, déjà illustrée dans le domaine du risque par François Ewald, héritier de Foucault et de l'école des Annales, on est moins habitué à voir un économiste s'essayer au même exercice. Doyen d'Économie de la Sorbonne, Pierre-Charles Pradier déploie toute son érudition pour brosser une fresque où le paysage des contrées du Nord, hébergeant les fondateurs du calcul des probabilités, succède à l'Italie des marchands médiévaux.

Précisément, le récit articule trois temps forts : l'apparition du mot, du concept et des pratiques du risque au Moyen-Âge ; le développement des mathématiques du hasard, de la gestion assurantielle et de la statistique mathématique à l'époque des Lumières ; enfin, l'essor récent de la théorie économique et financière - que ce soit du point de vue décisionnel a priori ou du point de vue macroéconomique a posteriori (avec l'énigme de la prime de risque et l'inflation des actifs patrimoniaux en conclusion). Ces temps forts permettent d'illustrer une thèse assez audacieuse : contre ceux qui pensent - comme on le croit souvent - que l'économie a emprunté les mathématiques du hasard aux sciences de la nature, Pradier montre au contraire que « le calcul des probabilités se développe comme solution à des questions sociales et politiques », solution apportée par des mathématiciens intéressés à la vie de la Cité. Hervé Le Bras avait déjà éclairé la vie de William Petty d'une telle lumière dans Naissance de la mortalité ; voici quelques exemples nouveaux qui font système.

À côté de cette thèse centrale, l'auteur propose des points de vue originaux sur des thèmes que l'on croyait convenus : ainsi, le parallèle entre, d'une part, le développement des mathématiques de la décision depuis l'après-guerre et, d'autre part, les recherches de la fin du dix-huitième siècle. Cette comparaison s'appuie sur les travaux d'historiens des mathématiques menés ces quinze dernières années et conduit à penser différemment l'articulation entre économie et mathématiques, leur histoire commune et leur épistémologie. De même, l'étude critique de la distinction entre risque et incertitude chez Knight, et surtout Keynes, met en perspective l'évolution de la théorie économique au cours du dernier siècle et les limites de son domaine d'application. Cette perspective d'histoire longue - la prise en compte de nombreux aspects et champs théoriques (finance, assurance, macroéconomie) - conduit évidemment à des raccourcis ; mais la thèse est remarquable et la bibliographie abondante. Signalons enfin, pour ceux que les « hiéroglyphes effarouchants » intimident, que des encadrés contiennent les signes les plus virulents : la lecture de l'argument est donc fluide. Étonnamment même pour un livre d'économie qui devrait donc convenir à ceux qui abordent l'économie du risque comme à ceux qui la connaissent déjà et cherchent un regard nouveau.

{Septembre 2006}
{Risques 67 (2006)}

15/4/09

Julian Reiss, Error in Economics. Towards a more evidence-based methodology, London, Routledge, 2007.

Julian Reiss’ monograph presents a normative case for an empiricist methodology in economics. According to the author, economists should focus on measuring social variables in order to find causal relationships among them. They should investigate the stability of these relationships in different contexts and, in case it exists, inquire about the underlying abstract factors and establish economic laws. In this process, economists should bear in mind the practical purposes their research is supposed to serve (if there are any) so that the best methods to achieve those aims are always chosen.

The case for this evidence-based approach is articulated in nine chapters divided into three parts. In part one, Reiss discusses economic measurement in a single case study: the Consumer Price Index (CPI) controversy. The second part focuses on causality, drawing on different instances of actual economic research: experimental economics, thought experiments, instrumental variables, etc. The author is pessimistic about the number of economic factors with stable causal capacities found by economists so far, and therefore the third part is not about economic laws, but rather about the prospects of getting them and using them in policy-making. Provided there are good evidential grounds, the more pluralistic economists are in their methodologies, the more likely it seems they will be successful, even if the author makes no promises about it: “the empirical road has not been walked yet and we do not know where it would lead us if we do walk it” (183).

Reiss’ argument for a more evidence-based methodology does not rely on the virtues of a particular technique he wants to promote, but rather on the problems of the standard theory-driven approach discussed in the book. His trust in the possibility of an evidence-based alternative is a matter of philosophical conviction: if the epistemic prejudices of the economic profession against purely inductive methodologies can be removed, these could flourish and yield a more convincing economics. Reiss’ conviction owes much to Nancy Cartwright’s philosophy of the social sciences. This allows him, for instance, to be critical about the ability of mainstream economists to use clinching methods of causal inference. One possible response that Kevin Hoover explores below is that they may have been walking the vouching road to causality, a less demanding one but with no result in the end either. This does not imply that it cannot be done, but it should temper the author’s methodological hopes (and perhaps explain the profession’s pessimism). Aris Spanos challenges in turn the conceptual foundations of this optimism: Reiss can invoke Bacon and be confident on the possibility of correcting errors through a variety of methods to deal with evidence, but it takes a bit more statistical sophistication to define evidence in a way which warrants real error-correction.

Reiss’ programme hinges on evidence and causality, but also on a pragmatic view on values: evidence is sound when it gives a licence to act and attain our epistemic and non-epistemic aims. Depending on our purposes, we should choose the more adequate methodology to gather the relevant evidence. Reiss denounces how economists focus on certain kinds of epistemic values which prevent them from gathering the evidence politicians request (ch. 5, 10). Methodologists and economists are also criticised for adopting epistemic values that constrain empirical research without much scientific profit (ch. 8-9).

Error in economics opens with the explicit admission that evidence alone will not solve neither our theoretical nor practical disagreements: values are required to decide which is the correct CPI (ch. 2-4). But values are diverse and make us disagree, no matter how much causal evidence is gathered. Why should we expect evidence-based economics to overcome such controversies about values? An inspiring example for Reiss seems to be the community of physicists who constructed a unified scale to measure temperature throughout a century of experiments, even if there was no definition of temperature on which they could agree a priori. In his Inventing Temperature (2007) Hasok Chang shows that their success is better explained by a coherentist epistemology with a minimum of theoretical commitments. In order to measure temperature, a scale is necessary, but at first there were many and all of them arbitrary to a certain point. I.e., there was no self-evident basis to ground the inquiry. The choice between all these scales, claims Chang, was made possible by an implicit agreement on a set of epistemic values that presided over the experiments, independently of the theoretical commitments of each physicist. Gradually, the accumulation of evidence made them agree on a scale of measurement under the coherentist pressure of their shared values. In a similar vein, Reiss argues that if economists reached an empirically oriented agreement on their epistemic and non-epistemic aims, their measurements would progress (more than it did in the past century, at least). Yet, he admits, non-epistemic values make economists disagree as much as epistemic values. Can we expect that, once they agree on this latter, the former will cease to disturb their agreement?

I suspect that Reiss optimism about evidence-based economics presupposes some sort of affirmative answer. My own pessimism is based on the existence of empirical traditions in economics where, despite a certain number of shared values, disagreement in measurement persists. My example of choice is Milton Friedman, whose 1953 methodological piece is surprisingly parallel to Reiss’ in some respects. Friedman wanted the economic profession to align around the accuracy of predictions, keeping theoretical commitments to a minimum. The lighter the theoretical apparatus, the easier would be to classify data in separate markets (Marshallians are epistemic contextualists) and obtain predictions that should be judged for their success alone. Besides, for our practical purposes, argued Friedman, we need nothing more than predictive success (close to pragmatism as many were in Chicago). As Kevin Hoover puts it below, Friedman was an empiricist “just as Reiss thinks we ought to be”.

My pessimism about evidence-based economics à la Reiss comes thus from the fate of Friedman’s own evidence-based agenda. I have studied elsewhere how Friedman’s work on consumption usually elicited controversies that never yielded a professional consensus, despite both its solid methodological grounds and the accuracy of his predictions (Teira forthcoming). An issue very often at stake in these controversies was the definition of the variables in the analysis. Friedman’s predictions were always grounded on a classification of data under economic variables without much theoretical clinching. As he once put it, a commodity X is just a label, “not a word for a physical or technical entity to be defined once and for all independently of the problem at hand”. When the economist defined a commodity X once and for every market (as Walrasians intended), empirical analysis became increasingly complicated. More strict definitions, thought Friedman, made data sets unusable and, yet, economists are very often urged to use them by police-makers for whom a suboptimal response is better than none. And economists, thought Friedman, should provide it. Coherence in the definition of variables across their many uses did not count as much for Friedman as it did for Chang’s thermologists, who could safely ignore the practical implications of their experiments.

Yet, no matter how accurate Friedman’s predictions were, if anyone disagreed, one could always contest the definition of the variables used to obtain the predictions: “these data are not X” or “these data should be X as well” – Reiss himself notices this regarding money (p. 130). Unlike temperature, economic variables are difficult to define on the basis of a set of uncontroversial experiments acknowledged by everyone in the profession. As the CPI controversy shows, when disagreement on values occurs, disagreement on measurement procedures follows. Hence progress in economic measurement will only happen if either the community shares epistemic and non-epistemic values (so that they don’t have practical incentives to disagree) or the measurement procedure is strong enough to overcome political divergences.

Good science, says Reiss, “reduces the prejudices and preconceptions of the individual scientist to a minimum”. We may legitimately ask how evidence-based economics achieves this reduction and succeeds when other empiricist agendas in economics failed. Evidence-based economics is a “research project under construction” and indeed one of its many merits is that it raises issues that other approaches in economics neglect. It is open to debate whether Reiss’ evidence-based alternative offers any real hope of solving them, but epistemic optimists should certainly try to walk this road.

{January 2009}
{Economics and philosophy, 25.2 (2009), pp. 199-201}
Luis Martínez de Velasco, Mercado, planificación y democracia. Madrid: Utopías/ Nuestra Bandera, 1997.

Luis Martínez de Velasco es un autor singular en la filosofía española contemporánea: no es en absoluto ajeno a la Universidad, pero desarrolla su labor docente e investigadora en la enseñanza secundaria, en un Instituto de la periferia de Madrid, desde donde viene ofreciéndonos, a lo largo de las dos últimas décadas, una notable obra filosófica, particularmente en los dominios de la ética y la política. Pero ello no es, en este caso, sinónimo de mera erudición o especulación académica (aunque cuente, entre sus ensayos, con una completa y rigurosa interpretación nada menos que de Kant), pues Luis Martínez de Velasco se distingue, además, en su afán de ir “a las cosas mismas”, a la cosa pública, como se muestra, entre otras, en su reciente intervención en el debate sobre la desobediencia civil (La democracia amenazada, 1996) y, en especial, en su ya dilatada defensa de una economía normativa, es decir, una doctrina económica éticamente fundada. Así se muestra ya en Ideología liberal y crisis del capitalismo (1988), una ácida revisión de los clásicos de aquélla, y después, junto a J.M. Martínez Hernández, en La casa de cristal (1993), un ensayo insólito en castellano, donde se aplica de un modo original la ética dialógica de Jürgen Habermas a la crítica de las doctrinas económicas actualmente imperantes .

Todo ello confluye ahora en Mercado, planificación y democracia, donde el lector falto de tiempo, pero deseoso de nuevas ideas desde la izquierda acerca de los actuales conflictos entre ética y economía, encontrará, entre otras cosas, una concisa exposición de las distintas alternativas ahora mismo en discusión, de las que Martínez de Velasco se muestra un excelente conocedor: desde el socialismo de mercado de John Roemer al salario universal garantizado de Philippe van Parijs, sin omitir, entre otras, la discusión sobre el reparto del empleo o las distintas opciones ante el dilema ecológico. Aunque el aspecto quizá más sobresaliente de este ensayo (y sorprendente, incluso, si consideramos sus mínimas dimensiones) es que su autor nos ofrece, a partir de sus obras anteriores, una idea general de democracia, con arreglo a la cual evaluar estas alternativas y avanzar, a su vez, en la construcción de otras, i.e., en la superación del capitalismo. Pues la tesis defendida en este ensayo por Luis Martínez de Velasco es que capitalismo y democracia son ética- y fácticamente contradictorios.

Para nuestro autor, Democracia sería, en su acepción más estricta, aquel orden social donde el consenso entre el cuerpo electoral (la ciudadanía) se apoyara en valores universales -como en última instancia lo serían los Derechos Humanos- aceptados además dialógicamente, sin coacción alguna. Contra esta idea de democracia obraría, en consecuencia, cualquier otra fundada en el interés particular, como es el de los individuos maximizadores de su sola utilidad en el caso de las doctrinas liberales discutidas en este ensayo. Avanzar en la realización de este concepto de democracia supondría la superación del egoísmo individual mediante un “proceso de educación moral de sentimientos y preferencias”, pues se entiende -con arreglo a la teoría sobre el desarrollo psicológico del individuo desarrollada por Piaget y Kohlberg y asumida por Habermas y nuestro autor- que el individualismo liberal sería una etapa aún inmadura en la formación de la conciencia ética. De este modo, la economía, en una democracia plena, debiera dejar de estar al arbitrio de interés individual, y desarrollarse conforme a intereses universales dialógicamente consensuados, es decir, debiera planificarse.

Aunque Martínez de Velasco no nos ofrece (sería imposible en tan pocas páginas) un programa económico acorde con su concepción de la democracia, cabe apreciar la fecundidad de sus ideas por la discusión efectuada de otras alternativas como la anteriormente mencionadas. Pues nuestro autor interpretaría, a su modo, la idea de justicia de Marx recusando, en general, cualquier mecanismo de redistribución de la riqueza que no se atendiese a la satisfacción de unas necesidades fundamentales comunes a las partes enfrentadas. Así, por ejemplo, el reparto del empleo mediante rotación en los puestos (en la formulación, por ejemplo, de Ormerod) es impugnada al recaer enteramente el sacrificio sobre el trabajador, que ve mermada su renta -y por tanto, sus opciones- sin una disminución equivalente de la del empresario que le paga.

¿Qué decir de todo ello? Pese a la brevedad de la obra, es imposible negar su actualidad e interés, y su notable originalidad, que aconsejan indudablemente su lectura. Ahora bien, como es natural, es también imprescindible su discusión. Pues, en realidad, es a menudo inevitable la impresión de que Luis Martínez de Velasco da por resulto precisamente aquello que con sus argumentos debiera resolver. Nuestro autor reconoce, en efecto, la condición utópica de su idea de democracia (que califica de ideal), pero propone a la vez emplearla como “vara de medir” de las democracias reales, efectivamente existentes. Pero para el lector queda descubrir los nexos que unen una y otra dimensión.

Por nuestra parte, diríamos que Martínez de Velasco, como los autores que sigue (Habermas &c.), construye su ideal democrático desarrollando algunos factores ya existentes en las democracias actuales, y omitiendo otros, causa acaso de la imperfección o degradación de éstas. Aquéllos serían los sujetos (individuos, personas) cuya educación moral (la consecución de la madurez psicológica) constituiría, para nuestro autor, la clave del tránsito a una democracia verdadera. ¿Qué lo impediría? Si nos atenemos a la exposición de Martínez de Velasco, el mayor obstáculo se encontraría en la misma oposición entre intereses intersubjetivos, y no en tanto que causada por factores impersonales (como es la escasez, en los manuales de economía), pues estos no serían por sí mismos un obstáculo ante la planificación racional (fundada en intereses universales): es la ausencia de esa racionalidad moral lo que impide el paso a formas democráticas más perfectas.

En resolución: el ideal democrático que Martínez de Velasco nos propone vale porque obedece a nuestra condición personal más madura, pero es nuestra misma incapacidad para alcanzarla la causa de que vivamos en democracias éticamente imperfectas. Pero ¿ello no nos obligaría, más bien, a sospechar de aquel ideal, de los fundamentos psicológicos en los que se sustenta su universalidad? Plantear los conflictos económicos, y la misma cuestión de la planificación, reduciéndolos a un dilema moral, que contendría en su mismo enunciado la clave de su solución ¿es otra cosa que la inversión del clásico esquema marxiano sobre base y superestructura? Tales son los interrogantes que suscita este ensayo, que a nadie a la izquierda le resultarán ajenos.

{Noviembre 1998}
{Anábasis, 2ªépoca, 1 (2000), pp.87-9}

Fernando M.Pérez Herranz, Lenguaje e intuición espacial, Instituto de Cultura Juan Gil Albert, Alicante, 1997, 270 pp. + Pedro Santana Martínez, ed., Semántica de la ficción. Una aproximación al estudio de la narrativa, Universidad de La Rioja, Logroño, 1998, 197 pp.

I. Dos libros singulares sobre semántica

Comentamos en esta reseña dos libros elaborados con absoluta independencia, publicados en el intervalo de un año y, en apariencia, temáticamente distantes. Sin embargo, diríamos que agradecen una lectura conjunta, y no solamente porque en ambos se aprecie la influencia de un mismo autor, Gustavo Bueno, sino porque las cosas mismas que en ellos se tratan lo exigen. Mostrarlo, y dar así a conocer a otros lectores ambos ensayos, es el objeto de esta reseña .

II. Semántica de la ficción

A Pedro Santana, profesor en el Dpto. de filologías modernas de la Universidad de la Rioja, le conocerán ya los lectores de El Basilisco como gramático , aunque muchos sabrán también sus de inclinaciones filosóficas, ahora desarrolladas en los dominios de la teoría literaria con su amplia contribución al libro que acaba de editar para la Universidad de La Rioja.

Semántica de la ficción se divide en dos partes: en una primera, “Teoría”, Pedro Santana nos ofrece su propia aproximación al estudio de la narrativa; la segunda comprende tres estudios sobre otras tantas obras literarias (Pretty Mouth and Green my Eyes de Salinger, Heart of Darkness de Conrad y D’entre les morts de Boileau y Narcejac) a cargo, respectivamente, de Rosario Hernando, J.Díez Cuesta y B.Sánchez Salas –estos dos últimos se ocupan además de la relación de ambas obras con las correspondientes películas de Hitchcock y Coppola, Vértigo y Apocalypse Now. Aunque se nos advierte de que estos estudios ejercitan de modo muy diverso las ideas discutidas en la primera parte por Pedro Santana, queda para el lector averiguar cómo.
En efecto, Pedro Santana no nos ofrece una Teoría acabada que podamos aplicar de inmediato, ni es esa tampoco su pretensión. Aunque se nos ofrezca como un ensayo de teoría literaria (o narratología), sus argumentos se despliegan con arreglo a un canon que se diría más bien filosófico. El capítulo primero se abre con este interrogante: “¿Qué conocimiento sobre el mundo aporta o condensa la narración?” Pero en vez respondernos con una especulación ella misma literaria, Pedro Santana recorre en las cien páginas de su ensayo algunas de las tentativas más rigurosas para dar respuesta a esta pregunta por el lado de la semántica, y particularmente los intentos de interpretar desde alguna lógica (de primer orden, modal, etc.) la estructura de la narración.

En la medida en que esta variante de la semántica, pese a su apariencia matemática, es ya de por sí bastante filosófica –como comprobará cualquiera que vaya a las obras de Frege, Quine, y otros tantos clásicos citados en este ensayo-, la operación argumental de Santana consiste, primeramente, en desbordarla desde la exploración de las mismas limitaciones de sus resultados –en los tres primeros capítulos de esta parte primera. Para superarlas, el autor nos propone no tanto prescindir de los formalismos, cuanto reinterpretar sus fundamentos filosóficos en otra clave distinta de la de los filósofos anglosajones, y recurre para ello a las ideas de conocimiento y ciencia elaboradas por otro riojano, Gustavo Bueno, a lo cual se dedican los dos capítulos finales. En todo caso, Santana no trata de aplicar sistemáticamente la teoría del cierre categorial a la literatura, cuanto de iluminar con algunas de las tesis de Bueno algunas dificultades inherentes a la propia semántica literaria. Se diría que Santana quiere reconstruir positivamente el propio concepto de literatura, siquiera sea como disciplina b-operatoria, aun cuando ello suponga intercalar la propia teoría literaria entre la lingüística y la filosofía.

Así, por una parte, la cuestión del conocimiento se analiza, de acuerdo con la vieja tesis aristotélica, como enclasamiento o clasificación que se discute, a su vez, desde sus fuentes, atendiendo a su génesis operatoria. En la medida en que la semántica discutida en este ensayo opera sobre clases algebraicas, Santana simplemente lo explicita. La novedad aparece al interpretar estas clases operatoriamente como representaciones: las representaciones resultarían de operaciones (en el sentido del facere latino) miméticas, i.e., construcciones subjetuales objetivas al modo de los símbolos en el Crátilo platónico. La normalización de estas operaciones daría lugar a ortogramas, en el sentido de Bueno.

La cuestión es obtener a partir de aquí unos mínimos elementos semánticos mediante los cuales aproximarnos al análisis literario. Santana opta más bien por interpretar directamente como ortogramas los tópicos de la tradición retórica, que le servirían como principia media a esos efectos. Así, se nos ofrece una interpretación lógica de algunos tópicos (como la metáfora o la analogía, con Peirce) donde se mostraría su articulación operatoria como ortogramas. De este modo, la representación literaria se asemejaría a otras construcciones semánticas más generales, a las que Santana se refiere como ideologías.

El conflicto entre ortogramas distintivo de las ideologías, en la medida en que éstas comprenden siempre en uno u otro grado la consideración –polémica- de otras alternativas, se reproduciría ahora en la lectura, en la interpretación literaria. La imposibilidad de una interpretación unívoca equivaldría así a la imposibilidad de una determinación plena de las operaciones conceptuales del autor de la obra por parte de su intérprete, en la medida en que ambos ejercitarían sus propios ortogramas (ideologías), como, en general, es imposible una determinación plena por parte del científico social de las operaciones de los actores estudiados. En el caso de la literatura, esta restricción se evidenciaría en la imposibilidad de reducir plenamente a la forma lógica de los tópicos su contenido semántico, contra la pretensión de tantos analistas por la misma generalidad de estos contenidos –que sería lo que más aproximase la literatura a las ideologías, en el análisis de Santana.

Hasta aquí nuestra propia reconstrucción de este análisis, y en ello radica también nuestra objeción principal: pues si uno de los aciertos de Santana es mostrarnos desde sus mismos resultados la condición especulativa de muchas tesis semánticas pretendidamente científicas –a veces tan sólo por su envoltura lógica-, otras tantas veces nos ofrece como tesis de apariencia positiva las propuestas de Gustavo Bueno, que no son tales. Este no es meramente un defecto formal que pudiera obviarse con una simple reexposición (que, desde luego, no sería como la que acabamos de ensayar): un tratamiento propiamente filosófico de las tesis semánticas nos desvelaría la metafísica que acompaña en al sombra a tantos semantistas, pero, a su vez, se nos mostrarían también aquellos aspectos del materialismo filosófico menos desarrollados, disimulados aquí por esa apariencia positiva de la que, en realidad, carecen: así la teoría materialista del lenguaje todavía está por desarrollar, y la de las ideologías (o nematologías) conoce tan solo algunos apuntes sumamente penetrantes, pero aún incompletos. No cabe, por tanto, asumirlas como doctrinas acabadas de las que se pueda partir sin equívocos, puesto que, en su formulación actual, le exigen internamente a quien las asuma su propio desarrollo. Ello no le resta fecundidad a las propuestas de Santana, pero tampoco le exime de este compromiso, más filosófico que lingüístico.

Nos parece especialmente importante, en este sentido, que elaborase lo que ahora no parece sino una yuxtaposición entre tópicos y ortogramas. Al partir de una articulación del discurso tan peculiar como es la que se nos muestra en los tópicos, Santana logra, en efecto, aproximarnos a los mecanismos mediante los que el discurso nos procura convictio, i.e., causa sus efectos y evidencia así la condición normativa distintiva de la idea de ortograma. Pero queda pendiente el análisis de esa efectividad, si es privativa de la argumentación o si lo es –acaso en distintos modos- de todo símbolo; si cabe desarrollar la teoría de la argumentación más allá de la lógica de primer orden, modal, etc.; si, a su vez, la narración, en sus distintas formas, se deja reducir sin residuo a este género de análisis...

En realidad, estas cuestiones nos devuelven a una disputa clásica, la de la relación de la Retórica aristotélica con el Organon, y la propia articulación entre las partes que lo componen. Cabría ilustrar así, la dificultad del análisis de la narratología, aunque ello suponga también un elogio de la propuesta de Pedro Santana al ubicarla entre la lingüística y la filosofía. Este sería el conflicto que apreciamos en la misma forma de sus argumentos en este ensayo, y de él no esperamos menos que nuevos textos donde dilucidarlo.

III. Lenguaje e intuición espacial

Y si en el caso anterior dábamos cuenta del regressus filosófico ejercitado por un lingüista, no menos interesante resulta el paso contrario, el de un progressus lingüístico puesto en práctica por un filósofo. A Fernando Pérez Herranz, profesor de lógica en la Universidad de Alicante, le conocen ya los lectores de El Basilisco por dos espléndidos trabajos suyos extraídos de su Tesis doctoral , que sería deseable que conociese pronto una publicación íntegra en papel, pues sin duda es una de las más sobresalientes –y, afortunadamente, no la única- de las elaboradas en el entorno ovetense durante esta última década.

Fernando Pérez Herranz enseña lógica en la Universidad de Alicante y fruto de esta docencia son ya dos manuales , a los que se suma ahora, en apariencia, un tercero. Sólo en apariencia, pues, pese a la disposición de sus contenidos, Lenguaje e intuición espacial no es solamente una introducción a los conceptos elementales de la topología diferencial y a su aplicación al estudio de la semántica, aunque también lo sea. De sus siete capítulos, tres (los dos primeros y el cuarto) están dedicados a dotar al lector de unos rudimentos de topología que le permitan afrontar la lectura de los tres últimos, dedicados íntegramente al estudio de la semántica elaborada por Jean Petitot a partir de la teoría de las singularidades (o catástrofes) de René Thom.

Aunque ciertamente es imposible abreviar en estos seis capítulos una teoría tan compleja como la de Thom-Petitot, el lector podrá servirse con provecho de los ejercicios incluidos por Pérez Herranz al final de cada capítulo para, al menos, apreciar el alcance de las tesis de ambos autores. A la dificultad matemática de la teoría de las catástrofes va muchas veces asociada una notable oscuridad filosófica -propiciada, en parte, por el propio discurso de Thom-, pero la solvencia en ambos campos de Fernando Pérez Herranz hace de Lenguaje e intuición espacial una obra indispensable para poder iniciarse en la revolución topológica que Thom propone para las ciencias lingüísticas y la filosofía del lenguaje (que en español se suma ya, no lo olvidemos, a las pioneras de López García). Y si en Semántica de la ficción el lingüista volvía sobre la filosofía en una perspectiva algebraica, aquí el filósofo ilustrará con numerosos ejemplos literarios (poemas de L.Rosales, V.Aleixandre, etc.) el rendimiento que la semántica topológica puede dar en su análisis. De ahí el interés de conjugar la lectura de ambas obras (y animamos a sus autores a enfrentarlas).

Pero el argumento de la obra no se agota en estos cinco capítulos: si en el caso anterior le objetábamos al lingüista su disimulo filosófico, también se lo reprocharemos ahora al filósofo. Pese a la apariencia positiva de los capítulos topológicos, se oculta entre ellos un tercero (“Uni- y n-dimensional”), donde sumariamente se expone toda una filosofía de la lógica, que tiene su fuente en Gustavo Bueno, y encontramos además –en sus siete últimas páginas- un argumento originalísimo debido al propio Pérez Herranz sobre la condición topológica de la lógica. La tesis que se pretende probar dice así:

“Considerando el teorema de Boole, que desarrolla la fórmula de Taylor bajo la ley del índice x = x2, se demuestra, por tanto, que la lógica pertenece a un despliegue de codimensión cero y que, por consiguiente, no se mueve en ninguna dirección espacial”

Este análisis se apoya en el uso que Boole le dio a la fórmula de Taylor-McLaurin en la sección V de El análisis matemático de la lógica. Éste ha sido ya reiteradamente comentado, en una perspectiva gnoseológica materialista, por Julián Velarde con objeto de ilustrar las diferencias entre el modus operandi de lógica y el de la matemática -atendiendo aquí a las indicaciones de Gustavo Bueno. La novedad que aporta Pérez Herranz radica en la interpretación topológica de este uso booleano, y las consecuencias gnoseológicas sobre la naturaleza geométrica de la lógica que así obtiene. Merece la pena comentarla.

IV. Lógica y topología, según Pérez Herranz

Boole, como muy bien apunta Pérez Herranz, apelaba al teorema de McLaurin con objeto de desarrollar funcionalmente su análisis ecuacional de las proposiciones. La apelación es muy abrupta, pues Boole, ya es sabido, no da otra justificación de la introducción del método de McLaurin que la misma importancia de sus resultados. Los comentaristas, que sepamos, no han ido mucho más allá en este análisis, aunque coinciden en señalar la importancia de la ley del índice en la interpretación de la fórmula de Taylor-McLaurin, para poder obtener de ella como resultados los dos valores del universo booleano. Tal es el eje de las lecturas de Velarde y Pérez Herranz

La interpretación gnoseológica materialista que Julián Velarde nos ha ofrecido del proceder de Boole se apoya en el análisis de los símbolos con los que éste opera: de la ley del índice cabría obtener ecuaciones sin sentido lógico donde se mostraría, según Velarde, que en el sistema de Boole la suma no tendría el carácter aditivo de la aritmética, pese a la apariencia de las expresiones empleadas. Por tanto, sería también una falsa adición la que se nos daría entre los términos de la fórmula de Taylor-McLaurin, planteándose así el desafío filosófico de explicar sus usos -puesto que su efectividad lógica es innegable.

Velarde ha propuesto sencillamente el retirarle su condición matemática (aritmética) al uso booleano de la fórmula: “lo que hay es una ‘trampa’”. La apariencia matemática resultaría de la confusión en la interpretación de los símbolos que compondrían los términos “sumados”, pues la totalización implícita en la operación aritmética suma no es la misma que en la suma lógica que Boole efectúa, pues en este caso el término resultante -la x, pongamos- sería de nuevo el que aparecía en los “sumandos”, pues en estos las diferencias (entre x2 y x3, por ejemplo, presentes en los términos tercero y cuarto) se anularían en virtud de la ley del índice ( pues x3 = x(x2) y como x2= x, x3= x2 = x). De acuerdo con la distinción de Bueno, Velarde entiende que la totalización aritmética sería atributiva, y la lógica, por su parte, sería una totalización distributiva.

Pues bien, en que la ley del índice nos permite reducir, como antes mostramos, toda potencia de x a x2 (y ésta, a su vez, a x), cabría interpretar, según Pérez Herranz, que las funciones electivas, en tanto que desarrolladas con arreglo a esta ley mediante la fórmula de Taylor-McLaurin, definirían conjuntos de dimensión cero si las interpretamos geométricamente en el espacio jet de los polinomios de la forma px2+qx3+rx4, puesto que cabría reducir esta expresión precisamente a x2 si p≠0.

Con esto obtendríamos, según Pérez Herranz, un argumento en favor de la teoría autogórica de la lógica defendida por Bueno. Las operaciones del lógico (las relaciones que obtiene) se explicarían atendiendo a la materialidad de los símbolos con los que opera: el significante tipográfico sería indispensable para la constitución del propio significado de los símbolos, i.e., de las relaciones distintivas de la lógica, puesto que las operaciones que con ellos se efectúan nos remiten internamente a identidades constituidas a la escala tipográfica (a=a). Pero, a su vez, la percepción de esta identidad (de la significación de este símbolo) resulta entonces indisociable de la propia constitución del significante, de modo que a se leerá como una constante y nos será una simple mancha de tinta en el papel. A partir de aquí, sostiene Bueno, cabría interpretar, mediante ulteriores desarrollos, la condición lógica, que no matemática, de la ley del índice.

Pues bien, puesto que en la disposición tipográfica de los símbolos sobre el papel se nos mostraría su significación lógica, Pérez Herranz se propone descubrirnos la topología de esta disposición morfológica representando geométricamente (el despliegue de codimensión cero) lo que estaría contenido en ejercicio en la ley del índice. Así, cabría analizar el esquema causal con arreglo al que se constituyen, como acabamos de ver, el significante y el significado de los símbolos lógicos atendiendo a la configuración geométrica en la cual se desenvuelven nuestras operaciones con ellos. De este modo, la teoría de Thom-Petitot sobre la semántica nos serviría para desarrollar los breves apuntes sobre la significación que subyacen a la concepción materialista de la lógica elaborada por Bueno. Y este capítulo filosófico de Lenguaje e intuición espacial se nos mostraría, al fin, como parte de las tesis sobre topología y semántica expuestas en los otros seis capítulos de la obra.

El apunte contenido en esta siete páginas es el objeto de un ensayo más extenso que actualmente prepara Fernando Pérez Herranz, del que con seguridad cabe esperar lo mejor. Sin embargo, las dificultades no son menores. En primer lugar, porque la interpretación que nos propone se apoya en una identidad que quizá sea aparente: la semejanza entre las expresiones que definen el germen topológico x2 y se encuentran en la ley del índice no debiera ocultarnos que la variable x que aparece en ésta se define sobre A={0,1}. En A cabe definir una topología muy elemental T = {Æ,{0},{1},{0,1}}, tal que (A,T) se convierta en un espacio topológico donde quepa definir nociones como entorno, continuidad, límite o derivada de la función dada. Pero la interpretación geométrica que nos propone Pérez Herranz se desdibuja, pues no cabe obtener en (A,T) las funciones que cabe aproximar mediante x2 en el espacio-jet mencionado.

Por otra parte, ¿cabe interpretar la identidad expresada en la ley del índice como modelo isológico distributivo de cualquier relación lógica o no sería sino un caso general de idempotencia? Haría falta decidir si esta intuición de Boole es algo más que un artificio o si es pieza indispensable para la comprensión de toda lógica., y quizá fuese de interés, en este sentido, que Pérez Herranz intentase probarnos este resultado topológico a partir de otros teoremas lógicos. Pues, en general, no podemos evitar la impresión de que su interpretación geométrica de la unidimensionalidad de las construcciones lógicas se apoya más en el carácter autogórico de estos símbolos, común a lógica y matemáticas, que en las disposiciones operatorios que distinguen ambas (que, por cierto, nos exigen la tridimensionalidad, respecto a la cual la bidimensionalidad del papel o la unidimensionalidad de las fórmulas serían más bien construcciones). En todo caso, de los trabajos de Pérez Herranz, cabe esperar soluciones que anularán, sin duda, todos estos interrogantes.

V. La semántica: entre lingüistas y filósofos

La lectura de estos dos ensayos permite, por último, alguna observación epilogal sobre el carácter oscilante de la semántica: si el lingüista-filósofo Pedro Santana se veía obligado a regresar sobre una teoría general de las operaciones para eludir las dificultades de aproximaciones pretendidamente positivas (pero no demasiado eficientes) como las de la lógica, el filósofo-lingüista Pérez Herranz nos propone interpretar la constitución de ese espacio apotético en el que se despliegan nuestras operaciones a partir de la teoría topológica de Thom y, de este modo, interpretar la teoría del lenguaje expuesta en el Crátilo a partir de la mímesis morfológica. I.e., si Santana iba sobre los ortogramas mismos, Pérez Herranz regresa sobre su contexto determinante. Lo que se aprecia en ambos casos es que, al tratar así la semántica, nos alejamos de la dimensión sintáctica a partir de la cual suelen considerar los lingüistas el análisis del discurso, a la cual nuestros dos autores se aproximan sólo en forma parcial. Con todo, se diría por el contenido de ambos ensayos que esta relación sintaxis/semántica tiene algo de dioscúrica, y en parte ello podría explicar la peculiaridad del género argumental que Santana y Pérez Herranz cultivan, creemos que con enorme acierto.

{Marzo 1999}
Jesús P. Zamora Bonilla, Mentiras a medias. Unas investigaciones sobre el programa de la verosimilitud. Madrid: UAM Ediciones, 1996, 239 pp.

Jesús Zamora Bonilla, profesor de la Universidad Carlos III (Madrid), es un autor bien conocido para el lector de Theoria por sus publicaciones en filosofìa general de las ciencias y en filosofía de la economía. Sólo su distribuidora es culpable de que muchos lectores ignoren aún el primer libro de Zamora, Mentiras a medias, un amplio estudio de la idea de verosimilitud que incluye, además, una propuesta original del autor en la que se encuentra el núcleo del que es ahora su proyecto filosófico. El trabajo en epistemología general de las ciencias que aquí presentamos se articula, en efecto, con sus aportaciones a la economía de la ciencia (e.g., Theoria 14: 36 (1999)) y a la propia reconstrucción racional de la metodología económica (e.g., Journal of Economic Methodology 6: 3 (1999)). No está de más, por tanto, el volver sobre los fundamentos de este proyecto, pues, como es sabido, no son pocas las dificultades que ofrece el concepto de verosimilitud.

Las dos primeras partes de Mentiras a medias contienen una exposición de la concepción original de Popper y su recepción (caps.I y II), así como de sus principales desarrollos. Así, en el tercer capítulo aparecen enumeradas las distintas fórmulas lógicas propuestas para definir la verosimilitud entre 1970 y 1990 y sus dificultades, con la excepción de la de Niiniluoto, de la que trata el capítulo IV (“El enfoque sintáctico de la similaridad”). El capítulo quinto nos presenta, por último, la aproximación semántica a la verosimilitud iniciada por Hilpinen, Miller y Kuipers, éste ya en clave estructuralista. El análisis que Zamora nos ofrece es, obviamente, formal, aunque amable con el lector, y amplía considerablemente otras introducciones disponibles en nuestro idioma, de lo que sin duda podrán aprovecharse tanto el estudiante como el lector curioso. A esto se añade además la ayuda inestimable que ofrece su índice analítico.

Pero hay más, desde luego. Como apuntábamos antes, la tercera parte de la obra contiene una aportación original de Jesús Zamora al debate sobre la verosimilitud, que se suma, entre otras, a las de filósofos españoles como M.A.Quintanilla, J.Sanmartín, y A.Rivadulla, entre otros -comentadas, por cierto, en la obra. Así, en el capítulo VI Zamora enfrenta las dificultades más generales que encuentra el concepto de verosimilitud, exponiendo sus propias opciones. Con Lakatos, Zamora nos recuerda que la verosimilitud adquire su auténtico sentido filósofico (el que ya tenía en Popper) si nos permite reconstruir racionalmente ciertos aspectos de la actividad de los científicos, como el mismo progreso de las ciencias. Puesto que el rigor lógico de las definiciones expuestas en la segunda parte de la obra dificulta esa posible reconstrucción, Zamora opta por una reformulación netamente probabilística de la verosimilitud (cap.VII), ponderando la semejanza de una teoría con la evidencia empírica disponible (la probabilidad de que la verdad de ambos conjuntos de enunciados coincidad) con el rigor de esta Evidencia (el inverso de su probabilidad).

Por otra parte, respecto a los problemas epistemológicos que plantea la verosimilitud (su relación con la verdad, la incomensurabilidad interteórica, etc.), Zamora nos propone adscribir siempre el concepto a una comunidad científica en particular, al modo de Moulines, puesto que la semejanza (núcleo de su definición) siempre supondría la perspectiva de un observador. La verosimilitud se referiría, por tanto, al grado (subjetivo) en que una comunidad científica estima que una teoría se aproxima a la verdad. Si el concepto de verosimilitud propuesto permite reconstruir, y aun predecir, estas estimaciones, se tendrá por correcto, señala Zamora.

En este sentido, Mentiras a medias tendría un carácter preambular: en él se nos ofrece ya una muestra del rendimiento teórico del concepto propuesto, pues con él se pueden derivar un buen número de propiedades epistemológicamente interesantes, pero el propio autor nos indica que su efectividad deberá mostrarse analizando casos concretos (pág.221). Zamora dedicamente el capítulo octavo y último del libro a discutir el alcance filosófico de su aportación, donde se nos presenta, diríamos, como una actualización del racionalismo crítico frente al sociologismo.

Obviamente, sólo cabrá evaluar estas pretensiones a la luz de su propio desarrollo empírico. Sin embargo, concluida la lectura, aparecen algunos interrogantes en apariencia difíciles de contestar desde sus páginas. Pues si con el concepto de verosimilitud propuesto se evitan dificultades formales, nada se nos dice de sus posibles inconvenientes probabilísticos. Si se reconoce, por ejemplo, que “algo anda mal en la teoría popperiana de la probabilidad” (p.179 n.), ante las paradojas que da lugar la interpretación de proposiciones veritativas en dominios de instanciación infinitos, no se explica, en cambio, qué técnicas (¿bayesianas?) nos permitirán estimar el concepto de semejanza.

Puesto que se nos presenta como alternativa al sociologismo, no debemos olvidar, además, que la clásica obra de Bloor Conocimiento e imaginario social parte, entre otras, de las dificultades de la epistemología probabilista de Mary Hesse (véase la página 241 de la edición española sobre el finitismo) con la interpretación popperiana de la probabilidad. Y recordemos también que contamos ya con estudios externalistas que “amenazan” la misma integridad epistemológica de las probabilidades (v.gr. el Cognition as Intuitive Statistics (1987) de Gerd Gigerenzer y D.J.Murray), o al menos, nos previenen contra cualquier interpretación ingenua de su dimensión cognoscitiva: ¿por qué, en efecto, tendríamos que asimilar racionalmente la adquisición de conocimientos a un proceso probabilístico (definir las mentiras por las medias), sin pedir el principio, i.e., que la racionalidad consistiera en la propia definición matemática del cálculo de probabilidades?

En realidad, Jesus Zamora no ignora estas dificultades y otras muchas, pues, como decíamos antes, el suyo es un proyecto filosófico en marcha y aplica la teoría de la verosimilitud al análisis filosófico de la economía en constante debate con economistas (que a menudo también son filósofos, como señaladamente Juan Carlos García-Bermejo y Juan Urrutia). Del desarrollo de sus trabajos cabe esperar no sólo respuestas, sino también nuevas y fecundas preguntas.

{Febrero 2000}
{Theoria 39 (2000), 245-247}
Pablo Huerga, La ciencia en la encrucijada. Oviedo: Pentalfa, 1999, 655 pp.

Comentábamos, en un número anterior de Empiria, la aparición de la versión española del libro de David Bloor Conocimiento e imaginario social, acusada algunas veces de idealismo por otros tantos críticos de su sociología de la ciencia. Le toca ahora el turno al materialismo, pues acaba de aparecer La ciencia en la encrucijada, un extenso análisis de una de las obras emblemáticas de la sociología marxista de las ciencias, Las raíces socioeconómicas de la mecánica de Newton, la ponencia presentada por Boris Hessen en el Segundo Congreso Internacional de Historia de la Ciencia y la Tecnología celebrado en Londres, en 1931.

Como muchos ya sabrán, Hessen formuló sus tesis aplicando al análisis de la obra de Newton, y en particular a sus Principia, los principios del materialismo marxista: se trataba de establecer los factores económicos y sociales a partir de los cuales se gestó, explicando a partir de aquí sus logros y, especialmente, sus defectos. La influencia de Hessen es tan amplia como difusa, pues son muchos (y muy ilustres) los que defendieron o atacaron sus tesis: baste mencionar a A.R.Hall, R.K.Merton, S.Toulmin o G.Basalla, pero tampoco dejará de recordar a Hessen el lector de Leviathan and the Air Pump. Considerando la falta de estudios españoles sobre Hessen, no podrá dudarse del interés de un análisis como el que Pablo Huerga emprende en La ciencia en la encrucijada, que tiene además el aliciente de ofrecer en un extenso apéndice, de casi 200 páginas, la traducción de numerosos textos de Hessen hasta ahora inéditos en nuestra lengua, más una versión anotada de Las raíces.....y un apunte sobre su biografía.

Conviene advertir, sin embargo, que el propósito de Huerga no es filológico o erudito: pretende más bien polemizar con Hessen a partir de un análisis filosófico de su obra, oponiendo a sus tesis las de la filosofía de la ciencia también materialista de Gustavo Bueno. Así, por una parte, se interpretan y critican los fundamentos filosóficos de la idea de ciencia ejercitada por Hessen desde sus fuentes en la obra de Engels y el marxismo soviético; a ello se dedican principalmente los cinco primeros capítulos y los cuatro últimos. Por otra parte, Huerga ensaya una interpretación alternativa de los materiales analizados en la ponencia de Hessen, intentando mostrar que su crítica no se refiere a una mera disparidad de opinión sobre qué se entiende por materialismo: se trata de explicar la condición filosófica o sociológica de la mecánica de Newton. De esto se ocupa la parte central de la obra, los diez capítulos restantes.

De los cinco epígrafes de la ponencia de Hessen, Huerga se concentra en la parte que se refiere al credo teológico de Newton, en la medida en que aquí se apreciarían los compromisos sociales del autor -a través de su asociación con los latitudinarios, etc.-, como las servidumbres de su mecánica, principalmente a través de su concepción de la materia. Si bien disponemos ya de un buen número de estudios sobre los nexos entre ciencia, religión y política en la Inglaterra del XVII, no ocurre lo mismo con la obra teológica de Newton, pese a que su volumen supera ampliamente al de sus escritos científicos.

El aspecto más original del análisis de Huerga se refiere, por tanto, a la intersección de teología y física, atendiendo en particular a los Principia y la Óptica, vindicando la concepción newtoniana de la materia contra Hessen. Se trata de uno de los más antiguos motivos de la sociología del conocimiento, al menos desde Durkheim: la analogía entre el orden social y el orden del cosmos. Así como el monarca exige plena sumisión a sus subditos, el Dios omnipotente de Newton sólo admitiría una materia absolutamente pasiva. Esta vendría a ser la interpretación de Hessen, que defendió contra Newton el materialismo cartesiano.

Huerga, en cambio, y con independencia de las intenciones manifestadas por Newton, relativizaría esta pretendida inactividad de la materia, atendiendo, por un lado, a su concepción de la inercia, y por otro, a la misma sumisión divina a las leyes de la mecánica, que restringiría su omnipotencia. Sin embargo, diríamos que Huerga insiste más en la vertiente apagógica de sus argumentos (i.e, mostrar que el materialismo cartesiano no era lo que Hessen pretendía), que en probar positivamente sus tesis, lo cual dificultará, sin duda, su aceptación, considerando su originalidad. En principio, porque Newton se ocupó de la materia, antes y después de los Principia, en contextos no exclusivamente mecánicos (v.g., al tratar de fenómenos químicos, eléctricos, ópticos, etc.), donde los corpúsculos aparecen animados por “principios secretos de insociabilidad”, “naturalezas incorpóreas”, etc. Nuestro autor, desde luego, no lo ignora: quizá restrinja simplemente su análisis al dominio de los Principia (y acaso a ciertas partes de la Óptica), donde estas expresiones no aparecen. Pero, en general, poco se dice sobre la materia, y tampoco mucho sobre Dios.

La paradoja de esta interpretación de Huerga es que se interpreta a Newton allí donde permanece más silencioso: si el Dios omnipotente del Escolio General de los Principia no puede ejercer su dominio sobre las leyes de la mecánica, cambiándolas, ¿por qué debemos interpretar esta aparente contradicción en términos de una subversión filosófica de la idea de Dios (tomándolo como la natura naturans spinoziana (pág.308)) y no, más bien, como un simple residuo teológico extraviado en los dominios de la física (pág.228)? Y si se trata del Dios de los filósofos y los teólogos, ¿cuál es la teología de Newton, más allá de su obra científica?

Se echa de menos, por último, puesto que de Hessen se trata, alguna consideración sobre los dilemas que plantea explicar los orígenes tecnológicos de las tesis de los Principia, o su interpretación política, si alguna cabe. Pero ello se ve compensado, por otra parte, con un buen número de análisis sobre distintos aspectos de la teoría marxista y su desarrollo soviético, sobre los que aquí no podemos extendernos, pero que no dudamos en recomendar, avalado como está por la autoridad de Serguei Kara-Murza, autor del prólogo.

El panorama de la filosofía y la sociología de las ciencias en España se ve enriquecido, en suma, una obra valiosa, que nos introduce en la vida y la obra de Hessen, a la vez que en algunas de las disputas más vivas de nuestro tiempo.

{Marzo 1999}
{Empiria 2 (1999), pp. 283-4}