Mostrando entradas con la etiqueta Mi mente dispersa. Mostrar todas las entradas
Mostrando entradas con la etiqueta Mi mente dispersa. Mostrar todas las entradas

10/7/11

Ángel Díaz de Rada, Cultura, antropología y otras tonterías, Trotta, Madrid

Durante años la divulgación científica más exitosa fue cosa de científicos naturales (principalmente físicos, a los que gradualmente se sumaron biólogos). Sólo en la última década los científicos sociales comenzaron a competir en popularidad como divulgadores gracias, sobre todo, a economistas y psicólogos (pensemos en Freakonomics o Stumbling on Happiness). Cabe sospechar que buena parte de su éxito se debe a cómo confirman o contradicen con sus datos algunas de nuestras intuiciones (o prejuicios) más arraigadas: por ejemplo, la de que somos capaces de anticipar nuestra felicidad futura (nos equivocamos sistemáticamente, según Gilbert). Sea explotando bases de datos con técnicas estadísticas o mediante experimentos (en el laboratorio o fuera de él), la evidencia que los científicos sociales están reuniendo sobre los fenómenos más diversos es digna de interés. Menos interesantes resultan las teorías de las que se sirven para explicarlos: la evidencia disponible ilustra más bien regularidades de carácter principalmente local, pero las ciencias sociales siguen sin leyes de aplicación general comparables a las de la física o la biología.

Ángel Díaz de Rada inaugura, creo, el género de la divulgación antropológica en nuestro país rebelándose contra estas convenciones literarias: Cultura, antropología y otras tonterías no pretende excitar nuestra curiosidad con la evidencia acumulada en trabajos de campo, sino aclarar la confusión reinante sobre el concepto de cultura. El libro se articula sobre una revisión de las principales teorías antropológicas sobre la cultura, a las que el autor opone su propia concepción, ilustrada de un modo decididamente coloquial. Díaz de Rada habla en primera persona y tutea al lector, recurriendo a ejemplos extraídos de la vida cotidiana con propósitos puramente didácticos. Díaz de Rada pretende convencerle de que su concepto de cultura es intelectualmente plausible y no se presta a usos políticos indeseables. Nuestro autor es un decidido adversario de las concepciones espiritualistas y esencialistas de la cultura, tanto en sus versiones académicas (entre antropólogos) como mundanas (entre nacionalistas, por ejemplo). El libro es abiertamente polémico: Díaz de Rada expone su propio concepto comparándolo críticamente con los de antropólogos clásicos y contemporáneos y aborda sus implicaciones prácticas (multiculturalismo o relativismo) sin temor a la controversia.

En su acepción más básica, la cultura sería, para Díaz de Rada, “el conjunto de reglas con cuyo uso las personas dan forma a su acción social”. Estas reglas no son primariamente enunciados verbales abstractos (“Hay que hacer...”), sino que se manifiestan corporalmente en la regularidad de nuestras acciones. Al describir tales reglas de un modo abstracto se pone en evidencia, en cambio, su carácter indeterminado: deben ser interpretadas contextualmente y, por tanto, no se prestan a un análisis causal de la acción. De ese juego de interpretaciones, que es parte de la propia interacción cultural, emerge la antropología como análisis sistemático de la conexión entre reglas. El principio que preside este análisis es el holismo: no es posible separar categorialmente unas reglas de otras, ya que el juego de interpretaciones puede conectar, potencialmente, cualquiera de ellas.

Para Díaz de Rada, las reglas son convenciones que van siendo reformuladas a medida que los sujetos les dan uso. De ahí su nominalismo sobre la cultura: el antropólogo sólo puede referirse a interpretaciones puntuales de cada una de sus reglas, señalando su aquí y ahora. Reificarlas, pretendiendo que una interpretación particular constituye la cultura de un grupo, es, ante todo, un error metodológico. Se trata, de hecho, del primero de los muchos errores que el autor denuncia en la parte final del libro: no puede haber gente sin cultura; no hace falta la escuela para “tener” cultura; la diversidad cultural no se reduce a diversidad lingüística; la cultura es una propiedad de cualquier forma de acción social (y no de una clase particular de ellas); la cultura no es tampoco propiedad distintiva de un individuo ni de un grupo de ellos.

Los capítulos finales abordan sin ambigüedad alguna los aspectos más declaradamente políticos del concepto: el multiculturalismo o el relativismo ya citados, por ejemplo. Como el lector podrá ya imaginarse, Díaz de Rada es abiertamente crítico con los usos reificadores (por ejemplo, en “Ministerio de Cultura”) y responsabiliza de ellos principalmente a nuestros prejuicios, sean etnocéntricos o puramente narcisistas. Al fin y al cabo, buena parte de lo que se denuncia en este libro es que nos servimos del concepto de cultura de un modo parcial e interesado, normalmente el que nos resulta de mayor conveniencia. Y de ahí la originalidad de este libro como empresa divulgativa: si triunfase entre el público y adoptase su propuesta, podríamos empezar a hablar de la cultura en un sentido menos confuso y algo más neutral.

Aun simpatizando con todas las consecuencias prácticas que Díaz de Rada extrae de su concepto, este lector es más bien escéptico respecto a su propósito de persuadirnos de que es mejor no renunciar al concepto de cultura. No es, desde luego, porque su propia versión no resulte intelectualmente atractiva: a mí al menos me lo parece, digamos que por afinidad filosófica. Pero uno esperaría algo más de una ciencia social: los economistas, por ejemplo, ven mercados por todas partes, pero si aceptamos este concepto no es por lo precisa que resulte su definición, sino por el tipo de análisis que posibilita. Un viejo debate entre científicos sociales enfrenta a quienes defienden un uso instrumentalista de sus modelos y teorías en contra de quienes defienden que el realismo es necesario. Los primeros dirían que no importa tanto qué sea la cultura, sino qué podemos sacar de nuestro trabajo de campo con uno u otro concepto. Para los realistas, en cambio, es necesario que nuestros conceptos se refieran adecuadamente a las cosas como condición indispensable para su análisis. Pese a su nominalismo, Díaz de Rada parece alinearse con estos segundos pero, leyendo su libro, se diría que los antropólogos pueden realizar su trabajo incluso sin ponerse de acuerdo sobre la definición de cultura. Da la impresión de que uno no hará mejor o peor antropología según cuál sea su concepto de cultura. Posiblemente, Ángel Díaz de Rada no lo crea así, pero su libro no se detiene en argumentarlo.

Soy igualmente escéptico respecto a su propuesta de reformar nuestros usos cotidianos del concepto, por distintas razones. Por un lado, creo que se necesitaría una fuerza policial desproporcionada para lograrlo: los teólogos llevan siglos dictándoles a los católicos cómo debe rezarse el credo, pero se necesita toda una Iglesia para lograrlo. Cuando la disciplina es simplemente educativa, ni los físicos aciertan a reformar nuestro entendimiento: aunque un estudiante domine la teoría de la relatividad, los psicólogos han puestos de manifiesto cómo, en su vida diaria, ese mismo estudiante razonará sobre física igual que un griego de hace dos mil años. ¿Bastaría con formarnos adecuadamente en antropología para escapar a la confusión cultural?

No obstante, ya que inevitablemente estamos sumidos en ella, el lector ilustrado hará bien en leer este ensayo de Díaz de Rada para, si no escapar a la confusión, sí al menos no abandonarse completamente a ella. Como su autor bien nos advierte, las consecuencias cuando uno se deja llevar por algunos conceptos de cultura suelen ser indeseables.

Paco Calvo & Toni Gomila, Handbook of Cognitive Science. An Embodied Approach, Amsterdam, Elsevier, 2008

“Is cognitive activity more similar to a game of chess than to a game of pool?” This is the opening question of this volume and every social scientist concerned with the explanation of our decisions should carefully consider the answer. At least, they should if they use standard intentional explanations, where decisions result from a particular combination of beliefs and desires that purportedly captures our folk understanding of action. If we are not uncomfortable with such foundation is mostly thanks to the progress of cognitive science that shows how our beliefs and desires can be processed, beyond folk psychology, as “a computational manipulation of representational inner states”. If you are already wondering if there is anything else to a decision, you probably consider cognitive ability akin to a game of chess. The authors in this volume would rather see it as a game of pool, that is, a non-formal game in which you need to take into account real-time physical interactions. In the case of decisions, our sensorimotor interaction with a given environment plus our social interaction with other agents. All this conceived as a continuous process that should be modeled (and explained) as such: i.e., describing the range of changes that the agent-cum-environment system experiences over real time. In principle, there is no need to invoke standard mental representations or a global plan of action.

This seems to be the explanatory approach emerging in the interdisciplinary field of embodied cognitive science, at least according to the editors of this Handbook (p.13). Calvo and Gomila are well aware that not every author in their volume would accept such an approach to explanation. The aim of this compilation is precisely to bring the different agendas in this new field to converge on a joint research program (p.15). Among these agendas, the editors cite: ecological psychology, behavior-based AI, embodied cognition, distributed cognition, perceptual symbol systems, some forms of connectionism, interactivism and dynamical systems theory. Their common thread, according to Calvo and Gomila, is to conceive of cognition and behavior “in terms of the dynamical interaction (coupling) of an embodied system that is embedded in the surrounding environment” (p. 7). The reader is properly warned that many of these terms are still awaiting a more precise definition ―including here “embodied” (p.12)―, but Calvo and Gomila believe that the success obtained by this approach in certain particular domains justifies a generalization that would first redefine the research agenda of cognitive science. And then eventually expand into every other field in the social sciences where cognition plays an explanatory role.

The structure of the volume somehow reflects the current disunity of this project: it goes through the fields listed above, including several surveys, a number of success stories and a few conceptual discussions of the pros and cons of this emerging approach as opposed to mainstream cognitive science. The main division, for the purposes of this review, is between the analysis of, so to speak, lower and higher cognitive processes. The former are covered in sections 2-4, namely: “Robotics and Autonomous Agents”, “Perceiving and Acting” and “A Dynamic Brain”. These three sections exemplify several tenets that the editors present as distinctive in the embodied approach. For instance, the claim about perception being active and action perceptually guided is explored in chapters dealing with a control system for human avatars (ch. 8), an analysis of the use of inconsistent visual information for the control of our actions (ch. 11), experimental evidence on visual processes guiding sorting tasks (ch. 10) and, finally, a dynamical system model of the interaction of the neural network, the body and the environment of an evolutionary agent featuring visually guided object discrimination (ch. 6).

The evidence presented in these three sections is fascinating, at least for readers like me without any competence in the topics addressed therein. However, it is not presented in the systematic fashion you would expect from a Handbook. It is more a collection of papers representing the diversity of perspectives announced in the Introduction, but they rarely engage with the claims made by each other. The editors have a point when they call for an empirical comparison of the different post-cognitive hypotheses in order to ponder their merit within the joint agenda (p. 15). But such comparison rarely features in the Handbook, which is perhaps an accurate portrait of the state of the art in this field.

Nonetheless, we should grant that the evidence accumulated at these lower levels of cognitive activity is compelling enough to reconsider several traditional tenets about them. E.g., whereas in the traditional approach (both in philosophy and in cognitive science) vision was most often understood as yielding “internal representations for general-purpose use”, the brick-sorting experiment presented in chapter 10 compellingly suggests that eye movements are task-oriented instead. The evidence for this hypothesis is provided by an experimental setup in which subjects operate in a virtual environment wearing a head mounted display tracking their eye movements and manipulating a mechanical arm with their hands. Variations in the visual cues of the bricks during the sorting task revealed, for instance, that the subjects retrieved the relevant information either from the scene or from their working memory. An implicit cost function regulating visual attention seems to be at work here, even if we still do not know much about the mechanism implementing it. It probably evaluates such aspects as metabolic cost, cognitive load, temporal urgency, etc. The subjects themselves are certainly unaware of it being at work. According to Calvo and Gomila (p. 12), in this experiment perceptions seems to be more than building visual representations: it seems active and guides action in quite a straightforward manner.

However, as the authors of chapter 10 (Droll and Hayhoe) point out the evidence presented is not contradictory with “formal models of executive control in which high-level decision processes [about the relevant visual parameters] affect lower level sensory selection” (p. 202). In other words, these experiments can also be interpreted as speaking for a certain continuity/compatibility between embodied and traditional approaches to cognition. The former may well help us in reconsidering certain low level cognitive activities, but maybe at a higher scale the latter may still play a role. This is the problem that the editors dub “scaling-up”: can we explain high level cognition in an embodied fashion? This is the topic of sections 5-7, which cover “Embodied Meaning”, “Emotion and Social Interaction” and a general discussion of the transition from lower to higher levels of cognition.

In chapter 15, Lotte Meteyard and Gabriela Vigliocco present a wonderful review of the embodied theories of semantic representation. As they recall, in this approach, we apprehend linguistic meaning simulating the sensory-motor information produced by the referent of a word or a proposition. They distinguish between stronger and weaker versions of this approach according to the degree to which semantic content depends on this sensory-motor information (what the authors call their engagement hypothesis), reviewing the available evidence (namely behavioral and neurological) for or against each version. The authors conclude that there is a tie between them, but the evidence speaks against those who deny the engagement hypothesis and claim absolute independence between semantic and sensory-motor information. Chapter 16 presents one particular approach to embodied meaning, stemming from the Neural Theory of Language project, taking concept learning as case in point. The two remaining chapters in this section on embodied meaning deal with mathematics: in the former, Rafael Núñez applies a metaphorical approach to mathematics he developed with Lakoff to the analysis of axiomatic systems; in the latter, Arthur Glenberg draws out the practical implications of this approach for the teaching of mathematics. This Handbook is mainly aimed at practitioners of the cognitive sciences, but, all in all, this is probably the section that impinges most on the main tenets of mainstream analytic philosophy and I miss a straightforward discussion of the philosophical “paradigm shift” implicit in its claims.

There is quite a contrast between sections 6 and 7. In the former, on “Scaling up” , two of the three papers compiled seem quite deflationary, at least if we measure by the standards of the editors. In chapter 19, Margaret Wilson explores the possible mechanisms by which abstract de-contextualized thought may have emerged from sensorimotor abilities applied to immediate situations. However, she argues explicitly against reducing human cognition to situated cognition, which, in principle, leaves some room for traditional approaches to the former. In a similar vein, Michael Anderson (ch. 21) analyses brain imaging results showing cognitive overlaps between different areas of the brain and discusses to what extent these images speak unambiguously for embodied cognition. E.g., there is evidence that perceiving objects an object names activate brain regions associated with grasping. But this may be explained as a result of the redeployment of neural circuits across different domains in the evolution of our brain. Some sort of functional inheritance would often ensue as a result, without any further implication about their “embodied” connection.

The tone in the two papers compiled in section 7 is inflationary, by contrast. For instance, Shaun Gallagher (ch. 22) argues for an embodied alternative to standard theories of mind, in which we would not need belief or desire attribution to understand each other’s actions. This understanding would often be primary, originating in body expressions that we would apprehend directly through perception without mental representations. Gallaguer’s paper puts forward a different worldview than the sort of empirically informed hypotheses that abound in this volume. However, it is worth reading, even if just to have a flavor of what a fully embodied approach would entail ―even more so for M. Sheets-Johnstone final chapter.

The volume ends abruptly or, at least, I miss a final overview taking stock of all the evidence compiled and assessing the viability of the research program outlined by the editors in the introduction. The only general discussion can be found at the beginning, in the first two chapters ―therefore written without any explicit reference to the volume. M. Bickhard presents a conceptual argument against standard models of representation in cognitive science: they cannot account, he claims, for the possibility that the organism detects and corrects its own errors. Following Bickhard, if we ground representations on embodied interaction instead, it is possible to account for errors. Interactions involve a circular causal flow between the system and the environment, according to a range of indicated possibilities. Errors will be detected by the system when this range is violated in the interaction. Again, we may wonder how this error-detection model applies to higher level representations, but the volume is not very rich on suggestions about this particular point.

Hence, the only really general discussion of the project in the volume is Andy Clark’s paper on “Embodiment in explanation” (ch.2). Clark defends a somewhat conservative position: mainstream cognitive science should take into account the many findings of the embodied approach, without abandoning its current paradigm. Clark’s argument is based on a review of a significant sample of current research. Had he used the evidence compiled in this Handbook, it would have made an excellent conclusion. His conservatism originates in his skepticism regarding the possibility of a total identification between an agent’s experience and the underlying sensorimotor exercise, as it is often assumed in the most radical versions of the embodied approach ―for instance, the connection between bodily experience and our basic conceptual repertoire, as it is sometimes presented by Lakoff and Johnson.

This Handbook certainly feeds Clark’s skepticism. Despite the effort of the editors, I cannot discern in the papers compiled the possibility of building a general paradigm for cognitive science, impinging on the very foundations of our many theories of social interaction. But I may be just short-sighted. Nonetheless, it is a good invitation to rethink many deeply rooted assumptions across the social sciences.
Christopher Ryan and Cacilda Jethá, Sex At Dawn. The Prehistoric Origins of Modern Sexuality, New York, Harper Collins, 2010

This is a book about a subject almost everyone in American and European universities has a personal stake in: monogamy. And it is quite critical of it. With books like this, reviewers should perhaps start disclosing their conflicts of interest, so readers could discount the biases in their assessment. Maybe I will be critical just because my partner cheated on me and I cannot help feeling personally offended by the authors’ case. Or maybe I will praise it in order to justify my own non-monogamous desires. The book is dedicated by the authors to “all our relations” so you may guess right from the start whose side are they on -they do not say much about themselves. So let me dedicate in turn this review to my own relations and we will be even.

Sex at Dawn is indeed an argument against those who consider monogamy our most natural family arrangement. Or, to be more precise, against the most rational among them, the scientifically inspired monogamists. Ryan and Jethá (a psychologist and physician) target the “standard” account of monogamy among evolutionary psychologist, which they probably consider the strongest case for it. They try to debunk it, under the assumption (I guess) that if the reader is convinced by their argument s/he will become more open-minded about non-monogamous family arrangements. As they put it themselves, the most important practical consequence of reading this book should be for couples to openly speak about the meaning of being faithful to each other.

For evolutionary psychologists (the authors apologize for the simplification and I concur), monogamy would be the best way for males to make sure that they are really fathering their female partner’s kids; these latter would obtain in exchange their help in raising them. Both partners will try to cheat on each other to increase their reproductive success through sexual competition: men will try to mate with as many other women as possible hoping that someone else will help in raising their own progeny; women with less desirable partners will try to get pregnant with more successful males, making the former raise the kids. On the grounds of this biological equilibrium, our species would have arranged different cultural variations of the same theme (monogamy).

The authors do not question sexual competition, but claim it operates at a different scale. Drawing on evidence from anthropology (hunter-gatherer societies) and ethology (primates), the authors argue that our species evolved forming promiscuous groups whose members had non-exclusive sex with each other as a bonding mechanism and cooperated in raising their progeny. Sexual competition would occur inside the vagina where sperm from different men would “fight” each other chemically for fecundating the ovule with the non-neutral intervention of the host’s organs. In other words, we would be capable of living in non-monogamous cooperative arrangements, enjoying less sexual frustration, letting our cells do the sexual competition for us behind our back.

Sperm competition in humans is controversial: I admit it as a possibility but a popular science book is probably not the best source to make a conclusive case. The evidence provided in Sex at Down is nonetheless entertaining to read (if you are unfamiliar with this literature) and discuss with your friends. I often found myself disagreeing with the way in which the authors present it, time and again bringing grist to their mill, sometimes at the expenses of fairness and accuracy –e.g., we have data about the quality of our semen and throughout the last fifty years it seems to decrease, but can we really extrapolate this recent trend to the very origins of monogamy, thousands of years ago? (Was semen really so good then?). On a more theoretical note, since this is a book about “the prehistoric origins of modern sexuality”, I miss an account of how monogamy came to prevail. We know it starts with agriculture, but how come it has lasted this long despite all its drawbacks? Monogamy may make us unhappy, but perhaps there is a trade-off and we are getting something in exchange. Almost every piece of evidence presented in this book seems to perform evolutionary functions and monogamy should be no exception. But this is just a guess.

My main contention is though that monogamy is no less natural than non-monogamy: since this is a debate among rationalists, we will easily agree that our species does not do supernatural things, especially when it comes to reproduction. Maybe non-monogamous regimes did wonders for us thousands of years ago, but this is not a particularly good argument for bringing them back today. Not that I am against them, mind you, but I do not need to be “historically justified” to try any alternative to monogamy. As a matter of fact, I cannot imagine anybody struggling to stay in a monogamous relationship, just because evolutionary psychologists claim that this is the natural thing to do.

However, I concur with the authors that monogamy is a topic that every couple should discuss rather than take for granted and, all in all, this book is a good place to start the conversation. Given the number of pro-monogamy prejudices we carry with us, it may be fair to load the dice in the other direction.

26/7/10

Jan Lauwereyns, The Anatomy of Bias. How Neural Circuits Weigh the Options, MIT Press, 2010.

More and more often practicing scientists from the most diverse fields are writing books for general audiences with a view not only to communicate their own results or the state of the art in their field, but also to draw the more general implications of such findings for, say, our worldview. Whereas the former can be accomplished reasonably well by any competent scientist with a taste for writing, the latter will be more or less engaging depending on what the author has read beyond her discipline. Jan Lauwereyns is a cognitive neuroscientist and a remarkable poet who also enjoys reading across disciplines. And just as in 1621 The Anatomy of Melancholy provided an interdisciplinary survey on its topic, Lauwereyns presents his own anatomy as an "integrative account of the structure and function of bias as a core brain mechanism that attaches different weights to various information sources, prioritizing some cognitive representations at the expense of others" (p. xiv). There is much to praise in Lauwereyns' account, but I wonder to what extent it is really integrative. Let me explain why.

The original core of this book is mostly in the first two chapters, where the author presents the main findings of his own research, which hinge on his version of LATER, the standard model for the analysis of response time distributions generated in visual processing experiments. These experiments measure, on the one hand, the time it takes to a subject (usually monkeys) to convert a sensory stimulus into an eye movement according to the task assigned. On the other hand, they record the level of activity in a neuron (or group of neurons) that code for the relevant stimulus. In LATER the eye movement is understood as a result of a decision, modeled as a function of neural activity: when the function reaches a certain threshold, the eye moves. The function is defined by (1) the starting point of this activity, (2) its slope and (3) the variance of the activity.

In this framework, Lauwereyns claims that bias operates through changes in the first parameter that can be detected in two neural markers. First, the level of activity is significantly stronger in biased neurons than in unbiased neurons at all levels: i.e. for the coded stimulus and for noise alike. But even before the coded stimulus appears, and this is the second marker, the level of activity in biased neurons is also stronger, in a form of anticipatory processing. These superior levels of neural activity make the biased neurons reach the threshold at which decisions are made earlier than biased neurons.

Neural bias should be distinguished from neural sensitivity, the capacity to detect the right signal to act, which is measured by the second and third parameters in the model. The first marker for sensitivity is also a stronger level of activity, but just for the stimulus coded in the neuron, not for noise. The second marker is an enlarged ratio of response to the coded stimulus once it appears, through which the neuron can capture a broader range of signals.

Lauwereyns developed his interpretation of the LATER model namely in order to account for the activity of certain neurons observed in the caudate nucleus of monkeys in an experiment in which they had to make an eye movement to a position where a visual target had been briefly flashed shortly before. Certain caudate neurons, coding for positions where a reward had been obtained in previous blocks of the experiment, showed anticipatory activity before the visual target appeared (what Lauwereyns aptly calls wishful seeing). The monkeys, of course, could not predict where the next flash would come from. Further refinements of this experiment provided evidence that these neurons exhibited a reward-oriented bias of the sort described in the LATER model.

However, in the remaining five chapters, we do not find many more straightforward applications of LATER, but rather an informal examination of other experimental evidence in the light of this model. Hence, in chapter 3 Lauwereyns suggests that there are analogue biases and sensitivity mechanisms for fear (i.e., negative rewards) in the brain. In chapter 4, the author discusses the conceptual compatibility of his conception of bias with two widely studied heuristics in cognitive psychology, whose brain foundations remain as of today unexplored. In the remaining two chapters, Lauwereyns speculates on the more general brain architecture that could support LATER-like information processing. Chapter 5 is perhaps the more daring: Lauwereyns calls for the application of the theory of self-organizing processes to object representations in the brain. In chapter 6, he offers a conjectural model of competition of different neural networks in the brain that could account for evidence gathered in Stroop-like tests for monkeys. Chapter 7 contains the author's musings on the inevitability of bias in our species and how to tame it. The book closes with a Coda on the motivation for the book.

This is, of course, a quite partial summary aimed at capturing what, in my view, constitutes the book's thread or, at least, what I found most original or informative. My major complain about this anatomy is, precisely, how unbalanced it is in every other respect. The author is relatively systematic in the presentation of experimental evidence from his own field, but quite unmethodical in the discussion of everything else. As we have just seen, this is a book in which the author tries to generalize from experiments about certain brain mechanisms of visual processing in monkeys to bias in humans. This generalization requires a number of assumptions that the author clearly acknowledges: to name just one, about our cognitive architecture, how to model it and how to infer it from experimental evidence obtained in different species. Reading the book one gets to know Lauwereyns' views on these particular issues, but there is no introduction to any of them, much less a discussion of the alternatives. The author does not explore in depth positive research on biases in other disciplines, namely cognitive psychology, but rather handpicks examples without presenting their theoretical framework. The final discussion of the social consequences of our biases could have been improved with an examination of, e.g. different policies for fighting conflicts of interests in various domains (do scientific communities really fight biases the way the author thinks, for instance?) I do not think thus that this counts as an integrative anatomy of bias.

The Anatomy of Bias is intended instead as a more personal essay and we get to know more than our usual share about the author's life and tastes. I often got the impression that Lauwereyns digresses just because there is something he aesthetically likes, independently of whether he is right or wrong in the analysis (e.g. his occasional exegeses of Deleuze or Heidegger). Even if I am not particularly happy with this Anatomy, this is certainly a genre worth exploring, and Lauwereyns' attempt deserves all praise for trying to expand the scientific conversation beyond its usual borders.


10/7/10

Alfred Mele, Effective Intentions. The Power of Conscious Will, Oxford, Oxford University Press, 2009

Effective intentions
is a book to be praised by everyone who thinks that philosophers should address issues of public interest, in particular when they arise from the advancement of science. Recent developments in the experimental study of our conscious decisions are challenging some widely spread and deeply rooted intuitions about free will. In Effective intentions Alfred Mele, a prominent philosopher of action, claims that there is no conclusive scientific evidence about the causal efficacy of our decisions and, provided we adopt a proper theoretical framework, there are good grounds to defend the freedom of our will. Mele's book is short and accessible, but it is not popular philosophy: it often engages in scholarly debates and discusses technical points at length. However, those who find the conceptual discussions pervading the popular literature on these topics too rough will probably enjoy reading it. The following summary will provide at least a glimpse of its structure.

In a famous experiment conducted by B. Libet, the participants had to make a movement with their right hand whenever they wished. Libet recorded the electrical activity in the scalp of his experimental subjects together with the activity of the relevant muscles, asking them to signal the time at which they consciously initiated the movement. Libet detected a shift in the activity in the motor cortex that precedes voluntary muscle motion (the "readiness potential") about 550ms before the actual movement took place. The experimental subjects reported the conscious initiation of the movement only 200ms before it started.

Experiments of this sort challenge our common understanding (the folk psychology) of voluntary actions: since we take our will to be free, we would expect the movement to depend somehow on the agent's beliefs or desires. This is why these experiments have captured the popular imagination proving that our will is, in fact, not free. As the title of the book suggests, Mele thinks that intentions are effective and follows a twofold strategy to prove it. On the one hand, Mele reexamines the experimental evidence against free will showing that it is not as conclusive as is often taken to be. On the other hand, the philosophy of action constructed by Mele throughout the past two decades allows him to interpret the experiments in a way that preserve the efficacy of our intentions.

As to the former, Mele puts forward the following interpretation of Libet's experiments: the electrical activity recorded in the scalp 550ms before the action starts would rather be a potential cause of a proximal intention or decision, than any of these two. At least, the electrical patterns associated with the pre-conscious brain activity in Libet's experiments are similar to those recorded in other experiments where there seems to be no apparent unconscious intention or decision. It should be something else, concludes Mele: perhaps some sort of causal input of the intention. In a similar spirit, Mele contests the instances of actions in which intentions apparently have an epiphenomenal role put forward by Daniel Wegner, showing that such actions may not count as intentional. But what sort of intentions could these be?

Mele focuses on ocurrent intentions, defined as executive attitudes towards plans, i.e., being settled on executing them. Such attitude, warns Mele, cannot be reduced to any combination of beliefs and desires. Ocurrent intentions arise from decisions when there is uncertainty about the alternatives; if there is none, ocurrent intentions can be acquired without any explicit decision. Hence, proximal intentions (about immediate actions), at least, need not be conscious: when we act by habit, our acts are no less intentional (we are settled on executing them) even if there is neither a explicit decision nor any awareness of our intentional process. Finally, Mele accepts that intentions may have potential causes and still fully contribute to our actions I hope this very simplified summary will at least suggest why, if we accept Mele's approach, Libet's experiments would not exclude, at least a priori, an intentional interpretation. Our intentions may be considered so despite being causally prompted, unconscious or separated from our beliefs and desires.

However, this does not amount to prove that intentions are causally effective in producing an action. Mele invokes here the evidence on distal implementation intentions: there is evidence showing that people meet non-immediate goals in significantly higher proportion if they are state in advance when, where and how will they achieve them. Prima facie, intentions seem to play a causal role in the explanation of these actions ―and Mele argues at length against alternative accounts in which they do not.

Mele closes the book claiming that science has neither shown that free will is an illusion nor that there are no effective intentions: "this is good news for just about everyone", concludes. But probably "just about everyone" (not this reviewer) will be slightly concerned by the admission that our intentions are causally originated somewhere beyond the realm of consciousness. Mele is quite vague about this point, stating just that our decisions may "more proximally initiate an intentional action that is less proximally initiated" by a potential cause of such decisions (p. 69). I agree with Manuel Vargas (see his piece on Mele's book for the Notre Dame Philosophical Reviews) that this is precisely the point that many would have wanted to see addressed.

It is an indisputable merit of Mele to show that the conceptual framework of Libet's experiments, among others, is often imprecise. Yet, by the same token, it is shown that "the conceptual schemes that we use to interpret and explain our behavior" are equally misleading, which is no less unsettling. Mele's conceptual schemes are certainly more articulate, but this book will not allow the uninitiated reader to grasp them in full. However, unlike many others in philosophy, Mele suggests bits of experimental evidence that could potentially falsify several parts of his theory. We can only hope these tests are actually conducted, making this debate progress in a more empirically oriented fashion, even if the news are not always as good as we once expected.

10/5/09

T. Bayne and J. Fernández, Delusion and Self-Deception. Affective and Motivational Influences on Belief Formation, New York-Hove, Psychology Press, 2009.

In 2004, Macquarie Centre for Cognitive Science and the philosophy department at Macquarie University (Sydney) organized a conference on “Delusion, Self-Deception and Affective Influences on Belief Formation”, in which many of the papers of this volume were first presented. As the editors warn in their introduction, their aim was to foster empirical and conceptual connections between current research on delusion and self-deception. For this, they brought together a group of scholars in various disciplines, most of them with a remarkable competence for interdisciplinary discussion. The connecting thread in their analyses features in the title of the book: the role played by affects and emotions in the formation of delusional or self-deceptive beliefs. However, the unity of this compilation lies mostly in the extraordinary editorial work of Tim Bayne and Jordi Fernández, who have not only provided thorough author and subject indexes, but also encouraged cross-references between papers and wrote an introduction intended as a map for the terrain explored thereafter.

In my view, this volume hinges on five papers on two delusions: the Capgras delusion (the belief that a familiar person has been replaced by an impostor) and anosognosia for hemiplegia (the delusional belief of being able to move your paralysed limbs). These five papers present the standard theories of delusion, with special emphasis on the role of emotions in the explanation of the two cases in point, but with very few mentions of its connections to self-deception. Three additional papers bridge this gap, exploring possible connection between the explanation of these delusions and Mele’s theory of self-deception. Three more papers discuss the role of emotion in belief formation with no explicit link with any of the theories above. Following this division, I will provide a quick overview giving just a glimpse of the topics discussed. The reader is warned that the book is incredibly rich in ideas and evidence on every topic discussed and I am afraid many will be missing here.

The most successful empirical approach (so far) to explain the Capgras delusion focuses on the cognitive mechanisms of face recognition drawing on research on prosopagnosia. The Capgras delusion would arise when the subject is somehow able to recognize a familiar face but without experiencing the usual emotional response to it (as measured by skin conductance response). The damaged mechanisms in the brain explaining this diverging response are still under discussion, as Philip Gerrans informs us in ch. 7. There are different approaches to modelling the belief distortion in this delusion, namely two: endorsement models and explanationist models. In the former, the patient believes in the content of her experience, where the delusion lies. In the latter, the delusion is an attempt to explain an usual experience (e.g., the lack of emotional response). Gerrans develops an endorsement account focused on a purely cognitive misidentification (failure to acknowledge the numerical identity between the familiar face and the person the patient knows). Elisabeth Pacherie (ch. 6) considers alternative accounts of the Capgras delusion, pondering to what extent they support the endorsement approach. She is inclined to think that the delusion arises from the inability to process dynamic information about the emotions expressed by familiar faces. Pacherie furthers this approach with an argument for the modularity of the feelings of familiarity. If the delusion lies in the perceived experience, it is important to demarcate it from belief and Fodor claims that modularity is one such demarcation criterion. An additional argument against the explanationists provided by Pacherie is that, even if the subject forms a delusional belief, she applies correctly the usual checking procedures (further observation, background knowledge, testimony) but they fail to yield disconfirming evidence.

A second division in the approaches to delusion can be made between one and two-factor approaches. The former invoke a perceptual and/or affective deficit that generates the belief and the latter add a second deficit to explain why such belief is not rejected. Brian McLaughlin (ch. 8) takes issue with the standard one-deficit account of Brian Maher, according to whom delusional beliefs “function to explain anomalous experiences resulting from neuropsychological anomalies” and this would be a rational response. In the Capgras delusion, argues McLaughlin, this would not be the case by any standard of epistemic justification, since the delusional belief coheres badly with our background knowledge. McLaughlin proposes a model for the Capgras delusion in which two types of beliefs would be acquired by separate routes: a linchpin belief (about the unfamiliarity of the face) and a thematic belief (about the impersonation). It is epistemically irrational on the part of the patient not to reject this second belief, arrived at by paranoid-driven reasoning. McLauglin develops the concept of existential feelings, among which familiarity would feature. Given the characteristics of these feelings, McLaughlin is skeptical about our natural ability to override them. So much for the Capgras delusion

Anne Aimola Davies and co-authors (ch. 10) analyse anosognosia for hemiplegia in the two-factor framework for delusions presenting a broad review of the available empirical evidence (including their own data) about the role played by motivational and cognitive factors. The first factor would be here “an impairment that prevents the patient’s paralysis or weakness from making itself known to the patient through immediate experience of motor failure”. The second factor, in turn, would be “an impairment that prevents the patient from making appropriate use of other available evidence of his or her motor impairments”. The authors present their own conjectures about the functional nature (“an impairment of working memory or executive process”) and neural basis (“the right frontal region of the brain”) of this second factor. Frédérique de Vignemont (ch. 12) systematically compares hysterical paralysis and anosognosia, the former apparently being the mirror image of the latter: patients feel paralyzed although they are physically able to move. De Vignemont points out that hysterical paralysis is grounded in delusional beliefs about the extent and source of their inability to move. It is a local paralysis and does not arise from organic damage. However, the experience of being paralysed generates the delusion as a normal response. Their anxiety at the paralysis keeps them frozen: this explains their inability to reject the original delusion without the intervention of a second factor. They are indeed paralysed.

So much for the study of delusions. As for its connection with self-deception, Alfred Mele (ch. 3) presents a brief summary of his own deflationary theory of this latter and an analysis of a few delusions in this perspective. Since Mele’s account of self-deception hinges on the influence of motivational factors in lay hypothesis testing and such factors do not necessarily feature in the explanation of, e.g., the Capgras delusion, he concludes (tentatively) that deluded subjects may not be deceiving themselves. Martin Davies (ch. 4) makes the more significant effort in the volume to bring together the analysis of deception and self-delusion. After a brief review of the standard one- and two-factor accounts of this latter and a summary of Mele’s theory on the former, Davies discusses how motivational biases can feature in either factor or in the route from experience to belief. When they affect the second factor, Davies concludes that we have the clearest cases of an overlap of delusion with Mele’s self-deception. Neil Levy (ch. 11) argues, against Mele, that there is one real case of self-deception in which the subject believes a proposition and its negation. This would be anosognosia for hemiplegia, where subjects –in a certain sense that Levy specifies– simultaneously believe that their limb is healthy and significantly impaired

The remaining three chapters are somehow at odds with the theoretical approaches presented so far. In chapter 1, Peter Ditto provides a brief overview of fifty years of psychological research on motivated cognition, which serves as an introduction to his own contribution, the quantity of processing view. According to this view, we would we react more sceptically and invest more time and resources in the cognitive processing of those pieces of information inconsistent with our preferences. As the editors notice in their introduction, this view does not seem to encompass delusions, where it often happens that the subject cannot reject a delusional belief despite its negative affects. Drawing on recent research in cognitive neuroscience (namely, appraisal theory and the somatic marker hypothesis), Michael Spezio and Ralph Adolphs (ch. 5) substantiate the claim that emotions mediate in the processing of information in the brain. As an illustration, they briefly show how emotional processing underlies our moral judgments. The editors observe here that it is an open question whether this account may apply to belief formation in general. In the final chapter of the book, Andy Egan proceeds to a philosophical discussion of the status of delusions and self-deception as mental states. Invoking a functional role conception of mental states, Egan argues that delusions are intermediate states between belief and imagination whereas self-deception is an intermediate state between belief and desire. As the editors point out, this is at variance with the assumption that now orientates empirical research on both phenomena: they are just beliefs.

Despite the effort of the editors, this volume is often difficult to read. The different theories and empirical findings about the two delusions analysed are presented time and again throughout the eight core papers. However, were it not for Davies’ paper, I guess I would be lost as to the connection between the two phenomena. Or more precisely between the standard theories of delusion and Mele’s theory of self-deception: no alternative approach is discussed in the book. This volume features in a series that “provides readers with a summary of the current state-of-the-art in a field”. The disunity in the two fields of study covered in this volume is adequately captured in the papers compiled.

15/4/09


Fernando M.Pérez Herranz, Lenguaje e intuición espacial, Instituto de Cultura Juan Gil Albert, Alicante, 1997, 270 pp. + Pedro Santana Martínez, ed., Semántica de la ficción. Una aproximación al estudio de la narrativa, Universidad de La Rioja, Logroño, 1998, 197 pp.

I. Dos libros singulares sobre semántica

Comentamos en esta reseña dos libros elaborados con absoluta independencia, publicados en el intervalo de un año y, en apariencia, temáticamente distantes. Sin embargo, diríamos que agradecen una lectura conjunta, y no solamente porque en ambos se aprecie la influencia de un mismo autor, Gustavo Bueno, sino porque las cosas mismas que en ellos se tratan lo exigen. Mostrarlo, y dar así a conocer a otros lectores ambos ensayos, es el objeto de esta reseña .

II. Semántica de la ficción

A Pedro Santana, profesor en el Dpto. de filologías modernas de la Universidad de la Rioja, le conocerán ya los lectores de El Basilisco como gramático , aunque muchos sabrán también sus de inclinaciones filosóficas, ahora desarrolladas en los dominios de la teoría literaria con su amplia contribución al libro que acaba de editar para la Universidad de La Rioja.

Semántica de la ficción se divide en dos partes: en una primera, “Teoría”, Pedro Santana nos ofrece su propia aproximación al estudio de la narrativa; la segunda comprende tres estudios sobre otras tantas obras literarias (Pretty Mouth and Green my Eyes de Salinger, Heart of Darkness de Conrad y D’entre les morts de Boileau y Narcejac) a cargo, respectivamente, de Rosario Hernando, J.Díez Cuesta y B.Sánchez Salas –estos dos últimos se ocupan además de la relación de ambas obras con las correspondientes películas de Hitchcock y Coppola, Vértigo y Apocalypse Now. Aunque se nos advierte de que estos estudios ejercitan de modo muy diverso las ideas discutidas en la primera parte por Pedro Santana, queda para el lector averiguar cómo.
En efecto, Pedro Santana no nos ofrece una Teoría acabada que podamos aplicar de inmediato, ni es esa tampoco su pretensión. Aunque se nos ofrezca como un ensayo de teoría literaria (o narratología), sus argumentos se despliegan con arreglo a un canon que se diría más bien filosófico. El capítulo primero se abre con este interrogante: “¿Qué conocimiento sobre el mundo aporta o condensa la narración?” Pero en vez respondernos con una especulación ella misma literaria, Pedro Santana recorre en las cien páginas de su ensayo algunas de las tentativas más rigurosas para dar respuesta a esta pregunta por el lado de la semántica, y particularmente los intentos de interpretar desde alguna lógica (de primer orden, modal, etc.) la estructura de la narración.

En la medida en que esta variante de la semántica, pese a su apariencia matemática, es ya de por sí bastante filosófica –como comprobará cualquiera que vaya a las obras de Frege, Quine, y otros tantos clásicos citados en este ensayo-, la operación argumental de Santana consiste, primeramente, en desbordarla desde la exploración de las mismas limitaciones de sus resultados –en los tres primeros capítulos de esta parte primera. Para superarlas, el autor nos propone no tanto prescindir de los formalismos, cuanto reinterpretar sus fundamentos filosóficos en otra clave distinta de la de los filósofos anglosajones, y recurre para ello a las ideas de conocimiento y ciencia elaboradas por otro riojano, Gustavo Bueno, a lo cual se dedican los dos capítulos finales. En todo caso, Santana no trata de aplicar sistemáticamente la teoría del cierre categorial a la literatura, cuanto de iluminar con algunas de las tesis de Bueno algunas dificultades inherentes a la propia semántica literaria. Se diría que Santana quiere reconstruir positivamente el propio concepto de literatura, siquiera sea como disciplina b-operatoria, aun cuando ello suponga intercalar la propia teoría literaria entre la lingüística y la filosofía.

Así, por una parte, la cuestión del conocimiento se analiza, de acuerdo con la vieja tesis aristotélica, como enclasamiento o clasificación que se discute, a su vez, desde sus fuentes, atendiendo a su génesis operatoria. En la medida en que la semántica discutida en este ensayo opera sobre clases algebraicas, Santana simplemente lo explicita. La novedad aparece al interpretar estas clases operatoriamente como representaciones: las representaciones resultarían de operaciones (en el sentido del facere latino) miméticas, i.e., construcciones subjetuales objetivas al modo de los símbolos en el Crátilo platónico. La normalización de estas operaciones daría lugar a ortogramas, en el sentido de Bueno.

La cuestión es obtener a partir de aquí unos mínimos elementos semánticos mediante los cuales aproximarnos al análisis literario. Santana opta más bien por interpretar directamente como ortogramas los tópicos de la tradición retórica, que le servirían como principia media a esos efectos. Así, se nos ofrece una interpretación lógica de algunos tópicos (como la metáfora o la analogía, con Peirce) donde se mostraría su articulación operatoria como ortogramas. De este modo, la representación literaria se asemejaría a otras construcciones semánticas más generales, a las que Santana se refiere como ideologías.

El conflicto entre ortogramas distintivo de las ideologías, en la medida en que éstas comprenden siempre en uno u otro grado la consideración –polémica- de otras alternativas, se reproduciría ahora en la lectura, en la interpretación literaria. La imposibilidad de una interpretación unívoca equivaldría así a la imposibilidad de una determinación plena de las operaciones conceptuales del autor de la obra por parte de su intérprete, en la medida en que ambos ejercitarían sus propios ortogramas (ideologías), como, en general, es imposible una determinación plena por parte del científico social de las operaciones de los actores estudiados. En el caso de la literatura, esta restricción se evidenciaría en la imposibilidad de reducir plenamente a la forma lógica de los tópicos su contenido semántico, contra la pretensión de tantos analistas por la misma generalidad de estos contenidos –que sería lo que más aproximase la literatura a las ideologías, en el análisis de Santana.

Hasta aquí nuestra propia reconstrucción de este análisis, y en ello radica también nuestra objeción principal: pues si uno de los aciertos de Santana es mostrarnos desde sus mismos resultados la condición especulativa de muchas tesis semánticas pretendidamente científicas –a veces tan sólo por su envoltura lógica-, otras tantas veces nos ofrece como tesis de apariencia positiva las propuestas de Gustavo Bueno, que no son tales. Este no es meramente un defecto formal que pudiera obviarse con una simple reexposición (que, desde luego, no sería como la que acabamos de ensayar): un tratamiento propiamente filosófico de las tesis semánticas nos desvelaría la metafísica que acompaña en al sombra a tantos semantistas, pero, a su vez, se nos mostrarían también aquellos aspectos del materialismo filosófico menos desarrollados, disimulados aquí por esa apariencia positiva de la que, en realidad, carecen: así la teoría materialista del lenguaje todavía está por desarrollar, y la de las ideologías (o nematologías) conoce tan solo algunos apuntes sumamente penetrantes, pero aún incompletos. No cabe, por tanto, asumirlas como doctrinas acabadas de las que se pueda partir sin equívocos, puesto que, en su formulación actual, le exigen internamente a quien las asuma su propio desarrollo. Ello no le resta fecundidad a las propuestas de Santana, pero tampoco le exime de este compromiso, más filosófico que lingüístico.

Nos parece especialmente importante, en este sentido, que elaborase lo que ahora no parece sino una yuxtaposición entre tópicos y ortogramas. Al partir de una articulación del discurso tan peculiar como es la que se nos muestra en los tópicos, Santana logra, en efecto, aproximarnos a los mecanismos mediante los que el discurso nos procura convictio, i.e., causa sus efectos y evidencia así la condición normativa distintiva de la idea de ortograma. Pero queda pendiente el análisis de esa efectividad, si es privativa de la argumentación o si lo es –acaso en distintos modos- de todo símbolo; si cabe desarrollar la teoría de la argumentación más allá de la lógica de primer orden, modal, etc.; si, a su vez, la narración, en sus distintas formas, se deja reducir sin residuo a este género de análisis...

En realidad, estas cuestiones nos devuelven a una disputa clásica, la de la relación de la Retórica aristotélica con el Organon, y la propia articulación entre las partes que lo componen. Cabría ilustrar así, la dificultad del análisis de la narratología, aunque ello suponga también un elogio de la propuesta de Pedro Santana al ubicarla entre la lingüística y la filosofía. Este sería el conflicto que apreciamos en la misma forma de sus argumentos en este ensayo, y de él no esperamos menos que nuevos textos donde dilucidarlo.

III. Lenguaje e intuición espacial

Y si en el caso anterior dábamos cuenta del regressus filosófico ejercitado por un lingüista, no menos interesante resulta el paso contrario, el de un progressus lingüístico puesto en práctica por un filósofo. A Fernando Pérez Herranz, profesor de lógica en la Universidad de Alicante, le conocen ya los lectores de El Basilisco por dos espléndidos trabajos suyos extraídos de su Tesis doctoral , que sería deseable que conociese pronto una publicación íntegra en papel, pues sin duda es una de las más sobresalientes –y, afortunadamente, no la única- de las elaboradas en el entorno ovetense durante esta última década.

Fernando Pérez Herranz enseña lógica en la Universidad de Alicante y fruto de esta docencia son ya dos manuales , a los que se suma ahora, en apariencia, un tercero. Sólo en apariencia, pues, pese a la disposición de sus contenidos, Lenguaje e intuición espacial no es solamente una introducción a los conceptos elementales de la topología diferencial y a su aplicación al estudio de la semántica, aunque también lo sea. De sus siete capítulos, tres (los dos primeros y el cuarto) están dedicados a dotar al lector de unos rudimentos de topología que le permitan afrontar la lectura de los tres últimos, dedicados íntegramente al estudio de la semántica elaborada por Jean Petitot a partir de la teoría de las singularidades (o catástrofes) de René Thom.

Aunque ciertamente es imposible abreviar en estos seis capítulos una teoría tan compleja como la de Thom-Petitot, el lector podrá servirse con provecho de los ejercicios incluidos por Pérez Herranz al final de cada capítulo para, al menos, apreciar el alcance de las tesis de ambos autores. A la dificultad matemática de la teoría de las catástrofes va muchas veces asociada una notable oscuridad filosófica -propiciada, en parte, por el propio discurso de Thom-, pero la solvencia en ambos campos de Fernando Pérez Herranz hace de Lenguaje e intuición espacial una obra indispensable para poder iniciarse en la revolución topológica que Thom propone para las ciencias lingüísticas y la filosofía del lenguaje (que en español se suma ya, no lo olvidemos, a las pioneras de López García). Y si en Semántica de la ficción el lingüista volvía sobre la filosofía en una perspectiva algebraica, aquí el filósofo ilustrará con numerosos ejemplos literarios (poemas de L.Rosales, V.Aleixandre, etc.) el rendimiento que la semántica topológica puede dar en su análisis. De ahí el interés de conjugar la lectura de ambas obras (y animamos a sus autores a enfrentarlas).

Pero el argumento de la obra no se agota en estos cinco capítulos: si en el caso anterior le objetábamos al lingüista su disimulo filosófico, también se lo reprocharemos ahora al filósofo. Pese a la apariencia positiva de los capítulos topológicos, se oculta entre ellos un tercero (“Uni- y n-dimensional”), donde sumariamente se expone toda una filosofía de la lógica, que tiene su fuente en Gustavo Bueno, y encontramos además –en sus siete últimas páginas- un argumento originalísimo debido al propio Pérez Herranz sobre la condición topológica de la lógica. La tesis que se pretende probar dice así:

“Considerando el teorema de Boole, que desarrolla la fórmula de Taylor bajo la ley del índice x = x2, se demuestra, por tanto, que la lógica pertenece a un despliegue de codimensión cero y que, por consiguiente, no se mueve en ninguna dirección espacial”

Este análisis se apoya en el uso que Boole le dio a la fórmula de Taylor-McLaurin en la sección V de El análisis matemático de la lógica. Éste ha sido ya reiteradamente comentado, en una perspectiva gnoseológica materialista, por Julián Velarde con objeto de ilustrar las diferencias entre el modus operandi de lógica y el de la matemática -atendiendo aquí a las indicaciones de Gustavo Bueno. La novedad que aporta Pérez Herranz radica en la interpretación topológica de este uso booleano, y las consecuencias gnoseológicas sobre la naturaleza geométrica de la lógica que así obtiene. Merece la pena comentarla.

IV. Lógica y topología, según Pérez Herranz

Boole, como muy bien apunta Pérez Herranz, apelaba al teorema de McLaurin con objeto de desarrollar funcionalmente su análisis ecuacional de las proposiciones. La apelación es muy abrupta, pues Boole, ya es sabido, no da otra justificación de la introducción del método de McLaurin que la misma importancia de sus resultados. Los comentaristas, que sepamos, no han ido mucho más allá en este análisis, aunque coinciden en señalar la importancia de la ley del índice en la interpretación de la fórmula de Taylor-McLaurin, para poder obtener de ella como resultados los dos valores del universo booleano. Tal es el eje de las lecturas de Velarde y Pérez Herranz

La interpretación gnoseológica materialista que Julián Velarde nos ha ofrecido del proceder de Boole se apoya en el análisis de los símbolos con los que éste opera: de la ley del índice cabría obtener ecuaciones sin sentido lógico donde se mostraría, según Velarde, que en el sistema de Boole la suma no tendría el carácter aditivo de la aritmética, pese a la apariencia de las expresiones empleadas. Por tanto, sería también una falsa adición la que se nos daría entre los términos de la fórmula de Taylor-McLaurin, planteándose así el desafío filosófico de explicar sus usos -puesto que su efectividad lógica es innegable.

Velarde ha propuesto sencillamente el retirarle su condición matemática (aritmética) al uso booleano de la fórmula: “lo que hay es una ‘trampa’”. La apariencia matemática resultaría de la confusión en la interpretación de los símbolos que compondrían los términos “sumados”, pues la totalización implícita en la operación aritmética suma no es la misma que en la suma lógica que Boole efectúa, pues en este caso el término resultante -la x, pongamos- sería de nuevo el que aparecía en los “sumandos”, pues en estos las diferencias (entre x2 y x3, por ejemplo, presentes en los términos tercero y cuarto) se anularían en virtud de la ley del índice ( pues x3 = x(x2) y como x2= x, x3= x2 = x). De acuerdo con la distinción de Bueno, Velarde entiende que la totalización aritmética sería atributiva, y la lógica, por su parte, sería una totalización distributiva.

Pues bien, en que la ley del índice nos permite reducir, como antes mostramos, toda potencia de x a x2 (y ésta, a su vez, a x), cabría interpretar, según Pérez Herranz, que las funciones electivas, en tanto que desarrolladas con arreglo a esta ley mediante la fórmula de Taylor-McLaurin, definirían conjuntos de dimensión cero si las interpretamos geométricamente en el espacio jet de los polinomios de la forma px2+qx3+rx4, puesto que cabría reducir esta expresión precisamente a x2 si p≠0.

Con esto obtendríamos, según Pérez Herranz, un argumento en favor de la teoría autogórica de la lógica defendida por Bueno. Las operaciones del lógico (las relaciones que obtiene) se explicarían atendiendo a la materialidad de los símbolos con los que opera: el significante tipográfico sería indispensable para la constitución del propio significado de los símbolos, i.e., de las relaciones distintivas de la lógica, puesto que las operaciones que con ellos se efectúan nos remiten internamente a identidades constituidas a la escala tipográfica (a=a). Pero, a su vez, la percepción de esta identidad (de la significación de este símbolo) resulta entonces indisociable de la propia constitución del significante, de modo que a se leerá como una constante y nos será una simple mancha de tinta en el papel. A partir de aquí, sostiene Bueno, cabría interpretar, mediante ulteriores desarrollos, la condición lógica, que no matemática, de la ley del índice.

Pues bien, puesto que en la disposición tipográfica de los símbolos sobre el papel se nos mostraría su significación lógica, Pérez Herranz se propone descubrirnos la topología de esta disposición morfológica representando geométricamente (el despliegue de codimensión cero) lo que estaría contenido en ejercicio en la ley del índice. Así, cabría analizar el esquema causal con arreglo al que se constituyen, como acabamos de ver, el significante y el significado de los símbolos lógicos atendiendo a la configuración geométrica en la cual se desenvuelven nuestras operaciones con ellos. De este modo, la teoría de Thom-Petitot sobre la semántica nos serviría para desarrollar los breves apuntes sobre la significación que subyacen a la concepción materialista de la lógica elaborada por Bueno. Y este capítulo filosófico de Lenguaje e intuición espacial se nos mostraría, al fin, como parte de las tesis sobre topología y semántica expuestas en los otros seis capítulos de la obra.

El apunte contenido en esta siete páginas es el objeto de un ensayo más extenso que actualmente prepara Fernando Pérez Herranz, del que con seguridad cabe esperar lo mejor. Sin embargo, las dificultades no son menores. En primer lugar, porque la interpretación que nos propone se apoya en una identidad que quizá sea aparente: la semejanza entre las expresiones que definen el germen topológico x2 y se encuentran en la ley del índice no debiera ocultarnos que la variable x que aparece en ésta se define sobre A={0,1}. En A cabe definir una topología muy elemental T = {Æ,{0},{1},{0,1}}, tal que (A,T) se convierta en un espacio topológico donde quepa definir nociones como entorno, continuidad, límite o derivada de la función dada. Pero la interpretación geométrica que nos propone Pérez Herranz se desdibuja, pues no cabe obtener en (A,T) las funciones que cabe aproximar mediante x2 en el espacio-jet mencionado.

Por otra parte, ¿cabe interpretar la identidad expresada en la ley del índice como modelo isológico distributivo de cualquier relación lógica o no sería sino un caso general de idempotencia? Haría falta decidir si esta intuición de Boole es algo más que un artificio o si es pieza indispensable para la comprensión de toda lógica., y quizá fuese de interés, en este sentido, que Pérez Herranz intentase probarnos este resultado topológico a partir de otros teoremas lógicos. Pues, en general, no podemos evitar la impresión de que su interpretación geométrica de la unidimensionalidad de las construcciones lógicas se apoya más en el carácter autogórico de estos símbolos, común a lógica y matemáticas, que en las disposiciones operatorios que distinguen ambas (que, por cierto, nos exigen la tridimensionalidad, respecto a la cual la bidimensionalidad del papel o la unidimensionalidad de las fórmulas serían más bien construcciones). En todo caso, de los trabajos de Pérez Herranz, cabe esperar soluciones que anularán, sin duda, todos estos interrogantes.

V. La semántica: entre lingüistas y filósofos

La lectura de estos dos ensayos permite, por último, alguna observación epilogal sobre el carácter oscilante de la semántica: si el lingüista-filósofo Pedro Santana se veía obligado a regresar sobre una teoría general de las operaciones para eludir las dificultades de aproximaciones pretendidamente positivas (pero no demasiado eficientes) como las de la lógica, el filósofo-lingüista Pérez Herranz nos propone interpretar la constitución de ese espacio apotético en el que se despliegan nuestras operaciones a partir de la teoría topológica de Thom y, de este modo, interpretar la teoría del lenguaje expuesta en el Crátilo a partir de la mímesis morfológica. I.e., si Santana iba sobre los ortogramas mismos, Pérez Herranz regresa sobre su contexto determinante. Lo que se aprecia en ambos casos es que, al tratar así la semántica, nos alejamos de la dimensión sintáctica a partir de la cual suelen considerar los lingüistas el análisis del discurso, a la cual nuestros dos autores se aproximan sólo en forma parcial. Con todo, se diría por el contenido de ambos ensayos que esta relación sintaxis/semántica tiene algo de dioscúrica, y en parte ello podría explicar la peculiaridad del género argumental que Santana y Pérez Herranz cultivan, creemos que con enorme acierto.

{Marzo 1999}
Jon Elster, Sobre las pasiones. Emoción, adicción y conducta humana, trad. de J.F. Álvarez y A.Kiczkowski, Barcelona, Paidós, 2001.

Todavía hoy, a Jon Elster se le asocia en España con el marxismo de la elección racional, esa lectura analítica de la obra de Marx que se originó en las sesiones del September Group entre Londres y Oxford a principios de los años ochenta. Como filósofo de las ciencias sociales —una de sus muchas caras—, Elster defendió entonces un enfoque de la explicación intencional basado en mecanismos, canónicamente ilustrado por los modelos de elección desarrollados en la teoría de juegos. Pese a su acuidad formal, no estaba demasiado claro cómo se inscribían tales elecciones en la tantas veces confusa subjetividad del elector empírico. Por su parte, Elster nunca eludió esta dificultad y comienza a explorar una amplía casuística con la que ejemplificar tales mecanismos en sucesivos trabajos, bien conocidos del público español: Ulises atándose al mástil de su nave para escuchar el canto de las sirenas, la zorra que renuncia a las uvas verdes, etc.

No es extraño que su obra desembocase en un amplio estudio sobre las emociones que dio a la imprenta en 1999 con el título Alquimias de la mente, cuyo primer capítulo se dedicaba precisamente a la cuestión de los mecanismos. Allí donde no se dispone de leyes, defiende Elster, la explicación debe basarse en esquemas causales que den cuenta de por qué, en unas circunstancias dadas, algunas ocasiones ocurren unas cosas y otras veces no. Se objetará que este enfoque es más bien casuístico, y ajeno, por tanto, a nuestros ideales científicos, pero probablemente a esa admirador de Montaigne que es Jon Elster esta calificación no le disgustará. Así como éste desgranaba la diversidad del alma humana en sus Ensayos, Elster estudia los sentimientos examinando incontables ejemplos extraídos de los más diversos dominios mundanos (proverbios, novelas, ...) y académicos (neurología, fisiología, psicología...) en busca de mecanismos, ya que no de leyes

Lo que para algunos es, peyorativamente, dispersión intelectual, para Elster probablemente sea fidelidad a la propia condición rapsódica del campo. Así, en 1999 edita también Getting Hooked, un volumen sobre la adicción en el que participan, entre otros, economistas, sociobiólogos, psiquiatras y filósofos. Puesto que no hay leyes que sirvan como criterio de demarcación, no bastará un solo enfoque para agotar un fenómeno como la adicción. La búsqueda de mecanismos será, necesariamente, interdisciplinar.

Sobre las pasiones, basado en las conferencias Jean Nicod dictadas en París en 1997, es una buena introducción a estas pesquisas del último Elster. Se trata de un análisis comparado de las emociones y la adicción, en el que nuestro autor explora las posibles homologías entre los mecanismos que operan en ambos fenómenos —así, los capítulos 2 y 3. Además, se pretende analizar cómo se articulan emociones y adicción con normas, valores, conceptos y creencias culturamente mediados (cap. 4) y también de qué modo afectan a la elección (cap.5).

El programa no pudo ser más ambicioso, y quizá por ello el resultado sea algo decepcionante, si se compara con los otros dos volúmenes que antes citábamos. En su estudio de las emociones, Elster no sólo evita cualquier análisis filosófico —como los ensayados recientemente por David Casacuberta, entre nosotros—, sino que se resiste a cualquier reducción causal, ya sea desde la fisiología, la neurología, la etología, etc. Nuestro autor se queda a un paso del célebre Ignorabimus de aquel fisiólogo positivista enfrentado al misterio de la conciencia que fue Emil Du Bois-Reymond (cf. p. 51) y opta por una descripción fenomenológica de las emociones entre Teofrasto y La Bruyère.

Un tratamiento casuístico requiere una considerable extensión, y las treinta páginas que Elster dedica al tema de cultura, emoción y adicción son claramente insuficientes comparadas, por ejemplo, con el tercer capítulo de las Alquimias de la mente. El capítulo 5, «Elección, emoción y adicción» quizá sea el más compacto, tanto por las gradaciones que se introducen en el propio concepto de elección (según la sensibilidad a la recompensa), como por la actualidad de los asuntos tratados («La elección de convertirse en un adicto», «La adicción y el autocontrol»). Si en estos temas el ensayo filosófico compite en el mercado editorial con los libros de autoayuda, por una parte, y con el género de la farmacología folk que con tanto éxito practican autores como Antonio Escohotado, Sobre las pasiones presenta un enfoque racionalista que bien merecería una atención del público. Además, esta vez, a diferencia de otras, la versión española lo merece. Esperemos que abra paso a nuevas traducciones, igualmente sólidas, de los últimos trabajos de Elster.

{Octubre 2001}
{Isegoría 25 (2001), pp. 314-315}
Luis Vega Reñón, Artes de la razón. Una historia de la demostración en la Edad Media, Madrid, UNED, 1999 + Idem, Si de argumentar se trata, Barcelona, Montesinos, 2003.

«Se ha escrito que la lógica medieval es de manera primordial y medular “teoría de la argumentación”» (Artes de la razón, p. 96). No es tan frecuente, sin embargo, que un mismo autor se ocupe correlativamente de estas dos materias (lógica medieval y teoría de la argumentación) y nos proponga una discusión tan bien informada como escéptica del estado de la cuestión en ambas. Luis Vega es conocido ya por sus muchas contribuciones a la introducción de múltiples autores y temas relacionados con la Historia y la Filosofía de la lógica en nuestro ámbito lingüístico. Estamos por tanto ante una perspectiva de autor, aquí oculta en distintos géneros (la monografía, el manual). Estas líneas sólo pretenden colaborar a explicitarla.

1. ARTES DE LA RAZÓN

Artes de la razón continúa a su modo la empresa iniciada diez años antes en La trama de la demostración , sobre los usos apodícticos de los griegos, pero la articulación argumental es ahora distinta. Puestos a estudiar la demostración en la Grecia clásica, las opciones obvias parecen, desde luego, Aristóteles y los estoicos –por el lado de la lógica–, y Euclides –por el de la matemática. Dejando aparte las dificultades inherentes a la transmisión de sus escritos, es razonable pensar que de ellos se infiere una muestra suficientemente representativa de las prácticas demostrativas griegas entre los siglos IV y V adC. Ahora bien, ¿de qué base textual cabría servirse para abordar el estudio de más de mil años de especulación con análogas garantías?

Para resolver este dilema, Luis Vega se sirve implícitamente del propio ideal demostrativo de los griegos articulando su obra para mostrarnos cómo los medievales lo reconstruyeron. En primer lugar, textualmente, pues Artes de la razón parte de un análisis de la recepción del corpus griego (y en particular, Aristóteles y Euclides) en el Occidente medieval del siglo XII [caps. 1-2], con el que se pone ya de manifiesto que el ideal de la ciencia demostrativa le debe más a un tratado teológico de Boecio (De hebdomadibus) que a los Analíticos segundos. En segundo lugar, contextualmente, intentando explicar de qué modo se gesta un ideal de prueba dialéctica que sirve de facto como alternativa a la demostración, aun cuando de iure esta siga contando como canon del verdadero saber. Así, la segunda parte [caps. 3-5] explora de qué modo la práctica de la argumentación en las Facultades de Teología y Artes determina, a partir del siglo XIII, la constitución de cánones sobre la articulación y cogencia de la prueba. La normalización de las disputationes académicas (asociadas a la obtención de grados académicos y «formalizada» en la teoría de las obligationes) propició así que se concediera más atención a la detección de esquemas inferenciales informales (las consequentiae) o al análisis de sophismata –sobre los cuales se pudiese detectar una contradicción en un debate oral– antes que a la silogística aristotélica [cap. 3]. La devoción medieval por los signos encuentra del mismo modo su continuación en el procedimiento de exégesis textual desarrollado por los maestros en la lectio: siendo la significación algo siempre incierto para el intérprete, la plausibilidad (argumental, probatoria) se vuelve a la vez más accesible y más útil que la certeza (demostrativa) [cap.4]. Así las cosas, Artes de la razón se podría presentar como un ensayo de epistemología social. No obstante, el autor es cuidadoso de advertirnos que su análisis no va más allá de establecer una correlación entre prácticas sociales y usos argumentales, antes que una determinación causal de los segundos por los primeros: la selección de textos y autores evidencia cierto grado de asociación, pero no se excluyen otras (p. 84).

Una vez explorada la práctica de la argumentación, la tercera parte del libro [caps. 6-8] estudia de qué modo la concebían los autores medievales cuando enfrentaban las cuestiones de las que los griegos (aquí Aristóteles y los estoicos) daban cuenta mediante la demostración. A saber, el conocimiento y la explicación. Nuevamente, se parte de un análisis de la recepción de los distintos saberes demostrativos griegos [cap. 6] ampliando las paradojas avanzadas en la parte primera [cap.2]: así, la reconstrucción como ciencias demostrativas de la teología (Nicolás de Amiens) o la propia lógica (en el De consequentiis de Buridán). Se trata de explorar, por tanto, la dimensión sistemática del ideal de conocimiento por demostración, mostrando cómo debió ser sutilmente acomodada a unas exigencias intelectuales (y unas prácticas argumentales) muy distintas de las enfrentadas por Aristóteles en los Analíticos segundos, tal como se ilustra con un breve examen de las propuestas epistemológicas del Aquinate y Ockham [cap.7] y de la dimensión causal tradicionalmente asociada al conocimiento demostrativo [cap. 8].La paradoja (pragmática) de un Santo Tomás defendiendo la excelencia del saber demostrativo per modum quaestionis quizá sirva para ilustrar la singularidad de la empresa.

Que la conclusión no merezca un capítulo separado y se nos presente como un epígrafe más del octavo y último ilustra probablemente el deseo de evitarla: se opta por enumerar un buen número de cuestiones abiertas al pensar en el desarrollo de los temas tratado al pasar a la Edad moderna. Y quizá ello nos revele algo sobre la propia intención de la obra, pues aun cuando la erudición, el manejo de las fuentes, las cautelas filológicas etc. son más bien propias de una monografía, Artes de la razón se nos presenta más bien como un ensayo sobre la suerte del ideal demostrativo en unos siglos que desafían la claridad de la exposición aristotélica o la práctica euclidea. Y probablemente también la imposibilidad de agotar el tema como ocurría en La trama.... En efecto, la organización de un material tan desbordante en poco más de 300 páginas requiere la adopción de un punto de vista que no puede ser, desde luego, demasiado cercano al de los propios autores medievales y que muchos objetarán como anacrónico . Su justificación es más bien filosófica y quizá el mayor reparo que se pueda poner a este libro es que no se explicita. De ahí la conveniencia de acudir en su busca a la segunda de las obras que aquí reseñamos.

2. SI DE ARGUMENTAR SE TRATA

Publicado en la «Biblioteca de divulgación temática» de Montesinos, Si de argumentar se trata está concebido como una breve presentación de la teoría de la argumentación –no es tampoco la primera incursión del autor en el ámbito de la didáctica . Luis Vega adopta un aquí punto de vista clásico, distinguiendo la perspectiva lógica, dialéctica y retórica sobre el ámbito de la argumentación y aplicando sistemáticamente cada una de ellas al estudio de los buenos argumentos [cap. 2] y los malos argumentos [cap.3]. Una introducción panorámica [cap.1] y una breve conclusión [cap.4] cierran las 300 páginas (en formato bolsillo) de las que consta la obra. Abundan los ejemplos y los esquemas, y se añade una útil bibliografía comentada junto con un bien construido índice analítico. Si de argumentar se trata constituye, por tanto, una introducción accesible a algunas de las cuestiones más vivas en el arte del razonamiento informal, aunque probablemente –y por paradójico que resulte– lo que mejor ilustra sean sus dificultades.

Si en Artes de la razón la concepción griega de la demostración servía como canon para enjuiciar su desarrollo medieval, se diría que el punto de vista lógico desempeña un papel análogo al evaluar los nexos ilativos en la argumentación (pp. 91-112). Obviamente, Luis Vega reconoce algo más que relaciones de consecuencia en los buenos argumentos, que deben ser, además, epistémicamente cogentes. Ahora bien, la dificultad que se plantea aquí es cómo caracterizar esta cogencia epistémica, sobre todo cuando la argumentación se vuelve informal y el nexo entre premisas y conclusión queda indeterminado. Así, para caracterizar entonces la plausibilidad argumental, Luis Vega apela al decálogo de buenas prácticas argumentales de van Eemeren y Grootendorst, como si de su observancia se siguiesen regularmente argumentos plausibles. No obstante, si nos detenemos en el contenido del decálogo, advertiremos que más bien nos indica cómo evitar malos argumentos (en general, falacias, ampliamente discutidas en el capítulo 3). Desde este punto de vista, los obstáculos que encuentra la teoría de la argumentación se derivarían de la ausencia de un punto de vista general (formal) sobre nexos ilativos entre premisas y conclusiones (más allá de la consecuencia lógica) y del exceso de problemas epistemológicos que aparecen al intentar dar cuenta materialmente de su cogencia.

Por tanto, cabe leer también Si de argumentar se trata como un ensayo sobre estas dificultades, lo cual probablemente ocasione algunas complicaciones a quien se sirva de él como introducción, sin noticia previa de algunos debates clásicos en filosofía de la lógica. Quizá para remediarlo, y a modo de introducción a estos, le convenga leer en primer lugar la conclusión, un breve ensayo en el que se discute la condición normativa de la lógica como canon argumental en una perspectiva que le debe mucho al inferencialismo semántico de Brandom.

Los dilemas que plantea la reconstrucción de las disputas del siglo XII reaparecen al analizar las del siglo XXI: probablemente la dificultad material de organizar un material milenario (el de los escolásticos sobre la argumentación) no sea sólo cuantitativa, sino también conceptual, y siga aun hoy irresuelta. ¿Es posible encontrar una teoría sobre la argumentación que articule de modo convincente las dimensiones lógica, dialéctica y retórica de un modo convincente? Luis Vega nos presenta dos ensayos escépticos y muy bien informados que le serán útiles a quien quiera darles su «uso natural» (como monografía, en el primer caso; como manual, en el segundo), pero que indudablemente aprovecharán también a cuantos busquen temas para la reflexión sobre la lógica, más allá del propio cálculo (y de buena parte de las disputas asociadas a él durante el XX)

{Enero 2004}
{Theoria 19 (2004), pp. 235-237}
Luis Arenas, Identidad y subjetividad. Materiales para una historia de la filosofía moderna, Madrid, Biblioteca Nueva, 2002, 494 pp.

En la era digital, algoritmos matemáticos ejecutándose sobre circuitos de silicio nos crean múltiples identidades ad hoc cada vez que accedemos a una red. Puestos a pensar esa multiplicidad del yo, quizá sorprenda descubrir que también su identidad pudo pensarse, hace ya cuatrocientos años, sobre el álgebra y el análisis. Y de múltiples modos, como veremos. Tal es la tesis de Identidad y subjetividad, el ensayo que Luis Arenas —profesor hoy en la Universidad Europea de Madrid— concibió como Tesis doctoral y que al publicarse adquiere su auténtica dimensión. Quien agradezca una aproximación ensayística a la Historia de la filosofía, sin duda apreciaría diez años atrás La era del individuo, un estudio en el que Alain Renaut exploraba el conflicto moderno entre las ideas de individuo y sujeto. Con este mismo espíritu, Arenas recorre algunas de las múltiples vías por las que se piensa la identidad del sujeto en los siglos XVII, que a efectos de esta reseña cabría sintetizar apelando a la oposición contemporánea entre las perspectivas de primera y tercera persona. En efecto, nuestros estados mentales los conocemos en primera persona, ¿y quién no usará el pronombre yo al referirse a ellos? Pero dejaremos de usarlo cuando queramos referirnos a otros objetos o sujetos, para los que emplearemos cualquier pronombre de tercera persona. Para autores como Davidson, la imposibilidad de unificar estas dos perspectivas constituiría hoy el problema del conocimiento.

Leeremos aquí Identidad y subjetividad, por tanto, como un ensayo sobre los obstáculos que encuentra la constitución de esa perspectiva de primera persona, al plantearse la cuestión de la identidad del yo cuatro autores distintivamente modernos (Descartes, Leibniz, Spinoza y Kant). El primero de los obstáculos se encontraba en la superación de un viejo esquema de identidad, la idea de sustancia, que desde Aristóteles venía sirviendo para pensar cómo cualquier entidad individual podía seguir siendo idéntica a sí misma pese a experimentar cambios. Correlativamente, si el avance de las ciencias se sostenía sobre igualdades matemáticas descubiertas en el mundo, ¿no podrían servir también para pensar la propia identidad personal? Y aquí el segundo obstáculo: ¿no quedaría ésta de algún modo disuelta en la universalidad de la verdad matemática? Estos son algunos de los interrogantes que Arenas recorre en cuatro ensayos: dos más amplios dedicados a Descartes y Leibniz y dos más breves, a modo de contraste de los anteriores, sobre Spinoza y Kant. Detengámonos brevemente en aquellos.

La constitución de la perspectiva de primera persona en la obra cartesiana se nos presenta de un modo doblemente paradójico en los cinco primeros capítulos de Identidad y subjetividad. En primer lugar, las dificultades se originan en las deudas cartesianas con la tradición escolástica, para la cual la identidad del sujeto tendría que concebirse externamente (en tercera persona) como una sustancia individual (pp. 157-159). Pero al subvertir esta tradición reduciendo a tres el número de sustancias reales (Dios, extensión y pensamiento), Descartes se ve ante el dilema de explicar en qué sentido el sujeto puede ser sustancia y, por tanto, un auténtico individuo, cuando cualquier apariencia corpórea deja de servir como criterio de individuación (pp.106-116). En efecto, Descartes no podía renunciar a la concepción sustancial del sujeto, pues era imprescindible para poder atribuirle un alma (pp. 159-169). El alma serviría, además, como principio de individuación formal del individuo, según el magisterio tomista (p. 166), pero no es ésta la concepción que hoy tenemos por distintivamente cartesiana. La individualidad sustancial del sujeto cartesiano se cimentará así en el descubrimiento de que su esencia no consiste «sino en pensar», con independencia de cualquier cosa excepto Dios (pp. 154-158). Por más que el estatuto ontológico de esta entidad pensante sea difícil de justificar de acuerdo con el orden establecido en los Principios de filosofía (pp.118-121), el argumento del genio maligno no dejaría otra alternativa que concebir la subjetividad en primera persona, a partir de la experiencia individual de incorregibilidad y transparencia de los propios estados mentales (p. 127). La sustancia se nos mostraría así escindida entre la certeza (el cogito) y la salvación (el alma).

No obstante, Luis Arenas opta por un enfoque decididamente epistemológico en la discusión de la subjetividad cartesiana, concentrándose en sus aspectos más modernos (o menos medievales) y, en particular, en su relación con la matemática. A ello se dedican tres de los cinco capítulos dedicados a Descartes, con una conclusión de nuevo conflictiva para la recién descubierta perspectiva de primera persona. La identidad aparece ahora ya no como sustancia, sino como objeto de intuición matemática y el contenido de tales intuiciones constituiría los estados mentales más característicos de nuestra subjetividad. Nuestro autor recoge y desarrolla aquí una sugerencia de Vidal Peña a propósito de la ausencia de contradicción como nota distintiva de la conciencia cartesiana (p. 95). Conoceríamos el mundo matemáticamente, estableciendo igualdades aritméticas y geométricas (pp. 60-68), y esta mathesis universalis cimentaría de tal modo nuestra racionalidad que Arenas concluirá: «[L]a hipótesis de un Genio marfuz sólo es requerida ante la obstinada certeza que nos impone la matemática» (p. 7). Lo propio de la subjetividad cartesiana sería así el carácter universal de las identidades intuidas y, paradójicamente, no sería éste su aspecto más moderno, pues sólo desde el cogito se podrá establecer que es en la inmanencia de los propios estados mentales antes que en el objeto de la intuición (p. 150). Y quizá sea esta la carencia más notable que este estudio descubre en Descartes: ¿qué hace que esa sustancia pensante en primera persona sea idéntica a sí misma? O dicho en términos más contemporáneos: ¿cuál es la referencia del yo?

Identidad e individualidad —pero no tanto subjetividad, como vamos a ver— son los temas centrales en los siete capítulos dedicados a Leibniz en la segunda parte de este ensayo. La identidad nos sirve, en primer lugar, para pensar una de las ideas centrales en su metafísica, como es la de armonía, entendida como una ampliación de la igualdad geométrica (cap. 7). I.e., una proporción «compensada» entre entidades diversas, que, en el límite, serviría como ley ordenadora de la omnitudo rerum (p. 239). Concediendo el máximo grado de realidad al individuo (p. 240), la diversidad era efectivamente inevitable, y de ahí que para Leibniz resultase obligado explicar cómo esa individualidad diversa es subsumida conceptualmente, cómo conocemos el mundo. Los capítulos 8 y 9 discuten las ideas de Leibniz sobre la constitución de nuestros conceptos en sus aspectos lógicos y epistemológicos, y en ellos se nos presenta la verdad como identidad entre sujeto y predicado en una proposición. Esto se aplicaría, desde luego, a las verdades de razón, pero también a las proposiciones contingentes (pp. 303-307), pues, según Arenas, en éstas la identidad se establecería no por articulación conceptual de ambos términos, sino por síntesis entre los objetos mismos, tal como exige el principio de razón suficiente. Su composibilidad, según el decreto divino, sería armónica y equivaldría, por tanto, a una identidad.

El Leibniz más escolástico aparece en los tres capítulos siguientes dedicados al problema de la individuación, donde se nos presenta la evolución de sus ideas desde sus escritos de juventud (su Disputatio metaphysica [1663] y la Confessio philosophi [1673]) a los Nuevos Ensayos. Como Descartes, también Leibniz se adhiere a una tesis tomista, en este caso la individuación por la forma sustancial (cap. 12), aun cuando adaptada a su propia concepción de la individualidad —particularmente como principio interno de actividad y transformación en el dominio de la vida (p.367). En cambio, de estos siete capítulos sólo uno se dedica a la cuestión de la identidad personal y en él se confirma la tesis ya avanzada por Alain Renaut: Leibniz piensa mas en individuos que en sujetos (p. 466). Pese a valorar el sentimiento del yo como autoridad que acompaña a la primera persona, la perspectiva leibniciana sobre la conciencia es más bien la de la tercera persona, atribuyéndole razón y voluntad como producto de su conatus individual, esto es, de un impulso causal anterior a ellas. La diferencia ontológica con Descartes a este respecto no puede ser más acusada: si para éste la apercepción de los propios estados mentales se imponía sobre la indistinción de su concepto de sustancia, para Leibniz la identidad reconocida en la continuidad de la memoria (y manifiesta externamente en el carácter) sería un efecto de su principio de individuación sustancial. De él se deriva esa principio de actividad del que resultan voluntad y razón. Para Leibniz, la conciencia no es, desde luego, el único medio de constituir la identidad personal (p. 376).

Como el lector ya intuirá, Identidad y subjetividad es una obra sumamente informativa sobre cuestiones de innegable interés, aun a cuatro siglos de distancia. Los materiales que el subtítulo promete al historiador de la filosofía moderna son abundantes y de calidad, y el amante del ensayo tendrá en estos cuatro (uno por autor) una recopilación sugerente. No obstante, quienes se encuentren en esta última condición probablemente le reprocharán a su autor que les olvide en el momento de las conclusiones. En efecto, la obra se cierra con una recapitulación en las que se clasifican pulcramente las posiciones de los autores estudiados respecto a las cuestiones anteriormente estudiadas. Nadie dejará de agradecerla, pero quizá deje más contento al especialista que ordena sus ideas que a ese amante del ensayo que a estas alturas se estará preguntando qué es exactamente qué hay de moderno en unos autores obsesionados por la teología y las matemáticas. Dicho de otro modo, nadie negará la importancia de los conflictos analizados por Arenas, pero ¿cómo ubicar estos materiales en nuestra concepción de la Modernidad?

Es inevitable preguntarse, en efecto, si tan importante es el papel de la matemática en la constitución de la subjetividad moderna como para que su sola consideración baste para superar las disputas teológicas en las que nuestros autores se ven incesantemente envueltos: ¿es la secularización un simple efecto de la ciencia moderna? Cabría responder positivamente, desde luego, apoyándose en muy distintos autores (Husserl sería un ejemplo inmediato), pero eso supondría un compromiso con una concepción particular de la Modernidad que tendría que argumentarse —más allá de esa inversión onto-epistémica invocada sucintamente al comienzo (pp.26-29). En suma, Luis Arenas tiene el mérito indiscutible de mostrarnos que la subjetividad es una idea equívoca a la que no sólo se accede en primera persona. Contrae también una deuda con sus lectores: explicar cómo esa subjetividad se vuelve moderna. Le sobra talento para el ensayo filosófico como para no dejar de saldarla.

{Con Marta García Alonso, junio 2003}
{Teorema 24.3 (2005), pp.178-81}