Mostrando entradas con la etiqueta filosofía de la ciencia. Mostrar todas las entradas
Mostrando entradas con la etiqueta filosofía de la ciencia. Mostrar todas las entradas

4/3/14

A. Briggle & C. Mitcham, Ethics and Science: an Introduction, Cambridge, Cambridge University Press, 2012

I don’t know if this qualifies as a conflict of interests, but I must admit I volunteered to review this book because I am teaching a course on ethics and science and there are not many comprehensive textbooks available. A strength of Briggle and Mitcham’s volume that immediately caught my eye is that it brings together an updated introduction to ethics, philosophy and the political sociology of science.  Chapters 2-7 cover ethical concepts and theories, research ethics (codes, investigation with humans and animals), norms in science and recent naturalist approaches to ethics. Chapters 9-10 deal with the main issues in science policy. Chapter 11 discusses the broader connections between science and culture and the 12th and final chapter analyzes ethics and engineering.

The structure of the chapters is clear: they all open with a quick case presentation, followed by several sections and a final summary, plus a closing case study with questions and readings for further reflection. There is a general list of references at the end, together with a complete subject index and addresses for ethics codes and declarations. All in all, Briggle and Mitcham’s volume has everything one would in principle expect from a textbook. However, I am not quite sure about how to make the best of it in class. 

The authors do not take anything from granted, so their presentations are as introductory and accessible as possible. This should make it particularly accessible to science and engineering students, their most likely target. In order to make it even easier to read, the authors often adopt an informal narrative tone, in which the case is presented as it unfolded historically, highlighting landmarks, often in a casual manner. Briggle and Mitcham rarely take an opinionated stance: we find the standard account on most topics. But it is sometimes simplified to a point that I was left wondering what use we can make of it in order to assess real world dilemmas. For instance, on page 45, we learn how virtue ethics is relevant for science. First, through an analogy between virtue ethics and virtue epistemology. Then, virtue ethics would also highlight “the importance of training processes and mentor–mentee relationships”, so often neglected in Big Science. Finally, virtue ethics can be used to object against “the wisdom of pursuing certain physical or cognitive enhancements”.

But, in fact, there is no other mention in the book of virtue epistemology and I guess most uninitiated readers won’t make much sense of its relevance for science in just one paragraph. I was left wondering why training processes are more defensible (or interesting) from virtue ethics than from any other approach, or why would virtue ethicists would be more opposed to cognitive enhancement than, for instance, a deontologist. I am not saying that such tenets cannot be defended, but rather that we do not find full-fledged arguments for any of them. 

This is just an instance of a problem I found throughout the book: the reader gets acquainted with plenty of interesting topics, but we rarely find a detailed discussion of any of them. This might just be the expression of my own preferences, but I think that the ultimate goal of a course on ethics and science would be to make the student capable of arguing his/her case as thoroughly as possible. For Briggle and Mitcham, I would say that the goal is rather to increase the student’s awareness about every contentious point in the intersection of ethics and science (and these are many). It is interesting to notice that chapters do not have exercises targeting directly their core points, but rather sets of questions on the closing case studies. The questions are often very open (e.g., “to what extent was this morally justified?”) and no template is provided to answer them. 

I guess that my concern might be shared both by the analytic philosopher and the STS scholar: if the former would care about the arguments not being fully developed, the latter would surely miss the many details that articulate the best case studies in STS. The many vignettes illustrating each chapter are certainly engaging, but I think it would have been instructive to present more thoroughly some cases, showing in detail how we can address them from various perspectives. 

Despite this concern, I think that the material provided in this book is so rich and updated that it may be worth trying it in class, at least as a starting point. Given how quickly this field evolves, I guess it is better to make the most of a textbook now that it is fresh and test it as thoroughly as we can, in order to see if anyone comes up with a different alternative. It is probably not easy.

{May 2013}

26/12/12

Philip Dawid, William Twining, and Mimi Vasilaki, eds., Evidence, Inference and Enquiry

Philip Dawid, William Twining, and Mimi Vasilaki, eds., Evidence, Inference and Enquiry, Oxford-N.York, OUP/British Academy, 2011, 504 pages, ISBN 978-0-19-726484-3

This edited volume compiles seventeen papers developed in the framework of the Evidence programme, an interdisciplinary venture funded by the Leverhulme Trust and the ESRC between 2004 and 2007. Two of the editors, the statistician Philip Dawid and the jurist William Twining, led this project at University College London, in parallel to another research project directed by Mary Morgan at the London School of Economics (“How Well Do Facts Travel?”: the proceedings have also been edited in 2011 by Cambridge University Press). During those three years both UCL and LSE hosted many evidence-related events, bringing together scholars from many different fields, in what may have been –as Dawid suggest in his introduction (pp. 5-6)– the greatest achievement of the project. A survey paper by Jason Davies provides a good summary of those meetings. As to the accomplishment of the over-arching goal stated in the programme title (“Towards an Integrated Science of Evidence”), both Dawid and Twining are understandably modest, but they certainly had an intellectual agenda aiming at a unified treatment of all sorts of evidence. They found their inspiration (p.4) in the interdisciplinary theory of evidence developed by David Schum, an information scientist from George Mason University. One major flaw of this collection, in my view, is that it does not provide a précis of Schum’s approach, despite the explicit acknowledgement of its limited impact across disciplines (p. 93)

We just get a presentation of Schum’s bi-dimensional classification of evidence, since apparently it was the topic that most controversies elicited in the project. For Schum (p. 19), the three main properties of evidence are relevance, credibility and inferential force. For Schum information becomes evidence only when it bears upon a hypothesis (relevance), either directly or indirectly. As to credibility, it should be ascertained depending on the type of evidence we are dealing with (the main division being between tangible and testimonial). According to Schum, relevance and credibility would be the two main dimensions for classifying all kinds of evidence, since the inferential force –however we measure it– depends on a previous assessment of the former. Hence, whatever the hypothesis under consideration we can judge whether it is, for instance, testimonial and directly relevant for it. The classification would be purely formal (or “substance-blind” as Schum puts it). Many of the participants in the project considered controversial the possibility of one such general classification of evidence (framed in a scientific fashion), or so we gather from references in various papers in the collection, but, sadly, nobody takes issue directly against it.

Another contribution of Schum and Twining to the project is the recovery of the theory of evidence of John Henry Wigmore (1863-1943), an American legal scholar who defended the use of informal logic in law –the analysis of evidence in this tradition is brilliantly summarized in Twining’s paper. Wigmore represented legal arguments in form of networks, making explicit how evidence contributed to their cogency. In their respective papers, Terence J. Anderson and Peter Tillers, both legal scholars, use also Wigmore charts in order to analyze the role of generalizations in evidential arguments –the former in a case-based fashion and the latter in a more speculative manner. Schum and Dawid (together with A. Hepler) present a systematic comparison between Wigmore’s networks and Bayesian nets, applying both to analyze the evidential grounds of the conviction of Sacco and Vanzetti. I would have expected here some sort of attempt at integrating both approaches, but the authors just make explicit the differences, mentioning in a final footnote the possibility of combining both in a more formal manner. The contentious point might have been the resistance to quantification implicit in, at least part of, the Wigmorean tradition (p.86). Flexible formal approaches such as the evidential logic presented in John Fox’s paper might have provided a middle way, but Fox engaged neither Schum nor Wigmore and, unfortunately, his own paper was scarcely cross-referenced in the volume.

As I see it, David Lagnado pushes the farthest what seems to me the core intuition in the UCL project: evidence features in uncertain reasoning through piecemeal networks, exemplified at best in legal reasoning. In “Thinking about Evidence”, Lagnado, a psychologist, presents and defends the following theses. Bayesian networks can successfully model distinctive aspects of legal reasoning. They capture as well the qualitative networks underlying our cognitive processes (even if we cannot handle properly the probabilities in uncertain knowledge). In particular, they allow us to understand how we deal with fragments of such networks in evidential reasoning and how we adjust them to changes. Lagnado examines alternative approaches and presents two experiments on legal reasoning illustrating the viability of his own claims. 

The problem with this volume is that, interesting as some of them are, the remaining eight papers are a collection of independent contributions without explicit ties with any of the above mentioned topics. The narrative counterpoint within the programme is here represented by J. Russell and T. Greenhalgh, whose case study in discourse analysis shows how evidence is quantitatively framed in a health policy unit –without any explicit exchange with their fellow researchers. Drawing on a recent historiographical controversy, J. Davies ponders the pros and cons of analyzing historical evidence about ancient religions in terms of either ritual or belief. Again in a quantitative note and on legal topics, Tony Gardner-Medwin presents a short but very interesting plea for an explicit incorporation of our levels of uncertainty into our judgments (from students’ answers in exams to legal evidence in trials).

We also find here three papers by philosophers of science. N. Cartwright presents another installment of her theory of evidence for evidence-based policy (co-authored here with J. Stegenga), providing a very accessible presentation of her project. H. Chang and G. Fisher present their case for a contextual appraisal of evidence through an analysis of the ravens paradox. A. Wylie defuses the generalized skepticism about archeological evidence defended by several theorists in the field, applying ideas from Glymour and Hacking to show how different evidential sources in archaeology support each other in a non-circular manner.

From perhaps a too parochial perspective, I would complain about the quality of the two remaining papers in the collection. David Colquhoun, a biostatistician, contributes a paper “in praise of randomization” aimed, by all appearances, mainly against John Worrall. It turns out to be just a nice collection of illustrations of the virtues of this allocation procedure without an explicit engagement with the arguments of Worrall or any other objection against it (e.g., in Bayesian approaches such Howson and Urbach’s). In “What Would a Scientific Economics Look Like?”, the epidemiologist Michael Joffe shows his skepticism about the scientific status of mainstream economic theory through a comparison with biology. An enterprise perfectly legitimate as such, but with a very odd collection of references as intellectual ground: the methodologists he engages with (e.g., Friedman) are not anymore representative of the theoretical approaches Joffe is targetting. 

This collection shows that there is much more in the discussion of evidence, particularly in legal theory, than philosophers of science usually take into account – though, in point of fact, Larry Laudan, among others, took notice of it a while ago. The crucial point is to what extent the forms of argument in Law (in particular, trials) are comparable to the argumentative patterns in other fields, in particular science. As Twining reminds us though (p. 92), contested trials are just a step within the legal process and most of the cases discussed in this compilation are too narrowly focused on it. As a paradigm for an “integrated science of evidence”, I am afraid that this volume will leave many readers unimpressed. And this is partly due to the format chosen for this collection. As the editors warn, the three years of this project were not enough to form a coherent view of its goals among its members, as it shows in the final collection of papers. And I do not see the point today of publishing them all in a single volume as if there was some added value in binding them all together. A special issue in a mainstream journal plus a set of independent publications in specialized outlets, properly cross-referenced and all linked in the project’s webpage, might have been enough for most interested readers. 

{July  2012}
{British Journal for Philosophy of Science 64.3 (2013), 665-668}

18/1/11

Jean-Claude Passeron, Le raisonnement sociologique. Un espace non-poppérien de l’argumentation, París, Albin Michel, 2006.

En el prefacio a la segunda edición francesa, Jean-Claude Passeron nos advierte de los múltiples malentendidos que lastraron el debate en torno a Le raisonnement sociologique (LRS ). Creo que la densidad conceptual de la obra explica, si no justifica, muchos de ellos, al menos en mi caso. Pese a las aclaraciones añadidas a esta nueva edición, me temo que sólo puedo contribuir a este debate aportando nuevos malentendidos que le den al autor la oportunidad de elucidarlos. La novedad de estos malentendidos, si es que hay alguna, radica en la diferencia de perspectivas entre Passeron y el autor de estas líneas, muy probablemente generacional. Yo comenzaba mis estudios universitarios cuando se publicaba la primera edición de LRS y leo ahora la segunda después de tan solo una década dedicado a la filosofía de las ciencias sociales. De ahí mi sorpresa no ya ante las tesis metodológicas de LRS, sino ante la justificación que Passeron nos propone.

Una de sus tesis principales, según la (mal)interpreto, es que las ciencias sociales tienen que servirse necesariamente de argumentos informales, pues es imposible aislar de modo unívoco y dar una definición general todas las variables pertinentes para analizar matemáticamente una situación eminentemente singular. Como justificación, Passeron apela a la inviabilidad del ideal científico defendido originalmente por el Círculo de Viena, de un lado, y por Popper, de otro. Como es sabido, este ideal se basaba en una concepción formal de las teorías que se demostró indefendible, por razones que Passeron desarrolla con amplitud en un epílogo que recapitula su propia posición en LRS. Y de ahí mi sorpresa, y quizá el primer malentendido: ¿quién sostenía en 1991 las tesis que Passeron critica?

Me temo que se trata de una querella de sociólogos, más que un debate estrictamente filosófico. A la altura de 1960, autores como Carl Hempel o Ernst Nagel sabían ya de las dificultades de justificar la superioridad del conocimiento científico (frente a la metafísica) a partir de la estructura de sus teorías y ensayaron una nueva vía que es, aparentemente, la que aquí quiere seguir Passeron: analizar en qué condiciones resultan aceptables los distintos tipos de explicación científica, concebidos como otras tantas formas de argumentación. Es decir, pasos inferenciales, no siempre deductivos desde un conjunto de premisas a una conclusión. Durante los últimos 40 años, la filosofía de las ciencias sociales se sirvió ampliamente de esta estrategia generando un cuerpo de debates sobre la potencia argumental de las explicaciones que nos vienen ofreciendo economistas, sociólogos, antropólogos, etc. Y esto es lo que un lector de mi generación/educación habría esperado encontrar en LRS: no tanto la crítica del proyecto positivista original, como una tipología de los argumentos que, según Passeron, caracterizarían el razonamiento sociológico, junto con una discusión de su fortaleza .

Pero se diría que a Passeron le interesa más bien mostrar, a través de sus críticas al formalismo logicista del positivismo, el carácter necesariamente incompleto del formalismo matematizante en ciencias sociales. Y la fuerza de su propio argumento se apoya en las dificultades semánticas de semejantes proyectos: e.g., la imposibilidad de construir un “vocabulario observacional” en el que volcar sin ambigüedad los datos que arroje la investigación empírica, de modo que su acumulación sirva como base para contrastar teorías sociológicas o construir generalizaciones legiformes. Este sería mi segundo malentendido: ¿tienen alguna vigencia estos argumentos o se reeditan, como indica el autor (p. 22), simplemente para documentar la Historia de los debates metodológicos en Francia? En una época en la que la explotación sistemática de bases de datos y los experimentos sobre decisiones individuales son ya objeto de conversación popular gracias a éxitos de venta como Freakonomics o Predictably irrational, ¿cabe sostener todavía las posiciones de LRS tal como se formularon en 1991? Los más críticos con semejantes empresas son justamente los teóricos más formalistas en las ciencias sociales (los economistas), pues ponen de manifiesto cómo con un aparato teórico mínimo es posible extraer conclusiones interesantes a partir de datos estadísticos ajenos a la propia teoría. Por usar el famoso ejemplo de Levitt, los patrones de respuesta observados en los miles de cuestionarios realizados en las escuelas de Chicago permiten conjeturar qué profesores hacen trampa y rectifican los exámenes de sus alumnos para evitar ser penalizados por sus bajos resultados. ¿Por qué no habríamos de aceptar el contenido de esta base de datos como un vocabulario observacional de uso común en ciencias sociales?

La respuesta no está, creo, en el Círculo de Viena o en sus más inmediatos epígonos, sino en la tradición hoy más viva en filosofía de la ciencia, cuyos orígenes se remontan nuevamente a la década de 1960. Fue entonces cuando autores como Patrick Suppes se preguntaron si las dificultades que plantea el problema de la carga teórica de la observación (extensamente discutido en LRS) no se atenuarían si se recurre al álgebra, antes que a la lógica, para analizar las teorías científicas. Con ello se abandonaría, por un lado, la perspectiva lingüística que dominó la tradición positivista y, por otro, se podría tratar con mayor fidelidad la práctica científica en la que predomina el uso de modelos. Suppes llamó la atención sobre la existencia de modelos centrados exclusivamente en el procesamiento de datos empíricos (e.g., estadísticos) y, por tanto, independientes de las teorías que se aplican sobre ellos. Es decir, no absolutamente independientes respecto de cualquier teoría, pero sí respecto del aparato conceptual que se ha de aplicar sobre tales modelos de datos. Su intuición fue ampliamente desarrollada tanto en la escuela de Stanford (Cartwright, Hacking, etc.) como, formalmente, por el enfoque estructuralista (Sneed, Moulines, etc.). Así, en el caso de las bases de datos utilizadas por Levitt no pueden presumirse sesgos de la teoría económica en su generación (aunque haya otros) y en esa medida es interesante su análisis económico, por minimalista que sea el aparato teórico del autor.

Una de las principales virtudes de estos modelos de datos es la de exhibir regularidades fenomenológicas que aparecen en los datos obtenidos a partir de experimentos y otros estudios empíricos. Puede que no contemos todavía con teorías generales para dar cuenta de tales regularidades y su alcance es, desde luego, contextual. Pero su sola existencia permite el tipo de debates metodológicos que LRS parece declarar impracticables :
La vulnerabilidad y, por tanto, la pertinencia empíricas de los enunciados sociológicos sólo pueden ser definidas en una situación de extracción de información sobre el mundo que es la de la observación histórica, nunca la de la experimentación (LRS, p. 554, traducción de J. L. Moreno Pestaña).

Una réplica inmediata a mi objeción es que me este tipo de regularidades quizá existan en otros dominios de las ciencias sociales, pero no en sociología. Como antes apuntaba, Passeron defiende la historicidad del análisis sociológico de un modo tal que parece no haber lugar para aislar regularidades en los datos agregados o las decisiones individuales. Creo que esta posición se deriva, en buena parte, de una actitud anti-naturalista muy arraigada en sociología (e.g., p. 81), para la cual la universalidad que podemos encontrar en ciertos patrones de decisión de un agente no sería objeto propio de la disciplina. Pero la oleada naturalista sobre las ciencias sociales provocada por el desarrollo de la etología y la neurología durante las dos últimas décadas está poniendo de manifiesto que dentro de la Historia hay espacio para explicaciones que parten directamente de nuestra constitución biológica. Por ejemplo, nuestra miopía para estimar en qué medida se renuevan los recursos ecológicos de los que dependen nuestras sociedades, documentada sistemáticamente a lo largo de los siglos en los casos reunidos por Jared Diamond en Colapso . Los efectos sociales de este déficit cognitivo han sido ampliamente discutidos por los historiadores, pero sólo cuando incorporamos una perspectiva evolucionista sobre nuestra psicología podemos entender con precisión el mecanismo generador de esta miopía ―en lugar de atribuírselo a nuestra irracionalidad, rapacidad, etc. Cuál sea su alcance de este tipo de análisis para la Historia está todavía en discusión, pero su impacto parece suficiente como para reconsiderar si la historicidad debe cifrarse tan sólo en la ausencia de repeticiones espontáneas o en la imposibilidad de aislar las variables relevantes en un laboratorio .

No sé si acierto en mi lectura de LRS, pero no estoy en desacuerdo con las tesis de Passeron: las ciencias sociales se han de servir necesariamente de argumentos informales, cuyo alcance depende, generalmente, del contexto y su aplicación empírica está condicionada por la dificultad de controlar los factores causales que controlan los acontecimientos analizados. El problema es que, así enunciadas, no se me ocurren hoy muchos partidarios de las tesis contrarias. Y, por otro lado, los argumentos de los que se sirve para justificarlas me resultan menos convincentes que las alternativas que vengo enumerando. Los argumentos importan, pues señalan el auténtico alcance del desacuerdo: si actualizamos las referencias de Passeron para incluir el enfoque semántico en filosofía de la ciencia y limamos su anti-naturalismo, tendríamos un espacio argumental “anti-popperiano” en el que cabe una sociología que se apoyase en regularidades empíricas construidas a partir de análisis estadísticos y experimentos para construir explicaciones apelando, entre otros, a mecanismos biológicos propios de toda la especie. No es precisamente la que Passeron practica y defiende en LRS, ni tampoco pretendo yo ahora defender tal alternativa sociológica. Simplemente creo que sus argumentos no son lo suficientemente poderosos para excluir semejante alternativa y, me temo, que si uno concede más peso al debate metodológico actual que a Windelband y el Círculo de Viena no queda más remedio que tomarla en consideración. Otra cosa es que a los sociólogos les interese, pero eso no me corresponde a mí juzgarlo.

[Debate en la RES a propósito de la versión castellana de J. Moreno Pestaña, de próxima aparición en Siglo XXI con F. Aguiar y F. Vázquez y respuesta del propio Passeron]

Nancy J. Nersessian, Creating Scientific Concepts, Cambridge, MA: MIT Press, 2008.

For more than two decades now Nancy Nersessian has been working at the intersection of philosophy of science and the cognitive sciences, investigating how scientists actually think at work. Creating Scientific Concepts provides a general introduction to her approach, covering, on the one hand, historical research on the ways of thinking of 19th century physicists (namely, James Clerk Maxwell) and, on the other hand, an analysis of the cognitive foundations of scientific modelling. Nersessian’s essay is more than introduction though. Her goal is to explain conceptual innovation in science. More precisely, to articulate an analytic framework to account for the “specific modelling practices that historical records implicate in problem solving leading to conceptual innovation, specifically, analogical modelling, visual modelling and thought-experimenting” (p. 13). Let me spell this out.

Nersessian adopts an empiricist view of concepts, drawing mainly on the work of Lawrence Barsalou (Chapter 4). According to this latter, concepts would be perceptual symbols, neural correlates of sensorimotor experience (p. 124). These symbols constitute analogical representations and the sensioriomotor processes in which they originate are re-enacted whenever we use them to think. In our concepts about physical systems, the analogy captures the constraints we discern in the phenomena (e.g., causal structures). These constraints are then preserved in our mental simulations, even if we change other properties and relations of our physical concepts in order to solve whatever problem we are dealing with. The possession of a concept implies thus the skill “for constructing a potentially infinite number of simulations” according to our needs and goals (p. 126). Nersessian also argues for a coupling between external and internal representations: mental simulation often needs real-world resources “outside” our heads. However, she acknowledges that the nature of the cognitive mechanisms at the interface of this coupling is still to be articulated. Images ―diagrams, for instance― provide representational tools to extend our mental simulations.

Nersessian analyzes the role of analogies, images and thought-experimental narratives in our modelling practices (chapter 5). She departs from the standard assumption that these are separate resources, treating them as a continuum of tools for model based reasoning. Instead of direct inferences (mappings from sources to target domains), Nersessian studies how analogies, images and narratives contribute to the creation of intermediary models, with their own sets of constraints, that can be gradually elaborated in a series of representations that finally reaches real world phenomena. The assessment of these intermediary models according to the way they preserve and extend the relevant structural constraints (drawing here on Dedre Gentner’s ideas) provides the epistemic warrant for model based reasoning. Satisfactory models should exemplify features relevant to the epistemic goals of the problem solver (p. 157).

All these claims are illustrated with two case studies of scientific problem solving. In chapter 2 Nersessian revisits her analyses of the historical record of models constructed by James Clerk Maxwell leading to the field equations for electromagnetic phenomena. In chapter 3, she studies an experiment conducted by John Clement in which an expert is asked to solve a physics problem recording every step on his way to the solution. Both cases show at different scales how the cycles of construction, simulation, evaluation and adaptation of models with the aforementioned resources finally yield an original solution. Those interested in bringing together history and philosophy of science will surely appreciate Nersessian’s naturalist approach. Her cognitive appraisal of Maxwell’s models allows her to interpret as positive steps on his way to success what were previously considered misguided attempts at getting there. The analogy between Maxwell’s written records and Clement’s in vivo experiment is equally refreshing. Not every philosopher will enjoy this book though. Nersessian’s approach takes sides and her combination of concept empiricism plus embodied cognition is not precisely mainstream. She is honest enough to admit the limitations of her approach: the view she presents is far from consensual at most points and certainly needs further elaboration. However, the research program she presents is articulated enough to deserve serious consideration. I am not particularly happy though with the purported output of this book: the account Nersessian presents of scientific creativity appears as rather a poor corollary of the previous analysis: if we are able to construct “a potentially infinite number of simulations” many of them will be innovative, but how do we distinguish those of scientific value?

The answer depends of course on the goals and needs of the scientific community. But even if Nersessian wants her account to be social, little is said about how the community chooses the relevant innovations. We are left with the impression that the choice of constraints is always epistemic, but our goals and needs often impose non-epistemic constraints (David Bloor famously argued that scientific concepts are closed according to these latter) and we may legitimately wonder how do they contribute to the success of a model. Part of the plausibility of Nersessian’s analysis depends indeed on her choice of purely epistemic success stories as illustrations. But her argument made me think instead of an already old controversy on failed analogies between physics and economics sparked by Philip Mirowski’s book More Heat than Light in 1989. The equations never proved to be as empirically successful in the target domain (the analysis of the supply and demand) as they had originally been in physics. And yet they were acknowledged as an innovative analogy, perhaps because they observed several constraints considered relevant by some schools of thought in economics. Perhaps for Nersessian the explanation of innovative success and error is symmetrical (in Bloor’s sense), but I would have expected a more explicit discussion of this problem in this book. I can only recommend it nonetheless.



26/4/09

Luis Enrique Alonso, La mirada cualitativa en sociología, Fundamentos, Madrid, 1998, 268 pp.

Aún no son muchas las aportaciones españolas a las técnicas de investigación sociológicas, y no es de extrañar, por tanto, que en nuestro país todavía sea raro, aunque no inexistente, el debate sobre tales métodos. Cabe decir, entonces, que La mirada cualitativa en sociología es un libro excepcional, pues su objeto no es otro que la discusión de las técnicas desarrolladas por la escuela madrileña de los Jesús Ibáñez, Ángel de Lucas, Alfonso Ortí, etc., a la que el propio Alonso es afín. Ahora bien, como el propio autor nos advierte, no es este un libro de metodología, i.e., no contiene una reexposición de las técnicas analizadas, ni tampoco una casuística acerca de sus usos más convenientes.

Luis Enrique Alonso es, sin duda, un sociólogo en ejercicio, pero en este ensayo quiere situarse más allá de la práctica sociológica, en “el ámbito de la mirada”, sinónimo -se nos dice- de aproximación o enfoque, tal y como éstos se interpretan en las distintas ciencias sociales. Sin embargo, al examinar el contenido de La mirada..., recordaremos que también mirar está en la raíz griega de theorein, y se diría, en efecto, que lo que aquí se nos ofrece es un ensayo sobre la teoría que corresponde a las técnicas cualitativas, radicalmente distinta, en muchos aspectos, a la elaborada por el propio Ibáñez.

Tres de seis capítulos que componen La mirada... se dedican, así, a la interpretación de algunos emblemas de la sociología cualitativa madrileña: el grupo de discusión (cap.3), la entrevista (cap.2) y los estudios sobre el consumo (cap.5). La teoría aplicada en éstos se desarrolla en los tres capítulos restantes, los más ambiciosos y originales de la obra, sin olvidar una introducción y un epílogo no menos interesantes. Para Luis Enrique Alonso, el objeto de la sociología cualitativa sería el análisis del discurso, puesto que a través de la acción comunicativa se obraría la construcción social de la realidad. Ante la diversidad de acepciones de discurso, Alonso nos propone una concepción hermenéutica (con Ricoeur y otros muchos autores) mediante la cual cupiese reformular, por una parte, la dicotomía cuantitativo/cualitativo (cap.1), distinguiendo así los distintos dominios de la sociología, y dotar de una interpretación social a la propia acción comunicativa, por otra, evitando a un tiempo el relativismo pansemiologista y el determinismo estructuralista (cap.4).

En efecto, nuestro autor pretende interpretar las técnicas cualitativas como núcleo de una pragmática en la que se articulen constricciones sociales y lingüísticas, de modo que ni aquéllas se resuelvan en las ilimitadas opciones exegéticas que nos ofrece el Texto, ni éstas se agoten en una expresión más del Poder. Alonso nos propone operar a una escala intermedia, la del sujeto, a partir de la reconstrucción siempre contextual de su práctica discursiva, pues en ella se manifestaría tanto el sentido intrínseco de su acción (conjugando aquí su acepción intencional (finalidad) y semántica (representación)), como sus determinaciones extrínsecas, propiamente sociales.

Pero ¿cómo dar cuenta de esta articulación? Quizá sea éste el nudo argumental de la obra, al menos para el lector, pues, por una parte, la apelación de L.E.Alonso a las condiciones materiales que explicarían en cada caso el desarrollo de la acción comunicativa no puede ser más explícita (cap.6). Pero también lo es su aspiración de edificar una macropragmática “referida a los espacios y conflictos sociales que producen y son producidos por los discursos”, y no a cada acto comunicativo en particular. Buena parte de la obra se desarrolla a esta escala macroscópica, considerando las abundantes alternativas teóricas que se nos ofrecen hoy para construir tal suma sociológica. De ello dan cuenta sus más de veinte páginas de bibliografía, y no podemos dejar de anotar, por cierto, uno de los mayores defectos de la edición: la ausencia de índices de autores y temas, que a menudo dificulta la consulta de una obra tan enjundiosa.

La solución ensayada por Alonso es dúplice: en principio, adopta una posición constructivista en lo que se refiere a los mecanismos cognitivos de formación de conceptos (cap.1), intentando recorrer a través de la hermenéutica la vía abierta por Durkheim (i.e., la organización social del cosmos, y su expresión simbólica: metáforas, etc.). No obstante, superada ya la genealogía, aparece la dificultad de explicar la acción comunicativa, una vez constituido y en marcha el campo discursivo. No es una dificultad menor si consideramos que las técnicas cualitativas como el grupo de discusión se refieren antes al análisis de la estructura de los discursos que a su génesis, y se diría, por ello, que acaso sea éste el motivo central de la obra.

Aparentemente, Alonso intenta superar este paso, soldando los modelos comunicativos centrados en la negociación (pongamos Bourdieu) con aquellos otros basados en el consenso (sea Habermas): aquélla cargaría con el peso de las constricciones sociales en las que se inscribe la acción, y éste con la capacidad para superarlas; i.e., una vía media entre pansemiologistas y estructuralistas, y aún entre las mismas posiciones de los citados Bourdieu y Habermas. Mas ¿es posible este equilibrio?

Es aquí donde aparece el tópico cualitativo de la reflexividad, o bien, la presentación de la sociología como “epistemología de lo cotidiano”. Pues por más que se apele a las condiciones materiales en las que se inscribe, en cada caso, la acción, lo cierto es que el canon hermenéutico no sería solamente una guía para su análisis sociológico: proveería también un ideal comunicativo, valores éticos que orientarían el desarrollo de la acción, y que al sociólogo le cabría promover con su intervención, más allá de las constricciones partidistas que su análisis descubriese (cf. el prólogo y especialmente el epílogo a este respecto). Así, el sociólogo no sólo afirmaría la libertad del sujeto para decir el curso de sus actos, sino que contribuiría él mismo a ejercitarla.

La inversión operada por Alonso en lo que a la concepción de la sociología cualitativa se refiere es muy notable, si volvemos a la comparación con Ibáñez: si en éste aparecía como una “física social de segundo orden”, con un sesgo manifiestamente estructuralista y postmoderno, Alonso opta, en cambio, por la hermenéutica y la modernidad: Habermas se impone a Deleuze. Lo que para muchos ganará en inteligibilidad el discurso, para otros lo perderá quizá en radicalidad política. A los sociólogos comprometidos en su desarrollo les corresponde, sin duda, decidirlo.

Pero puede que no sean muchos los que se sientan aludidos por los argumentos de Alonso, que acaso perciban como excesivamente filosóficos. Recordarán quizá aquella anécdota transmitida por Diógenes Laercio (Vidas..., VIII.8), según la cual la vida se parecería a unos juegos: unos acuden para competir; otros por el comercio, pero los mejores, asistirán como espectadores (theoroi), y éstos serían los filósofos. En España, se puede ya competir académicamente con las técnicas cualitativas y, por supuesto, se puede obtener de ellas un notable rendimiento comercial, pero ¿a quién interesará la mirada de un espectador?

Contra tales dudas, buena parte de los argumentos que se ofrecen en La mirada... clamarán por una interpretación sociológica de algunas tesis característicamente filosóficas, aunque sirven más, creemos, para ilustrar las dificultades de la empresa, que para llevarla a buen puerto. Pues una vez rendidas las armas sociológicas a la hermenéutica, ¿cómo explicar que “el discurso no se explica por el discurso mismo” (pág.78)? Después de asumir la crítica sociológica al idealismo lingüístico, ¿por qué detenerse ante la comunidad ideal de habla (pág.232)?

En realidad, los dilemas enfrentados en La mirada... son muy antiguos, y quién sabe si irresolubles: algunos presocráticos, como Demócrito, defendieron que el ojo era una superficie reflectante en la que se proyectaban pasivamente las imágenes de los cuerpos; a éstos se oponían otros que, como los pitagóricos y también algunas veces el propio Alonso (e.g., pág.17), afirmaron que el ojo, agua y fuego, veía por sí mismo emitiendo rayos que alumbraban los objetos. Otras veces (e.g., pág.242), Alonso nos recordará más a Empédocles, quien sostuvo, al parecer, la actividad de ambos elementos, ojo y objeto, en el acto de la visión. ¿Habrá quizá una cuarta alternativa? ¿Será el constructivismo sociológico capaz de proporcionárnosla?

{Septiembre 1999}
{Revista Española de Investigaciones Sociológicas 91 (2000), pp.196-199}

15/4/09

Peter Achinstein, ed., Scientific Evidence. Philosophical Theories and Applications, Johns Hopkins University Press, 2005

This volume compiles thirteen papers presented in a conference on scientific evidence held at Johns Hopkins in 2003. Seven are authored by former graduate students of the editor (many of whom are now renowned philosophers) and eight take issue with one or another aspect of his theory of evidence, so the compilation will certainly be of interest for those who are attracted by Peter Achinstein's approach. But it may be equally attractive in various degrees for those who are more generally curious about evidence.

The volume is divided in two parts, of which the first is devoted to philosophical theories of evidence and the second to present six related case studies in different scientific domains. The former are namely those of Achinstein, Mayo, Norton and Whewell, though different quotas are assigned to them. Whewell's concept of consilience is examined and partly vindicated by Laura Snyder, who supports a kind of version of scientific realism, if we interpret it as an inferential pattern that appears in the theoretical unification of various natural kinds. Norton presents his own material theory of induction in a brief but very informative comparison to other standard alternatives. Mayo exposes her severe test approach to evidence and defends it from the criticism received from Achinstein. He summarises, in turn, the view exposed in his The Book of Evidence (2001), refuting four contrary theses. Finally, still in the first part of the book, another three papers discuss various aspects of Achinstein's theory: S. Gimbel defends and illustrates the viability of a threshold concept of evidence within this framework; F. Kronz and A. McLaughin call for its expansion to incorporate some guidelines for the process of evidence-acquisition, drawing on Peirce's proto-economics of science; and S. Roush argues for the positive relevance condition that Achinstein criticized in the name of his own explanatory based view of evidence.

The quality of the discussion is good enough as to deserve attention from those who are generally interested in the topic. However, they may enjoy most the cases discussed in the second part of the book, since they all are worth reading on their own. H. Longino and L. Principe argue for a contextual view of evidence that challenges Achinstein's concept of veridical evidence. Principe shows how the concept of alchemical transmutation came to be rejected sometime around 1700 without the addition of new evidence against it, but as a result of somehow unrelated factors. Longino surveys what is taken to be evidence regarding our behavior according to different theoretical approaches that coexist today at many university departments, claiming that pure evidential considerations will not contribute much to bring them together. A. Rosenberg, to the contrary, ponders quite optimistically the particular contribution that genomic evidence might make to account for human cooperation (though without explicit implications for or against Achinstein's view). In a thorough and subtle analysis, R. Richards reconstructs the epistemic situation (an Achinsteinian concept once more) in which Darwin and Wallace trace the analogy between natural and artificial selection, showing what evidential support could the latter provide to the former. Drawing on another concept by Achinstein, K. Staley proposes a fine analysis of the potential evidence that could have supported the discovery of the top quark in 1994, comparing it with an error statistical account in the spirit of Mayo. Finally, G. Hatfield discusses current epistemological views of introspective evidence that he contrasts with those of some early pioneers in experimental psychology.

The inevitable question for many readers will be to wonder how well Achinstein´s theory of evidence fares in view of all of these arguments. The yardstick might well be the often quoted challenge thrown by Achinstein's dean: Does it really account for the way evidence is actually used in science? There is no doubt that the proposed distinctions are useful to discern and ponder the various roles played by evidence in scientific argumentation, yet we may question what its proper scope is. The empiricist in search of a foundational justification for scientific beliefs will be certainly pleased with Achinstein's theory: if properly expanded, as suggested by Gimbel, Kronz and McLaughin, it will provide a realistic model for rational decision making in science either in the pursuit of new evidence or for the assessment of what we actually have. Yet, as usual, the contributions of Principe, Longino and even Richards cast some doubts about the convenience of such epistemological framework to account for the consensus that scientists eventually achieve. These matters of principle would have deserved a more explicit discussion. On the other hand, even if the second part is titled "Applications", we will certainly miss concrete analyses of how the combination probabilities cum explanatory nexus rationalize current or past scientific consensus. At least for this reader, the discussion suggests that Mayo's approach is more effective in dealing with tests effectively performed today in many disciplines and less committed to a foundationalist stance. Other readers, however, will surely draw different conclusions: the book is rich enough in arguments as to allow this to happen.

Jesús P. Zamora Bonilla, Mentiras a medias. Unas investigaciones sobre el programa de la verosimilitud. Madrid: UAM Ediciones, 1996, 239 pp.

Jesús Zamora Bonilla, profesor de la Universidad Carlos III (Madrid), es un autor bien conocido para el lector de Theoria por sus publicaciones en filosofìa general de las ciencias y en filosofía de la economía. Sólo su distribuidora es culpable de que muchos lectores ignoren aún el primer libro de Zamora, Mentiras a medias, un amplio estudio de la idea de verosimilitud que incluye, además, una propuesta original del autor en la que se encuentra el núcleo del que es ahora su proyecto filosófico. El trabajo en epistemología general de las ciencias que aquí presentamos se articula, en efecto, con sus aportaciones a la economía de la ciencia (e.g., Theoria 14: 36 (1999)) y a la propia reconstrucción racional de la metodología económica (e.g., Journal of Economic Methodology 6: 3 (1999)). No está de más, por tanto, el volver sobre los fundamentos de este proyecto, pues, como es sabido, no son pocas las dificultades que ofrece el concepto de verosimilitud.

Las dos primeras partes de Mentiras a medias contienen una exposición de la concepción original de Popper y su recepción (caps.I y II), así como de sus principales desarrollos. Así, en el tercer capítulo aparecen enumeradas las distintas fórmulas lógicas propuestas para definir la verosimilitud entre 1970 y 1990 y sus dificultades, con la excepción de la de Niiniluoto, de la que trata el capítulo IV (“El enfoque sintáctico de la similaridad”). El capítulo quinto nos presenta, por último, la aproximación semántica a la verosimilitud iniciada por Hilpinen, Miller y Kuipers, éste ya en clave estructuralista. El análisis que Zamora nos ofrece es, obviamente, formal, aunque amable con el lector, y amplía considerablemente otras introducciones disponibles en nuestro idioma, de lo que sin duda podrán aprovecharse tanto el estudiante como el lector curioso. A esto se añade además la ayuda inestimable que ofrece su índice analítico.

Pero hay más, desde luego. Como apuntábamos antes, la tercera parte de la obra contiene una aportación original de Jesús Zamora al debate sobre la verosimilitud, que se suma, entre otras, a las de filósofos españoles como M.A.Quintanilla, J.Sanmartín, y A.Rivadulla, entre otros -comentadas, por cierto, en la obra. Así, en el capítulo VI Zamora enfrenta las dificultades más generales que encuentra el concepto de verosimilitud, exponiendo sus propias opciones. Con Lakatos, Zamora nos recuerda que la verosimilitud adquire su auténtico sentido filósofico (el que ya tenía en Popper) si nos permite reconstruir racionalmente ciertos aspectos de la actividad de los científicos, como el mismo progreso de las ciencias. Puesto que el rigor lógico de las definiciones expuestas en la segunda parte de la obra dificulta esa posible reconstrucción, Zamora opta por una reformulación netamente probabilística de la verosimilitud (cap.VII), ponderando la semejanza de una teoría con la evidencia empírica disponible (la probabilidad de que la verdad de ambos conjuntos de enunciados coincidad) con el rigor de esta Evidencia (el inverso de su probabilidad).

Por otra parte, respecto a los problemas epistemológicos que plantea la verosimilitud (su relación con la verdad, la incomensurabilidad interteórica, etc.), Zamora nos propone adscribir siempre el concepto a una comunidad científica en particular, al modo de Moulines, puesto que la semejanza (núcleo de su definición) siempre supondría la perspectiva de un observador. La verosimilitud se referiría, por tanto, al grado (subjetivo) en que una comunidad científica estima que una teoría se aproxima a la verdad. Si el concepto de verosimilitud propuesto permite reconstruir, y aun predecir, estas estimaciones, se tendrá por correcto, señala Zamora.

En este sentido, Mentiras a medias tendría un carácter preambular: en él se nos ofrece ya una muestra del rendimiento teórico del concepto propuesto, pues con él se pueden derivar un buen número de propiedades epistemológicamente interesantes, pero el propio autor nos indica que su efectividad deberá mostrarse analizando casos concretos (pág.221). Zamora dedicamente el capítulo octavo y último del libro a discutir el alcance filosófico de su aportación, donde se nos presenta, diríamos, como una actualización del racionalismo crítico frente al sociologismo.

Obviamente, sólo cabrá evaluar estas pretensiones a la luz de su propio desarrollo empírico. Sin embargo, concluida la lectura, aparecen algunos interrogantes en apariencia difíciles de contestar desde sus páginas. Pues si con el concepto de verosimilitud propuesto se evitan dificultades formales, nada se nos dice de sus posibles inconvenientes probabilísticos. Si se reconoce, por ejemplo, que “algo anda mal en la teoría popperiana de la probabilidad” (p.179 n.), ante las paradojas que da lugar la interpretación de proposiciones veritativas en dominios de instanciación infinitos, no se explica, en cambio, qué técnicas (¿bayesianas?) nos permitirán estimar el concepto de semejanza.

Puesto que se nos presenta como alternativa al sociologismo, no debemos olvidar, además, que la clásica obra de Bloor Conocimiento e imaginario social parte, entre otras, de las dificultades de la epistemología probabilista de Mary Hesse (véase la página 241 de la edición española sobre el finitismo) con la interpretación popperiana de la probabilidad. Y recordemos también que contamos ya con estudios externalistas que “amenazan” la misma integridad epistemológica de las probabilidades (v.gr. el Cognition as Intuitive Statistics (1987) de Gerd Gigerenzer y D.J.Murray), o al menos, nos previenen contra cualquier interpretación ingenua de su dimensión cognoscitiva: ¿por qué, en efecto, tendríamos que asimilar racionalmente la adquisición de conocimientos a un proceso probabilístico (definir las mentiras por las medias), sin pedir el principio, i.e., que la racionalidad consistiera en la propia definición matemática del cálculo de probabilidades?

En realidad, Jesus Zamora no ignora estas dificultades y otras muchas, pues, como decíamos antes, el suyo es un proyecto filosófico en marcha y aplica la teoría de la verosimilitud al análisis filosófico de la economía en constante debate con economistas (que a menudo también son filósofos, como señaladamente Juan Carlos García-Bermejo y Juan Urrutia). Del desarrollo de sus trabajos cabe esperar no sólo respuestas, sino también nuevas y fecundas preguntas.

{Febrero 2000}
{Theoria 39 (2000), 245-247}
Sergio F. Martínez, Geografía de las prácticas científicas. Racionalidad, heurística y normatividad, México, UNAM, 2003.

Geografía de las prácticas científicas se articula sobre dos debates contemporáneos. Por una parte, el que enfrenta a epistemólogos y filósofos de la ciencia sobre cómo enfrentar la justificación de nuestros conocimientos (principalmente, científicos). Por otro lado, el que opone a estos frente a sociólogos e historiadores de la ciencia a propósito de la eficacia social de tal justificación. Sergio Martínez nos propone como eje para situar su propia contribución el concepto de norma, que pretende naturalizar a partir de su inserción en prácticas científicas buscando una vía media entre todos estos bandos. Veamos someramente cuál es el curso de su argumento.

En el cap. 1, Martínez sitúa su proyecto en el contexto de las distintas propuestas hoy disponibles para articular una epistemología social. Con Miriam Solomon, defiende una epistemología normativa no individualista, pero en vez de buscar sus fuentes en la elección de teorías, Martínez sostiene que brota de las prácticas científicas cuyo carácter social es irreductible a los procesos cognitivos individuales. En primer lugar, las prácticas contienen elementos no proposicionales, un saber cómo socialmente distribuido cuya explicitación es necesariamente grupal. De ahí la importancia del testimonio como generador, y no sólo transmisor, de conocimiento: las normas tácitamente asociadas a la presentación de información propician nuestras inferencias mediante heurísticas. Su éxito de hecho justifica el proceso inferencial, antes que cualquier formalización simbólica.

El tema se desarrolla en el cap. 2, para establecer la tesis de que las diferentes normas generadoras de éxitos constituirán diferentes tradiciones científicas, entre las cuales no cabrá elegir como los clásicos pretendían. No se trata de elegir entre teorías sobre la base, por ejemplo, de cuál proporciona mejores predicciones pues estas no constituyen una mera relación inferencial entre enunciados. Necesitan, a menudo, un sistema tecnológico que, para el autor, incluye a la propia teoría o modelo del que se obtienen. Su individualidad, nos dice, no es otra que la que les confiere “ser parte de poblaciones de métodos o modelos genealógicamente relacionados” (p. 77)
¿Cómo interpretar, pues, estas normas? En el cap. 3 Martínez nos propone una apropiación epistemológica del concepto de heurística, a partir de su presencia en distintas disciplinas científicas. En ellas podríamos apreciar como nuestra actividad cognoscitiva pivota sobre la resolución exitosa de problemas particulares, antes que sobre la ejecución de algoritmos generales. La tesis ontológica que acompaña a este principio es que la “estructura (causal y normativa) del ambiente” es parte de la propia heurística, y clave de su éxito, de modo que no cabría su generalización algorítmica. De ahí la afirmación de la independencia de las tradiciones científicas (cap. 4), pues la diversidad del mundo y de nuestros propios mecanismos cognitivos justifica la existencia de múltiples heurísticas, tal como puede constatarse en la evolución de la propia ciencia. De ahí la metáfora de la geografía (del propio mundo a través de las prácticas) que da título al libro.

El cap. 5 intenta mostrar cómo puede aplicarse la idea de técnica al análisis de las distintas tradiciones científicas a partir de sus fundamentos experimentales. La metáfora biológica de la selección le proporciona al autor el modelo para explicar su evolución. Por último, en el cap. 6 presenta una objeción contra la teoría de la elección racional como principio para el análisis de la acción científica, pues, por una parte, sus exigencias cognitivas resultarían empíricamente exageradas y, por otro lado, presupone que las consecuencias están bien definidas antes de tomar cualquier decisión, cuando –en opinión del autor– su construcción es parte de esta. En su lugar, Martínez se apoya en el concepto de razones externas, tal como lo propuso B. Williams, procedimientos de decisión adquiridos educativamente y, por tanto, controlados en buena parte desde el exterior de nuestra conciencia.

Estamos, por tanto, ante un ensayo programático en el que se expone una agenda intelectual, desarrollada, en buena parte, en trabajos anteriores cuya unidad queda ahora de manifiesto y agradece, por ello, una discusión general. A mi juicio, el mayor mérito de este ensayo radica justamente en articular de un modo sistemático consideraciones hoy a menudo dispersas en el debate sobre la ciencia. El lector se apercibirá sin duda de cómo Martínez remite aquí y allá a tesis que podemos asociar sin dificultad, e.g., con autores como Giere o Hacking; pero es en su conexión donde radica la originalidad de su argumento. La dimensión social del neoexperimentalismo o la concepción semántica apenas está explotada, y en este ensayo se abre una vía para ello con el concepto generalizado de heurística. Su fecundidad queda manifiesta en la interpretación de una amplia casuística científica, característica de la argumentación actual en filosofía de la ciencia.

Pero probablemente a sociólogos y epistemólogos su concepto de heurística les resulte insuficiente, por equívoco, como principio de análisis de la normatividad científica. Para aquellos resultará probablemente exagerado esperar de un concepto tan genérico una determinación efectiva de la práctica científica: sin duda, deja espacio suficiente para que los intereses particulares de una comunidad desempeñen un papel no menos importante que las constricciones causales en la consecución del éxito y el consenso científico. Y de ahí también sus defectos para el epistemólogo: si el testimonio es la vía por la que Martínez socializa el conocimiento científico, ¿qué hay en sus normas de transmisión que pueda evitar que el pluralismo degenere en relativismo?

Esta insatisfacción probablemente se deriva de la “escala” del análisis: la casuística científica que se nos presenta aparecerá para el sociólogo recortada para dejar fuera la dimensión propiamente social (los intereses); del mismo modo el epistemólogo echará en falta más análisis conceptual que dote de generalidad a un análisis tan particularista. De ahí la naturaleza programática de este ensayo: su cogencia crecerá en la misma medida en que sea capaz de integrar en su argumento un mayor número de debates. Pero advirtamos que esta exigencia se deriva de la propia perspectiva que el autor nos propone, pues su amplitud de miras nos obliga a plantearnos toda la complejidad que enfrenta hoy cualquier análisis de la ciencia. El acierto de elegir este enfoque nos obliga a esperar lo mejor de su desarrollo. El diálogo con otros autores de nuestro medio (F. Broncano, J. Ferreirós, J. Vega, J. Zamora, etc.), en tanto aspectos cercanos a su propuesta, probablemente le dé buena ocasión para ello.

{Julio 2006}
{Isegoría 34 (2006), pp. 294-296}
Francesco Guala, The Methodology of Experimental Economics, N. York, Cambridge University Press, 2005.

Una de las objeciones más escuchadas contra la microeconomía es la de que cuando vamos de compras no nos comportamos como maximizadores racionales de utilidad. En otras palabras, uno de los supuestos centrales en el análisis económico es empíricamente erróneo. Para defender, pese a ello, su valor epistemológico se propusieron distintas réplicas contra esta objeción, apelando a posiciones más o menos instrumentalistas: la teoría no describe de modo adecuado la toma de decisiones del agente individual, pero sus predicciones son acertadas. Hubo quien sostuvo esto de los individuos (v.gr., Friedman respecto a la maximización de la utilidad esperada), pero los economistas se alinearon mayoritariamente con Marshall: incluso si los individuos se confunden, sus “errores” se cancelan al agregarse, y en conjunto tienden a comportarse como establece la teoría de la demanda.

No obstante, el escepticismo respecto al análisis económico del comportamiento individual era, en general, intuitivo, tanto entre objetores como entre sus propios defensores. Hasta después de la Segunda Guerra Mundial el control experimental de la conducta económica no comenzó a desarrollarse sistemáticamente y su conversión en una subdisciplina académicamente respetable se obtuvo sólo con la concesión del Nóbel de la especialidad a Kahneman y Smith en 2002. Es imposible subestimar, por tanto, la importancia metodológica de la economía experimental, pues viene a ordenar definitivamente algunas de nuestras intuiciones centrales sobre el valor empírico de la teoría económica. O eso creíamos, pues a menudo los partidarios y detractores de esta coinciden en señalar la miseria metodológica de la economía experimental: es imposible reproducir en un experimento las condiciones en las que los agentes toman realmente sus decisiones y, por tanto, sus resultados no sirven para convalidar nuestras intuiciones a favor o en contra de nuestros modelos teóricos.

En The Methodology of Experimental Economics, Francesco Guala examina y defiende el estatuto metodológico la economía experimental de un modo que quiere resultar asequible a economistas y filósofos. Para aquellos, buena parte de sus 11 capítulos constituyen una introducción «situada» a muchos debates actuales sobre metodología científica. Estos se verán sorprendidos sobre su rendimiento al aplicarse a un caso tan singular como es el de la experimentación en ciencias sociales. Así, junto a un buen número de cuestiones clásicas (evidencia, explicación nomológico-deductiva, causalidad, ...), Guala introduce también algunas tesis propias del neoexperimentalismo, como la distinción entre datos y fenómenos, la pluralidad de la ciencia o las mediaciones entre teoría y experiencia. Aunque no se propone un desarrollo completo de cada una de ellas, la claridad de la presentación y el interés de los ejemplos con que se ilustran lo convierte en un texto muy adecuado para su uso en cursos de metodología económica.

La estrategia argumental de Guala en su vindicación de la economía experimental es dúplice. Por una parte, intenta establecer cuál es el alcance del conocimiento que nos proporcionan los experimentos. Su tesis aquí es que nuestro control causal de la conducta económica es efectivo (a partir de los datos aparecen regularidades fenoménicas estables), pero restringido por unas condiciones experimentales concretas. De ahí que debamos constreñir nuestras inferencias sobre los resultados experimentales conforme a tales condiciones, explicitando el conocimiento de fondo subyacente (background knowledge) mediante sucesivas inducciones eliminativas donde se establezca objetivamente su valor empírico. Guala establece su tesis contra un buen número de alternativas filosóficas. Desde luego, el falsacionismo (durante años predominante en la metodología económica) y, en general, contra las posiciones exageradamente deductivistas (inevitablemente abocadas a los dilemas de Duhem-Quine), pero también contra la interpretación bayesiana del conocimiento de fondo (y se diría que también del propio diseño experimental). De este modo, Guala se opone a quienes apelando a posiciones de principio cuestionan el valor de los experimentos económicos por su carácter excesivamente particular: no cabe alternativa mejor, y el metodólogo debe dar cuenta de ello.

La segunda parte del argumento de Guala (y también de su libro) se concentra en el dilema de la validez externa de los experimentos económicos: ¿pueden sus conclusiones extrapolarse a los auténticos mercados? Nuestro autor despliega aquí su tesis sobre los experimentos como mediadores entre la teoría y el mundo. Nuestras inferencias serían antes analógicas desde experimento al mundo que directas (de la teoría a su aplicación): sólo en la medida en que el experimento reproduzca satisfactoriamente aquellas circunstancias reales por las que nos interesamos (a veces tan sólo por motivos prácticos, como en las subastas de telecomunicaciones) podremos considerar justificadas nuestras analogías, y no sólo por su congruencia con nuestro modelo teórico. De nuevo, se trata de un razonamiento de lo particular (nuestras circunstancias experimentales) a lo particular (el caso analizado). De ahí su condición de mediadores: no son sin más el objeto de análisis al que se aplica la teoría, sino que lo representan de un modo no exclusivamente teórico, que tiene un interés en sí mismo. Frente al particularismo radical (radical localism) defendido por Bruno Latour, Guala afirma así un particularismo «intermedio»: intentar imponer normas metodológicas universales es tan nocivo como negar absolutamente su existencia.

Nadie podrá negar el interés y la solvencia de semejante argumento y, en esa medida, la economía experimental quedará metodológicamente vindicada contra sus críticos. No obstante, cabe preguntarse también qué perspectivas nos abre esta posición sobre el conjunto de la metodología económica. Por ejemplo, queda abierta la cuestión de qué inferencias podemos establecer de los experimentos ya no al mundo, sino a la teoría. Uno de los casos más ampliamente discutidos por Guala en la primera parte de su libro es el de la preference reversal, claramente contradictorio con uno de los ingredientes centrales en la teoría de la elección racional: la relación de preferencia es asimétrica. Se trata de un resultado experimental bien establecido, frente al cual proliferan las respuestas que, en el mejor de los casos, o bien minimizan la importancia del axioma en cuestión, o bien ofrecen modelos de decisión alternativos. Ambas opciones son válidas para Guala. El dilema que cabe aquí plantearse (y sobre el que apenas encontramos mención en este trabajo) es qué prueban los experimentos respecto a la teoría. Por el momento, los fracasos experimentales no parecen dar suficientes motivos para la adopción de enfoques alternativos, sin que sepamos muy bien cómo afecta esto al estatuto científico de la teoría económica. Dado el gusto por la generalidad matemática de sus partidarios, se diría que la particularidad de los resultados experimentales, tan bien defendida por Guala, constituye un buen motivo para no prestarles demasiada atención. El economista teórico podría considerar su actividad como un puro ejercicio de matemática aplicada del que podría aprovecharse independientemente el experimentador para articular modelos contrastables, sin que su fracaso empírico les restase justificación. Todo depende, desde luego, cómo se conciba la unidad de la economía como ciencia, y en una perspectiva neoexperimentalista como la de Guala no parece que tengamos demasiados motivos para exigir tal unidad –que era, justamente, la que creaba dificultades empíricas en la concepción positivista clásica de los modelos económicos. Por tanto, la teoría económica gozaría de una envidiable salid a este respecto y las objeciones de sus críticos revelarían únicamente incomprensión respecto a cómo funciona su disunidad. ¿Es esto aceptable? Júzguelo el lector, a modo de ejemplo del interés que los debates que previsiblemente nos traerá el desarrollo de esta posición.

{Enero 2006}
{Theoría 57 (2006), pp. 342-343}
Hasok Chang, Inventing Temperature. Measurement and Scientific Progress, N. York, Oxford University Press, 2004.

La invención de la temperatura es un libro que necesariamente interesará a quienes se preguntan hoy cómo articular de nuevo tres disciplinas: Historia de la ciencia, Filosofía de la ciencia y Epistemología. Desde luego, son muchos los que creen que es mejor cultivarlas por separado (por dar un ejemplo reciente, Jesús Zamora en su Cuestión de Protocolo [Tecnos, 2005]), sospechando acaso que suelen perder en la “mezcla”. A estos, el ensayo de Hasok Chang se les ofrecerá como reto, pues lo que nos propone es, precisamente, revisar algunos conceptos fundamentales en Filosofía de la ciencia (e.g., observabilidad, progreso, operacionalismo) a partir, por un lado, del análisis de algunos casos señalados en la Historia de la termometría y, por otro, de una reconsideración de algunos de sus supuestos epistemológicos más característicos (la disyuntiva entre fundacionismo y coherentismo).

Chang parte, desde luego, de una posición filosófica donde la conjunción entre estas tres disciplinas no resulta extraña (y así se refleja en su propio itinerario académico, desde Stanford a Londres, según puede seguirse en los agradecimientos). Chang argumenta en las inmediaciones del neoexperimentalismo de Hacking y Cartwright, desde donde aborda la constitución de la temperatura como dato en leyes fenomenológicas o regularidades causales de bajo nivel. Esto explica, en buena parte, la estructura del libro: así, Chang nos presenta un buen número de tentativas experimentales para fijar un punto fijo en el termómetro a partir ebullición de diversas sustancias (cap. 1); para establecer la compatibilidad entre distintas escalas de medida (cap. 2); y para ampliarlas a temperaturas extremas, como pretendieron los primeros pirómetras (cap. 3). El cap. 4 sigue el camino inverso y examina mediante qué tipo de experimentos se pretendió conferir significado empírico al concepto de temperatura absoluta, en particular a partir de su elaboración por Kelvin. En estos cuatro capítulos se procede según una división entre una primera parte narrativa y una segunda analítica. En la primera se presenta de un modo erudito cada caso tal como lo expusieron inicialmente sus autores, en un ejercicio de Historia interna iluminado por la discusión filosófica que se desarrolla en la segunda parte. Es decir, quien sólo se interese por la Historia de la termometría echará seguramente en falta buen número de consideraciones (en particular, contextos, deudas, etc.), pero esto no implica que el análisis que se nos propone no resulte original: Chang rescata los trabajos de experimentalistas como De Luc, Regnault o Wedgwood precisamente porque su juicio metodológico le permite vindicarlos.

La tesis filosófica que construye sobre ellos es básicamente la siguiente: el caso de la termometría nos muestra cómo es posible alcanzar un consenso científico sobre la base de un refinamiento gradual de nuestras convenciones métricas, aun si no se disponga de un punto de partida incuestionable (puntos fijos), ni de un concepto teórico bien elaborado, y con independencia de que coexistan durante amplios periodos escalas difícilmente convertibles de precisión muy diversa. Chang reivindica aquí una posición epistemológica coherentista para interpretar como progresivo este proceso: es el apoyo mutuo que se van prestando las distintas mediciones –juzgado no por la verdad, sino por otras virtudes epistémicas (tales como la exactitud, fecundidad etc.)– lo que justifica su aceptación. Su argumento también puede leerse a la inversa: sería imposible dar cuenta racionalmente del progreso de la termometría si se exigiera de sus protagonistas una justificación al modo fundacionista, basada en datos empíricos autoevidentes y, por ello, incontestables para todos los implicados. La observabilidad es, para Chang, un logro, antes que un dato. Así, nos propone un modelo para analizar este progreso sobre la base de una rectificación operacionalista del convencionalismo (pp. 92-96), donde se muestra cómo puede avanzar iterativamente el proceso de medición observando ciertos principios metodológicos que garanticen su coherencia (p. 152).

Desde este punto de vista, uno de los aspectos más interesantes del libro es que explicita muchas tesis clásicas en filosofía de la ciencia que en el neoexperimentalismo suelen encontrarse de modo más bien oblicuo. Esto es particularmente cierto en lo que respecta a los dos últimos capítulos. El quinto articula todo lo expuesto en las partes analíticas de los anteriores y el sexto plantea cuál sea la posición de la filosofía de la ciencia “en el conjunto del saber”. Chang defiende aquí es que se trata de la continuación de la ciencia “por otros medios”: puesto que cualquier ciencia normal es dogmática respecto a su propio paradigma, a la filosofía le corresponde mostrar hoy en qué medida fue crítica su aceptación inicial respecto a las alternativas existentes. Lo peculiar de esta posición es que, para Chang, el conocimiento que se nos proporciona así sería también científico (pp. 240-47): en la medida en que la filosofía opera sobre argumentos científicos previos, su recuperación produciría conocimiento igualmente científico, bien por coincidir críticamente con lo que hoy aceptamos como dogma, bien por sugerir una alternativa eventualmente desarrollable. De hecho, del lado epistemológico, es probable muchos lectores encuentren poco desarrollada conceptualmente la posición de Chang. Su respuesta más probable es que todo desarrollo deberá venir de la mano de análisis de argumentos científicos, si es que ha de ser relevante para su posición.

Es mérito indiscutible de este libro poner sobre la mesa cuestiones tan políticamente incorrectas (para la convivencia departamental, por ejemplo) como puedan ser todas las anteriores. En qué medida resulten aceptables sus conclusiones lo determinará el debate ulterior. Para contribuir a éste, vaya al menos una objeción: vista la posición de la filosofía de la ciencia como ciencia complementaria, ¿qué nos queda de la vieja distinción entre disciplinas positivas y normativas?
La base del consenso público sobre la ciencia, en la vieja perspectiva empirista, radicaba en que el conocimiento que nos procuraba se justificaba, en última instancia, sobre nuestras sensaciones (instancia positiva), como nuestro conocimiento ordinario, y esta era una justificación que cabía compartir universalmente (instancia normativa). Chang no renuncia a esta base empírica (p. 86), pero entiende que la justificación descansa más bien sobre la coherencia entre argumentos científicos, que al filósofo le corresponde ahora rescatar por vía informal (y ya no axiomática). La cogencia de estos argumentos no puede ser superior a la que el propio científico podría obtener de ellos y, en ese sentido, nos proporcionarán una justificación equivalente para su aceptación pública. Es decir, lo que pierde la instancia positiva lo gana la normativa: la filosofía se convierte en ciencia complementaria, porque el tipo de argumentación específicamente científico se asimila al propio análisis filosófico.

El nudo de esta posición coherentista es que un sociólogo podría apropiarse perfectamente del análisis de Chang cambiando las coordenadas: la coherencia argumental, como muestra la tradición de Bloor, es perfectamente interpretable en términos de coincidencia de intereses particulares. El público acepta los resultados científicos porque los intereses subyacentes son una proyección de los suyos propios. Ahora bien, quienes no pertenezcan a la comunidad (social o científica) no tendrán por qué compartirlos. ¿Esta universalidad es deseable para el neoexperimentalista? Implícitamente se diría que el análisis de la práctica experimental que Chang nos propone pretende mostrarlo, pero el tipo de argumentos que nos proporciona (en particular, la teoría del significado que se asume) no parecen darnos demasiadas razones para esperarlo.

{Octubre 2005}
{Theoría 57 (2006), pp. 344-345}

A. L. Stinchcombe, The Logic of Social Research. Chicago and London: The University of Chicago Press, 2005.

Arthur L. Stinchcombe is a very distinguished sociologist and is well-known, among other things, for his methodological work. He decided to publish a monograph entirely devoted to methodology only at seventy though. This is thus a mature work, in which Stinchcombe takes stock of a lifelong career as a practitioner sociologist and attentive reader of both philosophy and other social sciences. Yet its intended audience are beginning graduate students (in various disciplines, not only sociology) to whom the lectures in which this book originated were addressed. He offers them “an upside-down version of the ‘unified science’ movement” of his youth. Instead of putting physics first as a yardstick, Stinchcombe issues a plea for a more unified social science whose variety of research methods, well understood, would exhibit the “same intellectual strategy” than any other scientific discipline. Thus one can, perhaps, explain the classical resonance of the title (e.g., Logik der Forschung). Yet, the approach is truly updated.

Having introduced Jon Elster as “probably the leading philosopher of the social sciences” (p. 171), Stinchcombe adopts a very Elsterian piecemeal approach to a big issue, causality, which is explored by means of a series of case studies throughout the book. The cases illustrate at length four methods and seven problems that are covered in it. As to the former, Stinchcombe considers the quantitative, the historical, the ethnographic and the experimental. The problems are: the centrality of distances in study design for causal theories; economy in data collection; the use of data to refine concepts and their measurement; the relevance of context; the empirical research of mechanisms and processes; contrasting theories through hypothesis testing and, finally, the use of data to refine them. Each of these is considered in a separate chapter through the analysis of an array of case studies, where the contribution of the four methods is exhibited and analysed.

The first question then is why causality plays such a central role in the logic of social research. Immediately on page 1, Stinchcombe states that almost all sociological theories are, one way or another, causal. Yet, we will find no philosophical discussion of the concept of causality throughout the book, since Stinchcombe explicitly eschews digression into epistemological topics (e.g., p. 196). Stinchcombe’s approach is methodological instead: there various methods of social research that claim to reach causal conclusions, and the questions are, first, under which conditions they yield these and, second, whether there is any complementarity among them. Stinchcombe’s approach seeks the one in the many: instead of arguing in favor of one particular method as the sole means to assess causality, it is claimed that all four methods can contribute. Obviously, it is necessary to understand causation broadly so that ethnographers and econometricians can cooperate in the pursuit of causal explanations. The author states that “the minimum piece of causal information is two distances”, i.e., some variation in the information we can gather about the units of analysis involved in the causal process. If “a year more of education” is regarded as putative cause of “a three-point increase in a measure of labor market advantage”, the minimum piece of causal information will then be the distance between two observations of education in different people. This approach suggests that indeed all the four methods considered rely on quantitative considerations, namely the measurement of numerical differences in the units of analysis, or lead us to obtain them. As a matter of fact, the chapters exploring the five first problems discussed above are somehow intended as an extended preamble “of a good statistics textbook” (p. 239). At this point, it is necessary to note that the author is implicitly assuming that those social theories that do not produce causal statements do not deserve the consideration of science. I will not question such assumption, but it should have been argued somehow, at least to warn the reader of the consequences of this one-sided causal approach to social research.

Having settled this, Stinchcombe proceeds to explore different research strategies. In chapter three he addresses the problem of costs in the design of a study, stating the general principle that we want “the cheapest right answer”. On this basis, he defends the convenience of oversampling extremes by focusing on those cases “that contain more information on why they are not average”. Thus, they are judged to be more relevant to explore causal distances. Given that these are often initially grasped through vague concepts, in chapters four and five Stinchcombe discusses various uses of data to improve their precision. He explores, first, whether one or more concepts are needed to describe causal distances; second, how to interpret them in terms of causal theories or mechanisms and their contexts. This latter topic is addressed at length in chapter five, where the relevance of boundary conditions for causal analysis is appraised. Information about the context is more or less needed depending on how precisely we can define our units of analysis. When this definition is difficult to attain, narratives providing background information seem to be the main device to improve our understanding of the causal setting through a better grasp of its boundaries. The core chapter of the book, in length at least, seems to be the sixth, about mechanisms, that is, our theoretical understanding of the repetitive processes occurring around the units of analysis which turn causes into effects. Stinchcombe lists and illustrates five types: structural holes (such as social networks), individualism, rational choice (carefully distinguished from the former: there is no token individuality in it), situations and patterns. Chapter seven is about statistical tests, among which Stinchcombe pays particular attention to the role of hierarchical models. The last chapter is, in many ways, “a sermon on the life of research”, the crafting of theories through data as a research program.

This synopsis conveys just a vague impression of the topics covered in the book. The reason is that most of the concepts listed above are not introduced and discussed analytically, but rather exemplified at length through ample transcriptions or summaries of articles and book chapters, very often authored by Stinchcombe himself. He wants to show the four methods discussed at work, and it is shown indeed that there is a complementary role for each in many of the cases presented. The virtue of this casuistic approach seems to be in its utility in class: the examples are detailed enough to allow a discussion of the concepts and methods they illustrate. The interest of the cases selected is obviously guaranteed by the author’s expertise. Yet, it is a reflection of his own (necessarily partial) interests and, as such, several topics are underrepresented or simply omitted (e.g., experiments or simulations). The author’s warning regarding the rhetoric of the book should be taken into account: it is the oral style of a lecture (p. xi) and, given the number of cases discussed, it is easy to get lost in the details. It seems better to use it as a trigger for debate on each particular topic in class than as a conventional textbook.

A different issue is whether this selection of cases sustains the thesis that Stinchcombe is defending, namely the complementarity of the four methods in the search for causal accounts of social phenomena. In my view, the proclaimed methodological unity of the social sciences seems a bit vague, probably because the very concept of unity was not intended to capture the family resemblances that Stinchcombe’s discussions suggest. The stricter we are in our definition of causal explanation, the less unity there will probably be among the cases discussed in the book. However, it was not aimed at convincing philosophers of any matter of principle, but to make students more open to the variety of available methods and the convenience of using them. As such, it deserves all praise. In this respect, I only miss that the author has not summarized the debate presumably elicited by many of the studies compiled, just as a sign of the professional reception that was granted to the attempts to integrate various methods. This would have been useful for students and for philosophers alike as an index of the real unity that may exist if not in the social sciences, among the social scientists at least.

{November 2007}
{Philosophy of the Social Sciences 38.2 (2008), 296-298}