Mostrando entradas con la etiqueta 2006. Mostrar todas las entradas
Mostrando entradas con la etiqueta 2006. Mostrar todas las entradas

16/4/09

Pierre-Charles Pradier, La notion de risque en économie, Paris, La Découverte, 2006

Encore un ouvrage sur l'économie du risque ! Celui-ci choisit une optique assez originale, entre histoire économique et histoire des théories économiques. Si l'histoire des faits et de leurs représentations sociales constitue une tradition française, déjà illustrée dans le domaine du risque par François Ewald, héritier de Foucault et de l'école des Annales, on est moins habitué à voir un économiste s'essayer au même exercice. Doyen d'Économie de la Sorbonne, Pierre-Charles Pradier déploie toute son érudition pour brosser une fresque où le paysage des contrées du Nord, hébergeant les fondateurs du calcul des probabilités, succède à l'Italie des marchands médiévaux.

Précisément, le récit articule trois temps forts : l'apparition du mot, du concept et des pratiques du risque au Moyen-Âge ; le développement des mathématiques du hasard, de la gestion assurantielle et de la statistique mathématique à l'époque des Lumières ; enfin, l'essor récent de la théorie économique et financière - que ce soit du point de vue décisionnel a priori ou du point de vue macroéconomique a posteriori (avec l'énigme de la prime de risque et l'inflation des actifs patrimoniaux en conclusion). Ces temps forts permettent d'illustrer une thèse assez audacieuse : contre ceux qui pensent - comme on le croit souvent - que l'économie a emprunté les mathématiques du hasard aux sciences de la nature, Pradier montre au contraire que « le calcul des probabilités se développe comme solution à des questions sociales et politiques », solution apportée par des mathématiciens intéressés à la vie de la Cité. Hervé Le Bras avait déjà éclairé la vie de William Petty d'une telle lumière dans Naissance de la mortalité ; voici quelques exemples nouveaux qui font système.

À côté de cette thèse centrale, l'auteur propose des points de vue originaux sur des thèmes que l'on croyait convenus : ainsi, le parallèle entre, d'une part, le développement des mathématiques de la décision depuis l'après-guerre et, d'autre part, les recherches de la fin du dix-huitième siècle. Cette comparaison s'appuie sur les travaux d'historiens des mathématiques menés ces quinze dernières années et conduit à penser différemment l'articulation entre économie et mathématiques, leur histoire commune et leur épistémologie. De même, l'étude critique de la distinction entre risque et incertitude chez Knight, et surtout Keynes, met en perspective l'évolution de la théorie économique au cours du dernier siècle et les limites de son domaine d'application. Cette perspective d'histoire longue - la prise en compte de nombreux aspects et champs théoriques (finance, assurance, macroéconomie) - conduit évidemment à des raccourcis ; mais la thèse est remarquable et la bibliographie abondante. Signalons enfin, pour ceux que les « hiéroglyphes effarouchants » intimident, que des encadrés contiennent les signes les plus virulents : la lecture de l'argument est donc fluide. Étonnamment même pour un livre d'économie qui devrait donc convenir à ceux qui abordent l'économie du risque comme à ceux qui la connaissent déjà et cherchent un regard nouveau.

{Septembre 2006}
{Risques 67 (2006)}

15/4/09

Vicente Serrano Marín, Nihilismo y modernidad, México-Barcelona, Plaza y Valdés, 2005, 266.

En Nihilismo y modernidad, Vicente Serrano se propone denunciar una religión académica. Como tantas veces, su éxito se debe a los engaños de sus sacerdotes, que nos ocultan el origen teológico del nihilismo para presentárnoslo como un credo secular. Para Serrano, el auténtico impulso ilustrado de la Modernidad es la crítica despiadada de cualquier teología, denunciada como superstición. A ello se aplica en este ensayo, a propósito de toda una tradición que, desde el diagnóstico de Jacobi a principios del XIX, pretende pensar filosóficamente desde lo incondicionado, sea éste el sujeto o el discurso. Frente a quienes sostienen su análisis en un orden causal inmanente como el que nos descubren las ciencias en la naturaleza o la sociedad, los partidarios de esta nada incondicionada ejercerían como sacerdotes profanos, contribuyendo a la supervivencia del irracionalismo que sostuvo las antiguas religiones. ¿Cómo defender semejante tesis?

Vicente Serrano es un reputado especialista en el Idealismo alemán, con monografías y ediciones de buena parte de los autores que aquí se estudian. No obstante, al modo de La era del individuo de Alain Renaut, Nihilismo y modernidad es antes un ensayo sobre la génesis de la filosofía contemporánea que una Historia en sentido estricto. Se pretende dar sentido general a una secuencia de autores que probablemente se perdiese si se dedicara a cada uno de ellos un análisis erudito. Ésta es, por tanto, una propuesta para quienes crean que cabe encontrar un sentido filosófico a nuestro presente a partir de las obras de algunos de sus principales pensadores. Y, en particular, es un ensayo contra todos aquellos que lo interpreten favorablemente como era del nihilismo.

La primera parte comienza con una tesis polémica: para Vicente Serrano, la subjetividad tematizada por el Idealismo alemán se moldearía sobre los atributos personales de la vieja divinidad cristiana, que sobreviviría así oculta bajo su máscara. El diagnóstico sería del propio Jacobi. Al asignarle Fichte al Yo la condición teológica de creador se ve obligado a aniquilarlo como criatura: el sujeto debe crearse a sí mismo ex nihilo y por ello, concluye, Jacobi es a la vez Dios y pura nada. El último Schelling retomaría este diagnóstico contra Hegel. La aniquilación de Dios supone para Hegel la afirmación de su inmanencia: el poder de Dios se transfiere al Estado. Ello le daría a Marx la ocasión de denunciar cualquier teología que lo justificase como ideología, pero sin renunciar a la materialidad social de su inmanencia. Esta sería para Vicente Serrano la vía racionalista auténticamente ilustrada. Schelling impugnaría semejante propósito, invirtiéndolo. Para restaurar la vieja divinidad, Schelling sostendrá que la inmanencia es el propio Dios cuya transcendencia no sería sino nuestra representación racional. La divinidad abandona la máscara del sujeto para ocultarse en el vacío.

A partir de aquí, nuestro autor nos propone sendas lecturas de Nietzsche y Heidegger como pensadores del nihilismo. El primero por interpretar esa inmanencia como dominio de nuestro discurso, en el que se despliega su filosofía. La crítica pierde así cualquier referente externo –en la sociedad o la naturaleza–: la donación de sentido se convierte, para Nietzsche, en la expresión de una voluntad de poder racionalmente inexpugnable pues opera en el vacío. Desde estas coordenadas se interpretan sus distintas concepciones del nihilismo. En cuanto a Heidegger, Vicente Serrano nos lo presenta como sistematizador de esta tradición, a partir de su formación católica y apoyándose en la suspensión fenomenológica del juicio científico. Como Nietzsche, Heidegger pretende secularizar la inmanencia como abismo sin fundamento. Para nuestro autor, sólo conseguiría asentar en el lenguaje su irracionalismo religioso que, como a Jacobi, sólo nos deja la opción de la fe.

Desde esta perspectiva, no es de extrañar que la postmodernidad aparezca como consumación del nihilismo. O, de otro modo, como la victoria de esta derecha hegeliana contra la izquierda marxista: la superación de los grandes relatos deja atrás la crítica de la ideología. Si Hegel transfirió el poder de Dios al Estado, Nietzsche lo sostiene teológicamente en el vacío como voluntad. Foucault lo particulariza en técnicas de control invisibles. Habermas, asienta su proyecto emancipador en el vacío procedimental de la comunicación lingüística (que, no obstante, intenta llenar desde su concepto del mundo de la vida). Hasta aquí la reconstrucción de nuestro presente que se nos propone en Nihilismo y modernidad.

¿Tiene sentido semejante genealogía? Muchos seguramente cuestionarán la interpretación que Vicente Serrano nos propone de uno u otro autor, pero mucho más complicado es pronunciarse sobre el conjunto. ¿Esconde verdaderamente la Modernidad un movimiento teológico tan ambicioso como el que nuestro autor nos presenta? Quizá la calificación de teología resulte un poco engañosa. Con Marx, se interpreta aquí la religión como ideología y se diría que la contribución de los autores aquí estudiados consiste en poner los mecanismos de la vieja ideología religiosa (la teología) al servicio de la nueva ideología que sostiene los mercados (p. 259). Nuestros nihilistas nos confundirían pensando teológicamente sobre el orden social como mejor manera de impedir su análisis racional (que se intuye sería el apuntado por Marx). Con independencia de que podamos discutir sobre si la de Marx es la auténtica alternativa para los racionalistas, uno estaría tentado de concederle la razón a Vicente Serrano observando lo que sucede en tantas Facultades de Filosofía. Pero seguramente muchos lectores discreparán. Y en ello se encuentra precisamente el encanto de Nihilismo y modernidad: es difícil no apasionarse leyéndolo. Ojalá la andadura española de la editorial Plaza y Valdés, bajo el cuidado de Marcos de Miguel, nos siga proporcionando ensayos tan gratos.

{Marzo 2006}
{Isegoría 34 (2006), pp. 307-309}
María Cruz Seoane y Susana Sueiro, Una historia de El País y del Grupo Prisa, Plaza y Janés, Barcelona, 2004.

Un periodista pretende ser objetivo al transmitir una noticia, pero a estas alturas es difícil saber en qué consiste tal objetividad. ¿Qué objetividad podrá pretender entonces el científico social que estudie la actividad del periodista? Este es el dilema que plantea el reciente trabajo de M. Cruz Seoane y S. Sueiro, Una historia de El País y del grupo Prisa. ¿Cómo contar el éxito empresarial de un diario que afirma su independencia (suponemos que de cualquier interés particular) en su misma cabecera? Desde el punto de vista de sus protagonistas más inmediatos (periodistas y lectores), tal éxito probablemente se deba a su independencia: compramos El País por transmitirnos la información desinteresadamente. Sus adversarios dirán quizá que su éxito indica más bien el poder de los intereses a los que sirve: ¿o se puede ser desinteresado cuando están en juego inversiones millonarias de los propios dueños del diario?

La solución de Seoane y Sueiro probablemente dejará insatisfechas a ambas partes. La suya es una posición escéptica. Por un lado, documentan abundantemente los intereses que convergen en el desarrollo empresarial de El País, y tratan de evaluar sus efectos sobre sus informaciones, contrastándola con las que transmiten otros medios de la competencia. Pero, por otro lado, asumen también que esta se ve igualmente afectada por sus propios intereses. De modo que nuestras autores optan por suspender el juicio. Veamos cómo.

La obra se inicia con un relato de la gestación del diario, que conjuga principalmente el análisis de la evolución de su accionariado (tal y como se recoge en sucesivas actas) con el eco que tuvo en la prensa de la época. A partir de aquí se estudia cómo se establecen sus coordenadas ideológicas, respecto a los propósitos de sus accionistas (a menudo traicionados por la redacción) y a los principales temas abordados en sus páginas. Si lo primero es menos controvertido (pues los accionistas dejaron a menudo constancia escrita de sus pretensiones y manifestaron su conformidad con la compra o venta de sus participaciones), lo segundo resulta mucho más discutible. ¿Fue, por ejemplo, El País un periódico prosoviético, según dijeron tantos de sus críticos? Para dilucidar la cuestión Sueiro y Seoane parten de tales críticas, tal como originalmente se expresaron, y las contrastan con lo publicado en el diario. Se aprecia así que El País es un medio complejo en el que suelen aparecer posiciones encontradas: elogios de algunos logros de la Unión Soviética, pero también críticas de otros, por ejemplo. ¿Cuáles predominan? Al analizar el desarrollo del diario se aprecia que esto depende a menudo del momento, pues el periódico cambia con los acontecimientos que narra, de modo que resulta difícil adjudicarle una posición concluyente.

Incluso la parte dedicada a la era socialista le descubre al lector paradojas de su propia memoria. Pues el apoyo a los sucesivos gobiernos de González resulta retrospectivamente mucho menos uniforme de lo que suele recordarse. No ser el primero en informar sobre los distintos casos de corrupción que se sucedieron no supuso no informar o dejar de criticar. Más que con la propia información contenida en el periódico, el dilema parece estar en cómo se organiza nuestra propia percepción: dada la cantidad de noticias sobre corruptelas gubernamentales publicadas por otros diarios, que El País publicase muchas menos pudo sugerir una intención oculta de no dañar al PSOE. Pero puede igualmente interpretarse como un efecto del Libro de estilo: el grado de confirmación exigido por El País para publicar una noticia resulta comparativamente mayor que el de otros medios (y un repaso retrospectivo a sus páginas muestra que publicó muchas menos noticias falsa). Las autoras eligen a menudo no pronunciarse. De hecho, y de modo también paradójico, es en la cuarta parte del libro, dedicada a los años de “oposición”, cuando mejor se aprecian cómo los intereses empresariales de Prisa pueden afectar más decididamente a lo que se publica en El País (el caso Sogecable, etc).

En suma, tanto sus críticos como sus defensores no dejaran de reconocer sus argumentos a lo largo de las más 600 páginas de la obra, y encontrarán abundantes datos para sostenerlos. Pero probablemente descubran que sus respectivas posiciones simplifican una institución tan compleja (y descomunal ya) como es El País. De hecho, las autoras no pretenden en momento alguno agotar su análisis, pues ello supondría pronunciarse que desbordan con mucho al diario (como son los propios asuntos sobre los que informa). Se diría que su admiración por éste se deriva a menudo más de la magnitud de su esfuerzo para darles sentido, incorporando su complejidad a la noticia, que de la propia simplificación con la que se juzgan (dentro y fuera del periódico) para avanzar en el debate de nuestros intereses particulares.

Una perspectiva así de escéptica no resulta muy aconsejable para escribir editoriales o crónicas parlamentarias, que probablemente dejarían insatisfecho a un lector ávido de un juicio claro, como cualquiera de nosotros al leer prensa diaria. Pero si por un momento nos abstraemos de nuestra condición de periodistas o lectores de El País, sólo un escepticismo como el de las autoras nos permitirá apreciar en toda su dimensión la excepcionalidad de su empresa.

{Marzo 2005}
{Historia Contemporánea 31 (2005), pp. 685-587.}
Sergio F. Martínez, Geografía de las prácticas científicas. Racionalidad, heurística y normatividad, México, UNAM, 2003.

Geografía de las prácticas científicas se articula sobre dos debates contemporáneos. Por una parte, el que enfrenta a epistemólogos y filósofos de la ciencia sobre cómo enfrentar la justificación de nuestros conocimientos (principalmente, científicos). Por otro lado, el que opone a estos frente a sociólogos e historiadores de la ciencia a propósito de la eficacia social de tal justificación. Sergio Martínez nos propone como eje para situar su propia contribución el concepto de norma, que pretende naturalizar a partir de su inserción en prácticas científicas buscando una vía media entre todos estos bandos. Veamos someramente cuál es el curso de su argumento.

En el cap. 1, Martínez sitúa su proyecto en el contexto de las distintas propuestas hoy disponibles para articular una epistemología social. Con Miriam Solomon, defiende una epistemología normativa no individualista, pero en vez de buscar sus fuentes en la elección de teorías, Martínez sostiene que brota de las prácticas científicas cuyo carácter social es irreductible a los procesos cognitivos individuales. En primer lugar, las prácticas contienen elementos no proposicionales, un saber cómo socialmente distribuido cuya explicitación es necesariamente grupal. De ahí la importancia del testimonio como generador, y no sólo transmisor, de conocimiento: las normas tácitamente asociadas a la presentación de información propician nuestras inferencias mediante heurísticas. Su éxito de hecho justifica el proceso inferencial, antes que cualquier formalización simbólica.

El tema se desarrolla en el cap. 2, para establecer la tesis de que las diferentes normas generadoras de éxitos constituirán diferentes tradiciones científicas, entre las cuales no cabrá elegir como los clásicos pretendían. No se trata de elegir entre teorías sobre la base, por ejemplo, de cuál proporciona mejores predicciones pues estas no constituyen una mera relación inferencial entre enunciados. Necesitan, a menudo, un sistema tecnológico que, para el autor, incluye a la propia teoría o modelo del que se obtienen. Su individualidad, nos dice, no es otra que la que les confiere “ser parte de poblaciones de métodos o modelos genealógicamente relacionados” (p. 77)
¿Cómo interpretar, pues, estas normas? En el cap. 3 Martínez nos propone una apropiación epistemológica del concepto de heurística, a partir de su presencia en distintas disciplinas científicas. En ellas podríamos apreciar como nuestra actividad cognoscitiva pivota sobre la resolución exitosa de problemas particulares, antes que sobre la ejecución de algoritmos generales. La tesis ontológica que acompaña a este principio es que la “estructura (causal y normativa) del ambiente” es parte de la propia heurística, y clave de su éxito, de modo que no cabría su generalización algorítmica. De ahí la afirmación de la independencia de las tradiciones científicas (cap. 4), pues la diversidad del mundo y de nuestros propios mecanismos cognitivos justifica la existencia de múltiples heurísticas, tal como puede constatarse en la evolución de la propia ciencia. De ahí la metáfora de la geografía (del propio mundo a través de las prácticas) que da título al libro.

El cap. 5 intenta mostrar cómo puede aplicarse la idea de técnica al análisis de las distintas tradiciones científicas a partir de sus fundamentos experimentales. La metáfora biológica de la selección le proporciona al autor el modelo para explicar su evolución. Por último, en el cap. 6 presenta una objeción contra la teoría de la elección racional como principio para el análisis de la acción científica, pues, por una parte, sus exigencias cognitivas resultarían empíricamente exageradas y, por otro lado, presupone que las consecuencias están bien definidas antes de tomar cualquier decisión, cuando –en opinión del autor– su construcción es parte de esta. En su lugar, Martínez se apoya en el concepto de razones externas, tal como lo propuso B. Williams, procedimientos de decisión adquiridos educativamente y, por tanto, controlados en buena parte desde el exterior de nuestra conciencia.

Estamos, por tanto, ante un ensayo programático en el que se expone una agenda intelectual, desarrollada, en buena parte, en trabajos anteriores cuya unidad queda ahora de manifiesto y agradece, por ello, una discusión general. A mi juicio, el mayor mérito de este ensayo radica justamente en articular de un modo sistemático consideraciones hoy a menudo dispersas en el debate sobre la ciencia. El lector se apercibirá sin duda de cómo Martínez remite aquí y allá a tesis que podemos asociar sin dificultad, e.g., con autores como Giere o Hacking; pero es en su conexión donde radica la originalidad de su argumento. La dimensión social del neoexperimentalismo o la concepción semántica apenas está explotada, y en este ensayo se abre una vía para ello con el concepto generalizado de heurística. Su fecundidad queda manifiesta en la interpretación de una amplia casuística científica, característica de la argumentación actual en filosofía de la ciencia.

Pero probablemente a sociólogos y epistemólogos su concepto de heurística les resulte insuficiente, por equívoco, como principio de análisis de la normatividad científica. Para aquellos resultará probablemente exagerado esperar de un concepto tan genérico una determinación efectiva de la práctica científica: sin duda, deja espacio suficiente para que los intereses particulares de una comunidad desempeñen un papel no menos importante que las constricciones causales en la consecución del éxito y el consenso científico. Y de ahí también sus defectos para el epistemólogo: si el testimonio es la vía por la que Martínez socializa el conocimiento científico, ¿qué hay en sus normas de transmisión que pueda evitar que el pluralismo degenere en relativismo?

Esta insatisfacción probablemente se deriva de la “escala” del análisis: la casuística científica que se nos presenta aparecerá para el sociólogo recortada para dejar fuera la dimensión propiamente social (los intereses); del mismo modo el epistemólogo echará en falta más análisis conceptual que dote de generalidad a un análisis tan particularista. De ahí la naturaleza programática de este ensayo: su cogencia crecerá en la misma medida en que sea capaz de integrar en su argumento un mayor número de debates. Pero advirtamos que esta exigencia se deriva de la propia perspectiva que el autor nos propone, pues su amplitud de miras nos obliga a plantearnos toda la complejidad que enfrenta hoy cualquier análisis de la ciencia. El acierto de elegir este enfoque nos obliga a esperar lo mejor de su desarrollo. El diálogo con otros autores de nuestro medio (F. Broncano, J. Ferreirós, J. Vega, J. Zamora, etc.), en tanto aspectos cercanos a su propuesta, probablemente le dé buena ocasión para ello.

{Julio 2006}
{Isegoría 34 (2006), pp. 294-296}
Francesco Guala, The Methodology of Experimental Economics, N. York, Cambridge University Press, 2005.

Una de las objeciones más escuchadas contra la microeconomía es la de que cuando vamos de compras no nos comportamos como maximizadores racionales de utilidad. En otras palabras, uno de los supuestos centrales en el análisis económico es empíricamente erróneo. Para defender, pese a ello, su valor epistemológico se propusieron distintas réplicas contra esta objeción, apelando a posiciones más o menos instrumentalistas: la teoría no describe de modo adecuado la toma de decisiones del agente individual, pero sus predicciones son acertadas. Hubo quien sostuvo esto de los individuos (v.gr., Friedman respecto a la maximización de la utilidad esperada), pero los economistas se alinearon mayoritariamente con Marshall: incluso si los individuos se confunden, sus “errores” se cancelan al agregarse, y en conjunto tienden a comportarse como establece la teoría de la demanda.

No obstante, el escepticismo respecto al análisis económico del comportamiento individual era, en general, intuitivo, tanto entre objetores como entre sus propios defensores. Hasta después de la Segunda Guerra Mundial el control experimental de la conducta económica no comenzó a desarrollarse sistemáticamente y su conversión en una subdisciplina académicamente respetable se obtuvo sólo con la concesión del Nóbel de la especialidad a Kahneman y Smith en 2002. Es imposible subestimar, por tanto, la importancia metodológica de la economía experimental, pues viene a ordenar definitivamente algunas de nuestras intuiciones centrales sobre el valor empírico de la teoría económica. O eso creíamos, pues a menudo los partidarios y detractores de esta coinciden en señalar la miseria metodológica de la economía experimental: es imposible reproducir en un experimento las condiciones en las que los agentes toman realmente sus decisiones y, por tanto, sus resultados no sirven para convalidar nuestras intuiciones a favor o en contra de nuestros modelos teóricos.

En The Methodology of Experimental Economics, Francesco Guala examina y defiende el estatuto metodológico la economía experimental de un modo que quiere resultar asequible a economistas y filósofos. Para aquellos, buena parte de sus 11 capítulos constituyen una introducción «situada» a muchos debates actuales sobre metodología científica. Estos se verán sorprendidos sobre su rendimiento al aplicarse a un caso tan singular como es el de la experimentación en ciencias sociales. Así, junto a un buen número de cuestiones clásicas (evidencia, explicación nomológico-deductiva, causalidad, ...), Guala introduce también algunas tesis propias del neoexperimentalismo, como la distinción entre datos y fenómenos, la pluralidad de la ciencia o las mediaciones entre teoría y experiencia. Aunque no se propone un desarrollo completo de cada una de ellas, la claridad de la presentación y el interés de los ejemplos con que se ilustran lo convierte en un texto muy adecuado para su uso en cursos de metodología económica.

La estrategia argumental de Guala en su vindicación de la economía experimental es dúplice. Por una parte, intenta establecer cuál es el alcance del conocimiento que nos proporcionan los experimentos. Su tesis aquí es que nuestro control causal de la conducta económica es efectivo (a partir de los datos aparecen regularidades fenoménicas estables), pero restringido por unas condiciones experimentales concretas. De ahí que debamos constreñir nuestras inferencias sobre los resultados experimentales conforme a tales condiciones, explicitando el conocimiento de fondo subyacente (background knowledge) mediante sucesivas inducciones eliminativas donde se establezca objetivamente su valor empírico. Guala establece su tesis contra un buen número de alternativas filosóficas. Desde luego, el falsacionismo (durante años predominante en la metodología económica) y, en general, contra las posiciones exageradamente deductivistas (inevitablemente abocadas a los dilemas de Duhem-Quine), pero también contra la interpretación bayesiana del conocimiento de fondo (y se diría que también del propio diseño experimental). De este modo, Guala se opone a quienes apelando a posiciones de principio cuestionan el valor de los experimentos económicos por su carácter excesivamente particular: no cabe alternativa mejor, y el metodólogo debe dar cuenta de ello.

La segunda parte del argumento de Guala (y también de su libro) se concentra en el dilema de la validez externa de los experimentos económicos: ¿pueden sus conclusiones extrapolarse a los auténticos mercados? Nuestro autor despliega aquí su tesis sobre los experimentos como mediadores entre la teoría y el mundo. Nuestras inferencias serían antes analógicas desde experimento al mundo que directas (de la teoría a su aplicación): sólo en la medida en que el experimento reproduzca satisfactoriamente aquellas circunstancias reales por las que nos interesamos (a veces tan sólo por motivos prácticos, como en las subastas de telecomunicaciones) podremos considerar justificadas nuestras analogías, y no sólo por su congruencia con nuestro modelo teórico. De nuevo, se trata de un razonamiento de lo particular (nuestras circunstancias experimentales) a lo particular (el caso analizado). De ahí su condición de mediadores: no son sin más el objeto de análisis al que se aplica la teoría, sino que lo representan de un modo no exclusivamente teórico, que tiene un interés en sí mismo. Frente al particularismo radical (radical localism) defendido por Bruno Latour, Guala afirma así un particularismo «intermedio»: intentar imponer normas metodológicas universales es tan nocivo como negar absolutamente su existencia.

Nadie podrá negar el interés y la solvencia de semejante argumento y, en esa medida, la economía experimental quedará metodológicamente vindicada contra sus críticos. No obstante, cabe preguntarse también qué perspectivas nos abre esta posición sobre el conjunto de la metodología económica. Por ejemplo, queda abierta la cuestión de qué inferencias podemos establecer de los experimentos ya no al mundo, sino a la teoría. Uno de los casos más ampliamente discutidos por Guala en la primera parte de su libro es el de la preference reversal, claramente contradictorio con uno de los ingredientes centrales en la teoría de la elección racional: la relación de preferencia es asimétrica. Se trata de un resultado experimental bien establecido, frente al cual proliferan las respuestas que, en el mejor de los casos, o bien minimizan la importancia del axioma en cuestión, o bien ofrecen modelos de decisión alternativos. Ambas opciones son válidas para Guala. El dilema que cabe aquí plantearse (y sobre el que apenas encontramos mención en este trabajo) es qué prueban los experimentos respecto a la teoría. Por el momento, los fracasos experimentales no parecen dar suficientes motivos para la adopción de enfoques alternativos, sin que sepamos muy bien cómo afecta esto al estatuto científico de la teoría económica. Dado el gusto por la generalidad matemática de sus partidarios, se diría que la particularidad de los resultados experimentales, tan bien defendida por Guala, constituye un buen motivo para no prestarles demasiada atención. El economista teórico podría considerar su actividad como un puro ejercicio de matemática aplicada del que podría aprovecharse independientemente el experimentador para articular modelos contrastables, sin que su fracaso empírico les restase justificación. Todo depende, desde luego, cómo se conciba la unidad de la economía como ciencia, y en una perspectiva neoexperimentalista como la de Guala no parece que tengamos demasiados motivos para exigir tal unidad –que era, justamente, la que creaba dificultades empíricas en la concepción positivista clásica de los modelos económicos. Por tanto, la teoría económica gozaría de una envidiable salid a este respecto y las objeciones de sus críticos revelarían únicamente incomprensión respecto a cómo funciona su disunidad. ¿Es esto aceptable? Júzguelo el lector, a modo de ejemplo del interés que los debates que previsiblemente nos traerá el desarrollo de esta posición.

{Enero 2006}
{Theoría 57 (2006), pp. 342-343}

J. Izquierdo, Las Meninas en el objetivo. Artes escénicas y vida ordinaria en La Obra de Velázquez, Madrid, Lengua de Trapo, 2006, 188 pp.

Un dilema conceptual muy interesante y difícil de resolver es el de cuál sea el género del documental. La dificultad radica en que intuitivamente apreciamos que no es exactamente ficción o arte, pero explicitar la diferencia nos complica exageradamente la definición de cualquiera de estas categorías. Javier Izquierdo nos propone aquí una complicación inversa: pues algo que creíamos canónicamente ficción y arte (Las Meninas velazqueñas) se nos presenta como un documental, y del subgénero «Cómo se hizo» (making of). Y lo que se documenta, según nuestro autor, no es sino una broma palaciega. Apoyándose en la tesis de John Moffitt, para quien el cuadro se habría realizado mediante una cámara oscura, Izquierdo da un paso más y defiende que esa cámara oscura estaba, además, oculta, de modo que la Infanta posase sin apercibirse del artefacto. Las Meninas captaría el momento en el que la Infanta cae en la cuenta de que está siendo retratada, y dejaría constancia documental del desvelamiento del engaño (“¡Te están retratando, tonta!”).

El argumento que Izquierdo nos ofrece para sostener su interpretación es visual: la similitud entre la mirada de reojo que la Infanta Margarita echaría a la cámara oscura y el bizqueo con el que las víctimas de una broma de cámara oculta (aquí Alberto Llanes) descubren el objetivo antes inadvertido. Para persuadirnos (y que lo veamos como él), Izquierdo nos ofrece una colección de ilustraciones que a él le sirvieron para advertir la similitud. Como en un experimento de la Gestalt, el lector se convencerá en el momento en el que también él advierta la semejanza.

Las Meninas en el objetivo constituye, de algún modo, el acompañamiento verbal de esta secuencia de imágenes. En el capítulo 2 nos presenta varias hipótesis sobre la gestación del cuadro. En el tercero se analiza la situación retratada como un posible ejemplo de broma palaciega. El capítulo 4 nos ofrece una colección de experiencias y lecturas del autor que le llevaron a interpretar Las Meninas como ilustración de una broma de cámara (oscura) oculta. En el quinto se nos presenta su propia hipótesis sobre la realización de la broma. Y los dos siguientes una interpretación cultural y sociológica de su significación. Completan la obra varios apéndices con transcripciones de algunas de las bromas aludidas en el texto y notas del trabajo de campo en un estudio televisivo.

No obstante, en opinión de este lector, el aspecto más original de este ensayo está antes en su argumento visual que en su discurso: Javier Izquierdo nos descubre en Alberto Llanes a una sorprendida Infanta velaqueña (y a la inversa). Pero el discurso debe probar algo muy difícil, por muy poco evidente: puesto que se trata de una broma ¿cuál es la gracia de Las Meninas? Su respuesta es doble (pp. 86-87): o bien es una parodia del arte palaciego del espionaje, o bien es una tomadura de pelo nada menos que a toda una princesa. Restituir su comicidad a estas situaciones resulta algo complicado, pues espiar o tomarle el pelo a una niña de pocos años como pretexto para un «posado» tiene poco del ingenio de las bromas quijotescas o de la burla del Gran Marciano, con las que aquí se compara. Es decir, Javier Izquierdo debe explicarnos un chiste de hace más de 300 años reconstruyendo el sentido del humor de la corte borbónica (¿el de Velázquez, Felipe IV, ...?). Pero Las Meninas en el objetivo no llega, creo, a devolvernos su gracia. No obstante, el intento resulta bastante divertido si se compara con la exégesis velazqueña al uso y el lector está dispuesto, por una vez, a no tomarse a Velázquez en serio.

{Agosto 2006}
Ruth Macklin, Double Standards in Medical Research in Developing Countries, Cambridge, Cambridge University Press, 2004.

Randomised clinical trials (RCTs) constitute a world-wide acknowledged standard of proof to decide about the efficacy of a drug. Their implementation involves many different ethical dilemmas (e.g., in what conditions it is fair to allocate treatments are random?), but most of these are well known and several agreed guidelines exist to sort them out whenever they appear. At least, in countries where serious institutional review boards (IRBs) are in operation to monitor the trials. But RCTs are also an industrial procedure that the pharmaceuticals should use very often to make their business grow. And since there are many countries in which the absence of serious IRBs is positively correlated with a lower cost of RCTs, there is an strong incentive for the industry to conduct their trials there. There is a single methodological yardstick, RCTs, that guarantees the cogency of the results of the test, making it acceptable for Western regulatory agencies. But there is often a double ethical standard to conduct the trials, since the subjects of the experiment will be treated very differently depending of its geographical location. This is the topic of Ruth Macklin’s path-breaking essay. Her goal is to debunk the various ethical arguments provided to justify the existence of such double-standards and argue for a unified system of ethical guidelines to conduct medical research in our world.

The subject under discussion is mapped in chapter 1. Macklin defines there what she takes to be a developing country in this context: namely, a country in which there are fewer opportunities for the majority of the population to access the successful products of research. This implies that clinical trials provide a unique occasion for them to gain access to new drugs, even in the testing stage. Which also puts these people in a position of inferiority regarding the pharmaceutical companies when it comes to negotiate the details of the trial. The case in point that brought international attention to the problem was a 1997 study of maternal-to-child HIV transmission conducted in a developing country: the contrasting drug was a placebo instead of the best available treatment, as it should have been according the developed world bioethical standards. Macklin introduces here the Declaration of Helsinki, issued in by the World Medical Organization in various amended versions, which she will critically use – together with other similar texts – as a framework for carrying out the discussion in the rest of the book. Her aim is to improve these ethical research guidelines in a way that is “usefully prescriptive without being hopelessly aspirational” (p. 30).

Chapter 2 discusses the problem of the standard of care, which mainly appears in the following circumstances: on the one hand, what sort of drug (if any) should be provided to the control groups in countries where no alternative treatment is available for the study subjects; on the other hand, what level of medical attention should be provided to them beyond the actual goals of the study? Macklin surveys the debate on what should the standards be and presents an ample review of the guidelines provided by various organizations. She undermines here the various arguments for a double standard (e.g., “something is better than nothing”) on considerations both of principle and practical which are expanded in the following chapters.

In Chapter 3, Macklin addresses the issue of distributive justice by contextualising the idea to the area of scientific research. She argues in favour of a moral imperative to provide post-trial benefits to research subjects, drawing from various arguments ranging from equity as maximization to compensatory justice. In this light she reviews many guidelines again, criticizing those that leave room for the opposite conclusion. Yet even if her point is granted, there is the open question of what sort of benefits should be provided. A similar conclusion is reached in the following chapter through an analysis of exploitation. Macklin proposes a definition (p. 101) in which the key point is the lack of adequate compensation to research subjects due to their lack of, so to speak, bargaining power. This definition is extensively contrasted with the guidelines, but now Macklin obtains more concrete conclusions as to the practical implications of the analysis. The entitlement to post-trial benefits is now defended as the proper measure to prevent exploitation. And these benefits appear to be mostly an easier access to the resulting drugs. But Macklin also focuses on the circumstances in which consent may be exploitative – the list of particular circumstances in which exploitation in international research is likely to happen is particularly illuminating in this respect (pp. 118-122).

Chapter 5 then analyses the possible safeguards to guarantee that consent is properly granted and the subjects’ rights are duly protected during the trial. After some illustrations showing the need for such safeguards, Macklin argues for a universalistic conception of consent grounded in individual autonomy against group- or gender- biased definitions, defended on a cultural relativistic basis. In a similar spirit, Macklin defends the convenience of extending the competences of IRBs beyond its actual boundaries, so that they can survey privately sponsored trials abroad when no reasonable alternative is provided.

Chapter 6 focuses on how to make drugs affordable. Its moral implications are already clear at this stage: it would make less defensible the use of placebo in clinical trials conducted in underdeveloped countries and would substantiate the idea of post-trial benefits. Four complementary strategies are discussed: differential pricing in essential drugs; prior agreements to make the drug under trial available in the countries where it is conducted; joint initiatives of international agencies and private-public partnerships to produce affordable drugs; and the manufacture of generic copies of patented drugs for poor countries. Macklin presents different examples of each strategy, emphasizing their more positive prospects.

Chapter 7 returns to matters of principle and restates the case already made using the human rights vocabulary, acknowledging its role as a global standard for international organizations. The eighth and final chapter discusses how to develop research guidelines in accordance with all these considerations, using a quite realistic approach.

Macklin’s effort deserves all praise since she takes into account most of the many possible approaches to her subject and builds a unified and coherent case. Though Macklin navigates at ease in the endless details of the various declarations and proposals discussed, it is not difficult to get lost: the analysis is necessarily brief to keep the essay’s extension within reasonable limits, so many arguments are just outlined and the reader is referred to an ample bibliography to complete them. In this respect, a general references section (instead of one at the end of each chapter) would have been helpful. Yet, the thorough index appended somehow compensates for this and makes the book really accesible. All in all, it is a great survey of a terribly complex issue and it will greatly improve its discussion from now on.

As to the cogency of Macklin’s proposal of a unified standard for medical research, it is difficult not to be sympathetic and the arguments she provides may well ground a wide consensus. Yet, this is a book in which bioethical discussion very often yields policy recommendations, and in this respect I sometimes miss a more concrete discussion of how these would work under different circumstances. Since case studies are for Macklin a good enough ground to build her arguments for or against different policies, I would have liked a case-based analysis of the efficacy of her own proposals, i.e., one in which agents are not motivated by ethical considerations alone but also by their particular interests in the many scenarios in which these proposals should be implemented. Obviously, this is too much asking of a book which is mostly intended as an essay in applied ethics. Yet, when this field is expanded to encompass all the circumstances that she (wisely) takes into account, the argument necessarily becomes something more than ethics and a more interdisciplinary discussion would do much to strength her conclusions, making them more credible. Anyhow, this is a pioneer work and it is fair to say that it just makes this very discussion possible.

Donald MacKenzie, An Engine, Not a Camera. How Financial Models Shape the Markets, Cambridge (Mass.), MIT Press, 2006, 377 pp.

When Milton Friedman presented economic theories as engines for the analysis of concrete markets, he probably had in mind more what he was denying (the epistemological relevance of descriptive realism) than the many implications that can be drawn from such a metaphor. It certainly captured the instrumentalist core of Friedman’s own methodological stance: theories are tools to obtain predictions and, like any other instrument, they can be assessed in terms of their successful performance –i.e., predictive accuracy. Yet, STS scholars have argued for long that the intellectual charm of tools lies in the many uses they can be put to. For instance, why should economists restrain themselves to predict the course of markets, if they could use their theories as engines to build them? It is thus for a good reason that Donald MacKenzie’s latest book appears in the Inside technology collection of the MIT Press, where three other essays by him already feature (on nuclear missile guidance, technical change and mechanized mathematical proof). MacKenzie is indeed one of the finest sociologists of science of our time and shows it by making us rethink the methodological status of many economic models in the light of his analysis of the performativity of finance theory.

To use again a Friedmanian distinction, methodologists have so far focused mostly on positive theories, as opposed to normative ones. Expected utility theory (EUT), for instance, can be used to positively predict how economic agents will decide among uncertain prospects. But we can also use it as a rule to make our own decisions, thinking it wise. In this latter case, EUT will certainly deliver successful predictions but of not much methodological interest. Economists care about general patterns of market decision-making, not about particular individuals who choose to behave in accordance to their theories. But what if everyone in a given market chooses to do so?

Between 1976 and 1987, the Black-Scholes-Merton (BSM) option-pricing model proved to be an excellent fit to market prices –in the words of Stephen Ross «the most successful theory not only in finance, but in all of economics» (cited in p. 177). Yet, there were many option markets in which the traders carried with them sheets displaying arrays of Black-Scholes prices for the stock under exchange to assess their opportunities for arbitrage. These sheets were sold, among others, by Fischer Black himself. It seems thus as if we needed something more than the usual instrumentalism vs. realism dichotomy to account for the success of the underlying theory. What MacKenzie puts forward here is a sociological concept of philosophical ascent: performativity. It is aimed at capturing the role played by economics when it becomes «an intrinsic part of economic processes» (p. 16); i.e., an engine, rather than a camera portraying them. According to MacKenzie, economics can be performative at three levels (pp. 16-19). There is, first, generic performativity, when some of its elements are used by the participants in the process. Effective performativity occurs when as a result of that use, something happens in the economic process. Finally, Barnesian performativity refers to those instances in which «practical use of an aspect of economics makes economic processes more like their depiction in economics» (p. 17). If the opposite happens, we will talk instead of counterperformativity. These set of concepts serves thus to analyse the various degrees in which financial markets are socially constructed through economic theories. But rather than taking this construction for granted, the purpose of MacKenzie’s book is to verify whether it actually took place in certain markets. Moreover, the reader is warned that observation alone will not reveal it (p. 18) and its very existence is disputable as such: the ultimate evidence is provided by the prices finance theory is about and these are elaborated in various degrees, not allowing for a direct comparison to the theory (pp. 23-24).

In this respect MacKenzie is very cautious: Barnesian performativity is only affirmed regarding the effects of the BSM model, namely as it was used in the Chicago Board Options Exchange (and analogue markets) in the period mentioned above. The statement is qualified as a plausible conjecture, since «the available evidence does not permit certainty» (p. 165). Yet, the amount of evidence gathered by the author is certainly impressive. The first four chapters after the introduction constitute, in a way, a preamble for the analysis of this case of stronger performativity. Chapter 2 provides a concise discussion of how finance theory was incorporated into mainstream economics in the 1950s and 1960s. Chapter 3 explores the sociology of this emerging profession, showing how their approaches diverged from the theoretical culture of traders. Despite their initial reluctance, the crisis of the stock markets in the 1970s favoured the adoption of the Capital Asset Pricing Model (CAPM), first as an external check of investment performance, and then to develop index funds. Once the CAPM became standard both in academia and the markets, several anomalies were observed. As chapter 4 shows, some of these were namely methodological (the empirical specification of the market portfolio); many other were empirical and more or less persistent (the small firm effect, etc.). Yet, most of them constituted opportunities for arbitrage and their elimination, unlike other Kuhnian anomalies, could deliver gains or losses: at this stage, there were many academics simultaneously involved in the development of the model and in its practical exploitation. In this context, MacKenzie discusses the statistical analysis of price distributions advocated by Mandelbrot in the 1960s, when the Gaussian assumptions incorporated in the CAPM were questioned. Mandelbrot showed that the distribution of prices was difficult to handle with conventional statistical tools (namely those that depend on a finite variance). Though MacKenzie does not take sides between these two concurrent paradigms, it seems as if Mandelbrot’s approach made explicit the practical urgencies associated to the development of financial models: an alternative theory that could not deliver ready-to-use theoretical or investment tools was not welcome by the profession at that point.

In chapter 5, MacKenzie presents the origins and articulation of the BSM option pricing model, whose performative effects are studied in chapter 6. The former is mainly focused on the mathematical tinkering that yielded an equation featuring the prices of stocks and options as well as time in a way that allowed the user to hedge her portfolio against any arbitrage. In the latter, it is shown how under the guidance of Leo Melamed a market for derivatives was created in Chicago. Here we have political tinkering supported again by academics (Milton Friedman, no less) and a trading floor culture in favour of a project, whose ultimate intellectual legitimation came from the BSM. Their model allowed to differentiate it from gambling and make it legally viable. It worked and not only for the regulators, but for the traders themselves, who saw their market practices transformed in accordance to the model: they talked about options using its vocabulary and justified their decisions concordantly; software implementing it was used at various levels to calculate prices; new financial products were created, etc. For MacKenzie, this would be a case of Barnesian performativity: «The “practice” that the BSM model sustained helped to create a reality in which the model was indeed “substantially confirmed”.» (p. 166)

Yet, it seems as if performativity had its own dialectics: after the performative rise of a BSM world in the stock markets, the two following chapters tell us its fall. The seventh one addresses the October 1987 crash as a possible instance of counterperfomativity, after which the BSM model fit with the actual prices became again poor, as it had between its creation and 1976. The eight one tries to explain the social mechanisms underlying the bankruptcy of the hedge fund Long Term Capital Management in 1998. In both chapters, MacKenzie illustrates how the use of BSM-related models by a particular set of traders sparked reactions in their fellows that prevented its proper functioning and led to their replacement.

The ninth and final chapter surveys the central topics of the book. One we have not mentioned so far is the application of the concept of epistemic culture to economics, in which economic methodology plays quite a prominent role. Hypotheses such as the irrelevance of capital structure or the efficiency of the markets were equally dismissed as irrealist by economists and practitioners alike. Against these, Friedman’s instrumentalist stance was often invoked to justify the acceptability of the CAPM or the BSM. Assuming the independence of academic research was no less crucial ingredient in this culture: even if «the majority of the finance theorists discussed in this book» became involved in business, their main goal in developing the model was intellectual. Their practical success (or that achieved by traders without theoretical foundations) never counted much for them. Yet, as the Mandelbrotian challenge showed, analytical tractability was a methodological commitment that turned out to be decisive when it came to practical implementation. I would have liked to read more about the various degrees in independence that apparently coexisted among finance theorists.

It is interesting to note here how MacKenzie reconstructs their epistemic culture through an extensive series of interviews (with 67 theorists and practitioners). Though several archives were punctually visited, oral history allows the author to come very close to the intentions of the performers. The use of an engine is necessarily intentional and the quotes that appear in the book show very precisely the traders’ beliefs and desires about financial models. Indeed, in my opinion, much of the plausibility of MacKenzie’s conjecture about Barnesian performativity it is gained here. It also constitutes a nice example of the kind of conversation that MacKenzie, in a McCloskeyan spirit, intends to promote (p. 25): the interviews show financial models and markets in the making, in a way that makes them easier to understand and discuss in terms of the sort of world that we would want «to see performed». Yet, in this respect, the reader is equally indebted to MacKenzie’s own literary style that, together with the glossary and the collection of appendixes explaining the models under discussion make the book a very accessible reading. If the Social Studies of Finance are pursued along these lines, we certainly may expect the best from this conversation.

To contribute to it, let me just add a few critical remarks. One is regarding the explanation of the success of the financial engines here discussed. MacKenzie is very clear as to the performative limitations of authority: he denies that «any arbitrary formula for option prices, if proposed by sufficiently authoritative people, could have “made itself true” by being adopted. » (p. 20). Yet, I cannot help wondering what the precise contribution of the BSM formula to the performative success of its adoption was. The usual methodological response is not very promising, since its predictive accuracy or purported realism were, in this framework, more a result of adopting it than intrinsic epistemic properties of the model. The author’s own answer as to «Why BSM?» (pp. 162-64) relies on a combination of academic authority, simplicity to grasp by the practitioner and public availability. But, since we are talking about an engine, shouldn’t it capture some sort of causal mechanism in the market? MacKenzie certainly assumes that technology is socially dependent in many different ways, but not to the point of making it causally inert. Some material efficacy should be thus granted to economic theories. However, for many, these are not still cold as facts, to use Latour’s terms, but still warm under discussion: as of yet, we cannot take the markets, in general, to be the cause of any accurate description of themselves. Given that the combination of explanatory factors considered by MacKenzie is also present in other markets, what is so particular about the financial marketplace that made the BSM engine performative? This remains an open question.

A second remark is about the perspective assumed in the analysis. In my view, MacKenzie’s account points out more to rules than to technology. It seems as if the adoption of the BSM as a benchmark to calculate prices in stock markets was due to a sort of imitative process propelled by normative concerns. As Friedman and Savage once put it in respect of expected utility theory, the success of any particular decision model depended not only on its empirical verification, but «on its acceptability to individuals who are particularly concerned with such decision, as a rule guiding “wise” behaviour in the face of uncertainty». Apparently, the traders in Chicago were eager to build their decision rules upon BSM models, considering it wiser than their own pre-theoretical criteria –whose authority, as MacKenzie illustrates, had been empirically undermined by their practical failure in the 1970s. Since the normative force under these rules is purely consequentialist (i.e., depends only on the attainment of one’s purported goals), their performativity is necessary to adopt them: if their use did not make economic processes more like their depiction in economics, they would be ineffective and therefore ungrounded as rules. Yet, unlike engines, the effectivity of rules can be often transient. It seems possible to experiment in the coordination of agents who coincide in adopting similar decision criteria and see what their performative effect on prices is (until they opt for something different).

MacKenzie’s book shows that performativity is a formidable conceptual engine for the analysis of concrete markets. Let us take as much advantage of it as we can.

{August 2006}
{Journal of Economic Methodology 15:4 (2008), pp. 429-433}
Harro Maas, William Stanley Jevons and the Making of Modern Economics, Cambridge, Cambridge University Press, 2005, 330 pp.

La economía es una disciplina cuya Historia es tradicionalmente sensible a las disputas metodológicas –baste con pensar en manuales clásicos como los de Schumpeter o Blaug como ejemplo. Algo tuvieron que ver en ello las disputas acerca del propio estatuto de la economía como ciencia, pues cabía obtener un buen argumento a favor de la escuela neoclásica a partir de la convergencia que se produjo sobre su formulación matemática en el último cuarto del siglo XIX. Que autores de muy diverso origen y formación coincidieran en enunciar un mismo cálculo de utilidad para analizar las decisiones subjetivas debía probar algo sobre su veracidad (o, al menos sobre su potencia como programa de investigación, para decirlo con Blaug). No obstante, hace ya más de una década que esta convergencia paradigmática se viene interpretando no como prueba de la autonomía disciplinar de la economía, sino como ilustración de su dependencia respecto de otros saberes. El acierto de los primeros neoclásicos consistiría en servirse de una misma analogía con la mecánica newtoniana, y en su proceder no serían distintos de los propios físicos del XIX. Pero de ello no se siguen necesariamente consecuencias a favor o en contra de sus resultados: simplemente, se ilumina su contexto de descubrimiento. Aparecen, como veremos, otros dilemas.

El ensayo de Harro Maas que aquí comentamos sirve precisamente como ilustración de esta nueva manera de escribir la Historia de la economía como Historia general de la ciencia. Es decir, a la luz de intereses comunes a muy distintas disciplinas. Formalmente, por ejemplo, el amplio uso de archivos, la atención a temas tales como las representaciones visuales, instrumentación científica, etc. Y en cuanto a sus contenidos, se aprecia también aquí una voluntad de que el análisis se extienda allí donde vaya su objeto, sin atender a su demarcación disciplinar o al gusto de sus intérpretes canónicos. William Stanley Jevons es un personaje que se presta a este tratamiento, y el éxito de Maas en la empresa se vio avalado recientemente (2006) por el premio que le concedió la History of Economics Society.

Jevons fue, en efecto, un personaje singular: tras cursar estudios de química, se interesó por materias tales como el estudio de las nubes, la lógica y la construcción de autómatas, la psicología fisiológica, la estadística y sus representaciones gráficas. Y esto por mencionar solamente los temas abordados en este ensayo –de la dimensión épica de Jevons, se ha ocupado, entre nosotros, Juan Urrutia. Y obsérvese que en este índice no aparece la economía, cuando el título del ensayo alude precisamente a the making of modern economics. En parte, el lector interesado en la contribución específicamente económica de Jevons dispone ya de otras monografías recientes (como las de Schabas o Peart). Lo que Maas reconstruye en su ensayo es su gestación extradisciplinar, en la que adquiere un sentido diríamos que sorprendente.

Suele objetarse contra la teoría de la utilidad marginal su carencia de contenido psicológico. Pues bien, este ensayo nos descubre en qué condiciones pudo adquirirlo cuando Jevons la enunció y lo que encontramos es un argumento filosófico sumamente complejo que Maas reconstruye desde sus fuentes. Por una parte, los experimentos del autor sobre la formación de nubes le introdujeron en el principio de que la imitación era un procedimiento de análisis perfectamente aceptable allí donde se carecía de acceso inmediato (cap.4). Por otro lado, pudo aplicar este principio al análisis de la mente a través sus estudios de lógica que le condujeron, de la mano de Babbage, a la construcción de autómatas (caps. 5 y 6). Esta inspiración mecanicista se proyectó sobre la psicología, al defender Jevons su reducción a la fisiología corporal (cap. 7). Desde esta perspectiva, la utilidad, como cálculo de placer y dolor, debía interpretarse como una aproximación funcional a los procesos cerebrales, como prolongación de las disputas de la época sobre el trabajo como inversión de energía física, al modo de las máquinas, por oposición a quienes defendía su carácter de realización espiritual (cap. 8). En otras palabras, el cálculo económico se apoyaba en lo que hoy calificaríamos como una posición eliminativista en filosofía de la mente, arraigada en la pasión de sus contemporáneos por las máquinas (de vapor, claro: el Jevons de Harro Maas es un perfecto ejemplo de steampunk).

Una segunda objeción no menos recurrente contra el paradigma neoclásico es su falta de contenido empírico. Y otro acierto de este ensayo es el de presentarnos el programa de Jevons dentro de las disputas sobre el inductivismo de la Inglaterra del XIX (cap. 3), a las que nuestro autor contribuye con sus trabajos sobre la normalización de datos estadísticos a efectos de su representación gráfica (cap. 9). El tema de la medición como clave en el progreso de la ciencia, y en particular de la economía, es uno de los motivos dominantes en la obra de Jevons, tal como Maas nos las presenta. De hecho, la división entre ciencias sociales y naturales queda disuelta, pues los procedimientos de medida se justificarían de idéntica manera en ambas (la metáfora de la balanza es particularmente pregnante a este respecto: cap. 10).

Tenemos pues una reconstrucción de la obra de Jevons desde sus raíces culturales, cuyo mérito (dejando aparte el virtuosismo y erudición del análisis) radica en mostrarnos desde qué supuestos resultaba viable el programa marginalista en economía. Justamente aquellos cuya ausencia denunciaron después más encendidamente sus críticos. El dilema abierto entonces es qué ocurrió después de Jevons para que se eclipsaran los debates que justificaron este programa en su contexto de descubrimiento. Cabe sospechar que su resurgimiento hoy (a propósito de trabajos como los de Don Ross o Marcel Boumans) no es ajeno al ensayo del propio Maas. Sólo cabe reprocharle que no los abordase explícitamente, al menos en la conclusión. Muchos pensarán que quizá así estropease un magnífico ejercicio de Historia intelectual. Pero les responderemos que si el éxito de esta consiste aquí en cuestionar la demarcación convencional de otras disciplinas, ¿por qué habría de detenerse ante la suya propia?

{Septiembre 2006}
{Asclepio 59.1 (2007), pp. 321-323.}