Mostrando entradas con la etiqueta 0: En español. Mostrar todas las entradas
Mostrando entradas con la etiqueta 0: En español. Mostrar todas las entradas

15/4/09

Jon Elster, Sobre las pasiones. Emoción, adicción y conducta humana, trad. de J.F. Álvarez y A.Kiczkowski, Barcelona, Paidós, 2001.

Todavía hoy, a Jon Elster se le asocia en España con el marxismo de la elección racional, esa lectura analítica de la obra de Marx que se originó en las sesiones del September Group entre Londres y Oxford a principios de los años ochenta. Como filósofo de las ciencias sociales —una de sus muchas caras—, Elster defendió entonces un enfoque de la explicación intencional basado en mecanismos, canónicamente ilustrado por los modelos de elección desarrollados en la teoría de juegos. Pese a su acuidad formal, no estaba demasiado claro cómo se inscribían tales elecciones en la tantas veces confusa subjetividad del elector empírico. Por su parte, Elster nunca eludió esta dificultad y comienza a explorar una amplía casuística con la que ejemplificar tales mecanismos en sucesivos trabajos, bien conocidos del público español: Ulises atándose al mástil de su nave para escuchar el canto de las sirenas, la zorra que renuncia a las uvas verdes, etc.

No es extraño que su obra desembocase en un amplio estudio sobre las emociones que dio a la imprenta en 1999 con el título Alquimias de la mente, cuyo primer capítulo se dedicaba precisamente a la cuestión de los mecanismos. Allí donde no se dispone de leyes, defiende Elster, la explicación debe basarse en esquemas causales que den cuenta de por qué, en unas circunstancias dadas, algunas ocasiones ocurren unas cosas y otras veces no. Se objetará que este enfoque es más bien casuístico, y ajeno, por tanto, a nuestros ideales científicos, pero probablemente a esa admirador de Montaigne que es Jon Elster esta calificación no le disgustará. Así como éste desgranaba la diversidad del alma humana en sus Ensayos, Elster estudia los sentimientos examinando incontables ejemplos extraídos de los más diversos dominios mundanos (proverbios, novelas, ...) y académicos (neurología, fisiología, psicología...) en busca de mecanismos, ya que no de leyes

Lo que para algunos es, peyorativamente, dispersión intelectual, para Elster probablemente sea fidelidad a la propia condición rapsódica del campo. Así, en 1999 edita también Getting Hooked, un volumen sobre la adicción en el que participan, entre otros, economistas, sociobiólogos, psiquiatras y filósofos. Puesto que no hay leyes que sirvan como criterio de demarcación, no bastará un solo enfoque para agotar un fenómeno como la adicción. La búsqueda de mecanismos será, necesariamente, interdisciplinar.

Sobre las pasiones, basado en las conferencias Jean Nicod dictadas en París en 1997, es una buena introducción a estas pesquisas del último Elster. Se trata de un análisis comparado de las emociones y la adicción, en el que nuestro autor explora las posibles homologías entre los mecanismos que operan en ambos fenómenos —así, los capítulos 2 y 3. Además, se pretende analizar cómo se articulan emociones y adicción con normas, valores, conceptos y creencias culturamente mediados (cap. 4) y también de qué modo afectan a la elección (cap.5).

El programa no pudo ser más ambicioso, y quizá por ello el resultado sea algo decepcionante, si se compara con los otros dos volúmenes que antes citábamos. En su estudio de las emociones, Elster no sólo evita cualquier análisis filosófico —como los ensayados recientemente por David Casacuberta, entre nosotros—, sino que se resiste a cualquier reducción causal, ya sea desde la fisiología, la neurología, la etología, etc. Nuestro autor se queda a un paso del célebre Ignorabimus de aquel fisiólogo positivista enfrentado al misterio de la conciencia que fue Emil Du Bois-Reymond (cf. p. 51) y opta por una descripción fenomenológica de las emociones entre Teofrasto y La Bruyère.

Un tratamiento casuístico requiere una considerable extensión, y las treinta páginas que Elster dedica al tema de cultura, emoción y adicción son claramente insuficientes comparadas, por ejemplo, con el tercer capítulo de las Alquimias de la mente. El capítulo 5, «Elección, emoción y adicción» quizá sea el más compacto, tanto por las gradaciones que se introducen en el propio concepto de elección (según la sensibilidad a la recompensa), como por la actualidad de los asuntos tratados («La elección de convertirse en un adicto», «La adicción y el autocontrol»). Si en estos temas el ensayo filosófico compite en el mercado editorial con los libros de autoayuda, por una parte, y con el género de la farmacología folk que con tanto éxito practican autores como Antonio Escohotado, Sobre las pasiones presenta un enfoque racionalista que bien merecería una atención del público. Además, esta vez, a diferencia de otras, la versión española lo merece. Esperemos que abra paso a nuevas traducciones, igualmente sólidas, de los últimos trabajos de Elster.

{Octubre 2001}
{Isegoría 25 (2001), pp. 314-315}
Thierry Martin, dir., Mathématiques et action politique. Études d’histoire et de philosophie des mathematiques sociales, París, Institut National d’Études Démographiques [INED], 2000, 225 pp.

A la vista del catálogo de nuestro Instituto Nacional de Estadística, quién dejará de sorprenderse al descubrir entre las colecciones auspiciadas por el INED francés una dedicada a los Clásicos de la economía y la población, con cuidadísimas ediciones de Condorcet, Süssmilch, Quesnay, Graunt.... A esta colección se suma ahora, bajo la dirección de Eric Brian (EHESS), otra serie de Estudios e investigaciones históricas, cuyo primer volumen comentamos aquí. Matemáticas y acción política, compilado por Thierry Martin (Université de Besançon), es, además, una excelente representación de los trabajos que en Francia se desarrollan en torno a la matemática social desde múltiples enfoques (históricos, filosóficos, sociológicos... ).

La articulación de estos enfoques quizá sea el aspecto más original y fructífero de esta tradición francesa. Como ilustración de sus orígenes, resulta un acierto por parte de Thierry Martin la inclusión de un antiguo trabajo publicado por Georges-Théodule Guilbaud en 1949 para presentar la teoría de juegos a los economistas franceses . Guilbaud supo advertir la continuidad de los trabajos de Von Neumann y Morgenstern con los de los matemáticos de la Ilustración (de hecho, fue Guilbaud el «corresponsal» que advirtió a Kenneth Arrow de los antecedentes de sus trabajos en la obra de Condorcet) y contribuyó a fundar, en ese espíritu, el Centre d’Analyse et de Mathématiques Sociales de la EHESS. Desde allí Marc Barbut impulsaría, años después, el Seminario de Historia del cálculo de probabilidades y de la estadística con trabajos como el que se incluye en este volumen: una sutil exploración de los argumentos estratégicos de Maquiavelo desde la teoría de juegos.

Pero no se trata de una iniciativa exclusivamente parisina. Desde Besançon, el Laboratorio de investigación filosófica sobre lógica de la acción, dirigido por Robert Damien, organiza regularmente coloquios internacionales que reunen a especialistas internacionales, como el que dio origen a este volumen. Muestra de los trabajos que en él se desarrollan es el texto del coordinador del volumen, Thierry Martin, en el que se analiza el ajuste entre los modelos matemáticos de decisión y las decisiones empíricas. En una perspectiva igualmente filosófica se cuentan los trabajos de E. Picavet (U. París I) y D. Parrochia (U. Montpellier) en los que se discute, respectivamente, la articulación de los enfoques sanitario y económico en las decisiones médicas y el alcance de la modelización matemática del concepto de utilidad a la luz de sus orígenes intelectuales.

Pero quizá el relator más evidente entre matemáticas y política sea la economía. Marco Bianchini (U. Parma) nos muestra que esto ya ocurría en la Italia del siglo XVI, a través de un estudio de la obra de Gasparo Scaruffi. En ella se exige la intervención gubernamental para asegurar la estabilidad del orden monetario (dato da Dio & osservato dalla Natura), cosa que el autor aconsejó en diversas memorias enviadas a numerosos príncipes. Por su parte, y ya en el siglo XX, Sebastian Herz (U.T. Berlin) opone a este consejero aulico la figura del consultor representada por el interesantísimo estadístico alemán en Ernst Gumbel, de quien se incluye, además, la versión francesa de su «Klassenkampf und Statistik» (1928). Merece la pena leer paralelamente su análisis y el que Michel Armatte (U. Paris-Dauphine) nos ofrece de X-Crise, el grupo de ingenieros franceses que en esa misma época defendió la planificación como alternativa tecnocrática para enfrentar las crisis económicas.

Es interesante advertir el difícil equilibrio de Gumbel para defender al mismo tiempo que «la estadística es una ciencia específicamente capitalista» y, sin embargo, necesaria para la planificación económica. Como explica Hertz, a un lado tenía a economistas como los de X-Crise y al otro a los gestores soviéticos que pretendían prescindir de ella ante el inmediato advenimiento del comunismo. ¿Triunfó la estadística en Occidente por las razones que alegaba Gumbel en su escrito? El estudio de Armatte ofrece indirectamente algunas claves para mostrar que el pensamiento de Gumbel, dejando a un lado su opción política, no difería tanto del de los propios planificadores capitalistas.

Finalmente, el estudio de Eric Brian toma como objeto la propia demografía, a propósito de la cual plantea un dilema clásico: las cifras que nos proporcionan los demógrafos de otros tiempos (las que encontramos en los quipus incas o en los archivos de la Francia revolucionaria) ¿en qué medida son conmensurables con los números con los que cualquier demógrafo actual opera? El dilema que plantea su propia artículo es si una sociología objetivista (de inspiración bourdieusiana) puede explicarlo.

En suma, no se trata de un estado de la cuestión, pues los estudios que aquí se presentan intentan más bien replantearla, superando viejas polémicas ya completamente ausentes de este volumen (la disputa del positivismo, las ciencias sociales como forma de brujería...). Se trata ahora de contrastar distintas perspectivas (filosóficos, sociológicos, etc.) no necesariamente armónicas, con objeto de que aparezcan nuevos enfoques para estudiar los nexos entre matemáticas y acción política. Que sea un organismo público como el INED la que nos ofrezca la oportunidad de iniciar este debate resulta admirable, y demuestra, de un modo irónico, las tesis de Gumbel: la perversidad de las instituciones capitalistas es tal que animan la discusión sobre sus propios cimientos. Esperemos que pronto se dé el caso en España.

{Marzo 2002}
{Theoria 17 (2002), pp. 391-392}
Ignacio Sánchez-Cuenca, ETA contra el Estado. Las estrategias del terrorismo, Barcelona, Tusquets, 2001

A menudo se comenta la escasez de enfoques analíticos en la ciencia social española. Quizá por eso resulte una sorpresa encontrarse con un ensayo como ETA contra el Estado en el que la teoría de la elección racional se aplica al análisis de la estrategia terrorista en el conflicto vasco durante estos últimos veinticinco años. La sorpresa se atenúa al conocer al autor, Ignacio Sánchez-Cuenca, profesor en el Instituto Juan March, una de las instituciones de referencia en la aplicación de este enfoque a cuestiones sociales y políticas. No obstante, ETA contra el Estado no es un tratado académico, sino un ensayo polémico, perfectamente asequible para cualquier lector culto. Por una parte, se presenta en él un análisis bien distinto de la politología folk que tanto abunda a propósito de ETA. Por otro lado, la obra se cierra con una propuesta para acabar con ETA sobre la base de un pacto entre el Estado y el PNV, que indudablemente invita al debate.
Trataremos de comentar aquí los principales elementos del análisis, a saber: la caracterización de ETA como actor racional, el estudio de su enfrentamiento al Estado como una guerra de desgaste y la propuesta de pacificación final. La cuestión abierta por esta reseña pretende ser la del alcance científico de la aplicación de este enfoque: esto es, si se trata de un análisis propiamente causal o bien de un enfoque hermenéutico . Una cuestión metodológica que por una vez, esperamos, no parecerá ociosa, pues dependiendo de la opción que tomemos, probablemente confiaremos en distinto grado en la solución del conflicto que Sánchez-Cuenca nos propone.

1. LA CONSTRUCCIÓN DEL ACTOR RACIONAL

«ETA es un actor racional que actúa para conseguir un fin político». Ésta es la premisa de la que parte (p.11) el ensayo y, a sabiendas de que serán muchos los que se sirvan de ella para poner en cuestión su análisis, Sánchez-Cuenca inicia su argumentación con un preámbulo —el primer capítulo— que trata de convencer al lector de que el planteamiento no es de por sí absurdo.
Por una parte, Sánchez-Cuenca presenta al terrorista antes como un fanático que como un perturbado, esto es, alguien que subordina su vida (y la de los demás) a un único objetivo, en vez de carecer de ellos. Por otra parte, este objetivo será propiamente político (a saber la independencia vasca) pues, desconectado de éste, la actividad terrorista sería inviable. Así, según Sánchez-Cuenca, nadie apoyará a una organización cuyos miembros secuestran y asesinan en busca de ingresos o prestigio, si no lo hiciesen por un objetivo común. Y si este objetivo se creyese imposible, la organización se descompondría (pp.44-45).

Ahora bien, que ETA como organización persiga un objetivo político con su actividad terrorista no quiere decir que todos sus miembros lo compartan con igual grado de fanatismo. Así se explica en el capítulo quinto, sobre la psicología organizativa de ETA, en el que el autor analiza cómo selecciona a sus dirigentes, a saber: escogiendo a quienes se adhieran con mayor convicción a su planteamiento fundacional —i.e., obtener la independencia por la vía del terror. Esto es, los denominados duros, quienes, además, se ocuparán de que nadie en la organización lo cuestione.
Como advierte el propio Sánchez-Cuenca (p.27), no basta con discutir sus premisas para evaluar el rendimiento analítico de la teoría de la elección racional, pero conviene atender a su formulación para poder apreciar cómo se desarrolla el análisis. Desde este punto de vista, es, desde luego, obvio que si pretende aplicar al caso un enfoque de elección racional, tenga que caracterizarse previamente a ETA como actor racional. En cambio, no vemos con igual claridad si la estructura de los objetivos de ETA está igualmente constreñida por el modelo o está decididamente simplificada por el autor. Así, aun cuando el lector acepte que ETA persiga un objetivo político, Sánchez-Cuenca no explica apenas cómo se articula este objetivo con esas otras motivaciones espurias que quizá animen una parte de sus miembros. La ausencia de esta explicación condiciona, creemos, el curso ulterior del análisis —y particularmente su propuesta de pacificación—, pues por los mismos datos que el autor proporciona se infiere que a una organización como ETA no sólo le importa la consecución de la independencia vasca, sino la situación en la que entonces quedarán sus propios «afiliados».

Por ejemplo, supongamos (groseramente) que el Estado español le propone al Gobierno Vasco concederle el derecho a la secesión a cambio de que juzgue a los etarras aún en libertad en sus propios tribunales y les obligue a cumplir la condena o pagar las multas correspondientes: ¿aceptaría ETA esta propuesta? Probablemente, considerase esta exigencia un sacrificio excesivo o un tratamiento poco respetuoso con su condición de patriotas. Un terrorista que asesina por la independencia vasca y, al mismo tiempo, autointeresado, no verá contradicción en aplicarse a matar para llegar algún día a ostentar un grado en un futuro ejército vasco «por méritos de guerra».

Como es bien sabido, a menudo es posible articular objetivos políticos e intereses personales, sin que estos aparezcan como espurios. La cuestión es cómo ponderar unos y otros, y cómo afectará esta ponderación al enfoque estratégico de ETA, al que se dedican la mayor parte de los capítulos del libro. Veremos después su importancia, pero constatemos ya que no está muy claro si Sánchez-Cuenca simplifica para poder aplicar su modelo al análisis de la estrategia etarra, o si opta simplemente por prescindir del matiz. En todo caso, esto tiene su importancia a efectos de establecer su propio punto de vista, si —como decíamos al principio—busca una explicación causal propiamente científica o si en realidad nos está proponiendo una hermenéutica filosófica (de corte analítico) de la interacción ETA-Estado. Volveremos de nuevo sobre este aspecto.

2. EL ACTOR RACIONAL EN EJERCICIO

«La mayor parte de la historia de ETA ha transcurrido en una guerra de desgaste con el Estado» (p.73). Tal es la clave del análisis que Sánchez-Cuenca nos propone y, así enunciada, pocos apreciarán su originalidad. En cambio, si pensamos que la guerra de desgaste se refiere a un modelo de teoría de juegos que originalmente se aplicó a la competencia entre animales por un territorio y después a la competencia entre empresas por un monopolio natural, aplicarlo ahora a la actividad terrorista resulta, por lo menos, novedoso.

Matemáticamente, el juego consta de dos agentes que juegan n rondas compitiendo por un premio v. Cada ronda tiene para agente un coste c, que va disminuyendo con el número de rondas jugadas, a la vez que aumenta el valor de v. En el momento en que uno de los agentes no soporta más costes y decide retirarse, el otro recibe el premio, descontándose los costes que para él haya supuesto llegar a esa ronda. La estrategia de equilibrio, tal como la enuncia Sánchez-Cuenca, es «si el rival no se ha retirado en la ronda anterior, retírate en ésta con probabilidad p», donde p es una proporción entre coste y recompensa.

Si se acepta que ETA y el Estado operan como agentes racionales, tal y como se argumentaba en capítulos anteriores, ambos seguirán esta estrategia, pero ninguno de ellos sabe cómo valora el otro sus costes (c) y la recompensa (v) —técnicamente, la información es incompleta. Tanto ETA como el Estado podrán calcular en qué momento del juego les conviene retirarse, pero no pueden predecir en qué momento lo hará el otro.

El análisis de Sánchez-Cuenca se basa, justamente, en una estimación de estas dos variables, c y v. Con Max Weber, para Sánchez-Cuenca el premio (v) es «el ejercicio monopolístico de la violencia en un territorio», es decir, el ejercicio de la autoridad estatal en el País Vasco. El coste (c) se mide por el número de víctimas (muertes, detenciones, ...) en ambos lados (p. 87). Como el propio autor reconoce, la definición de ambas variables resulta problemática: por una parte «podría parecer, dada la experiencia de ETA en España, que la organización terrorista siempre tiene las de perder en una guerra de desgaste» (ibid.). O de otro modo, desde un punto de vista puramente cuantitativo, el Estado siempre podrá asumir un mayor número de víctimas que ETA. «Sólo desde el mundo de creencias deformadas de los etarras puede tener sentido pensar que van a conseguir ganar en la guerra de desgaste» (ibid.), advierte Sánchez-Cuenca.

Tras la exposición del modelo toda la segunda parte del tercer capítulo, así como el cuarto, se dedica al análisis de la aplicación de esta estrategia por parte de ETA en los aproximadamente veinte años que transcurren entre la instauración de la democracia y la última tregua etarra, con especial atención a las conversaciones de Argel. El espíritu del análisis parece ahora decididamente hermenéutico: no se trata tanto de analizar el desarrollo del conflicto estableciendo controles estadísticos sobre las variables previstas en el modelo, como de estimar en qué medida los actores enfrentados —particularmente, los dirigentes etarras— aprecian los costes del contrario —más que los propios— a partir de documentación ya publicada.

Aunque este ejercicio analítico tiene de por sí interés, es imposible dejar de preguntarse si la guerra de desgaste es algo más que la cualificación matemática de una metáfora ya empleada por los propios agentes. A falta de alguna relación estadísticamente precisa entre la evolución de la variable costes, durante esos veinte años y las distintas rondas del juego, la superioridad del análisis de Sánchez Cuenca radicará antes en su precisión conceptual que en su alcance empírico. Frente a la politología periodística que tanto abunda a propósito de ETA, el modelo de Sánchez-Cuenca una incomparable acuidad expositiva, aunque probablemente sólo apreciarán su valor metodológico quienes compartan su opción por la teoría de la elección racional.

No obstante, la acuidad que aporta el modelo no siempre se compadece con la confusión del conflicto, pues ¿cómo interpretar sin cifras la percepción etarra del desgaste —por más que se califique de deforme? Por una parte, la documentación de ETA examinada en el libro sugiere que los terroristas estiman que un alto número de vascos estaría dispuesto a colaborar con la organización —esto es, podrían resistir un amplio número de bajas. Por otro lado, ETA parece atentar desde el supuesto de que para provocar la rendición del Estado, el número de asesinatos debe ser proporcional no al número de españoles que eventualmente podrían participar en una guerra abierta, sino al cardinal de ciertos subconjuntos de la población española (militares de cierta graduación, agentes policiales, políticos). ¿Cuántas bajas pudo soportar ETA antes de llegar a la tregua de 1998? ¿Cuántos asesinatos más creía que debía aún cometer para alcanzar su objetivo?

Probablemente, muchos duden de que alguna vez se pueda dar respuesta a estas preguntas. Pero, en ese caso, la aplicación del modelo que nos propone Sánchez-Cuenca será ya inevitablemente hermenéutica, por matemática que sea su formulación. La cuestión entonces es si bastará este enfoque para aceptar la racionalidad de la propuesta política que a continuación se nos ofrece.

3. LOS ACTORES RACIONALES NEGOCIANDO

La tesis del capítulo sexto del libro es que la tregua de 1998 debe interpretarse como la retirada etarra en la guerra de desgaste, sin que por ello renunciase a sus fines. Simplemente, ETA habría reconocido la imposibilidad de vencer por sí sola al Estado, lo cual no le dejaba más alternativa que buscar la alianza de aquellos que pudiesen compartir su objetivo secesionista: esto es, los partidos nacionalistas vascos. Así se puso de manifiesto en el pacto secreto difundido en 1999. Sánchez-Cuenca analiza en este capítulo el desarrollo de los acontecimientos antes de la declaración de la tregua y después de su ruptura, desde el siguiente supuesto declaradamente contrafáctico: sin su alianza con los nacionalistas, ETA no habría sobrevivido.

En esto se basa la propuesta formulada en el epílogo en forma de matriz de pagos de un juego: puesto que ETA es un actor racional sabe que no puede volver a la guerra de desgaste y que su única alternativa pasa por aliarse con el PNV; para acabar rápidamente con ETA, el Estado tendrá que impedir tal alianza. Para ello, Sánchez-Cuenca propone que se le ofrezca al PNV un pacto que le ofrezca garantías de que, aislando a ETA, obtendrá un referéndum sobre la independencia tras su desaparición. De este modo, se vencería la tentación peneuvista de servirse de la actividad etarra en su propio interés y se le convencería de que, una vez desaparecida, aún tendrá medios para alcanzar sus objetivos secesionistas.

Como indica el propio autor (p. 208), el contrafáctico “ETA se vería abocada a disolverse si no hubiese encontrado el apoyo del PNV” será tanto más fiable cuanto mejor conozcamos la estructura causal del conflicto. Pero como apuntábamos en el epígrafe anterior, resulta dudoso que tengamos tal conocimiento. No cabe duda de que la explicación intencional de la actividad del etarra cuenta como factores causales con sus deseos secesionistas y sus creencias sobre los medios a su disposición para alcanzarlos (el número de bajas que puede soportar y el número de asesinatos que debe cometer, principalmente). Ahora bien, como veíamos en los epígrafes anteriores, el etarra que nos presenta Sánchez-Cuenca es un fanático racional con una percepción deforme de los costes de su actividad. Aun en el caso de que ETA reconociese su derrota en la guerra de desgaste, y supuesto que el PNV contribuyese a su aislamiento, ¿qué seguridad tenemos de que no encontrará motivos, por delirantes que resulten, para seguir con sus atentados?

Por otro lado, resulta curioso que en la propuesta de Sánchez-Cuenca el Estado deje de operar como un agente autointeresado y empiece a razonar en términos exclusivamente democráticos. Parece, en efecto, que el pacto se proponga para resolver un problema de credibilidad unilateral (la desconfianza del PNV ante el Estado), y no bilateral. Se argumentará, por un lado, la existencia de un pacto constitucional previo, que aparentemente el PNV no tuvo escrúpulos en transgredir en su acuerdo secreto con ETA. Y quizá algunos recuerden las desmedidas ambiciones territoriales de los independentistas vascos: ¿por qué concederle el derecho a fundar un Estado a un movimiento político con declaradas intenciones expansionistas sobre tu propio país? Y todavía una duda, a la vez democrática y autointeresada: ¿qué tratamiento penal se reservaría a los etarras en el pacto con el PNV? Lo que interrogantes como éstos ponen de manifiesto es que, si bien contamos ya con un modelo para analizar la estrategia etarra, por imperfecto que resulte, nuestra comprensión de la estrategia del PNV dista mucho de satisfacer las expectativas analíticas creadas por este ensayo.

¿Quiere decir esto que el ensayo es de por sí defectuoso? Muy al contrario, todo lo más se diría incompleto, si es que cabe exigirle tanto a una obra que es declaradamente se concibe como un ensayo mundano antes que como un tratado académico. Buena parte de las limitaciones aquí enumeradas son inherentes a la aplicación de la teoría de la elección racional a cuestiones políticas, antes que a al ejecución de Sánchez-Cuenca. En todo caso, el mérito del autor radica en ofrecer una presentación sumamente asequible de este enfoque analítico, cuya principal virtud es la de esclarecer considerablemente el debate sobre ETA. Puede ser que su alcance sea ante todo hermenéutico, pero eso es más que suficiente en un debate en el que la mayor parte de las voces aspiran a ser simplemente interpretativas... a costa de aumentar la confusión.

{Febrero 2002}
{Revista Internacional de Filosofía Política 19 (2002), pp. 242-247}

Juan Urrutia, Economía en porciones, Madrid, Prentice Hall, 2003.

Caveat lector! Quien acostumbre a disfrutar del mejor ensayo probablemente desconfíe de un volumen editado por Prentice Hall con una innegable paradoja pragmática en portada: al frontispicio «Donde las grandes ideas encuentran expresión» acompaña una imagen con ocho quesitos cuya distribución evoca una ficha del Trivial Pursuit. No es serio, claro, ni tampoco es seria una edición que carece de lo más elemental que cabría esperar en un libro de estas características (e.g., índices de nombres, origen de los textos, etc.) y abunda, en cambio, en las erratas más detestables. Pero tanto descuido plantea un interrogante: ¿cómo es posible que un texto sobreviva de este modo a su editor?

La respuesta, claro, la encontraremos en el autor, pues da la impresión de que Juan Urrutia se decidió a recopilar sus columnas en Expansión para probar su capacidad para desafiar las convenciones del género: escribir para un lector que busca ideas originales y pregnantes a propósito de la actualidad económica. A diferencia de muchos columnistas, Urrutia es un catedrático bien informado intelectualmente –y no ya sólo a propósito de la economía (su especialidad)– y escribe para un público que también querría estarlo, pero no sabe cómo. ¿Qué profundidad hay en cuestiones tales como las subastas de teléfonos móviles, las disputas sobre la propiedad intelectual o las burbujas bursátiles? Es difícil apreciarlo en un país donde los asuntos exquisitos de economía académica no son del dominio del público culto. Pero Urrutia se atreve a más: no se trata de divulgar simplemente tales exquisiteces, sino de someterlas a un tratamiento ensayístico apoyándose en un tema de actualidad. Y todo esto en apenas tres páginas por columna, hasta sumar setenta y tantas.

Sabemos, por ejemplo, que el mundo digital se articula en redes, pero ¿por qué una red provoca la explosión empresarial que dio origen a la Nueva Economía? Hace algunas décadas ya que los sociólogos discuten sobre redes pero Urrutia nos mostrará en cambio cómo el economista, al explicárnoslas, nos obligará a repensar ideas tales como identidad y confianza; cómo los efectos red nos obligan a pensar de distinto modo sobre la competencia no ya desde el individualismo estricto, sino sobre la constitución de comunidades; y, finalmente, cómo este nuevo enfoque obliga a plantearse el tejido de redes (netweaving) como la actividad más característica de este nueva era empresarial. Todo esto en las 14 páginas de su serie sobre La lógica de la abundancia.
Hubo un tiempo no muy lejano en que toda crítica solvente lo era, ante todo, de la economía política. Hoy, en cambio, muchos se sorprenderán de que pueda decirse crítica una reflexión que tuvo como primer destinatario a los lectores de diarios editados en papel salmón. Quienes todavía no adviertan qué allí están germinando los debates en los que se dilucidarán las grandes disputas de nuestro presente (el tamaño del Estado, la regulación de la propiedad, la existencia de grandes monopolios...) tendrán hoy en Economía en porciones su guía para descubrir en qué consiste hoy la crítica. Si, como les suele ocurrir a los libros mal editados, también éste se acaba saldando y usted, amable lector, se lo encuentra algún día en su visita al supermercado, no deje de comprarlo: tendrá entre sus manos un auténtico underground classic de nuestro tiempo.

{Septiembre 2003}
{Libro de notas}
Luis Vega Reñón, Artes de la razón. Una historia de la demostración en la Edad Media, Madrid, UNED, 1999 + Idem, Si de argumentar se trata, Barcelona, Montesinos, 2003.

«Se ha escrito que la lógica medieval es de manera primordial y medular “teoría de la argumentación”» (Artes de la razón, p. 96). No es tan frecuente, sin embargo, que un mismo autor se ocupe correlativamente de estas dos materias (lógica medieval y teoría de la argumentación) y nos proponga una discusión tan bien informada como escéptica del estado de la cuestión en ambas. Luis Vega es conocido ya por sus muchas contribuciones a la introducción de múltiples autores y temas relacionados con la Historia y la Filosofía de la lógica en nuestro ámbito lingüístico. Estamos por tanto ante una perspectiva de autor, aquí oculta en distintos géneros (la monografía, el manual). Estas líneas sólo pretenden colaborar a explicitarla.

1. ARTES DE LA RAZÓN

Artes de la razón continúa a su modo la empresa iniciada diez años antes en La trama de la demostración , sobre los usos apodícticos de los griegos, pero la articulación argumental es ahora distinta. Puestos a estudiar la demostración en la Grecia clásica, las opciones obvias parecen, desde luego, Aristóteles y los estoicos –por el lado de la lógica–, y Euclides –por el de la matemática. Dejando aparte las dificultades inherentes a la transmisión de sus escritos, es razonable pensar que de ellos se infiere una muestra suficientemente representativa de las prácticas demostrativas griegas entre los siglos IV y V adC. Ahora bien, ¿de qué base textual cabría servirse para abordar el estudio de más de mil años de especulación con análogas garantías?

Para resolver este dilema, Luis Vega se sirve implícitamente del propio ideal demostrativo de los griegos articulando su obra para mostrarnos cómo los medievales lo reconstruyeron. En primer lugar, textualmente, pues Artes de la razón parte de un análisis de la recepción del corpus griego (y en particular, Aristóteles y Euclides) en el Occidente medieval del siglo XII [caps. 1-2], con el que se pone ya de manifiesto que el ideal de la ciencia demostrativa le debe más a un tratado teológico de Boecio (De hebdomadibus) que a los Analíticos segundos. En segundo lugar, contextualmente, intentando explicar de qué modo se gesta un ideal de prueba dialéctica que sirve de facto como alternativa a la demostración, aun cuando de iure esta siga contando como canon del verdadero saber. Así, la segunda parte [caps. 3-5] explora de qué modo la práctica de la argumentación en las Facultades de Teología y Artes determina, a partir del siglo XIII, la constitución de cánones sobre la articulación y cogencia de la prueba. La normalización de las disputationes académicas (asociadas a la obtención de grados académicos y «formalizada» en la teoría de las obligationes) propició así que se concediera más atención a la detección de esquemas inferenciales informales (las consequentiae) o al análisis de sophismata –sobre los cuales se pudiese detectar una contradicción en un debate oral– antes que a la silogística aristotélica [cap. 3]. La devoción medieval por los signos encuentra del mismo modo su continuación en el procedimiento de exégesis textual desarrollado por los maestros en la lectio: siendo la significación algo siempre incierto para el intérprete, la plausibilidad (argumental, probatoria) se vuelve a la vez más accesible y más útil que la certeza (demostrativa) [cap.4]. Así las cosas, Artes de la razón se podría presentar como un ensayo de epistemología social. No obstante, el autor es cuidadoso de advertirnos que su análisis no va más allá de establecer una correlación entre prácticas sociales y usos argumentales, antes que una determinación causal de los segundos por los primeros: la selección de textos y autores evidencia cierto grado de asociación, pero no se excluyen otras (p. 84).

Una vez explorada la práctica de la argumentación, la tercera parte del libro [caps. 6-8] estudia de qué modo la concebían los autores medievales cuando enfrentaban las cuestiones de las que los griegos (aquí Aristóteles y los estoicos) daban cuenta mediante la demostración. A saber, el conocimiento y la explicación. Nuevamente, se parte de un análisis de la recepción de los distintos saberes demostrativos griegos [cap. 6] ampliando las paradojas avanzadas en la parte primera [cap.2]: así, la reconstrucción como ciencias demostrativas de la teología (Nicolás de Amiens) o la propia lógica (en el De consequentiis de Buridán). Se trata de explorar, por tanto, la dimensión sistemática del ideal de conocimiento por demostración, mostrando cómo debió ser sutilmente acomodada a unas exigencias intelectuales (y unas prácticas argumentales) muy distintas de las enfrentadas por Aristóteles en los Analíticos segundos, tal como se ilustra con un breve examen de las propuestas epistemológicas del Aquinate y Ockham [cap.7] y de la dimensión causal tradicionalmente asociada al conocimiento demostrativo [cap. 8].La paradoja (pragmática) de un Santo Tomás defendiendo la excelencia del saber demostrativo per modum quaestionis quizá sirva para ilustrar la singularidad de la empresa.

Que la conclusión no merezca un capítulo separado y se nos presente como un epígrafe más del octavo y último ilustra probablemente el deseo de evitarla: se opta por enumerar un buen número de cuestiones abiertas al pensar en el desarrollo de los temas tratado al pasar a la Edad moderna. Y quizá ello nos revele algo sobre la propia intención de la obra, pues aun cuando la erudición, el manejo de las fuentes, las cautelas filológicas etc. son más bien propias de una monografía, Artes de la razón se nos presenta más bien como un ensayo sobre la suerte del ideal demostrativo en unos siglos que desafían la claridad de la exposición aristotélica o la práctica euclidea. Y probablemente también la imposibilidad de agotar el tema como ocurría en La trama.... En efecto, la organización de un material tan desbordante en poco más de 300 páginas requiere la adopción de un punto de vista que no puede ser, desde luego, demasiado cercano al de los propios autores medievales y que muchos objetarán como anacrónico . Su justificación es más bien filosófica y quizá el mayor reparo que se pueda poner a este libro es que no se explicita. De ahí la conveniencia de acudir en su busca a la segunda de las obras que aquí reseñamos.

2. SI DE ARGUMENTAR SE TRATA

Publicado en la «Biblioteca de divulgación temática» de Montesinos, Si de argumentar se trata está concebido como una breve presentación de la teoría de la argumentación –no es tampoco la primera incursión del autor en el ámbito de la didáctica . Luis Vega adopta un aquí punto de vista clásico, distinguiendo la perspectiva lógica, dialéctica y retórica sobre el ámbito de la argumentación y aplicando sistemáticamente cada una de ellas al estudio de los buenos argumentos [cap. 2] y los malos argumentos [cap.3]. Una introducción panorámica [cap.1] y una breve conclusión [cap.4] cierran las 300 páginas (en formato bolsillo) de las que consta la obra. Abundan los ejemplos y los esquemas, y se añade una útil bibliografía comentada junto con un bien construido índice analítico. Si de argumentar se trata constituye, por tanto, una introducción accesible a algunas de las cuestiones más vivas en el arte del razonamiento informal, aunque probablemente –y por paradójico que resulte– lo que mejor ilustra sean sus dificultades.

Si en Artes de la razón la concepción griega de la demostración servía como canon para enjuiciar su desarrollo medieval, se diría que el punto de vista lógico desempeña un papel análogo al evaluar los nexos ilativos en la argumentación (pp. 91-112). Obviamente, Luis Vega reconoce algo más que relaciones de consecuencia en los buenos argumentos, que deben ser, además, epistémicamente cogentes. Ahora bien, la dificultad que se plantea aquí es cómo caracterizar esta cogencia epistémica, sobre todo cuando la argumentación se vuelve informal y el nexo entre premisas y conclusión queda indeterminado. Así, para caracterizar entonces la plausibilidad argumental, Luis Vega apela al decálogo de buenas prácticas argumentales de van Eemeren y Grootendorst, como si de su observancia se siguiesen regularmente argumentos plausibles. No obstante, si nos detenemos en el contenido del decálogo, advertiremos que más bien nos indica cómo evitar malos argumentos (en general, falacias, ampliamente discutidas en el capítulo 3). Desde este punto de vista, los obstáculos que encuentra la teoría de la argumentación se derivarían de la ausencia de un punto de vista general (formal) sobre nexos ilativos entre premisas y conclusiones (más allá de la consecuencia lógica) y del exceso de problemas epistemológicos que aparecen al intentar dar cuenta materialmente de su cogencia.

Por tanto, cabe leer también Si de argumentar se trata como un ensayo sobre estas dificultades, lo cual probablemente ocasione algunas complicaciones a quien se sirva de él como introducción, sin noticia previa de algunos debates clásicos en filosofía de la lógica. Quizá para remediarlo, y a modo de introducción a estos, le convenga leer en primer lugar la conclusión, un breve ensayo en el que se discute la condición normativa de la lógica como canon argumental en una perspectiva que le debe mucho al inferencialismo semántico de Brandom.

Los dilemas que plantea la reconstrucción de las disputas del siglo XII reaparecen al analizar las del siglo XXI: probablemente la dificultad material de organizar un material milenario (el de los escolásticos sobre la argumentación) no sea sólo cuantitativa, sino también conceptual, y siga aun hoy irresuelta. ¿Es posible encontrar una teoría sobre la argumentación que articule de modo convincente las dimensiones lógica, dialéctica y retórica de un modo convincente? Luis Vega nos presenta dos ensayos escépticos y muy bien informados que le serán útiles a quien quiera darles su «uso natural» (como monografía, en el primer caso; como manual, en el segundo), pero que indudablemente aprovecharán también a cuantos busquen temas para la reflexión sobre la lógica, más allá del propio cálculo (y de buena parte de las disputas asociadas a él durante el XX)

{Enero 2004}
{Theoria 19 (2004), pp. 235-237}
J. L. Luján & J. Echeverría, eds., Gobernar los riesgos. Ciencia y valores en la sociedad del riesgo, Madrid, OEI-Biblioteca Nueva, 2004

La compilación de ensayos sobre el riesgo que nos proponen Luján y Echeverría recoge las contribuciones presentadas a un seminario organizado en 2001, bajo su dirección, por la Universidad Internacional Menéndez Pelayo y la Organización de Estados Americanos. Constituye, por tanto, un estado de la cuestión considerada en una perspectiva CTS, lo cual probablemente constituirá para muchos su nota más original. En particular, por lo que toca al buen número de análisis filosóficos que se suman a los sociológicos o estrictamente técnicos.

Así, una parte significativa de los textos compilados podrían agruparse como análisis de los efectos que tuvo la introducción del concepto de riesgo sobre la teoría social. Al admitir una dimensión contingente e irreductible a la cuantificación en nuestra vida social, se pone una vez más en cuestión el ideal positivista de apelar a leyes (por ejemplo, estadísticas) que sirvan a la vez para explicarla científicamente y organizarla políticamente. En esta perspectiva, sugerida en el propio texto de López Cerezo y Luján, encontramos cuatro ensayos sobre el alcance de la tesis de Beck: Bechmann afirma explícitamente la contingencia de la vida social; Ramos reivindica el concepto de sociedad de la incertidumbre interpretando esta desde la acción; Carr e Ibarra introducen con este mismo propósito el concepto de indeterminación; y Echeverría, por último, descompone la aparente unidad del concepto de riesgo al analizarlo desde los diferentes valores a los que va aparejado.

J. Francisco Álvarez y León Olivé optan por una aproximación indirecta, planteándose, respectivamente, qué modelos humanos o qué concepto de eficiencia tecnológica (al que se aproxima también Eduardo Rueda) sirven mejor para introducir el concepto de riesgo en la teoría social y articularlo con el debate normativo. El texto del propio Beck va un paso más allá y, suponiendo su propio concepto de riesgo, se plantea cómo reformar la ciencia política en una perspectiva cosmopolita para enfrentar teóricamente la amenaza terrorista.

Esta aproximación normativa al riesgo es ya predominante en el resto de las contribuciones recogidas en el volumen. Encontramos, por una parte, un conjunto de ensayos de ética aplicada a cargo de Cranor, Shrader-Frechette y García Menéndez. Todos ellos enfrentan un caso particular (riesgos bioquímicos en la alimentación, contaminación en territorios indígenas y alimentos genéticamente modificados) que documentan convenientemente, planteando a continuación los dilemas morales que suscitan para proponer, de seguido, sus posibles soluciones desde distintas teorías éticas.

Por otro lado, el resto de los trabajos recopilados adopta una perspectiva política que se modula en distintos tonos. Palou y también De Marchi y Functowicz se ocupan de la gestión del riesgo en la Unión Europea, el primero mediante una revisión de sus protocolos de evaluación de la seguridad de los alimentos; los segundos se concentran en cómo se ha regulado en ella la cuestión más general de la gobernabilidad del riesgo. Luján y López Cerezo analizan esta misma cuestión en perspectiva siguiendo la evolución del contrato social científico estadounidense en el XX. Arocena se ocupa, en cambio, del caso de los países subdesarrollados.

Como puede apreciarse ya, la diversidad de perspectivas reunidas en este volumen es considerable, lo cual será, sin duda, una ventaja para quienes estén interesados en una panorámica. No obstante, tratándose como es el caso de las actas de un seminario, se echa en falta una discusión más explícita entre los autores, en particular en lo que se refiere a la discusión general del concepto de riesgo. Beck constituye la referencia común, como lo es también el volumen de López Cerezo y Luján (Ciencia y política del riesgo, 2002) para los autores de lengua española. Pero, al menos en mi caso, resulta inevitable preguntarse en qué medida coincidieron o discreparon en el seminario Bechmann, Ramos o Carr e Ibarra, por poner solo un ejemplo. Por otro lado –y de nuevo esto es una opinión personal–, sorprenden un tanto las críticas que se vierten aquí y allá contra la cuantificación probabilística del riesgo. Cabe intuir las dificultades que ofrece a una concepción frecuentista de la probabilidad como la que subyace al contraste de hipótesis (la cuestión de los falsos positivos, a la que a menudo se alude en el volumen). Pero si se interpreta la probabilidad como grado de creencia, no se ve qué dificultad en particular entrañaría analizar en tal perspectiva muchos de los casos considerados en el libro (e.g., p. 38, pp. 60-63, pp. 92-94). Supuesto, claro está, que esta perspectiva cuantitativa tenga algún interés para el debate social que se pretende promover en torno al riesgo, cosa que no resulta del todo obvia en muchas de las contribuciones a este volumen.

No obstante, estas cuestiones teóricas no obstan para que las muestras de análisis aplicado de riesgos que se nos proponen resulten sumamente fecundas. Los trabajos de Cranor y Shrader-Frechette muestran en qué grado es posible adquirir una posición normativamente defendible en cuestiones sumamente controvertidas (algo más inconcluyente, pero igualmente bien orientado resulta el trabajo de García Menéndez). En su conjunto, el volumen resulta muy informativo y proporciona respuestas y perspectivas con las que abordar buena parte de los interrogantes que abundan hoy sobre el riesgo.

{Mayo 2005}
{Madri+d}
Luis Arenas, Identidad y subjetividad. Materiales para una historia de la filosofía moderna, Madrid, Biblioteca Nueva, 2002, 494 pp.

En la era digital, algoritmos matemáticos ejecutándose sobre circuitos de silicio nos crean múltiples identidades ad hoc cada vez que accedemos a una red. Puestos a pensar esa multiplicidad del yo, quizá sorprenda descubrir que también su identidad pudo pensarse, hace ya cuatrocientos años, sobre el álgebra y el análisis. Y de múltiples modos, como veremos. Tal es la tesis de Identidad y subjetividad, el ensayo que Luis Arenas —profesor hoy en la Universidad Europea de Madrid— concibió como Tesis doctoral y que al publicarse adquiere su auténtica dimensión. Quien agradezca una aproximación ensayística a la Historia de la filosofía, sin duda apreciaría diez años atrás La era del individuo, un estudio en el que Alain Renaut exploraba el conflicto moderno entre las ideas de individuo y sujeto. Con este mismo espíritu, Arenas recorre algunas de las múltiples vías por las que se piensa la identidad del sujeto en los siglos XVII, que a efectos de esta reseña cabría sintetizar apelando a la oposición contemporánea entre las perspectivas de primera y tercera persona. En efecto, nuestros estados mentales los conocemos en primera persona, ¿y quién no usará el pronombre yo al referirse a ellos? Pero dejaremos de usarlo cuando queramos referirnos a otros objetos o sujetos, para los que emplearemos cualquier pronombre de tercera persona. Para autores como Davidson, la imposibilidad de unificar estas dos perspectivas constituiría hoy el problema del conocimiento.

Leeremos aquí Identidad y subjetividad, por tanto, como un ensayo sobre los obstáculos que encuentra la constitución de esa perspectiva de primera persona, al plantearse la cuestión de la identidad del yo cuatro autores distintivamente modernos (Descartes, Leibniz, Spinoza y Kant). El primero de los obstáculos se encontraba en la superación de un viejo esquema de identidad, la idea de sustancia, que desde Aristóteles venía sirviendo para pensar cómo cualquier entidad individual podía seguir siendo idéntica a sí misma pese a experimentar cambios. Correlativamente, si el avance de las ciencias se sostenía sobre igualdades matemáticas descubiertas en el mundo, ¿no podrían servir también para pensar la propia identidad personal? Y aquí el segundo obstáculo: ¿no quedaría ésta de algún modo disuelta en la universalidad de la verdad matemática? Estos son algunos de los interrogantes que Arenas recorre en cuatro ensayos: dos más amplios dedicados a Descartes y Leibniz y dos más breves, a modo de contraste de los anteriores, sobre Spinoza y Kant. Detengámonos brevemente en aquellos.

La constitución de la perspectiva de primera persona en la obra cartesiana se nos presenta de un modo doblemente paradójico en los cinco primeros capítulos de Identidad y subjetividad. En primer lugar, las dificultades se originan en las deudas cartesianas con la tradición escolástica, para la cual la identidad del sujeto tendría que concebirse externamente (en tercera persona) como una sustancia individual (pp. 157-159). Pero al subvertir esta tradición reduciendo a tres el número de sustancias reales (Dios, extensión y pensamiento), Descartes se ve ante el dilema de explicar en qué sentido el sujeto puede ser sustancia y, por tanto, un auténtico individuo, cuando cualquier apariencia corpórea deja de servir como criterio de individuación (pp.106-116). En efecto, Descartes no podía renunciar a la concepción sustancial del sujeto, pues era imprescindible para poder atribuirle un alma (pp. 159-169). El alma serviría, además, como principio de individuación formal del individuo, según el magisterio tomista (p. 166), pero no es ésta la concepción que hoy tenemos por distintivamente cartesiana. La individualidad sustancial del sujeto cartesiano se cimentará así en el descubrimiento de que su esencia no consiste «sino en pensar», con independencia de cualquier cosa excepto Dios (pp. 154-158). Por más que el estatuto ontológico de esta entidad pensante sea difícil de justificar de acuerdo con el orden establecido en los Principios de filosofía (pp.118-121), el argumento del genio maligno no dejaría otra alternativa que concebir la subjetividad en primera persona, a partir de la experiencia individual de incorregibilidad y transparencia de los propios estados mentales (p. 127). La sustancia se nos mostraría así escindida entre la certeza (el cogito) y la salvación (el alma).

No obstante, Luis Arenas opta por un enfoque decididamente epistemológico en la discusión de la subjetividad cartesiana, concentrándose en sus aspectos más modernos (o menos medievales) y, en particular, en su relación con la matemática. A ello se dedican tres de los cinco capítulos dedicados a Descartes, con una conclusión de nuevo conflictiva para la recién descubierta perspectiva de primera persona. La identidad aparece ahora ya no como sustancia, sino como objeto de intuición matemática y el contenido de tales intuiciones constituiría los estados mentales más característicos de nuestra subjetividad. Nuestro autor recoge y desarrolla aquí una sugerencia de Vidal Peña a propósito de la ausencia de contradicción como nota distintiva de la conciencia cartesiana (p. 95). Conoceríamos el mundo matemáticamente, estableciendo igualdades aritméticas y geométricas (pp. 60-68), y esta mathesis universalis cimentaría de tal modo nuestra racionalidad que Arenas concluirá: «[L]a hipótesis de un Genio marfuz sólo es requerida ante la obstinada certeza que nos impone la matemática» (p. 7). Lo propio de la subjetividad cartesiana sería así el carácter universal de las identidades intuidas y, paradójicamente, no sería éste su aspecto más moderno, pues sólo desde el cogito se podrá establecer que es en la inmanencia de los propios estados mentales antes que en el objeto de la intuición (p. 150). Y quizá sea esta la carencia más notable que este estudio descubre en Descartes: ¿qué hace que esa sustancia pensante en primera persona sea idéntica a sí misma? O dicho en términos más contemporáneos: ¿cuál es la referencia del yo?

Identidad e individualidad —pero no tanto subjetividad, como vamos a ver— son los temas centrales en los siete capítulos dedicados a Leibniz en la segunda parte de este ensayo. La identidad nos sirve, en primer lugar, para pensar una de las ideas centrales en su metafísica, como es la de armonía, entendida como una ampliación de la igualdad geométrica (cap. 7). I.e., una proporción «compensada» entre entidades diversas, que, en el límite, serviría como ley ordenadora de la omnitudo rerum (p. 239). Concediendo el máximo grado de realidad al individuo (p. 240), la diversidad era efectivamente inevitable, y de ahí que para Leibniz resultase obligado explicar cómo esa individualidad diversa es subsumida conceptualmente, cómo conocemos el mundo. Los capítulos 8 y 9 discuten las ideas de Leibniz sobre la constitución de nuestros conceptos en sus aspectos lógicos y epistemológicos, y en ellos se nos presenta la verdad como identidad entre sujeto y predicado en una proposición. Esto se aplicaría, desde luego, a las verdades de razón, pero también a las proposiciones contingentes (pp. 303-307), pues, según Arenas, en éstas la identidad se establecería no por articulación conceptual de ambos términos, sino por síntesis entre los objetos mismos, tal como exige el principio de razón suficiente. Su composibilidad, según el decreto divino, sería armónica y equivaldría, por tanto, a una identidad.

El Leibniz más escolástico aparece en los tres capítulos siguientes dedicados al problema de la individuación, donde se nos presenta la evolución de sus ideas desde sus escritos de juventud (su Disputatio metaphysica [1663] y la Confessio philosophi [1673]) a los Nuevos Ensayos. Como Descartes, también Leibniz se adhiere a una tesis tomista, en este caso la individuación por la forma sustancial (cap. 12), aun cuando adaptada a su propia concepción de la individualidad —particularmente como principio interno de actividad y transformación en el dominio de la vida (p.367). En cambio, de estos siete capítulos sólo uno se dedica a la cuestión de la identidad personal y en él se confirma la tesis ya avanzada por Alain Renaut: Leibniz piensa mas en individuos que en sujetos (p. 466). Pese a valorar el sentimiento del yo como autoridad que acompaña a la primera persona, la perspectiva leibniciana sobre la conciencia es más bien la de la tercera persona, atribuyéndole razón y voluntad como producto de su conatus individual, esto es, de un impulso causal anterior a ellas. La diferencia ontológica con Descartes a este respecto no puede ser más acusada: si para éste la apercepción de los propios estados mentales se imponía sobre la indistinción de su concepto de sustancia, para Leibniz la identidad reconocida en la continuidad de la memoria (y manifiesta externamente en el carácter) sería un efecto de su principio de individuación sustancial. De él se deriva esa principio de actividad del que resultan voluntad y razón. Para Leibniz, la conciencia no es, desde luego, el único medio de constituir la identidad personal (p. 376).

Como el lector ya intuirá, Identidad y subjetividad es una obra sumamente informativa sobre cuestiones de innegable interés, aun a cuatro siglos de distancia. Los materiales que el subtítulo promete al historiador de la filosofía moderna son abundantes y de calidad, y el amante del ensayo tendrá en estos cuatro (uno por autor) una recopilación sugerente. No obstante, quienes se encuentren en esta última condición probablemente le reprocharán a su autor que les olvide en el momento de las conclusiones. En efecto, la obra se cierra con una recapitulación en las que se clasifican pulcramente las posiciones de los autores estudiados respecto a las cuestiones anteriormente estudiadas. Nadie dejará de agradecerla, pero quizá deje más contento al especialista que ordena sus ideas que a ese amante del ensayo que a estas alturas se estará preguntando qué es exactamente qué hay de moderno en unos autores obsesionados por la teología y las matemáticas. Dicho de otro modo, nadie negará la importancia de los conflictos analizados por Arenas, pero ¿cómo ubicar estos materiales en nuestra concepción de la Modernidad?

Es inevitable preguntarse, en efecto, si tan importante es el papel de la matemática en la constitución de la subjetividad moderna como para que su sola consideración baste para superar las disputas teológicas en las que nuestros autores se ven incesantemente envueltos: ¿es la secularización un simple efecto de la ciencia moderna? Cabría responder positivamente, desde luego, apoyándose en muy distintos autores (Husserl sería un ejemplo inmediato), pero eso supondría un compromiso con una concepción particular de la Modernidad que tendría que argumentarse —más allá de esa inversión onto-epistémica invocada sucintamente al comienzo (pp.26-29). En suma, Luis Arenas tiene el mérito indiscutible de mostrarnos que la subjetividad es una idea equívoca a la que no sólo se accede en primera persona. Contrae también una deuda con sus lectores: explicar cómo esa subjetividad se vuelve moderna. Le sobra talento para el ensayo filosófico como para no dejar de saldarla.

{Con Marta García Alonso, junio 2003}
{Teorema 24.3 (2005), pp.178-81}
Vicente Serrano Marín, Nihilismo y modernidad, México-Barcelona, Plaza y Valdés, 2005, 266.

En Nihilismo y modernidad, Vicente Serrano se propone denunciar una religión académica. Como tantas veces, su éxito se debe a los engaños de sus sacerdotes, que nos ocultan el origen teológico del nihilismo para presentárnoslo como un credo secular. Para Serrano, el auténtico impulso ilustrado de la Modernidad es la crítica despiadada de cualquier teología, denunciada como superstición. A ello se aplica en este ensayo, a propósito de toda una tradición que, desde el diagnóstico de Jacobi a principios del XIX, pretende pensar filosóficamente desde lo incondicionado, sea éste el sujeto o el discurso. Frente a quienes sostienen su análisis en un orden causal inmanente como el que nos descubren las ciencias en la naturaleza o la sociedad, los partidarios de esta nada incondicionada ejercerían como sacerdotes profanos, contribuyendo a la supervivencia del irracionalismo que sostuvo las antiguas religiones. ¿Cómo defender semejante tesis?

Vicente Serrano es un reputado especialista en el Idealismo alemán, con monografías y ediciones de buena parte de los autores que aquí se estudian. No obstante, al modo de La era del individuo de Alain Renaut, Nihilismo y modernidad es antes un ensayo sobre la génesis de la filosofía contemporánea que una Historia en sentido estricto. Se pretende dar sentido general a una secuencia de autores que probablemente se perdiese si se dedicara a cada uno de ellos un análisis erudito. Ésta es, por tanto, una propuesta para quienes crean que cabe encontrar un sentido filosófico a nuestro presente a partir de las obras de algunos de sus principales pensadores. Y, en particular, es un ensayo contra todos aquellos que lo interpreten favorablemente como era del nihilismo.

La primera parte comienza con una tesis polémica: para Vicente Serrano, la subjetividad tematizada por el Idealismo alemán se moldearía sobre los atributos personales de la vieja divinidad cristiana, que sobreviviría así oculta bajo su máscara. El diagnóstico sería del propio Jacobi. Al asignarle Fichte al Yo la condición teológica de creador se ve obligado a aniquilarlo como criatura: el sujeto debe crearse a sí mismo ex nihilo y por ello, concluye, Jacobi es a la vez Dios y pura nada. El último Schelling retomaría este diagnóstico contra Hegel. La aniquilación de Dios supone para Hegel la afirmación de su inmanencia: el poder de Dios se transfiere al Estado. Ello le daría a Marx la ocasión de denunciar cualquier teología que lo justificase como ideología, pero sin renunciar a la materialidad social de su inmanencia. Esta sería para Vicente Serrano la vía racionalista auténticamente ilustrada. Schelling impugnaría semejante propósito, invirtiéndolo. Para restaurar la vieja divinidad, Schelling sostendrá que la inmanencia es el propio Dios cuya transcendencia no sería sino nuestra representación racional. La divinidad abandona la máscara del sujeto para ocultarse en el vacío.

A partir de aquí, nuestro autor nos propone sendas lecturas de Nietzsche y Heidegger como pensadores del nihilismo. El primero por interpretar esa inmanencia como dominio de nuestro discurso, en el que se despliega su filosofía. La crítica pierde así cualquier referente externo –en la sociedad o la naturaleza–: la donación de sentido se convierte, para Nietzsche, en la expresión de una voluntad de poder racionalmente inexpugnable pues opera en el vacío. Desde estas coordenadas se interpretan sus distintas concepciones del nihilismo. En cuanto a Heidegger, Vicente Serrano nos lo presenta como sistematizador de esta tradición, a partir de su formación católica y apoyándose en la suspensión fenomenológica del juicio científico. Como Nietzsche, Heidegger pretende secularizar la inmanencia como abismo sin fundamento. Para nuestro autor, sólo conseguiría asentar en el lenguaje su irracionalismo religioso que, como a Jacobi, sólo nos deja la opción de la fe.

Desde esta perspectiva, no es de extrañar que la postmodernidad aparezca como consumación del nihilismo. O, de otro modo, como la victoria de esta derecha hegeliana contra la izquierda marxista: la superación de los grandes relatos deja atrás la crítica de la ideología. Si Hegel transfirió el poder de Dios al Estado, Nietzsche lo sostiene teológicamente en el vacío como voluntad. Foucault lo particulariza en técnicas de control invisibles. Habermas, asienta su proyecto emancipador en el vacío procedimental de la comunicación lingüística (que, no obstante, intenta llenar desde su concepto del mundo de la vida). Hasta aquí la reconstrucción de nuestro presente que se nos propone en Nihilismo y modernidad.

¿Tiene sentido semejante genealogía? Muchos seguramente cuestionarán la interpretación que Vicente Serrano nos propone de uno u otro autor, pero mucho más complicado es pronunciarse sobre el conjunto. ¿Esconde verdaderamente la Modernidad un movimiento teológico tan ambicioso como el que nuestro autor nos presenta? Quizá la calificación de teología resulte un poco engañosa. Con Marx, se interpreta aquí la religión como ideología y se diría que la contribución de los autores aquí estudiados consiste en poner los mecanismos de la vieja ideología religiosa (la teología) al servicio de la nueva ideología que sostiene los mercados (p. 259). Nuestros nihilistas nos confundirían pensando teológicamente sobre el orden social como mejor manera de impedir su análisis racional (que se intuye sería el apuntado por Marx). Con independencia de que podamos discutir sobre si la de Marx es la auténtica alternativa para los racionalistas, uno estaría tentado de concederle la razón a Vicente Serrano observando lo que sucede en tantas Facultades de Filosofía. Pero seguramente muchos lectores discreparán. Y en ello se encuentra precisamente el encanto de Nihilismo y modernidad: es difícil no apasionarse leyéndolo. Ojalá la andadura española de la editorial Plaza y Valdés, bajo el cuidado de Marcos de Miguel, nos siga proporcionando ensayos tan gratos.

{Marzo 2006}
{Isegoría 34 (2006), pp. 307-309}
María Cruz Seoane y Susana Sueiro, Una historia de El País y del Grupo Prisa, Plaza y Janés, Barcelona, 2004.

Un periodista pretende ser objetivo al transmitir una noticia, pero a estas alturas es difícil saber en qué consiste tal objetividad. ¿Qué objetividad podrá pretender entonces el científico social que estudie la actividad del periodista? Este es el dilema que plantea el reciente trabajo de M. Cruz Seoane y S. Sueiro, Una historia de El País y del grupo Prisa. ¿Cómo contar el éxito empresarial de un diario que afirma su independencia (suponemos que de cualquier interés particular) en su misma cabecera? Desde el punto de vista de sus protagonistas más inmediatos (periodistas y lectores), tal éxito probablemente se deba a su independencia: compramos El País por transmitirnos la información desinteresadamente. Sus adversarios dirán quizá que su éxito indica más bien el poder de los intereses a los que sirve: ¿o se puede ser desinteresado cuando están en juego inversiones millonarias de los propios dueños del diario?

La solución de Seoane y Sueiro probablemente dejará insatisfechas a ambas partes. La suya es una posición escéptica. Por un lado, documentan abundantemente los intereses que convergen en el desarrollo empresarial de El País, y tratan de evaluar sus efectos sobre sus informaciones, contrastándola con las que transmiten otros medios de la competencia. Pero, por otro lado, asumen también que esta se ve igualmente afectada por sus propios intereses. De modo que nuestras autores optan por suspender el juicio. Veamos cómo.

La obra se inicia con un relato de la gestación del diario, que conjuga principalmente el análisis de la evolución de su accionariado (tal y como se recoge en sucesivas actas) con el eco que tuvo en la prensa de la época. A partir de aquí se estudia cómo se establecen sus coordenadas ideológicas, respecto a los propósitos de sus accionistas (a menudo traicionados por la redacción) y a los principales temas abordados en sus páginas. Si lo primero es menos controvertido (pues los accionistas dejaron a menudo constancia escrita de sus pretensiones y manifestaron su conformidad con la compra o venta de sus participaciones), lo segundo resulta mucho más discutible. ¿Fue, por ejemplo, El País un periódico prosoviético, según dijeron tantos de sus críticos? Para dilucidar la cuestión Sueiro y Seoane parten de tales críticas, tal como originalmente se expresaron, y las contrastan con lo publicado en el diario. Se aprecia así que El País es un medio complejo en el que suelen aparecer posiciones encontradas: elogios de algunos logros de la Unión Soviética, pero también críticas de otros, por ejemplo. ¿Cuáles predominan? Al analizar el desarrollo del diario se aprecia que esto depende a menudo del momento, pues el periódico cambia con los acontecimientos que narra, de modo que resulta difícil adjudicarle una posición concluyente.

Incluso la parte dedicada a la era socialista le descubre al lector paradojas de su propia memoria. Pues el apoyo a los sucesivos gobiernos de González resulta retrospectivamente mucho menos uniforme de lo que suele recordarse. No ser el primero en informar sobre los distintos casos de corrupción que se sucedieron no supuso no informar o dejar de criticar. Más que con la propia información contenida en el periódico, el dilema parece estar en cómo se organiza nuestra propia percepción: dada la cantidad de noticias sobre corruptelas gubernamentales publicadas por otros diarios, que El País publicase muchas menos pudo sugerir una intención oculta de no dañar al PSOE. Pero puede igualmente interpretarse como un efecto del Libro de estilo: el grado de confirmación exigido por El País para publicar una noticia resulta comparativamente mayor que el de otros medios (y un repaso retrospectivo a sus páginas muestra que publicó muchas menos noticias falsa). Las autoras eligen a menudo no pronunciarse. De hecho, y de modo también paradójico, es en la cuarta parte del libro, dedicada a los años de “oposición”, cuando mejor se aprecian cómo los intereses empresariales de Prisa pueden afectar más decididamente a lo que se publica en El País (el caso Sogecable, etc).

En suma, tanto sus críticos como sus defensores no dejaran de reconocer sus argumentos a lo largo de las más 600 páginas de la obra, y encontrarán abundantes datos para sostenerlos. Pero probablemente descubran que sus respectivas posiciones simplifican una institución tan compleja (y descomunal ya) como es El País. De hecho, las autoras no pretenden en momento alguno agotar su análisis, pues ello supondría pronunciarse que desbordan con mucho al diario (como son los propios asuntos sobre los que informa). Se diría que su admiración por éste se deriva a menudo más de la magnitud de su esfuerzo para darles sentido, incorporando su complejidad a la noticia, que de la propia simplificación con la que se juzgan (dentro y fuera del periódico) para avanzar en el debate de nuestros intereses particulares.

Una perspectiva así de escéptica no resulta muy aconsejable para escribir editoriales o crónicas parlamentarias, que probablemente dejarían insatisfecho a un lector ávido de un juicio claro, como cualquiera de nosotros al leer prensa diaria. Pero si por un momento nos abstraemos de nuestra condición de periodistas o lectores de El País, sólo un escepticismo como el de las autoras nos permitirá apreciar en toda su dimensión la excepcionalidad de su empresa.

{Marzo 2005}
{Historia Contemporánea 31 (2005), pp. 685-587.}
Sergio F. Martínez, Geografía de las prácticas científicas. Racionalidad, heurística y normatividad, México, UNAM, 2003.

Geografía de las prácticas científicas se articula sobre dos debates contemporáneos. Por una parte, el que enfrenta a epistemólogos y filósofos de la ciencia sobre cómo enfrentar la justificación de nuestros conocimientos (principalmente, científicos). Por otro lado, el que opone a estos frente a sociólogos e historiadores de la ciencia a propósito de la eficacia social de tal justificación. Sergio Martínez nos propone como eje para situar su propia contribución el concepto de norma, que pretende naturalizar a partir de su inserción en prácticas científicas buscando una vía media entre todos estos bandos. Veamos someramente cuál es el curso de su argumento.

En el cap. 1, Martínez sitúa su proyecto en el contexto de las distintas propuestas hoy disponibles para articular una epistemología social. Con Miriam Solomon, defiende una epistemología normativa no individualista, pero en vez de buscar sus fuentes en la elección de teorías, Martínez sostiene que brota de las prácticas científicas cuyo carácter social es irreductible a los procesos cognitivos individuales. En primer lugar, las prácticas contienen elementos no proposicionales, un saber cómo socialmente distribuido cuya explicitación es necesariamente grupal. De ahí la importancia del testimonio como generador, y no sólo transmisor, de conocimiento: las normas tácitamente asociadas a la presentación de información propician nuestras inferencias mediante heurísticas. Su éxito de hecho justifica el proceso inferencial, antes que cualquier formalización simbólica.

El tema se desarrolla en el cap. 2, para establecer la tesis de que las diferentes normas generadoras de éxitos constituirán diferentes tradiciones científicas, entre las cuales no cabrá elegir como los clásicos pretendían. No se trata de elegir entre teorías sobre la base, por ejemplo, de cuál proporciona mejores predicciones pues estas no constituyen una mera relación inferencial entre enunciados. Necesitan, a menudo, un sistema tecnológico que, para el autor, incluye a la propia teoría o modelo del que se obtienen. Su individualidad, nos dice, no es otra que la que les confiere “ser parte de poblaciones de métodos o modelos genealógicamente relacionados” (p. 77)
¿Cómo interpretar, pues, estas normas? En el cap. 3 Martínez nos propone una apropiación epistemológica del concepto de heurística, a partir de su presencia en distintas disciplinas científicas. En ellas podríamos apreciar como nuestra actividad cognoscitiva pivota sobre la resolución exitosa de problemas particulares, antes que sobre la ejecución de algoritmos generales. La tesis ontológica que acompaña a este principio es que la “estructura (causal y normativa) del ambiente” es parte de la propia heurística, y clave de su éxito, de modo que no cabría su generalización algorítmica. De ahí la afirmación de la independencia de las tradiciones científicas (cap. 4), pues la diversidad del mundo y de nuestros propios mecanismos cognitivos justifica la existencia de múltiples heurísticas, tal como puede constatarse en la evolución de la propia ciencia. De ahí la metáfora de la geografía (del propio mundo a través de las prácticas) que da título al libro.

El cap. 5 intenta mostrar cómo puede aplicarse la idea de técnica al análisis de las distintas tradiciones científicas a partir de sus fundamentos experimentales. La metáfora biológica de la selección le proporciona al autor el modelo para explicar su evolución. Por último, en el cap. 6 presenta una objeción contra la teoría de la elección racional como principio para el análisis de la acción científica, pues, por una parte, sus exigencias cognitivas resultarían empíricamente exageradas y, por otro lado, presupone que las consecuencias están bien definidas antes de tomar cualquier decisión, cuando –en opinión del autor– su construcción es parte de esta. En su lugar, Martínez se apoya en el concepto de razones externas, tal como lo propuso B. Williams, procedimientos de decisión adquiridos educativamente y, por tanto, controlados en buena parte desde el exterior de nuestra conciencia.

Estamos, por tanto, ante un ensayo programático en el que se expone una agenda intelectual, desarrollada, en buena parte, en trabajos anteriores cuya unidad queda ahora de manifiesto y agradece, por ello, una discusión general. A mi juicio, el mayor mérito de este ensayo radica justamente en articular de un modo sistemático consideraciones hoy a menudo dispersas en el debate sobre la ciencia. El lector se apercibirá sin duda de cómo Martínez remite aquí y allá a tesis que podemos asociar sin dificultad, e.g., con autores como Giere o Hacking; pero es en su conexión donde radica la originalidad de su argumento. La dimensión social del neoexperimentalismo o la concepción semántica apenas está explotada, y en este ensayo se abre una vía para ello con el concepto generalizado de heurística. Su fecundidad queda manifiesta en la interpretación de una amplia casuística científica, característica de la argumentación actual en filosofía de la ciencia.

Pero probablemente a sociólogos y epistemólogos su concepto de heurística les resulte insuficiente, por equívoco, como principio de análisis de la normatividad científica. Para aquellos resultará probablemente exagerado esperar de un concepto tan genérico una determinación efectiva de la práctica científica: sin duda, deja espacio suficiente para que los intereses particulares de una comunidad desempeñen un papel no menos importante que las constricciones causales en la consecución del éxito y el consenso científico. Y de ahí también sus defectos para el epistemólogo: si el testimonio es la vía por la que Martínez socializa el conocimiento científico, ¿qué hay en sus normas de transmisión que pueda evitar que el pluralismo degenere en relativismo?

Esta insatisfacción probablemente se deriva de la “escala” del análisis: la casuística científica que se nos presenta aparecerá para el sociólogo recortada para dejar fuera la dimensión propiamente social (los intereses); del mismo modo el epistemólogo echará en falta más análisis conceptual que dote de generalidad a un análisis tan particularista. De ahí la naturaleza programática de este ensayo: su cogencia crecerá en la misma medida en que sea capaz de integrar en su argumento un mayor número de debates. Pero advirtamos que esta exigencia se deriva de la propia perspectiva que el autor nos propone, pues su amplitud de miras nos obliga a plantearnos toda la complejidad que enfrenta hoy cualquier análisis de la ciencia. El acierto de elegir este enfoque nos obliga a esperar lo mejor de su desarrollo. El diálogo con otros autores de nuestro medio (F. Broncano, J. Ferreirós, J. Vega, J. Zamora, etc.), en tanto aspectos cercanos a su propuesta, probablemente le dé buena ocasión para ello.

{Julio 2006}
{Isegoría 34 (2006), pp. 294-296}
Francesco Guala, The Methodology of Experimental Economics, N. York, Cambridge University Press, 2005.

Una de las objeciones más escuchadas contra la microeconomía es la de que cuando vamos de compras no nos comportamos como maximizadores racionales de utilidad. En otras palabras, uno de los supuestos centrales en el análisis económico es empíricamente erróneo. Para defender, pese a ello, su valor epistemológico se propusieron distintas réplicas contra esta objeción, apelando a posiciones más o menos instrumentalistas: la teoría no describe de modo adecuado la toma de decisiones del agente individual, pero sus predicciones son acertadas. Hubo quien sostuvo esto de los individuos (v.gr., Friedman respecto a la maximización de la utilidad esperada), pero los economistas se alinearon mayoritariamente con Marshall: incluso si los individuos se confunden, sus “errores” se cancelan al agregarse, y en conjunto tienden a comportarse como establece la teoría de la demanda.

No obstante, el escepticismo respecto al análisis económico del comportamiento individual era, en general, intuitivo, tanto entre objetores como entre sus propios defensores. Hasta después de la Segunda Guerra Mundial el control experimental de la conducta económica no comenzó a desarrollarse sistemáticamente y su conversión en una subdisciplina académicamente respetable se obtuvo sólo con la concesión del Nóbel de la especialidad a Kahneman y Smith en 2002. Es imposible subestimar, por tanto, la importancia metodológica de la economía experimental, pues viene a ordenar definitivamente algunas de nuestras intuiciones centrales sobre el valor empírico de la teoría económica. O eso creíamos, pues a menudo los partidarios y detractores de esta coinciden en señalar la miseria metodológica de la economía experimental: es imposible reproducir en un experimento las condiciones en las que los agentes toman realmente sus decisiones y, por tanto, sus resultados no sirven para convalidar nuestras intuiciones a favor o en contra de nuestros modelos teóricos.

En The Methodology of Experimental Economics, Francesco Guala examina y defiende el estatuto metodológico la economía experimental de un modo que quiere resultar asequible a economistas y filósofos. Para aquellos, buena parte de sus 11 capítulos constituyen una introducción «situada» a muchos debates actuales sobre metodología científica. Estos se verán sorprendidos sobre su rendimiento al aplicarse a un caso tan singular como es el de la experimentación en ciencias sociales. Así, junto a un buen número de cuestiones clásicas (evidencia, explicación nomológico-deductiva, causalidad, ...), Guala introduce también algunas tesis propias del neoexperimentalismo, como la distinción entre datos y fenómenos, la pluralidad de la ciencia o las mediaciones entre teoría y experiencia. Aunque no se propone un desarrollo completo de cada una de ellas, la claridad de la presentación y el interés de los ejemplos con que se ilustran lo convierte en un texto muy adecuado para su uso en cursos de metodología económica.

La estrategia argumental de Guala en su vindicación de la economía experimental es dúplice. Por una parte, intenta establecer cuál es el alcance del conocimiento que nos proporcionan los experimentos. Su tesis aquí es que nuestro control causal de la conducta económica es efectivo (a partir de los datos aparecen regularidades fenoménicas estables), pero restringido por unas condiciones experimentales concretas. De ahí que debamos constreñir nuestras inferencias sobre los resultados experimentales conforme a tales condiciones, explicitando el conocimiento de fondo subyacente (background knowledge) mediante sucesivas inducciones eliminativas donde se establezca objetivamente su valor empírico. Guala establece su tesis contra un buen número de alternativas filosóficas. Desde luego, el falsacionismo (durante años predominante en la metodología económica) y, en general, contra las posiciones exageradamente deductivistas (inevitablemente abocadas a los dilemas de Duhem-Quine), pero también contra la interpretación bayesiana del conocimiento de fondo (y se diría que también del propio diseño experimental). De este modo, Guala se opone a quienes apelando a posiciones de principio cuestionan el valor de los experimentos económicos por su carácter excesivamente particular: no cabe alternativa mejor, y el metodólogo debe dar cuenta de ello.

La segunda parte del argumento de Guala (y también de su libro) se concentra en el dilema de la validez externa de los experimentos económicos: ¿pueden sus conclusiones extrapolarse a los auténticos mercados? Nuestro autor despliega aquí su tesis sobre los experimentos como mediadores entre la teoría y el mundo. Nuestras inferencias serían antes analógicas desde experimento al mundo que directas (de la teoría a su aplicación): sólo en la medida en que el experimento reproduzca satisfactoriamente aquellas circunstancias reales por las que nos interesamos (a veces tan sólo por motivos prácticos, como en las subastas de telecomunicaciones) podremos considerar justificadas nuestras analogías, y no sólo por su congruencia con nuestro modelo teórico. De nuevo, se trata de un razonamiento de lo particular (nuestras circunstancias experimentales) a lo particular (el caso analizado). De ahí su condición de mediadores: no son sin más el objeto de análisis al que se aplica la teoría, sino que lo representan de un modo no exclusivamente teórico, que tiene un interés en sí mismo. Frente al particularismo radical (radical localism) defendido por Bruno Latour, Guala afirma así un particularismo «intermedio»: intentar imponer normas metodológicas universales es tan nocivo como negar absolutamente su existencia.

Nadie podrá negar el interés y la solvencia de semejante argumento y, en esa medida, la economía experimental quedará metodológicamente vindicada contra sus críticos. No obstante, cabe preguntarse también qué perspectivas nos abre esta posición sobre el conjunto de la metodología económica. Por ejemplo, queda abierta la cuestión de qué inferencias podemos establecer de los experimentos ya no al mundo, sino a la teoría. Uno de los casos más ampliamente discutidos por Guala en la primera parte de su libro es el de la preference reversal, claramente contradictorio con uno de los ingredientes centrales en la teoría de la elección racional: la relación de preferencia es asimétrica. Se trata de un resultado experimental bien establecido, frente al cual proliferan las respuestas que, en el mejor de los casos, o bien minimizan la importancia del axioma en cuestión, o bien ofrecen modelos de decisión alternativos. Ambas opciones son válidas para Guala. El dilema que cabe aquí plantearse (y sobre el que apenas encontramos mención en este trabajo) es qué prueban los experimentos respecto a la teoría. Por el momento, los fracasos experimentales no parecen dar suficientes motivos para la adopción de enfoques alternativos, sin que sepamos muy bien cómo afecta esto al estatuto científico de la teoría económica. Dado el gusto por la generalidad matemática de sus partidarios, se diría que la particularidad de los resultados experimentales, tan bien defendida por Guala, constituye un buen motivo para no prestarles demasiada atención. El economista teórico podría considerar su actividad como un puro ejercicio de matemática aplicada del que podría aprovecharse independientemente el experimentador para articular modelos contrastables, sin que su fracaso empírico les restase justificación. Todo depende, desde luego, cómo se conciba la unidad de la economía como ciencia, y en una perspectiva neoexperimentalista como la de Guala no parece que tengamos demasiados motivos para exigir tal unidad –que era, justamente, la que creaba dificultades empíricas en la concepción positivista clásica de los modelos económicos. Por tanto, la teoría económica gozaría de una envidiable salid a este respecto y las objeciones de sus críticos revelarían únicamente incomprensión respecto a cómo funciona su disunidad. ¿Es esto aceptable? Júzguelo el lector, a modo de ejemplo del interés que los debates que previsiblemente nos traerá el desarrollo de esta posición.

{Enero 2006}
{Theoría 57 (2006), pp. 342-343}

J. Izquierdo, Las Meninas en el objetivo. Artes escénicas y vida ordinaria en La Obra de Velázquez, Madrid, Lengua de Trapo, 2006, 188 pp.

Un dilema conceptual muy interesante y difícil de resolver es el de cuál sea el género del documental. La dificultad radica en que intuitivamente apreciamos que no es exactamente ficción o arte, pero explicitar la diferencia nos complica exageradamente la definición de cualquiera de estas categorías. Javier Izquierdo nos propone aquí una complicación inversa: pues algo que creíamos canónicamente ficción y arte (Las Meninas velazqueñas) se nos presenta como un documental, y del subgénero «Cómo se hizo» (making of). Y lo que se documenta, según nuestro autor, no es sino una broma palaciega. Apoyándose en la tesis de John Moffitt, para quien el cuadro se habría realizado mediante una cámara oscura, Izquierdo da un paso más y defiende que esa cámara oscura estaba, además, oculta, de modo que la Infanta posase sin apercibirse del artefacto. Las Meninas captaría el momento en el que la Infanta cae en la cuenta de que está siendo retratada, y dejaría constancia documental del desvelamiento del engaño (“¡Te están retratando, tonta!”).

El argumento que Izquierdo nos ofrece para sostener su interpretación es visual: la similitud entre la mirada de reojo que la Infanta Margarita echaría a la cámara oscura y el bizqueo con el que las víctimas de una broma de cámara oculta (aquí Alberto Llanes) descubren el objetivo antes inadvertido. Para persuadirnos (y que lo veamos como él), Izquierdo nos ofrece una colección de ilustraciones que a él le sirvieron para advertir la similitud. Como en un experimento de la Gestalt, el lector se convencerá en el momento en el que también él advierta la semejanza.

Las Meninas en el objetivo constituye, de algún modo, el acompañamiento verbal de esta secuencia de imágenes. En el capítulo 2 nos presenta varias hipótesis sobre la gestación del cuadro. En el tercero se analiza la situación retratada como un posible ejemplo de broma palaciega. El capítulo 4 nos ofrece una colección de experiencias y lecturas del autor que le llevaron a interpretar Las Meninas como ilustración de una broma de cámara (oscura) oculta. En el quinto se nos presenta su propia hipótesis sobre la realización de la broma. Y los dos siguientes una interpretación cultural y sociológica de su significación. Completan la obra varios apéndices con transcripciones de algunas de las bromas aludidas en el texto y notas del trabajo de campo en un estudio televisivo.

No obstante, en opinión de este lector, el aspecto más original de este ensayo está antes en su argumento visual que en su discurso: Javier Izquierdo nos descubre en Alberto Llanes a una sorprendida Infanta velaqueña (y a la inversa). Pero el discurso debe probar algo muy difícil, por muy poco evidente: puesto que se trata de una broma ¿cuál es la gracia de Las Meninas? Su respuesta es doble (pp. 86-87): o bien es una parodia del arte palaciego del espionaje, o bien es una tomadura de pelo nada menos que a toda una princesa. Restituir su comicidad a estas situaciones resulta algo complicado, pues espiar o tomarle el pelo a una niña de pocos años como pretexto para un «posado» tiene poco del ingenio de las bromas quijotescas o de la burla del Gran Marciano, con las que aquí se compara. Es decir, Javier Izquierdo debe explicarnos un chiste de hace más de 300 años reconstruyendo el sentido del humor de la corte borbónica (¿el de Velázquez, Felipe IV, ...?). Pero Las Meninas en el objetivo no llega, creo, a devolvernos su gracia. No obstante, el intento resulta bastante divertido si se compara con la exégesis velazqueña al uso y el lector está dispuesto, por una vez, a no tomarse a Velázquez en serio.

{Agosto 2006}