Buscar este blog

lunes, 21 de febrero de 2022

DIFERENCIAS Y SIMILITUDES EN LAS TEORÍAS DEL CRECIMIENTO ECONÓMICO

DIFERENCIAS Y SIMILITUDES EN LAS TEORÍAS DEL CRECIMIENTO ECONÓMICO 

INTRODUCCIÓN 

El análisis del crecimiento económico, entendido como resultado de la dinámica donde se entrecruzan producción de formas de conocimiento, relaciones de poder e instituciones del desarrollo, han sido una preocupación de la ciencia económica, desde los diferentes enfoques y teorías. Además, el crecimiento económico, es el resultado de la unión de dos aspectos: a) La necesidad de razonar sobre las relaciones sociales y las formas productivas; y b) La reflexión sobre el hecho del interaccionar en un ambiente económico complejo que se expresa en resultados de variables agregadas. 

Lo anterior, lleva a reflexionar sobre el fin de la economía como expresión de la acción del hombre; transformando sus búsquedas que estaban sometidas al «principio de necesidad» aristotélica, por el «principio de maximización» que fundamentan la economía neoclásica, lo cual conduce a una tecnificación de la economía, que la desnaturaliza. 

Así, el desarrollo expresado en procesos que generan acumulación y crecimiento, contiene también, la relación conocimiento - poder. La emergencia del crecimiento económico como categoría, ha estado enmarcada, en las interpretaciones desde las diferentes escuelas, que de alguna manera han sido consideradas producto directo de una época, de una necesidad imperante, que subyace de las oscilaciones cíclicas y de una generación intelectual. 

Los últimos años han mostrado una evolución del concepto de desarrollo, alejándose cada vez más de su sinonimia con el concepto de crecimiento. Ahora es frecuente interpretar el desarrollo que lo colocan en un contexto mucho más amplio que la economía, acercándolo mucho a una suerte de constructivismo en el que prima lo subjetivo, lo intangible, lo humanístico, lo sistémico, la complejidad, para citar sólo algunas de las características que se atribuyen ahora a la idea de un desarrollo societal. 

La riqueza, resultado de la búsqueda de los deseos de vida, las metas hacia la consecución de los sueños, la perseverancia en los proyectos y el apasionamiento constante por encontrar la felicidad, es la constante del ser humano. Según González (2004), el ideal ético propuesto por el utilitarismo clásico, según Bentham es la máxima felicidad para el mayor número de personas durante el mayor tiempo posible, esta es la medida de lo correcto. 

DIFERENCIAS Y SIMILITUDES EN LAS TEORÍAS DEL CRECIMIENTO ECONÓMICO

Además, el mismo Adam Smith estudia la economía como una parte de la política. Debemos avanzar unos años, tal vez hasta John Stuart Mill, para comprobar la emancipación neta de la economía respecto a la política y la moral en el ámbito del saber económico. Dichos aspectos son abandonados en los postulados de los neoclásicos cuando definen el crecimiento económico. 

La economía ha recibido, hasta cierto punto, el reconocimiento por la formalización que ha logrado a través de la formulación matemática y las consideraciones metodológicas que ha efectuado en el contexto del crecimiento y el desarrollo económico. A pesar de este hecho, muchos economistas han expresado su desilusión y descontento en relación al progreso y el estado actual de la sociedad. La economía se describe como una ciencia social encargada de estudiar un aspecto importante de la sociedad y, por lo tanto, es de suponer que ésta es capaz de aportar al entendimiento de la sociedad y a sus problemáticas complejas. La complementariedad esencial entre los factores de producción y entre distintos sectores es la base para fundamentar una teoría del crecimiento. 

En este documento de trabajo, hacemos una revisión de las teorías que parten del análisis del crecimiento para construir teoría económica, concatenando partes y asociando postulados desde el enfoque clásico y keynesiano y asumiendo autores, que se consideró, aportan nuevas explicaciones desde otras escuelas. Nuestro problema no es la utilización plena de todo el conocimiento, sino más bien el mejor uso que podamos lograr frente a la categoría “crecimiento económico”. 

Con el fin de mostrar las principales teorías sobre crecimiento económico hemos organizado el siguiente esquema. Se desarrolla el tema del crecimiento económico, partiendo de la teoría moderna (postkeynesiana) y realizando un estudio detallado del modelo de Harrod - Domar, del modelo de SolowSwam ampliado, la teoría del crecimiento endógeno, el conocimiento spillovers, las leyes de crecimiento de Kaldor, la Edad de Oro de Robinson, y el orden espontáneo del mercado de Hayek y la Escuela Austríaca. Por último, se presentan postulados sobre el impacto del capital humano, la dinámica del proceso industrial, la concepción del territorio en el crecimiento, el aporte de las unidades productivas y las micro, pequeñas y medianas empresas (MiPyME) en el crecimiento industrial, y la relación entre el “desarrollo” y el crecimiento económico. 

La preocupaciones alrededor del crecimiento económico son muchas y encierra cuestionamientos que van desde la definición de las variables con formalización teórica y matemática hasta planteamientos ideológicos que lo explican desde las lógicas de poder inmersas en la dinámica económica y en su concepción filosófica. 

Según el profesor Hayek, la economía se está recuperando de un largo período de decadencia que fue causado por la transición que intentó hacer de la microeconomía a la macroeconomía, “la microeconomía puede explicarnos algo a pesar de que, por la naturaleza de la economía, tiene límites en su poder explicativo. Precisamente por estas limitaciones en su poder interpretativo, los economistas decidieron construir un nuevo sistema que pensaron que era más científico: la macroeconomía. Sin embargo, resultó que este esfuerzo está basado en hipótesis erróneas, y ha sido un fracaso total”.1 

La limitación principal de la economía es explicar cómo es posible adaptarse a lo desconocido. Por que no hay duda que los cambios constantes de la actividad económica son causados por gran número de eventos que nadie conoce como un todo. De tal manera que estamos actuando constantemente para adaptarnos a eventos que no conocemos, y utilizamos para este propósito condiciones sobre las cuales no tenemos información directa. 

Los economistas debemos aceptar que ignoramos muchos datos que sería normal que un físico conociera. Esta situación se debe al hecho de que tenemos que trabajar con estructuras complejas y con un número de variables en interacción que resulta ser mucho mayor del que tienen que manejar los físicos. La realidad social es más compleja que la realidad del mundo físico. Según Hayek, no sólo porque uno tiene que trabajar con un mayor número de variables sino también porque se presenta un mayor grado de inestabilidad en las relaciones funcionales, las variables son más heterogéneas y, además, resulta a veces muy difícil aislar una variable de las demás. 

El desarrollo de refinados modelos econométricos y de inferencia estadística no puede cumplir la función de suministrar un marco conceptual realista de cómo opera un sistema económico. La aplicabilidad de los distintos modelos teóricos de crecimiento económico a la realidad de los países es compleja, ya que cada estructura productiva responde a diferentes factores del mercado y de la misma construcción social de cada comunidad. Además, los territorios y las ventajas que de este surgen son radicalmente distintas en cada país. Los axiomas, por lo tanto, serán diferentes, sin embargo, son supuestos necesarios para la elaboración de un modelo de crecimiento industrial. 

Una de las dificultades para entender el concepto del crecimiento económico, surge en las propias raíces históricas, y en la realidad que enfrenta la modernidad, amenazada por el deterioro en la capas sociales y de su medio ambiente. Estas raíces y las realidades han inmerso a la teoría económica en un prolongado e interminable cuestionamiento que se centra en intensos debates y diversas complicaciones de método e ideología. 

Las primeras preocupaciones de los economistas se dirigieron hacia el problema del crecimiento económico. Según Landreth y Colander (1994), al tener una orientación macroeconómica, los economistas clásicos estaban preocupados no sólo por las fuerzas económicas que determinaron el crecimiento, sino también por los factores culturales, políticos, sociológicos e históricos. Su preocupación por el crecimiento los condujo al estudio de los mercados y al sistema de precios como un asignatario de recursos. 1 En: “Algunos creadores del pensamiento económico contemporáneo: Un diálogo con el profesor Hayek”. Fondo de Cultura Económica, México. 1977. 8 Cuadernos de Investigación - Universidad EAFIT Con la Revolución Industrial se generalizó la idea de crecimiento económico constante, entendido como progreso ilimitado, tendente al perfeccionamiento y a la evolución. Hasta finales del siglo XIX el proceso de industrialización europea, y modestamente el despegue de la agricultura en los países industriales, coincidieron con un período de extraordinaria expansión del comercio internacional bajo la premisa del liberalismo. Según Galindo y Malgesini (1994), a pesar de que el liberalismo no contemplaba el tema del crecimiento, la práctica de la libertad de mercados fundamentada en la iniciativa privada y en la libre competencia originaron el despegue económico del capitalismo en sus primeras fases. 

La categoría crecimiento económico, en la teoría económica formal, es un fenómeno relativamente reciente. Durante el siglo diecinueve la preocupación de los economistas clásicos estuvo centrada en el desarrollo económico; a principios del siglo veinte el interés se centraba en el análisis de problemas de carácter esencialmente estático, y a partir de la finalización de la Segunda Guerra Mundial, los macroeconomistas prestaron más atención a las fluctuaciones económicas en el corto plazo. Sólo a partir de finales de la década de los cincuenta, el crecimiento económico se ubicó en el centro de los intereses de los economistas y de los objetivos de política, trascendiendo el interés por los problemas del desarrollo y las desigualdades estructurales y sociales. 

El crecimiento económico se hace compatible con la ley de los rendimientos decrecientes y los hechos observados en la realidad. Según Schumpeter (1963), las oleadas de descubrimientos e inventos que se producen periódicamente provocan repentinos aumentos en la tasa de beneficios del capital y en la inversión; conforme se extienden los nuevos conocimientos y se imitan las nuevas tecnologías, los beneficios empiezan a disminuir y con ellos la tasa de inversión hasta que una nueva oleada de descubrimientos impulse a una nueva fase expansiva. 

La teoría del crecimiento ha incorporado otros elementos dentro de su análisis. Schumpeter, proponía que el sistema financiero es importante para la promoción de la innovación tecnológica y el crecimiento económico en el largo plazo (Carvajal y Zuleta, 1997). En el plano empírico las primeras evaluaciones de esta hipótesis se llevaron a cabo en la década de 1970 (Goldsmith, 1969; Mckinnon, 1973 y Shaw, 1973), para muestras pequeñas de países, con resultados que apoyaban la idea que la mejor estructuración financiera de una economía acelera el crecimiento. Por supuesto, las simples relaciones empíricas resultaban cuestionables en tanto carecían de fundamentación teórica.

2 Desarrollos recientes han presentado modelos de crecimiento en los que la intermediación financiera afecta la tasa de crecimiento (endógeno) del PIB per cápita en el largo plazo, y de ellos se extrae la lección de que las políticas de represión al sistema financiero, o la excesiva intermediación en sus funciones tienen efectos nocivos en el crecimiento de largo plazo.

La época de la primera posguerra comenzó con una preocupación más generalizada sobre la dinámica económica. Se presentó un período de relativa expansión en la década de 1920, pero ésta finalizó con la depresión de 1929. A partir de este momento, el pensamiento keynesiano sobre la intervención del Estado surgió como la solución fundamental para suavizar la depresión que vivía el mundo capitalista, y para hacer posible el crecimiento mediante políticas anticíclicas, centradas en la determinación de niveles satisfactorios de demanda agregada, en forma esencial, a través del gasto público. 

Keynes afirmaba que “los postulados de la teoría clásica sólo son aplicables a un caso especial y no al caso general. Más aún: las características del caso especial supuesto por la teoría clásica no son de la sociedad económica en la que vivimos, de donde resulta que sus enseñanzas engañan y son desastrosas si intentamos aplicarlas a los hechos de la experiencia”.3 

El crecimiento de la economía, tal como se refleja en el crecimiento de la población y de la riqueza, no se debe entender como desarrollo. Este fenómeno no representa características cualitativas. El desarrollo, en nuestro sentido, es un fenómeno ajeno a lo que puede observarse en la corriente circular o en la tendencia hacia el equilibrio. Es un cambio espontáneo y discontinuo en los canales de la corriente, es una perturbación del equilibrio que altera y desplaza en forma definitiva el estado de equilibrio que antes existía. 

Es este marco el que ha consagrado el discurso del desarrollo económico, en donde las premisas sobre el bienestar general, la acumulación de riqueza, la plena concepción del ser humano y el desarrollo sostenible han sido la base del debate para la definición del concepto. Las condiciones para el desarrollo no sólo se definen por la acumulación de conocimiento y capital físico en un territorio; este va más allá de eso, se trata de crear los instrumentos para gestionar los procesos de ordenamiento social, y las instituciones y el marco regulatorio que permitan potencializar las diferentes expresiones del capital en las regiones. 

El proceso de acumulación y la dotación de recursos que posee una región determinan las ventajas competitivas y comparativas, las cuales posibilitan la creación de firmas y el crecimiento económico de un territorio. La forma en que se utilicen dichos recursos y potencialidades puede disminuir o agravar las desigualdades regionales, industriales o sociales dentro del espacio. El proceso de reestructuración de las firmas y las estrategias empresariales son producto de la lógica territorial diferencial, en su afán por conseguir mejores niveles de competitividad a través de un sistema flexible. El crecimiento, como se ha visto, es una preocupación central de la economía, que se refleja en los paradigmas teóricos de la historia económica. El propósito de este trabajo es presentar un análisis del pensamiento de los principales autores y corrientes que han reflexionado sobre este aspecto después de la segunda posguerra; además, la relación del bienestar con el crecimiento económico, el aporte de las unidades productivas al crecimiento y el concepto del territorio en el crecimiento. 

3 KEYNES J.M. (1986). “La Teoría General de la ocupación, el interés y el dinero”. Fondo de Cultura Económica, pág. 3.

VER AQUÍ

lunes, 14 de febrero de 2022

PLANTEAMIENTO ANALÍTICOIUSANALÍTICO: EL ASPECTO ONTOLÓGICO Leonor Suárez Llanos

PLANTEAMIENTO ANALÍTICOIUSANALÍTICO: EL ASPECTO ONTOLÓGICO Leonor Suárez Llanos* 

1. Planteamiento 

l cuestionamiento de la ontología subyacente a la Filosofía jurídica analítica se resiente por su ingenuidad. 

En primer lugar, porque no hay “una” Filosofía analítica que pueda identificarse y caracterizarse aproblemática y exhaustivamente. Y es que, más allá de la relevancia que otorga al lenguaje, y de un mutante Wittgenstein, la analítica confunde con su dialéctica interna, sus superadoras concesiones y sus renuncias. A esto se añade que la concreción de qué sea la ontología1 es clave problemática de la historia de la reflexión filosófica, lo que desconcierta y vuelve desconcertante la definición óntica y la ontología misma. Estas dos advertencias imponen una prudente cautela a nuestra pretensión de plantearnos la dimensión ontológica analítica y iusanalítica. 2. Consistencia de la Filosofía analítica: Amplitud y diversidad Sintetizar la consistencia de la Filosofía analítica conlleva la dificultad de afrontar un elenco doctrinal flexible y diverso. Dificultad que se agrava al aparecer la Filosofía post-analítica que ensancha los márgenes previos con afán de continuidad2 . 

* Universidad de Oviedo. 

1 La ontologia y ontosophia, que se configura como una forma de ciencia primera sobre el ser a mediados del siglo XVII es cuestionada por Kant, concretándose en diversidad y contradicción en el siglo XX. 2 Su objetivo es superar la bifurcación del empirismo lógico de la primera analítica y el fenomenalismo lingüístico de la segunda, reteniendo cuanto de valioso aporte la hermenéutica. Surge así un movimiento analítico de crítica interna bien concretado, en 1985, en el volumen colectivo Post-analytic Philosophy.

VER AQUÍ

lunes, 16 de agosto de 2021

La narración de la postmodernidad

 “¿Cómo he llegado hasta aquí? 

Esta no es mi casa”: 

La narración de la postmodernidad 

Manuel Almagro Jiménez 

La frase inicial del título de esta introducción está tomada de “Once in a Lifetime” una canción del grupo Talking Heads. En ella, el líder de la banda, David Byrne nos dice “You may ask yourself, well, how did I get here?” y más adelante nos vuelve a interpelar con “You may tell yourself, this is not my beautiful house”. Las páginas que siguen, y la colección de ensayos para la que quiere servir de presentación, son precisamente un intento de responder a lo que se plantea en la cita de esa canción, mediante una “narración” de la postmodernidad. 

Para empezar, esta cita refleja lo que muchos piensan sobre lo postmoderno, sobre la postmodernidad: que ésta no es realmente su casa, que de alguna manera éste no es el sitio adecuado para ellos, aunque temporalmente se sienten obligados a vivir aquí, pero en la esperanza de que algún día podrán volver a su verdadero hogar, del que por alguna razón desconocida han sido expulsados, como si fueran habitantes de un jardín edénico original en el que no había disonancias, o del que han tenido que salir porque quizás ese hogar ahora está en obras. Ese hogar (es decir, ese punto de referencia, ese origen que explica y nos explica) no es otro que nuestra vieja y querida modernidad. 

El uso de este título también refleja algo propio del discurso postmoderno, cual es la mezcla de estilos diversos y sobre todo de diversa categorización en la jerarquía de la cultura. En este caso, se trata del uso de un referente en la cultura popular para un texto, el de una colección de ensayos realizada por profesores universitarios, que, en principio al menos, se halla en una categoría cultural bastante alejada del de la música popular. Pero, claro, aquí todo empieza a embarullarse, a ser menos claramente definible en términos de categorías, y sobre todo se vuelve más complicada la separación estricta entre categorías, pues da la casualidad de que David Byrne es uno de los compositores de música pop/ popular que uno más rápidamente estaría dispuesto a etiquetar como postmoderno por su uso mestizo de diversos estilos en la música contemporánea, por su incansable intento de crear una música difícilmente reducible dentro de una categoría, otra paradoja que añadir a las anteriores. 

La cultura popular tal vez sea el sustrato común que todos, en mayor o menor medida, compartimos, en contraste con otro tipo de cultura, digamos más elitista, que es compartida por un número más pequeño de personas. Esto, a priori, no debe implicar un juicio de valor sobre la calidad de unos productos culturales y otros. No es infrecuente que la factura de unos productos culturales sea más elaborada que la de otros, y ello ha hecho que la cuestión de la dificultad se esgrima a veces como barrera categórica entre un tipo de cultura y otro. Igualmente, esta diferenciación entre productos culturales se ve cuestionada cuando nos enteramos de que uno de los grandes santones de la música popular como Bob Dylan es propuesto para uno de los mayores galardones canónicos en el campo de la literatura, el Premio Nobel. 

Para superar esta dicotomía podríamos sencillamente decir que compartimos experiencias culturales de diversa índole, que esa diversidad crea contradicciones, pero que esas contradicciones no son percibidas ni vividas como algo traumático sino como parte del carácter multirreferencial de la experiencia vital cotidiana en la que nada tiene un significado único, como ilustra la siguiente anécdota que tiene como protagonista a James Joyce. El escritor irlandés paseaba un día por París cuando un joven le reconoció y deprisa se acercó para decirle: “Permítame estrechar la mano que escribió Ulysses”, a lo que Joyce contestó: “Le advierto, joven, que esa mano también ha hecho otras cosas”.

 Una mano, pues, no es importante para su dueño porque realice una sola actividad y las diferentes actividades que realiza están presentes simultáneamente como potencialidades que coexisten sin ningún problema. La anécdota en última instancia desmitifi ca el fetiche de los procesos de creación del arte, y también por otro lado viene a ensalzar la imbricación del arte en lo mundano, en lo cotidiano, es decir, la coexistencia de lo sublime y lo escatológico, lo uno junto a lo otro, compartiendo los mismos instrumentos, el mismo cuerpo. De ahí mi propuesta de hablar de la cultura no como de una serie de compartimentos estancos sino como de un espacio común en el que simultáneamente caben diferentes objetos culturales, en el que tienen lugar diferentes experiencias culturales de manera no necesariamente organizada, y en el que los objetos no siempre tienen un sentido o un valor unívoco. La postmodernidad, además de muchas otras cosas, es asimismo un espacio cultural en el que diferentes sujetos comparten diferentes objetos mediante diferentes discursos. Hablar de ciertas características de la postmodernidad es ya una manera de iniciar una narración de la misma, en este caso a través de la disección de alguno de sus rasgos definitorios(la mezcla intertextual de estilos). También podríamos hacerlo a través de su carácter experiencial (es decir, la experiencia de vivir en un tiempo postmoderno), o a través de la opinión que subjetivamente podamos tener de esa experiencia (si nos gusta más o menos e incluso hasta qué punto aceptamos que vivimos en esta época postmoderna). 

Pero hay otras maneras de construir una narración de la postmodernidad, aunque antes hay que hacer algunas advertencias. En primer lugar, tengo que señalar que estoy convencido de que no es posible en el caso que nos ocupa una narración conducente a una definición que sea no problemática, es decir, que pueda funcionar casi independientemente del contexto en el que se formula. La culpa de ello no está en nuestra (in)capacidad para tales ejercicios retóricos sino en el objeto mismo que queremos defi nir. Y ello es así, al menos, por tres razones: en primer lugar por la relativa proximidad del fenómeno o espacio cultural que intentamos definir y cuyos contornos aún no acertamos a discernir con absoluta nitidez. En efecto, la postmodernidad sigue siendo el tiempo en el que vivimos y con respecto al cual, por tanto, no tenemos aún la suficiente distancia crítica. En segundo lugar, la narración que se intente llevar a cabo tendrá mucho que ver con el área cultural específico que dentro de la postmodernidad se quiera representar, un ejercicio que sin duda nos llevará por historias, genealogías, y narrativas muy diferentes entre sí. Finalmente. la última difi cultad es en realidad el primer obstáculo con el que nos encontraríamos, y se trata del término mismo, “postmodernidad” o “postmodernismo”, que desde el inicio sugiere una fi liación con la “modernidad”, con el “modernismo”, algo que no ocurre con otros términos como “romanticismo” o “novela victoriana”, por ejemplo. El problema es que esa fi liación no es unívoca, sino que debe ser definida a su vez, pues no queda claro si la relación es una relación de tipo cronológico o lo que el término expresa es una relación de carácter estético (como continuación o como oposición a lo anterior).

Es por todo esto por lo que quiero aprovechar el juego de palabras que se crea aquí a propósito del término de “narración”: narrar los hechos es lo que nos puede pedir un juez en un juicio con el fi n de “establecer la verdad”; pero narrar los hechos es también lo que hace el historiador cuando intenta recrear una verdad, en su caso, histórica; y narrar los hechos es asimismo lo que hace cualquier buen novelista, engarzándolos en una secuencia de curso inevitable. Pero quiero reivindicar esa expresión, “narrar los hechos”, también para lo que yo hago aquí en este momento (y para lo que los demás autores en este volumen harán cada uno en su caso y desde su perspectiva), y reivindicar ese carácter de “fi cción” que la organización de los hechos en una narración tiene en todos los ejemplos antes mencionados. Dicho de otra manera, ya sea para declarar ante un juez, para describir un acontecimiento histórico, para escribir un cuento, para explicar un tiempo y un espacio como la postmodernidad: en todos estos actos estamos implicados en la creación de una ficción que conduce a una representación de algo que de manera diversa puede estar conectado con lo real. Todas son ficciones, pero ocurre que una ficciones son más verdaderas que otras, es decir, generan representaciones que parecen corresponderse más que otras con nuestra propia experiencia de lo real. No sólo eso: como demostró Borges en “Pierre Menard, autor del Quijote”, una misma ficción puede significar dos cosas completamente diferentes en función de ese marco de referencia cultural que el lector utilice para certificar su validez y corroborar su certeza. Un última consideración. En este tipo de representaciones que tienen que ver con el devenir de los procesos culturales, con la descripción o construcción de mapas relativos a espacios poblados por objetos culturales del signo que sean, dichas representaciones sólo pueden tener un carácter efímero, temporal, válido hasta una nueva actualización. Su cualidad fundamental reside precisamente en ser tan sólo (y no es poco) una aproximación a lo real mismo, en otorgar un carácter tentativo a la representación, en reconocerse como mapa del territorio y saber que no se es el terrritorio mismo. Y que por ello esa representación puede ser reemplazada por cualquier otra que desde un espacio o un tiempo diferente consiga generar una representación que funcione como alternativa a la anterior. Dado que siempre cabe la incorporación de nuevas parcelas de la cultura, la descripción se puede cerrar sólo provisionalmente. 

Y aún así, con todas estas salvedades, podemos intentar crear una representación que en este caso consiste en la narración de la postmodernidad, es decir, la delimitación de ese espacio antes mencionado, la defi nición de ese tiempo, desde el punto de vista no de los productos culturales que podríamos etiquetar como postmodernos, sino más bien desde la perspectiva de los textos que con una carácter marcadamente crítico o teórico se han ido escribiendo, generando al calor de la postmodernidad, motivados en gran medida por la sencilla pregunta de “¿qué es eso?”. 

Una manera definitoria de responder a esa pregunta consiste en hacerlo de una manera sesgada, es decir, contestando a otra pregunta, una que no sido formulada pero que de alguna manera está implícita en la que sí se ha hecho. Podríamos contestar a “qué es eso?” contestando a otra pregunta como “¿cuándo comenzó?” o “¿cómo se inició?”, en el convencimiento de que contestar a la segunda es ya una manera de decidir la respuesta a la primera. En otras palabras, la pregunta sobre el origen en gran medida exige establecer no sólo una genealogía sino también consecuentemente una historia, una sucesión de eventos que se producen a partir de ese punto original y que de alguna manera son explicables a partir de él, y fi nalmente crean una (respuesta sobre la) ontología. 

Sin tener que remontarnos al mito de la caverna de Platón, uno de los sospechosos habituales en ciertas narrativas, se podría señalar un determinado momento (en realidad una idea o un texto) como ese momento inicial en el que, a la manera de un Big Bang, todo el potencial de desarrollo posterior se hallaba condensado. Ese punto original se hallaría en la conocida propuesta o diagnóstico del fi lósofo alemán Friedrich Nietzsche de que “Dios ha muerto”, que, a la manera de un forense, de forma breve y concisa certifi ca la muerte de toda metafísica en la que fundamentar las razones últimas de cualquier existencia. Diversos fi lósofos del siglo XX, como Michel Foucault o Jacques Derrida, ha propuesto una manera de mirar las cosas, la cultura, el sujeto, que implica un severo cuestionamiento de las ideas recibidas, de los valores y marcos conceptuales que han sido predominantes en la sociedad occidental durante siglos. Pero en realidad en ese cuestionamiento no son originales sino más bien el resultado de una dinámica iniciada ya a fi nales del siglo XIX en la obra de Nietzsche, fi lósofo del que los anteriormente mencionados se sienten explícitamente deudores. Este trazo que inicia el fi lósofo alemán es continuado hasta nuestro tiempo por otros fi lósofos, como ya se ha dicho, y nos permitiría pensar en esta descripción de la postmodernidad como una que está caracterizada por la muerte de toda metafísica y de todo sistema de referencias y valores 

Podemos pensar, sin embargo, en narraciones alternativas. Por ejemplo, podríamos decir que de manera simbólica la postmodernidad comienza en 1945, con la destrucción de las ciudades japonesas de Hiroshima y Nagasaki. Nunca hasta ese momento se ponía ante cada uno de nosotros el aspecto más terrible de la guerra, es decir, no ya la posibilidad de desaparecer individualmente sino incluso la posibilidad cada vez más real de desaparecer como especie, arrastrando en nuestra destrucción a la totalidad del planeta. Por primera vez en su historia la raza humana podía prescindir de la intervención divina de la mitología para encontrarse con una posibilidad muy real de provocar la muerte de una manera absoluta. Lo de Dios con el diluvio universal fue un juego de niños en comparación con la potencia devastadora de las bombas atómicas, algo, por cierto, que más allá de coyunturas políticas más o menos pacífi cas todavía está presente en nuestras vidas cotidianas, como de vez en cuando podemos ver en alguna película. 

Otra narración alternativa es la que se organiza en torno a la idea de que después de Auschwitz ya no es posible el arte. Esto conlleva implícita la idea de que el arte tiene, si no como misión, sí al menos como efecto indudable e inevitable el de convertirnos en mejores personas, pues toda persona expuesta a la benéfi ca infl uencia de la cultura es automáticamente convertida en una persona moralmente superior. El arte, pues, está intimamente relacionado con la ética y la moral en una relación directamente proporcional fácilmente discernible. De ahí que resulte un visión intolerable y llena de horror la de los guardianes de los campos de concentración escuchando música clásica en sus ratos de ocio antes o después de realizar su trabajo de gasear prisioneros. (Entre paréntesis, obsérvese a su vez la perversidad de esta visión del arte: se implica que aquellas personas, ya sea en nuestra misma cultura o en otra distinta, que no han estado en contacto con los valores que el arte (occidental?) rezuma y transmite son personas de una cualidad primitiva y cuyos marcos de referencias de toda índole son necesariamente poco elaborados o sofi sticados y por ello obligatoriamente sustituibles). 

Pero además, esta convicción de la imposibilidad del arte tras la catástrofe moral de la Segunda Guerra Mundial en cualquiera de estos episodios requiere la premisa, discutible por lo demás, de que el arte está directamente condicionado por la realidad histórica hasta el punto de que no puede superar determinados condicionamientos, como en este caso el horror de los campos de concentración o la destrucción masiva de civiles con bombas atómicas. La prueba de que eso es discutible es precisamente la continuación de la producción artística a niveles tan importantes como en épocas anteriores y con una capacidad de imbricarse en las cuestiones contemporáneas tan potente como en otros tiempos. Por otro lado, ¿por qué hechos históricos como los mencionados han de tener el privilegio de establecer esa imaginaria línea divisoria, y no otras catástrofes sociales igualmente importantes, como anteriormente la 1ª Guerra Mundial o la Guerra Civil Española, y con posterioridad la de Vietnam, la de Ruanda, el 11 de Septiembre, la situación en Oriente Medio o, por ejemplo, la fosa común en la que se ha convertido el estrecho de Gibraltar? Desde luego, si se admite ese condicionamiento del arte ello implicaría que en diferentes culturas las relaciones entre arte y realidades históricas tendrían una naturaleza bien diversa y no podríamos establecer una regla defi nitoria que sirviera en todos los casos. 

Estas dos narraciones alternativas (la de Hiroshima y Auschwitz, llámemolas así) tienen un denominador común, y es que ambas son el fruto de lo que podríamos designar como las contradicciones de la modernidad. Es decir, son un ejemplo de los peores extremos a los que el ideal de la Ilustración, con su énfasis en la razón, es capaz de llegar. El discurso científico, como corporeización ideal de ese concepto de razón, acaba produciendo una bomba capaz de aniquilar el planeta y, por otro lado, nos permite diseñar un plan para metódicamente ir asesinando a millones de personas en la llamada “solución fi nal”. 

Una narración alternativa es la que afronta el problema de la postmodernidad en términos morales, y que en muchos casos lleva a muchos a decir que efectivamente “ésta no es mi casa”. En esta línea de argumentación se trata fundamentalmente de establecer si lo postmoderno es algo bueno o es algo malo. Para comparar la cualidad de este (falso) problema, cámbiese el adjetivo “postmoderno” por el de “romántico” o “neoclásico” y se revelará que esa argumentación no tiene mucho sentido dado que en muchas ocasiones el término “postmoderno” se utiliza como descalifi cación que siempre tenemos dispuesta a mano para etiquetar aquello que por una razón u otra nos disgusta. Esto está muy relacionado con el uso popular del término postmodernismo o postmoderno que puede también ser problemático. El catálogo de “desgracias culturales postmodernas” no es escaso: las hallamos en el cine, la literatura, la arquitectura, la fotografía, etc., y hay quien utiliza el término para referirse a productos culturales poco “convencionales”. Y es algo que además desgraciadamente alcanza a las (buenas) costumbres, creándose una situación en la que resulta imposible llega a compartir unos mínimos valores. Otras veces el término puede usarse de manera peyorativa, casi para indicar el origen de todos los males que pueden aquejar a una sociedad, que da la sensación de haber perdido unos valores aparentemente insustituibles a favor de otros más superfi ciales y que de forma breve se califi can como “light”. Añádase a ello la “perversidad” de cuestionar determinadas categorías culturales predeterminadas a favor de otras menos representadas o valoradas, y la refl exión sobre lo que consituye la fuente de autoridad de un sujeto al ofrecer una opinión y se podrá apreciar que la postmodernidad es la madre de todas las maldades. 

Pero lógicamente también cabe la opinión contraria, o al menos la que complementa la anterior y que resalta los efectos benéfi cos para diversas áreas de la cultura y el pensamiento de una actitud postmoderna a la hora de analizar una serie de fenómenos sociales y culturales en las sociedades contemporáneas, y reconocer las ventajas que cierto descentramiento de nuestros puntos de vista ha tenido a la hora de representar grupos sociales que no siempre tuvieron acceso a la existencia cultural, que en muchas ocasiones nunca antes habían tenido un lugar en el mapa de la sociedad. Daré un par de ejemplos de lo que estoy comentando. Comenzando por este segundo aspecto, me parece evidente e indiscutible a esta alturas la importancia de escritores y fi lósofos, como Derrida, Foucault, Baudrillard, la feministas francesas, Said o Spivak, y más allá, Heidegger o Nietzsche, a la hora de construir un paradigma científi co dentro del campo de las humanidades que permite la representación de zonas de lo real que hasta ahora no habían sido atendidas en su justa medida, como la situación de la mujer, la situación del sujeto colonial, y la situación de la cultura popular, por poner tres ejemplos clave. 

Pero, claro, no se trata simplemente de “descubrir” un nuevo sujeto a representar (como si estuviéramos descubriendo un nuevo territorio a cartografíar y explotar): se trata sobre todo (y aquí me refi ero al primer aspecto mencionado) de la posibilidad de ejercer ese descentramiento del punto de vista antes aludido que permite cuestionar el punto de vista canónico constituido de manera tradicional como centro, con todos sus atributos. Uno de los cuales es precisamente su carácter metafísico, es decir, su capacidad para fundamentarse en “verdades” que se sitúan más allá de todo cuestionamiento posible. La metafísica hace posible el surgimiento del fundamentalismo, del cual hay muchas versiones, tanto políticas (de cualquier signo) como religiosas (de cualquier inspiración). 

La sentencia de Nietzsche (“Dios ha muerto”) es totalmente pertinente en este punto pues niega que la existencia de esa verdad se lleve a cabo en lo real. El postestructuralismo sugerirá más tarde que esa existencia es puramente textual, pues todo texto se refi ere en última instancia otro texto. Esto nos ofrece los instrumentos conceptuales para señalar cómo, incluso allí donde en apariencia no hay lugar para este tipo de disquisiciones, como es el discurso que debe ordenar la investigación científi ca, nos encontramos un caso en el que concurren estos conceptos. Piensen en la siguiente situación: alguien, aterrorizado por el conocimiento de la muerte cierta y por el desconocimiento de lo que pueda haber tras ella, construye una narración que atenúe su desasosiego. Alguien, veinte siglos después en nuestra sociedad contemporánea occidental, lee ese texto y a partir de él toma decisiones que condicionarán la vida (y la muerte) de otras personas, que quizás también hayan leído ese mismo texto y crean que contiene algo de verdad (nunca mejor dicho), pero que quizás conozcan ese texto y no le den más valor que el de una historia más acerca de la relación entre una cultura y su dios. 

No se trata de consideraciones ociosas sino muy reales que tienen su impacto sobre los individuos en una sociedad, cuando un gobierno prohibe la investigación con células madre, algo que en estos momentos es la única esperanza para los pacientes de determinadas enfermedades. Pues bien, frente al discurso de progreso que proponen los científi cos, lo único que puede argumentar ese gobierno es su confi anza (su fe) en la certeza de lo que dice el texto en el que fundamenta su verdad, un texto que por lo demás tiene como único valor el hecho de que se refi ere a sí mismo o a otros textos asimismo autorreferentes. El paradigma conceptual que nos propone el postmodernismo nos ayuda a desvelar el carácter esencialmente cultural, es decir, no metafísico, de las “verdades” que el centro (y esta vez no hay juego de palabras) construye y que quiere hacer pasar como incuestionables. 

Las anteriores no son las únicas narraciones posibles de la postmodernidad. A ellas habría que añadir la que se propone en este volumen de ensayos. Quizás una forma de describir el fenómeno sea, en lugar de crear una gran (meta)narrativa que abarque numerosos ámbitos, proponer diferentes micronarrativas que desde diferentes ángulos y perspectivas creen una representación multidisciplinar que de manera kaleidoscópica nos ofrezca una representación quizás paradójica pero dinámica y sufi cientemente operativa. Dado que la postmodernidad no se limita a un área específi ca de la cultura, la idea de un enfoque interdisciplinar, que pusiera de relieve la manera en que el fenómeno tiene una proyección transversal en numerosos ámbitos de la cultura, podría resultar un enfoque muy apropiado. Así, cada mirada, cada representación, podría servir de espejo en el que otras miradas se podrían refl ejar. Ello además pondría de relieve la manera en que la postmodernidad ha alcanzado su madurez, como se puede ver en el lenguaje que la construye, en el conjunto de conceptos que construyen y articulan un mapa que describe y cartografía un territorio de la cultura contemporánea, un tiempo de nuestro quehacer actual. A lo largo de los trabajos que siguen se suceden una y otra vez el uso y la apelación a términos que forman una constelación de palabras que arrojan luz sobre el objeto de estudio y lo enmarcan en una estructura de significación. 

No debemos olvidar que una narración siempre tiene ese carácter mitológico, no porque trate de asuntos inventados, irreales, inexistentes, sino porque tiene esa cualidad de creación explicativa que permite que lo fragmentario e inconexo acabe teniendo, si no sentido, al menos un sentido. Y, por otro lado, tampoco debemos olvidar el carácter constructivista de nuestras narraciones, que no sólo explican el mundo sino que en el proceso de explicarlo no pueden evitar decir algo sobre nosotros mismos, a la manera en que la decoración de nuestra casa también habla sobre nosotros mismos. La postmodernidad quizás no sea nuestra casa, pero no hay duda de que en ella estamos, y que no dejamos de decorarla con nuestras narraciones, nuestras ficciones y nuestras fantasías, manifestando así nuestro deseo inconsciente de que tenga un toque singular que exprese nuestra propia personalidad. Tal vez acabe siendo el único sitio en el que con el tiempo nos sintamos cómodos.


PENSAMIENTO CRÍTICO Y PENSAMIENTO POLÍTICO PARA LA EDUCACIÓN INCLUSIVA EN LATINOAMÉRICA.

 PENSAMIENTO CRÍTICO Y PENSAMIENTO POLÍTICO PARA LA EDUCACIÓN INCLUSIVA EN LATINOAMÉRICA. UTOPÍAS Y DISTOPÍAS PARA LA CREACIÓN DE PROYECTOS POLÍTICO Y EDUCATIVOS CRÍTICAMENTE SUBVERSIVOS 

Aldo Ocampo González (Comp.) 

Autores: 

Maria Beatriz Greco 

Fernando González Luna 

Juan Ramón 

Rodríguez Fernández 

Marco Antonio Navarrete Ávila 

Aldo Ocampo González 

José Manuel Fajardo Salinas 

José Jesús Alvarado Cabral 

José Enrique Alvarez Alcántara


Índice 

Prólogo 

El ensayo de la igualdad. 

Lo político en educación y la emancipación desde los textos 13 

María Beatriz Greco 

Introducción 

Lo crítico, lo político y lo performativo de la educación inclusiva 18 

Aldo Ocampo González 

Diálogos entre ensayistas 27 

Marco Antonio Navarrete Ávila, Juan Ramón Rodríguez Fernández, José Manuel Fajardo Salinas & José Enrique Alvarez Alcántara 

Capítulo I 

¿A qué mundo nos quieren incluir?, ¿de qué fiesta nos han privado los tiranos? La instauración de tejidos convivenciales para eliminar la figura del No Invitado 45 

José Jesús Alvarado Cabral & Fernando González Luna 

Capítulo II 

Educación Deconstruida: la Educación Inclusiva como factor transmutador de la Cultura y la Sociedad Chilena y Latinoamericana 92 

Marco Antonio Navarrete Ávila 

Capítulo III 

El paradigma del proyecto educativo “Escuela Para Todos”, evento de y para la justicia intercultural 193 José Manuel Fajardo Salinas 

Capítulo IV 

Más allá de las palabras: Cuando el silencio y la invisibilidad deslumbran y se escuchan 245 José Enrique Alvarez Alcántara 

Capítulo V 

Una Santa Cruzada por la educación de los pobres. La educación en los 279

programas de lucha contra la pobreza Juan Ramón Rodríguez Fernández 

Un epílogo en otras coordenadas Inclusión como método: dilemas críticos en la reconfiguración de sus condiciones de producción 346 

Aldo Ocampo González 

Sobre los autores 393


Prólogo 

El ensayo de la igualdad. 

Lo político en educación y la emancipación desde los textos 

María Beatriz Greco 

Dice Italo Calvino en Ciudades Invisibles (1972): 

[…] el infierno de los vivos no es algo que será, sino que existe ya aquí, lo habitamos todos los días, lo formamos estando juntos. Dos maneras hay de no sufrirlo. La primera es fácil para muchos: aceptar el infierno y volverse parte de él hasta el punto de no verlo más. La segunda es peligrosa y exige atención y aprendizaje continuos: buscar y saber reconocer quien y que en medio del infierno, no es infierno y hacerlo durar, darle espacio (p.180). 

Es posible nombrar el infierno también como esa desigualdad instalada, inexorable, inabordable y estática, propia de una supuesta esencia subjetiva que, algunos creen erróneamente, nunca se transformará. En cambio, el “hacer durar”, ese “dar espacio” a lo que no es infierno, en palabras de Calvino, es parte de un trabajo político que puede darse en forma de grandes proyectos, programas y políticas en el marco de sistemas educativos, pero también en esos gestos muchas veces simples, tal vez pequeños e imperceptibles, aunque grandes también por sus consecuencias igualitarias. 

Esta presentación de ensayos ganadores se enmarca en un tiempo en que lo político y las políticas en educación parecen disolverse, en diversos países de la región, en medio de lógicas neoliberales, o por falta de decisión, de atención y de disposición de recursos indispensables para generar y sostener lo público, eso común que nos reúne en nuestras diferencias. A partir de allí se profundizan desigualdades sociales y educativas así como la exclusión de diferentes grupos sociales y numerosas subjetividades. 

Los presentes textos dan a pensar lo político y las políticas en educación generadas desde el convencimiento de una igualdad no siempre advertida, tal vez desestimada, posible de concebir como movimiento que no cesa, que abre espacios inexistentes, que potencia lo que se halla silenciado o que interrumpe lo “ya dado”, naturalizado, a menudo, en la experiencia escolar.

Así lo interrogan Alvarado Cabral y González Luna, “¿es verdad que lo importante es cómo construir, hacer funcionales y preservar espacios educativos verdaderamente inclusivos?”. Se trataría, para ellos, de la “creación de espacios de tejido convivencial donde el entendimiento del ‘otro’ sea un hecho que nos lleve realmente a aprender para ser”. 

Se trataría de un trabajo implicado por parte de docentes, directivos, profesionales y funcionarios educativos cuyas intervenciones tienen efectos en la confirmación o la ignorancia de la desigualdad, son poderosas, echan a andar transformaciones que subjetivan la experiencia de enseñar y aprender para todos/as. Suponen decisiones éticas, políticas, teóricas y metodológicas. Implican instrumentos que potencian emancipaciones en obra definiendo espacios hechos de diferencias, negándose a la categorización de sujetos según déficits que se anticipan negativamente en la configuración de vidas y trayectorias. 

Interesa entonces, detenerse a problematizar lo que concebimos como inclusión. Negarse a su supuesta obviedad, interrogar quién incluye a quién y en el marco de qué espacios y relaciones. Dice Navarrete Avila: “Se plantea una reconceptualización del calificativo Inclusión y el paradigma de la Educación Inclusiva, abordando planteamientos y barreras contemporáneas presentes en educación, recalcando estigmas y fetiches de la sociedad ante los sujetos abyectos” 

Fajardo Salinas subraya en su ensayo, lo que denomina “justicia intercultural”: “una forma singular de disidencia y resistencia ético-política, que apuesta por rutas de humanización renovadas”. Alvarez Alcántara se pregunta: “¿Será acaso que los análisis diagnósticos y los diseños de las estrategias de intervención no han sido los más adecuados o pertinentes?”, mientras que Rodriguez Fernandez propone “la construcción de un nuevo discurso humanitario”. 

Los presentes ensayos resisten a “lo obvio” de la inclusión, se afirman en conceptualizaciones diversas para interrogar, deconstruir, desarticular la equiparación entre igualdad e inclusión. Igualdad no como lo que supone “hacer” idénticos a los seres humanos, no como lo que reconoce diferencias para homogeneizarlas conduciendo a un único formato, no como instrumento para fines utilitarios. Por el contrario, en estas perspectivas, anida una anticipación conceptual que abre promesa, un nuevo comienzo cada vez, como lo que está a disposición de todos/as y en cualquiera para ser puesto en obra y en palabras, desplegado, diversificado. La condición requerida es asumir una transformación que amplía la inclusión hacia otros –nuevosterritorios. 

Proponemos, entonces, su lectura, para pensar lo político y las políticas igualitarias en medio de las formas cotidianas, entremezcladas en las hebras de una realidad habitual, “común” y conflictiva. Es por ello que sus formas se constituyen, también, de gestos que dejan huella desde la posición de autoridad que docentes y profesionales ejercemos. Una autoridad que no se asemeja al mero ejercicio de poder sino que se desplaza hacia los bordes de la escena educativa para autorizar a quienes aprenden, a todos/as y a cualquiera, sosteniendo, en el mismo momento ese espacio que se abre. 

Lo político se juega así en situaciones cotidianas interrogadas y que interrogan. Se vincula más con actos que inauguran lo justo e igualitario en un mundo escolar sensible que con definiciones acabadas que fundamentan lugares fijos, que establecen categorías y diagnósticos ciertos. 

Lo político se juega en la creación de un mundo común. A menudo la creación de lo común aparece como un desafío inalcanzable o se lo espera ya dado, producido de antemano en espacios familiares y sociales, anteriores a la escolarización. Sin embargo, lo común es trabajo educativo y escolar, un común no homogéneo o indistinto, sino espacio-tiempo que reúne en torno a la cosa pública en el que confluyen diferencias que subjetivan. Lo común no tiene un fundamento último ni es un producto terminado. Siempre está en obra, es proyección, invención, por-venir. 

Cuenta Patricia Redondo en su texto La escuela con los pies en el aire (2018) que en una escuela especial de Villa Scaso, del conurbano bonaerense, en Argentina, su director relata esta escena: 

[…] Un día de clases, en una escuela de una barriada muy popular, uno de los grupos de alumnos/as de la mañana conserva en un frasco una oruga que ese día abandona la crisálida y se transforma en mariposa. Los chicos —según relatan sus maestros— se sorprenden por su transformación. No era una mariposa deslumbrante pero de todos modos los llena de asombro. En el patio, al compartir lo sucedido con otros, surge la pregunta sobre ¿qué hacer? La decisión final es dejarla en libertad para que vuele. En la escuela se encuentran los profesores y profesoras de la Orquesta ensayando los instrumentos con sus alumnos/as en las aulas. El día anterior, frente a la eventualidad y lo que provoca el nacimiento de una mariposa, el director de la escuela le consulta al director de la Orquesta si es posible sumar música para acompañar el primer vuelo. Todos se dirigen al patio. El director de la Orquesta improvisa con un violín una melodía y ese vuelo, mínimo, de una mariposa (común), en el patio de una escuela del conurbano, es acompañado por la música de un violín... Y se transforma en algo mágico, la mariposa y la música del violín embelesan a los que lo presencian. (Director, agosto de 2015, cit. por Redondo, 2016, s.p.) 

Trabajar en una escuela es ir habitando estos momentos, episodios simples y poéticos, no detenerse en la descripción que imposibilita desde la supuesta negatividad de los sujetos que no se asemejan al “modelo” esperado o al “perfil” deseado. En medio de categorizaciones que delimitan sujetos en déficit, la invitación es a provocar un “sutil desplazamiento, como el de una larva a mariposa acompañada por un violín en un patio escolar” (Redondo, 2018).

La escuela es ese ese espacio que tiene que ver con la suspensión de un presunto orden desigual, suspensión como interrupción que detiene el presupuesto de la desigualdad para hacerle lugar a otro presupuesto y, a partir de allí, verificar lo que se despliega. 

En el relato de numerosas experiencias, algunas recuperadas en los presentes ensayos, se interrumpe otro relato, el de la imposibilidad, el del déficit que no deja lugar a otra cosa, suspende certezas y categorizaciones para ensayar otros modos inaugurales de subjetivación. 

Lo político asume, entonces, en los diferentes modos de decir de estos ensayos un carácter particular, del orden de la mezcla, el desorden, lo impuro, lo inacabado, lo momentáneo, lo frágil, lo heterogéneo, sin renunciar a la construcción de un “común” compuesto por estos mismos rasgos. Los gestos políticos que encontramos en los textos se presentan siempre mezclados, entretejidos entre las hebras de una realidad habitual, cotidiana, “común”. Lo político no pertenece a una esfera diferenciada, a salvo de lo “doméstico” y simple, ajena al mundo de los apremios sociales, las “necesidades” sensibles y corporales. Es por ello que, un gesto que creemos reconocer en estos relatos y muchos otros, implica lo político bajo la forma de sensibilidades, en el habitar de un mundo de cuerpos y pasiones, de identidades múltiples y des-identificaciones. 

Si lo político tiene que ver con un ordenamiento sensible es porque produce otras sensibilidades, disposición de cuerpos, nombres y herencias que ya están allí sin estarlo. Es en este punto en que lo político se vuelve menos una idea declarada –de igualdad, de libertad, de comunidad- y resulta más bien un intervalo entre un conjunto de pasiones encarnadas en cuerpos, voces que se hacen escuchar, palabras apropiadas y sentires que se pueden percibir en el calor y el color de lo cotidiano. 

VER MÁS AQUÍ 

domingo, 18 de julio de 2021

ESCUELAS DE PENSAMIENTO MONETARISTAS Y KEYNESIANOS

 

ESCUELAS DE PENSAMIENTO MONETARISTAS Y KEYNESIANOS

ESCUELAS DE PENSAMIENTO MONETARISTAS Y KEYNESIANOS

ESCUELAS DE PENSAMIENTO MONETARISTAS Y KEYNESIANOS

Desde hace bastante tiempo existen dos tradiciones intelectuales en macroeconomía. Una escuela de pensamiento cree que los mercados funcionan mejor si no se intervienen en ellos; la otra cree que la intervención del gobierno puede mejorar notablemente el funcionamiento de la economía. En los años sesenta el debate respecto a estas cuestiones involucraba, una parte, a los monetaristas, encabezado por el Dr. Milton Friedman, y de otra, a los keynesianos, entre ellos Franco Modigliani y James Tobin.
En los años setenta el debate sobre casi los mismos temas convirtió en protagonista a un nuevo grupo – los nuevos macroeconomistas clasicos –que cuenta entre sus líderes con Robert Lucas, de la Universidad de Chicago, y con Tomas Sargent de la Universidad de Minnesota.
La nueva macroeconomía clásica comparte con Milton Friedman muchos puntos de vista sobre la política económica. Concibe el mundo como un lugar donde los individuos actúan racionalmente buscando su propio interés en mercados que reajustan rápidamente a condiciones cambiantes. Y consideran probable que la intervención del gobierno sólo consiga empeorar las cosas. Este modelo constituye un reto para la macroeconomía tradicional, que cree que la intervención del gobierno juega un papel útil en una economía dominada por ajustes lentos con rigideces falta de información y hábitos sociales que impiden el rápido equilibrio de los mercados.
Con frecuencia se presenta la macroeconomía como el campo de batalla entre escuelas de pensamiento implacablemente opuestas. Es innegable que existen conflictos reopinión, e incluso teóricos, entre los distintos campos, pero también es cierto que existe un acuerdo en áreas importantes y que los distintos grupos, a través de la discusión y de la investigación, están logrado continuamente nuevas áreas de consenso y adquiriendo una idea más clara de cuáles son exactamente sus diferencias.

​​VER AQUÍ

Economía y economía política de Friedman: una crítica desde el viejo keynesianismo

 Economía y economía política de Friedman: una crítica desde el viejo keynesianismo

 

Thomas I. Palley*

 

* Consejero de Política Económica en la Federación Estadounidense del Trabajo y Congreso de Organizaciones Industriales (AFL-CIO, por sus siglas en inglés) e Investigador asociado en el Economic Policy Institute. Correo electrónico: mail@thomaspalley.com.

 

Manuscrito recibido en enero de 2014
Aceptado en mayo de 2014

 

Resumen

La influencia que Milton Friedman ha ejercido en la profesión económica es enorme. Si bien en parte su éxito se debió a las fuerzas políticas que han hecho del neoliberalismo la ideología dominante a escala mundial, también las dirigió y contribuyó a ellas. El triunfo profesional de Friedman es testimonio de las débiles bases intelectuales de la profesión económica que acepta ideas que son conceptual e intelectualmente inconsistentes. Su triunfo ha llevado a que la economía retroceda hacia el prekeynesianismo y haya expulsado de la academia al keynesianismo. El pensamiento de Friedman también enmarca la así llamada economía neokeynesiana, que simplemente es nueva macroeconomía clásica a la que se agregó la competencia imperfecta y las rigideces nominales. Al permitir la afirmación de que la macroeconomía está plenamente caracterizada por una división entre nuevo keynesianismo y nueva macroeconomía clásica, la primera cierra la pinza que excluye al viejo keynesianismo. Mientras dicha pinza no se abra, la economía permanecerá a la sombra de Friedman.

Palabras clave: Friedman, monetarismo, nueva macroeconomía clásica, nuevo keynesianismo, neoliberalismo.

Clasificación JEL: A10, B10, B30, E00.

 

LA INFLUENCIA DE FRIEDMAN EN LA ECONOMÍA

Milton Friedman murió el 16 de noviembre de 2006, a la edad de 94 años. Como muchos hicieron notar en ese momento, quizá fue el economista más influyente en el último cuarto del siglo xx. Si el periodo previo (1945-1975) fue la "era de Keynes", al siguiente periodo de treinta años (1975-2005) se le podría legítimamente calificar de la "era Friedman". Éste no sólo contribuyó a reformular el pensamiento en economía al desplazar la economía keynesiana, sino que tuvo una incidencia política profunda cuando estableció una relación entre capitalismo y libertad en su famosa obra publicada en 1962. Esta incidencia la atrapa Summers (2006) en su panegírico a Friedman titulado "The Great Liberator", que apareció en el New York Times poco antes de morir: "no hace mucho todos éramos keynesianos. De igual forma, cualquier demócrata honesto admitirá que ahora todos somos friedmanianos".

Ahora, en los albores de la crisis financiera mundial de 2008 y el consecuente gran estancamiento, los eventos van desfilando uno a uno ante Friedman, lo cual ha creado una esquizofrenia intelectual cuando dichos eventos hablan de lo acertado del viejo keynesianismo y, no obstante, la economía política de Friedman sigue siendo dominante entre la elite económica y política. Esa condición obstaculiza una reactivación teórica plena de la economía de Keynes, acarreando consigo graves consecuencias en la política económica.

Este ensayo presenta la crítica que desde la perspectiva del viejo keynesianismo se hace a la aportación intelectual de Milton Friedman.1 Cuestiona tanto la calidad como la perdurabilidad de los argumentos económicos de Friedman, si bien reconoce su impacto como economista político y su postura política. La etiqueta viejo keynesianismo se invoca específicamente para distinguirla del nuevo keynesianismo, ya que esta última se ha corrompido y ha confundido el significado del keynesianismo, dificultando más la distinción entre economía keynesiana y macroeconomía de Friedman, que ahora da forma a la macroeconomía moderna.

La economía neokeynesiana es una mutante genérica del así denominado "keynesianismo bastardo" IS-LM asociado con Paul Samuelson de la Escuela de Economía del Massachusetts Institute of Technology (MIT).2 El nuevo keynesianismo abandona el vestigio keynesiano y deja atrás el umbral intelectual, de manera que las expectativas racionales devienen la nueva macroeconomía a la que se agrega la competencia imperfecta y las rigideces del precio y salario nominal. En consecuencia, sería mejor etiquetarla como "nueva economía pigoviana" (Palley, 2009), que por el énfasis que pone en las imperfecciones del mercado representa el enfoque de Arthur Pigou, quien fuera el gran rival intelectual de Keynes en Cambridge en los años de 1930. Esto quiere decir que el nuevo keynesianismo tiene poco que ver con Keynes y mucho con Friedman, padre intelectual de la nueva macroeconomía clásica.

Este vínculo estrecho entre Friedman y el nuevo keynesianismo pasa en gran medida desapercibido y esa falta de reconocimiento coloca una barrera casi infranqueable para entender y reabrir la macroeconomía. Al afirmar que la macroeconomía se caracteriza por una división entre nuevo keynesianismo y nueva macroeconomía clásica, aquél cierra la pinza que excluye al viejo keynesianismo.3 Mientras dicha pinza se mantenga cerrada, la economía permanecerá a la sombra de Friedman, y liberarse de ese atenazamiento requiere reacondicionar el papel que desempeña el pensamiento de Friedman en la economía neokeynesiana y hacer clara la distinción entre la economía del viejo keynesianismo y la economía del nuevo keynesianismo.

 

UNA TAXONOMÍA DE LA APORTACIÓN DE MILTON FRIEDMAN

El esquema 1 proporciona una taxonomía de la aportación de Friedman, que hemos dividido en cuatro partes y que nos es útil para estructurar lo que resta de este ensayo. Al primer aspecto lo denominamos "primeros trabajos" de Friedman e incluye sus aportaciones a la metodología, la economía internacional, la teoría del consumo, la teoría de la demanda de dinero y la política de estabilización. El segundo aspecto lo denominamos "monetarismo"; al tercero, "nueva macroeconomía clásica", que asociamos con la doctrina de la tasa natural de desempleo a la que también se hace referencia como tasa de desempleo no aceleradora de la inflación (NAIRU, por sus siglas en inglés). Tobin (1980; 1981) hace referencia al monetarismo original como monetarismo marca I y a la nueva macroeconomía clásica como monetarismo marca II. El cuarto aspecto lo denominamos "política económica" y hace referencia al trabajo de Friedman referente a la relación entre capitalismo y libertad.

 

PRIMEROS TRABAJOS

Aun cuando los primeros trabajos constituyen un cuerpo ecléctico, su impacto ha sido fuerte y establece las bases para sus aportaciones posteriores y hay una consistencia significativa entre ambas partes.

 

Metodología

Siendo que ante todo es un macroeconomista monetarista, Friedman tuvo un impacto importante en la comprensión que los economistas tienen de la metodología. Su ensayo "The Methodology of Positive Economics" (Friedman, 1953a) ha tenido una influencia profunda, prolongada y maléfica en la comprensión que los economistas tienen de la economía. En efecto, una generación de estudiantes abrevó en esa fuente e impacto a prácticamente la mayoría de ellos (los viejos keynesianos incluidos). Dejando a la profesión prácticamente vacía de cualquier preocupación metodológica, sigue dominando en la comprensión económica y su práctica, a pesar de sus profundas deficiencias.

El marco metodológico de Friedman descansa en una distinción entre economía "positiva" y economía "normativa". El núcleo de la premisa es: "La economía positiva es, en principio, independiente de cualquier postura ética o juicio de valor [...] lidia con lo 'que es' y no con lo 'que debería ser' (Friedman, 1953a: 4) (Traducción del texto original en inglés).

Según Friedman, la economía positiva tiene que ver con teoría económica, mientras que la normativa tiene que ver con la economía política y con lo que deberían ser las metas de la economía. De acuerdo con esa afirmación, la teoría es a-valorativa y los valores del teórico no la afectan, como tampoco los valores de la sociedad en la cual trabaja el teórico. Esto es ampliamente sostenido y sirve para aislar a la economía dominante de cualquier acusación que la señale como una economía sesgada. Además, en la medida que no hay un discurso activo en torno a la metodología o que se interese en ella, estorba cualquier argumentación que se coloque sobre la mesa contra una teoría sesgada. En esta tendencia, se enseña a los estudiantes que la teoría económica ortodoxa está exenta de valoraciones.

Una segunda falacia metodológica fue la afirmación de Friedman respecto a la no pertinencia de la realidad de los supuestos para la teoría económica: "La pregunta pertinente que hay que formular sobre los 'supuestos' de una teoría no es si son descriptivamente 'realistas', porque nunca lo son, sino si son aproximaciones suficientemente pegajosas para los propósitos en cuestión. Y esta pregunta sólo se la puede responder viendo si la teoría sirve (Friedman, 1953a: 15) (Traducción del texto original en inglés).

Según Friedman, una teoría no puede ser juzgada por el realismo (o carencia del mismo) de sus supuestos, dejando que éstos sean un parámetro libre a ser construido y seleccionado de forma tal que la teoría funcione.

Al formular el argumento, Friedman, el polémico, apela a la ciencia natural para luego hacer un truco de prestidigitación que transfiere el argumento a la economía. Y, sin embargo, la economía es una ciencia social y del comportamiento que la marca como algo fundamentalmente diferente. Los átomos no hacen teoría de los átomos, no obstante, los actores económicos (los economistas) hacen teoría en relación con otros actores económicos. Los economistas son teóricos y actores por igual en la economía. Tienen capacidad introspectiva y sus propias experiencias económicas, aportando una base adicional para evaluar una teoría que no está ahí disponible en las ciencias naturales. Esas ideas introspectivas y experiencias son información que imponen límites adicionales a la teoría económica que deben reconciliarse con la teoría. Pero Friedman ignora campalmente ese hecho.4

Juntas, la negación de los valores en la teoría y la negación del realismo de los supuestos, levantan una barrera contra la crítica. La negación de valores en la teoría protege a la moderna macroeconomía en contra de los cargos de que está altamente politizada; mientras que la negación del realismo de los supuestos protege a la teoría macroeconómica, incluyendo los microfundamentos de la macroeconomía.

Los viejos keynesianos son culpables por aceptar el deficiente análisis metodológico de Friedman y, sin embargo, son quienes se han venido a convertir en las víctimas de ese análisis debido a que protege contra la crítica a la teoría microeconómica y a la macroeconomía ortodoxas (incluida la crítica keynesiana) que podría impulsar el cambio.

 

Economía internacional

Con relación a la economía internacional, el ensayo de Friedman (1953b) en defensa de los tipos de cambio flexible ("The Case for Flexible Exchange Rates") ha tenido una importancia enorme. Posterior a la gran depresión, los tipos de cambio flexibles fueron vistos con suspicacia política a causa de las devaluaciones competitivas de los años de 1930. Friedman fue pionero en la rehabilitación de los tipos de cambio flexibles, argumentando que facilitaban el ajuste económico internacional, evitando la necesidad de dolorosos y disruptivos ajustes en el nivel de los precios internos, y evitando la posible inquietud e inestabilidad asociada con la devaluación oficial discrecional.

Friedman argumenta que los tipos de cambio flexibles son preferibles dado que constituyen un mecanismo de mercado autoajustable y no uno que descanse en intervenciones gubernamentales, que es muy probable se ejerzan con muchas deficiencias y que sean potencialmente desestabilizadoras. En contraste, se parte del supuesto de que el mercado se estabiliza. El argumento es que existe un tipo de cambio de equilibrio fundamental. Cuando el tipo de cambio se devalúa, los especuladores compran y obtienen ganancias en la medida que hacen que la tasa suba hasta alcanzar un equilibrio fundamental: cuando se sobrevalua, los especuladores venden y se enriquecen conforme hacen descender la tasa hacia el equilibrio fundamental.

Los dos argumentos, respecto al papel que desempeña la estabilización de los mercados y los efectos disruptivos de las intervenciones de política pública discrecionales, aparecen reiteradamente en el análisis macroeconómico monetario de Friedman. Desde la posición ventajosa de un viejo keynesiano, hay tres críticas que se pueden hacer a la validez de los argumentos referentes a los tipos de cambio.

Primera, Friedman afirma la estabilidad de los mercados de los tipos de cambio (FX). Pero, la evidencia empírica muestra que éstos nunca están en paridad con el poder adquisitivo (PPA) y que, por el contrario, parecen seguir largos vaivenes que se extienden por encima y por debajo del PPA. Además, los modelos empíricos son terriblemente malos para predecir el tipo de cambio real (Meese y Rogoff, 1983; Taylor, 1995; Rogoff, 1999; Isard, 2007; Chinn, 2008). Estas características del tipo de cambio llevaron a Tobin (1978) a proponer un pequeño impuesto a las transacciones con FX para desalentar a los especuladores y reducir la volatilidad de los tipos de cambio. Este escepticismo del viejo keynesianismo hacia el papel que desempeña la estabilización de la especulación en los mercados de FX se extiende hacia los mercados financieros de forma más amplia. En la Teoría General, Keynes (1936) cuestiona la capacidad de los mercados financieros para establecer tasas de interés apropiadas debido a fluctuaciones en la preferencia de liquidez. Minsky (1992) formuló su hipótesis de estabilidad financiera, según la cual los mercados financieros tienen una predisposición genética a crear gradualmente condiciones inestables (Palley, 2011).

Segunda, la economía política de Friedman se construye en términos de un mercado competente con un conjunto unificado de intereses vs un gobierno incompetente. Los viejos keynesianos cuestionan ambos supuestos, el de la competencia de los mercados y el de la incompetencia de los gobiernos. Además, los keynesianos de izquierda critican el supuesto de los intereses del mercado unificado. En realidad, las economías están marcadas por la clase y otras divisiones económicas. En un mundo de tipos de cambio flexibles, el capital financiero puede disciplinar a los gobiernos amenazando con salir si se empeñan en seguir políticas no favorables a dicho capital. Este problema se agudiza, particularmente, en las economías de mercado emergentes, si bien también aflige a las economías desarrolladas. Por ejemplo, el presidente Francois Mitterand abandonó su programa keynesiano de estímulos en junio de 1993, que marcó el desplazamiento europeo hacia el neoliberalismo, y ese abandono se le puede atribuir en parte a las presiones del mercado financiero internacional que se ejercieron en contra del marco francés. Ese tipo de conflictos se encuentra totalmente ausentes de la economía política de Friedman.

Tercera, desde la perspectiva de Friedman, y respecto a los efectos económicos reales que tiene la flexibilidad de los tipos de cambio, supone que tienen resultados benignos. No obstante, los estructuralistas latinoamericanos (Sunkel, 1958; Olivera, 1964) argumentan que la depreciación del tipo de cambio puede acarrear una inflación disruptiva a consecuencias de las restricciones estructurales y desequilibrios en las economías en desarrollo. La depreciación en el tipo de cambio también puede ser contradictoria (Krugman y Taylor, 1978).

 

La teoría del consumo

La famosa monografía de Friedman (1957) A Theory of the Consumption Function constituye su aportación a la teoría del consumo. Los viejos keynesianos la aceptaron en gran medida e hicieron aportaciones afirmativas importantes. Sin embargo, también contenía implicaciones importantes subversivas para el keynesianismo y de las cuales da la impresión que los viejos keynesianos no estuvieron conscientes.

La Teoría General de Keynes introduce en la macroeconomía la noción de una función de consumo agregado. Con base en su afirmación de una ley psicológica general, Keynes (1936: 96) afirma que la propensión marginal al consumo (PMC) se reduce con el ingreso, lo que implica una disminución de la propensión promedio de consumo (PPC); esta afirmación la cuestionó Kuznets (1946), que mostró que la economía estadounidense se caracterizaba por una PPC constante de largo plazo. El hallazgo de Kuznets marcó una aparente contradicción mediante la cual datos de corto plazo mostraron una PPC decreciente, en comparación con datos de largo plazo que mostraron una PPC constante.

La hipótesis del ingreso permanente (HIP) que formulara Friedman reconcilió esta aparente contradicción y también hizo aportaciones teóricas importantes. La hipótesis afirma que los hogares consumen una proporción fija del ingreso permanente, definido como valor anual de las corrientes de ingreso y riqueza que se espera tener a lo largo de la vida. Respecto a la teoría, la HIP hace hincapié en la naturaleza de visión futura que caracteriza a las decisiones de consumo, que toman en consideración tanto ingresos presentes como futuros. Esa dimensión de visión futura había quedado entendida en la formulación de Keynes, que tendía a destacar el papel que desempeña el ingreso presente.

Segundo, la HIP explicó por qué el gasto en consumo tendería a ser muy estable y fluctuaría menos en comparación con el ingreso presente. Eso se debía a que el ingreso permanente, que se calculó a lo largo de la vida, es mucho más estable en comparación con el ingreso presente que fluctúa con el ciclo económico. De forma que, el consumo sólo cambia en respuesta a cambios en el ingreso permanente, y las fluctuaciones temporales en el ingreso presente no tienen un impacto, excepto si llegan a una fracción tal que afectan al ingreso permanente.

Tercero, la HIP explica la persistencia del gasto en consumo, proporcionando una alternativa a las normas y hábitos de consumo como explicación de la persistencia. De acuerdo con la HIP, la persistencia del consumo se deriva de la estabilidad del ingreso permanente que fluctúa muy poco a causa de su alcance, esto es, que se extiende a lo largo del ciclo de vida. Este contraste con normas y hábitos que explican la persistencia en términos de altos costos de utilidad resultado del ajuste al consumo.

Cuarto, la HIP resultó consistente con la teoría de consumo de máxima utilidad a lo largo del ciclo de vida, que desarrollaron Modigliani y Brumberg (1954), la cual implica el supuesto especial de una tasa de interés cero, una tasa de descuento cero, sin restricciones de liquidez y mercados financieros perfectos completos que permiten la monetización de corrientes de ingreso futuro en el ingreso permanente.

Referente a la aportación empírica, Friedman reconcilio la diferencia entre regresiones (de sección cruzada) de estimaciones de consumo de corto plazo y regresiones de series de tiempo de estimaciones de consumo agregado de largo plazo apelando a un argumento de errores estadísticos en las variables. El argumento es que las estimaciones de sección cruzada usan el ingreso real de los hogares más que el ingreso permanente de los hogares. Dado que la mayor parte de los hogares se ubica en la parte media de la distribución de los ingresos, la distribución observada del ingreso real de los hogares (que es igual al ingreso permanente más sacudidas transitorias) tiende a estar más extendida en comparación con el ingreso permanente. En consecuencia, las regresiones que hacen estimaciones usando el ingreso real tienden a encontrar una pendiente plana: así, encuentran que las estimaciones de función de consumo de sección cruzada son más planas respecto a las estimaciones de series de tiempo de la función de consumo per cápita agregado.

Hay dos aspectos subversivos de la HIP de Friedman que básicamente pasó por alto el viejo keynesianismo. Primero, la HIP afirma que todos los hogares tienen la misma PMC constante de su ingreso permanente. En consecuencia, la redistribución del ingreso no impacta al gasto en consumo agregado y la desigualdad del ingreso deja de ser pertinente para el gasto en consumo y la demanda agregada (DA), lo cual resulta inconsistente con el pensamiento keynesiano basado en la función de consumo de Keynes, donde la desigualdad del ingreso reduce el gasto en consumo y la DA porque la PPC decrece con el ingreso. Por ende, al aceptar la HIP los viejos keynesianos neutralizaron un elemento importante de la agenda de la política económica keynesiana.

Segundo, la función de consumo keynesiana era de estancamiento, es decir, implicaba tendencias de estancamiento que se autoafirmarían conforme la economía creciera y el ingreso se incrementara a consecuencia de una declinación de PPC. Este argumento estaba asociado con la postura del keynesianismo de izquierda articulada por Steindl (1952). La HIP debilitó tal argumento.

Ello apunta hacia una distinción entre el viejo keynesianismo y los keynesianos de izquierda. Los viejos keynesianos creen que la distribución del ingreso es importante para la DA y que la economía puede quedar atrapada por el desempleo debido a una DA escasa atribuible a la desigualdad del ingreso. Los keynesianos de izquierda agregan la hipótesis del estancamiento secular. La HIP debilita ambas posturas. No obstante, el argumento del viejo keynesianismo puede restaurarse vía una teoría del consumo con ingreso relativamente permanente (Palley, 2010) que amalgama los argumentos de Keynes (1936), Duesenberry (1948 [1971]; 1949) y Friedman (1957). De acuerdo con la HIP relativa, la PPC de los hogares es una función negativa del ingreso relativamente permanente de los hogares. En consecuencia, la creciente desigualdad del ingreso puede reducir la PPC en toda la economía. De esta forma, las ideas perspicaces con que Friedman formuló su teoría del consumo se tornan consistentes con la teoría del viejo keynesianismo y la relación que observa entre desigualdad del ingreso y DA.

 

Demanda de dinero

Otro elemento importante de los primeros trabajos de Friedman fue su ensayo "The Quantity Theory of Money: A restatement" (1956 [1969]), cuyos contenidos constituyen los elementos teóricos de la doctrina que vendrían a ser conocidos como "monetarismo". Este ensayo de Friedman aporta una declaración sistemática de la macroeconomía monetarista de la escuela de Chicago, que desarrollaron en los años de 1930 Henry Simons y Lloyd Mints. De acuerdo con Friedman, la versión de la teoría cuantitativa de la escuela de Chicago era una teoría de la demanda de dinero: "La teoría cuantitativa es, en primer lugar, una teoría de la demanda de dinero" (Friedman, 1956 [1969: 95]) [Traducción del texto original en inglés].

La formulación que Friedman hace respecto a la demanda de dinero ocasiona que surjan cuatro aspectos importantes. Primero, la demanda de dinero no es una porción fija del ingreso como sostiene la ecuación de Cambridge de la balanza de efectivo; por el contrario, es una función de todas las variables pertinentes incluyendo preferencias, tecnologías de transacción, tasas de rendimientos en todos los activos (incluso bienes durables), inflación, riqueza e ingreso nominal. También es homogénea en grado con relación a los precios (Friedman, 1956 [1969]: 100-2]). Segundo, la demanda de dinero es una solución resultado de un programa de selección de maximización de rendimientos definido en magnitudes reales (Friedman, 1956 [1969]: 102]). Tercero, la demanda de dinero es una transformación funcional de la velocidad del dinero y viceversa, de forma que la velocidad del dinero queda determinada por la razón de ingreso nominal respecto a la demanda de dinero (Friedman, 1956 [1969, p. 103]). Y cuarto, la función demanda de dinero es estable. Ello no significa que sea constante: no significa que no esté sujeta a frecuentes y grandes cambios impredecibles:

El teórico cuántico acepta la hipótesis empírica según la cual la demanda de dinero es altamente estable —más estable que funciones como la función de consumo [...] el teórico cuántico no quiere decir, y en general no lo hace, que la cantidad real de demanda de dinero por unidad de producto o la velocidad de circulación del dinero sea numéricamente constante a lo largo del tiempo; [...] Ya que espera que la estabilidad se encuentre en la relación funcional entre demanda de cantidad de dinero y las variables que la determinan[...] (Friedman, 1956 [1969: 108-9]) [Traducción del texto original en inglés).

Desde el punto de vista del viejo keynesianismo, la reformulación que hace Friedman (1956 [1969]) de la teoría de la cantidad de dinero es plenamente aceptable, sólo se vuelve problemática cuando posteriormente se la coloca en el contexto del monetarismo. De hecho, la formulación que hace Friedman de la demanda de dinero como parte de un programa general de maximización de rendimientos corrige una especificación de flujo muy importante en el modelo keynesiano IS-LM (Hicks, 1937). La especificación IS-LM inicial trata las decisiones que toman los hogares respecto al ahorro (relativas a LM) como separadas del portafolio de decisiones (relativas a LM). Dicha separación contribuye a un falso debate que representa a la teoría de preferencia de liquidez keynesiana como una teoría basada en el stock de las tasas de interés y a la teoría clásica de fondos prestables como una teoría de tasas de interés basada en el flujo (Smith, 1958; Tsiang, 1956; Patinkin, 1958). Sin embargo, una vez que la demanda de dinero es vista como parte de un problema de elección unificada en el cual los agentes obtienen el máximo de rentabilidad al ahorrar y al mismo tiempo tomar decisiones sobre la asignación de cartera, la distinción es debatible. Las preferencias de liquidez es por igual una teoría de stock como de flujo debido a que las variables que afectan las decisiones de ahorrar también afectan a las decisiones de cartera y viceversa. Las decisiones que tienen que ver con el flujo de ahorro y las que tienen que ver con el stock se toman al mismo tiempo como parte de un proceso de toma de decisiones unificado e interdependiente. La forma como Friedman enmarca la demanda de dinero refuerza, por ende, la teoría keynesiana de tasas de interés basada en preferencia de liquidez que quedó incorporada en la formulación que hace Tobin (1982) del modelo IS-LM keynesiano de múltiples activos.5

Irónicamente, el aspecto de la reformulación que hace Friedman (1956 [1969]) de la teoría de la cantidad —que a la postre pasará a ser controvertida— tiene que ver con la estabilidad de la demanda de dinero, que es una aseveración que los viejos econométricos keynesianos que trabajaban con la demanda de dinero aceptaban ampliamente en los años de 1960. No obstante, la estabilidad de la demanda de dinero y la velocidad del dinero vinieron a convertirse en un tema al quedar insertos en el monetarismo. Esto se debe a que el monetarismo sostiene que la estabilidad de la velocidad prueba que las fluctuaciones económicas no son el resultado de acciones del sector privado sino, por el contrario, resultado de cambios inducidos que el banco central aplicaba en la oferta de dinero.

 

Políticas de estabilización

El último elemento que conforma los primeros trabajos de Friedman tiene que ver con los escritos donde aborda las políticas de estabilización, tanto fiscales como monetarias. Un artículo muy importante que aborda este aspecto fue el de "A Monetary and Fiscal Framework for Economic Stability" (Friedman, 1948), y un segundo fue el de "The Lag in Effects of Monetary Policy" (Friedman, 1961). El trabajo de 1948 es totalmente keynesiano en cuanto que identifica la necesidad de estabilizar la DA para reducir el desempleo y las fluctuaciones cíclicas. Una lectura desde la perspectiva del viejo keynesianismo en 1948 probablemente habría encontrado poco con lo cual no estaría de acuerdo. Sin embargo, en el artículo había argumentos que posteriormente se utilizarían no sólo en contra de los viejos keynesianos, sino que se pondrían al servicio de la política macroeconómica neoliberal.

El trabajo de Friedman referente a la política de estabilización se enfocó en dos temas: rezago en la aplicación de políticas y las incertidumbres creadas por políticas discrecionales. En su trabajo de 1948 Friedman escribe:

Hay una fuerte presunción que estas acciones discrecionales en general quedarán sujetas a largos rezagos en comparación con las reacciones automáticas y, por ende, serán desestabilizadoras incluso con mayor frecuencia [...]. Las bases de esta presuposición puede verse mejor si subdividimos en tres partes el rezago total en cualquier acción que busque compensar una alteración: 1) el rezago entre la necesidad de una acción y el que se reconozca dicha necesidad; 2) el rezago entre el reconocimiento de la acción necesaria y realizar la acción, y 3) el rezago entre la acción y sus efectos (Friedman, 1948 [1971: 344]) [Traducción del texto original en inglés).

Los diversos rezagos asociados con la política discrecional hablan de la superioridad de los estabilizadores automáticos, cuando son posibles. Esto es algo con lo cual un keynesiano de viejo cuño también concordaría, empero, en trabajos subsecuentes donde aborda el monetarismo, la crítica de Friedman a la política macroeconómica se fue politizando crecientemente, reflejando su economía política y su antipatía hacia el gobierno. Así, en lugar de que el problema fueran los rezagos técnicos, la incompetencia del gobierno y su sesgo se convirtieron en el problema; como lo evidencia la afirmación que hace Friedman en el sentido de que la política monetaria discrecional fue la principal causa de la gran depresión. Dado ese razonamiento, las reglas para guiar las políticas pasaron a ser un medio importante para reducir la incertidumbre inducida por las políticas y con ello evitar sobredimensionar cualquier beneficio de la discrecionalidad. Esta crítica política de la política discrecional quedó silenciada en su artículo de 1948, si bien ya estaba presente:

En conclusión, me gustaría enfatizar el objetivo modesto de la propuesta [...]. Lo que reclama demos seria consideración es que proporciona un marco estable para medidas fiscales y monetarias que eliminan en gran medida la incertidumbre e implicaciones políticamente indeseables de las medidas discrecionales tomadas por las autoridades gubernamentales [...] (Friedman, 1948 [1971: 351]) (Traducción del texto original en inglés).

Una característica final del trabajo de Friedman de 1948 es que identifica y hace hincapié en la rigidez del precio y los salarios como causa del desempleo. Desde el punto de vista de la economía teórica, dicho hincapié habla de la firme creencia de Friedman en las rigideces como la causa del desempleo; desde la óptica de la economía política habla de su creencia en la estabilidad y lo óptimo que resultan las economías de mercado con precios flexibles, y, desde la perspectiva política, habla de su creencia en la necesidad de flexibilizar los precios y los salarios nominales. Estas características del pensamiento de Friedman se reafirmarían cuarenta años después en su teoría de la tasa natural de desempleo (Friedman, 1968).

 

MONETARISMO

El monetarismo representa una consolidación de los primeros trabajos de Milton Friedman en el ámbito de la macroeconomía monetaria. También lo lanzaron a la palestra mundial como un teórico de la macroeconomía.

La causa empírica a favor del monetarismo la asentó Friedman en la historia monetaria de Estados Unidos de la que fue coautor (Friedman y Schwartz, 1963a; 1963b); la causa teórica a favor del monetarismo la estableció en su reformulación de 1956 de la teoría cuantitativa y en su monografía de 1971 "A Theoretical Framework for Monetary Analysis", mientras que el análisis de la política monetarista, incluida la crítica a la política keynesiana, la dejó asentada en un documento del Institute of Economic Affairs titulado "The Counter-Revolution in Monetary Theory" (Friedman, 1970).

El monetarismo empírico (Friedman y Schwartz, 1963a; 1963b) buscó aportar evidencia histórica que apoyara las aseveraciones teóricas del monetarismo, entre las cuales debe incluirse una relación estrecha y estable entre oferta de dinero e ingreso nominal y la afirmación de que el crecimiento en la oferta de dinero ocasiona crecimiento en el ingreso nominal. Asimismo, afirmó que la Reserva Federal (Fed) era en gran medida responsable de la severidad de la gran depresión debido a que de forma errada amarró la política monetaria en el momento mismo del inicio de la depresión:

Cuando se examina la evidencia en detalle resultó que había que culpar en gran medida a una política económica equivocada. En el periodo de 1929 a 1933, en Estados Unidos hubo una reducción de un tercio en la cantidad de dinero. Es claro que esa reducción provocó que la depresión se alargara por más tiempo y la hizo más severa de lo que tendría que haber sido. Además, e igualmente importante, resultó que dicha reducción no fue consecuencia de que los caballos se negaran a abrevar. No fue consecuencia de una incapacidad para tirar de las riendas. Fue consecuencia directa de las políticas que siguió el sistema de la Reserva Federal (Friedman, 1970: 6) [Traducción del texto original en inglés].

Este argumento empírico se utilizó a su vez para respaldar la recomendación monetarista que dirigió la política monetaria.

El monetarismo teórico (Friedman, 1956; 1971) se lo puede comprender mejor por medio de la ecuación de Fisher:

MV = Y = Py [1]

donde M es la oferta de dinero nominal; V, la velocidad del dinero; Y, el producto interno bruto (PIB) nominal; P, el nivel de precios; y, el PIB real. Esta relación se la puede transformar a una de tasas de cambio dada por:

gM+ gV= gY= gP+ g[2]

donde gM es la tasa de crecimiento de oferta de dinero nominal; gV, la tasa de velocidad del cambio; gY, la tasa de crecimiento de PIB nominal; gP, la tasa de inflación, y gy, la tasa de crecimiento del PIB real.

De acuerdo con la teoría monetaria, la oferta de dinero y el crecimiento en la oferta de dinero son aspectos que controla el banco central. La demanda de dinero y la velocidad son estables, como lo sostuvo Friedman (1956 [1969]) en su reformulación de la teoría de la cantidad, implicando que gv = 0. Finalmente, la relación de causalidad va de MV a Py como supuestamente los documentaron Friedman y Schwartz (1963a; 1963b). Entonces, al ensamblar las piezas se entiende que la autoridad monetaria controla el crecimiento del ingreso nominal. Si el crecimiento del PIB real está determinado exógenamente de acuerdo con la teoría neoclásica del crecimiento y es igual a un porcentaje k, entonces la autoridad monetaria puede conseguir estabilidad de precios mediante crecimiento estable del producto real estableciendo un crecimiento de oferta de dinero nominal igual a un porcentaje k por año.

Este marco monetarista consolida la mayor parte de los temas en los primeros trabajos de Friedman en macroeconomía monetaria. La economía de mercado privado es estable debido a la estabilidad de la velocidad y la demanda de dinero. Dejando de lado los trastornos aleatorios, las fluctuaciones en la actividad económica se deben a fluctuaciones en el crecimiento de la oferta de dinero ocasionada por la política monetaria, lo cual hace que las políticas incompetentes de los gobiernos sean las responsables de las fluctuaciones económicas. A nivel de las políticas, ello augura el reemplazo de políticas monetarias discrecionales por políticas basadas en reglas. Desde una perspectiva monetarista, la regla debe ser un crecimiento estable de porcentaje k de oferta de dinero.6

Una tercera característica del modelo monetarista es que la política fiscal no es ineficaz: "Los keynesianos hacían referencia, como una clara implicación de su postura, a la proposición de que la política fiscal por sí misma es importante en cuanto afecta el nivel de ingreso [...] Los monetaristas rechazaron esa proposición y sostuvieron que la política fiscal por sí misma es en gran medida ineficaz, y que lo que importa es lo que sucede a la cantidad de dinero (Friedman, 1970: 8) [Traducción del texto original en inglés]. La lógica de esta aseveración se sigue de la ecuación de Fisher más la afirmación de que MV es causa de Y.

Una cuarta característica del monetarismo, que también ya se deja ver en los trabajos de Friedman sobre economía política, es la polémica inteligente de Friedman. Esto lo ejemplifica la afirmación que hace en cuanto a que "la inflación siempre y en todo lugar es un fenómeno monetario" (Friedman, 1970: 11), que si bien se ha convertido en un aforismo del monetarismo, ningún viejo keynesiano habría estado en desacuerdo con ese planteamiento. La inflación tiene que ver con la tasa de cambio de los precios nominales y esto es intrínsecamente un fenómeno monetario, sin embargo, la pregunta de fondo es ¿qué ocasiona la inflación? Para los monetaristas, la inflación la ocasiona el banco central que maneja el crecimiento de la oferta de dinero por encima del crecimiento del producto real. Los viejos keynesianos sostienen que la inflación también puede tener su causa en la economía del sector privado. Los mercados financieros pueden endógenamente alimentar el crecimiento excesivo de demanda nominal y los mercados laborales pueden disparar la inflación de costos vía el conflicto sobre la distribución del ingreso. Los economistas estructuralistas latinoamericanos (Sunkel, 1958; Olivera, 1964) también hicieron hincapié en inflación importada que surge de las condiciones de subdesarrollo económico.

Más que simplemente rechazar la teoría monetarista de la inflación, el viejo keynesianismo rechaza el monetarismo tanto en su aspecto empírico como teórico. En lo que se refiere al aspecto empírico, Tobin (1970) hizo la crítica y mostró que el patrón de oferta de dinero —correlaciones de ingreso nominal que Friedman y Schwartz (1963a; 1963b) afirmaron conformaban el monetarismo— era, de hecho, consistente con un modelo ultrakeynesiano, donde el déficit presupuestario era contracíclico y monetariamente financiado. Temin (1976) hizo otra crítica al monetarismo empírico en la que concluye que la hipótesis del shock del gasto keynesiano para explicar la gran depresión expone en mejores términos lo oportuno de y el patrón de tasas de interés y de ajustes de ingreso en comparación con la hipótesis del shock de la oferta de dinero monetarista.

La crítica de Friedman a la política monetaria que sostuvo la Reserva Federal en el periodo 1929-1930 es fácilmente equiparable con la crítica hecha por el viejo keynesianismo a la Fed, por actuar de manera inferior al óptimo. No hay duda que la Reserva Federal pudo haber hecho más, especialmente a la luz de las lecciones de la revolución keynesiana en macroeconomía. No obstante, ello no equivale a decir que fue la causa de la depresión. Además, habla de la necesidad de políticas discrecionales más que políticas basadas en reglas. La crisis financiera de 2008 confirmó ampliamente lo innovadora que puede ser la Reserva Federal y su disposición para formular políticas que a la postre contribuyeron a controlar la crisis.

En relación con el monetarismo teórico, Tobin (1974) criticó a Friedman por el uso que hizo de un modelo IS-LM. En un modelo así, la única forma de derivar proposiciones monetaristas respecto a la ineficacia del dinero dirigiendo al ingreso nominal y las políticas fiscales es suponer una curva lm vertical, en la cual la demanda de dinero es estrictamente proporcional al ingreso. Dado que dicha hipótesis es rechazada explícitamente, ello mostró la incoherencia teórica del monetarismo.7

Otra crítica teórica completamente distinta es la de los poskeynesianos (Kaldor, 1970; 1982; Moore, 1988; Palley, 2013) que objetaron la teoría monetarista de la oferta de dinero. La piedra angular del monetarismo es que los bancos centrales controlan la oferta de dinero, dejando, en consecuencia, que el control de ésta sea fuertemente exógeno. Los poskeynesianos buscaron demoler esa piedra angular y afirmaron que la oferta de dinero está determinada endógenamente por los empréstitos bancarios. Esta crítica no sólo deshace las recetas de política monetaria que se enfocan en el crecimiento de la demanda de dinero, sino que devalúa la explicación monetarista de las fluctuaciones económicas, la misma que culpa a los bancos centrales por, supuestamente, administrar con deficiencia la oferta de dinero. Finalmente, también cuestiona la afirmación monetarista según la cual la Reserva Federal fue la causante de la gran depresión al permitir que la oferta de dinero se contrajera catastróficamente.

En lo que concierne a la política monetarista, al usar un modelo IS-LM estocástico, Poole (1970) mostró que dirigirse a la oferta de dinero resulta óptimo cuando los shocks dominan en IS (sacudidas en el sector real). La lógica es que dirigirse a las tasas de interés aísla la economía real de turbulencia que se origina en el sector financiero.

El análisis de Poole (1970) generó la pregunta empírica respecto a la estabilidad de LM y la demanda de dinero. Para los monetaristas, los desarrollos históricos produjeron otro estallido debido a que los años de 1970 dieron con el periodo de "pérdida de dinero", cuando las ecuaciones convencionales de demanda de dinero sistemáticamente predijeron excesivamente balanzas de dinero real y posterior a ello las ecuaciones de demanda de dinero probaron ser reiteradamente inestables (Goldfeld y Sichel, 1990).

La gota que derramó el descredito del monetarismo fue su error en la acción. Como lo documentara Tobin (1981), al inicio de los años de 1970 los banqueros centrales abrazaron crecientemente el monetarismo y para el mes de octubre de 1979 la Reserva Federal formalmente adoptó metas cuantitativas para las reservas bancarias. Sin embargo, esa década se caracterizó por un promedio de inflación alta al igual que de desempleo, acompañado por gran volatilidad del crecimiento de la oferta de dinero. Después de ese mes de octubre de 1979, la Reserva federal experimentó con metas de reserva cuantitativas que produjeron significativa volatilidad de las tasas de interés que contribuyeron a complicaciones con el tipo de cambio. Estas dificultades llevaron al abandono de procedimientos de operación monetarista en 1981. Todo este episodio se acerca más a un mero experimento, hasta donde es razonablemente posible en el mundo político de la economía política y como el propio monetarismo se encontró deseando que se lo viera, tal y como había predicho el viejo keynesianismo.

 

NUEVA MACROECONOMÍA CLÁSICA

Ahora el monetarismo es una curiosidad histórica, teórica y empíricamente desacreditado, y, no obstante, el macroeconomista Milton Friedman no lo está. La razón es la reinvención que Friedman (1968) hizo del monetarismo como nueva macroeconomía clásica (NMC), a la que Tobin (1981) hace referencia como monetarismo marca II. La nueva teoría se enfocó en la curva de Phillips e introdujo la idea de una tasa natural de desempleo, también conocida como la NAIRU. Explica la curva de Phillips en términos de una percepción errónea que la teoría monetaria tiene del ciclo económico. La interpretación errónea de la inflación tiene como resultado que la economía genere una relación empírica que semeja la curva de Phillips del antiguo keynesianismo. Empero, de aclararse tales interpretaciones erróneas, la economía vuelve a la tasa natural de desempleo que no resulta afectada por la inflación.

La teoría de Friedman (1968) de percepción errónea de la inflación operó como contrapropuesta a la curva de Phillips de la teoría del viejo keynesianismo que afirmaba la existencia de un trade-off en el largo plazo entre inflación y desempleo. Esa afirmación keynesiana cuestionó una creencia esencial para el monetarismo respecto a la neutralidad del dinero en el largo plazo. De acuerdo con la teoría de Friedman, la tasa natural de desempleo o NAIRU refleja fricciones reales e imperfecciones en los mercados laborales:

Para evitar malos entendidos, permítaseme enfatizar que al hacer uso del término tasa "natural" de desempleo no quiero sugerir que sea inmutable o que no cambie. Por el contrario, muchas de las características del mercado que la determinan son antropógenas y producto de políticas. En Estados Unidos, por ejemplo, la tasa de salario mínimo legal, las leyes Walsh-Healy y Davis Bacon y la fortaleza de los sindicatos, todo ello hace que la tasa natural de desempleo sea mayor de lo que tendría que ser. La mejora en el empleo, la mejora en la información disponible sobre vacantes de empleo y oferta laboral, etcétera, harían que la tasa de desempleo natural tendiera a la baja. Utilizó el término "natural" por la misma razón que Wicksell lo hizo; para tratar de separar las fuerzas reales de las fuerzas monetarias (Friedman, 1968 [1979: 96-7]) [Traducción del texto original en inglés].

De acuerdo con la teoría microeconómica neoclásica estándar, la oferta de dinero y la inflación no pueden impactar en el equilibrio del mercado laboral dado que estas variables no impactan en la demanda de fuerza de trabajo (esto es, el producto marginal del trabajo) o la oferta de fuerza de trabajo, al punto que hay una relación aparente de pendiente negativa de la curva de Phillips, fenómeno temporal producto de una percepción errónea de la tasa de inflación entre los trabajadores. Incrementos en el crecimiento de la tasa de oferta de dinero aumentan la inflación y los trabajadores podrían ampliar la oferta de fuerza de trabajo al punto que la elevada inflación y los ofrecimientos resultantes de un salario nominal alto son percibidos erróneamente como un incremento en el salario real. Sin embargo, al momento en que los trabajadores se percatan de que no hubo tal alza en el salario real, la oferta de fuerza de trabajo se contrae y la economía regresa a su tasa natural de desempleo.

Friedman formuló su teoría —basada en una percepción errónea— en un contexto de expectativas adaptativas. Lucas (1973), su colega en la escuela de Chicago, la colocó en el contexto de expectativas racionales, lo cual vino a restringir posibilidades políticas con relación a explotar el trade-off que ofrecía la curva de Phillips. En la versión de las expectativas adaptativas de Friedman, los responsables de formular políticas podían mantener un crecimiento acelerado de la oferta de dinero, engañando así a los trabajadores al mantenerse un paso adelante en las expectativas adaptativas de los éstos. En la versión de expectativas racionales de Lucas, tal posibilidad de persistir en el engaño no era posible debido a que los trabajadores estarían conscientes de la regla de aceleración de la oferta de dinero a la que recurren los responsables de formular políticas; una regla que tomarían en cuenta al formar sus expectativas respecto a la inflación y, por ende, la neutralizarían.

El monetarismo marca II tiene similitudes y diferencias importantes en relación con el monetarismo marca I. La principal diferencia es que la formulación de este último se realizó a la sombra del keynesianismo y, por lo tanto, atribuyó poder a la política monetaria para impactar al producto real. El monetarismo marca II representa una ruptura total con el keynesianismo y un retroceso a la macroeconomía clásica prekeynesiana, con el agregado de su preocupación respecto a las expectativas.

Esta ruptura representa una evolución lógica del pensamiento de Friedman. Sus trabajos iniciales y el monetarismo marca I no acaban de entonar bien con el keynesianismo, dejando poco claro en los lectores qué relación tenía Friedman con la economía keynesiana. Ambas versiones del monetarismo sostienen la neutralidad de largo plazo del dinero, si bien el monetarismo marca II pone en claro las bases de dicha afirmación y también las bases de la no neutralidad de los efectos de corto plazo. El monetarismo marca I (Friedman, 1971) apela a la existencia de una misteriosa "ecuación perdida" que supuestamente divide la respuesta a cambios en la oferta de dinero en efectos sobre precios y sobre producto real. El monetarismo marca II divide los cambios de oferta de dinero en cambios esperados y cambios no esperados; los primeros tienen un efecto sólo a nivel de precios, mientras que los cambios inesperados producen resultados combinados a nivel de precios y temporales en el producto real. Dicha mezcla depende de la pendiente de la curva de oferta agregada (esto es, la curva del costo marginal de las empresas). El monetarismo marca I (Friedman, 1971) también apela a la fijación de la tasa de intereses real. En el monetarismo marca II es invariante ante cambios esperados en la oferta de dinero, pero puede desviarse en respuesta a cambios inesperados.

El monetarismo marca II también cambia la lógica de la posición que mantiene Friedman en relación con la política fiscal. En efecto, el monetarismo marca I afirma que la política fiscal era eficiente respecto al producto debido a una restricción monetaria. Por su parte, el monetarismo marca II invoca una lógica económica completamente distinta: ahora la política fiscal puede afectar la composición del producto y la tasa de intereses real vía su impacto en la DA; sin embargo, no afecta al producto a menos que afecte la oferta de fuerza de trabajo o el producto marginal del trabajo.8

Quizá el mayor cambio en el monetarismo marca II tiene que ver con el modelaje. El monetarismo marca I carece de un modelo macroeconómico coherente, por lo que Friedman fue reiteradamente superado por su rival Tobin (1970; 1974) en los debates profesionales. El monetarismo marca II colocó el pensamiento de Friedman en el contexto del modelo macroclásico que podía formularse con coherencia matemática (Sargent, 1979: cap. I). Al empatarlo con las expectativas racionales (ER) el modelo adquiría una mayor complejidad matemática que sedujo a economistas que llegaron a creer que la técnica matemática era más importante que las ideas económicas, una creencia que encontró apoyo en la metodología de Friedman de la economía positiva y su negación del realismo de los supuestos. Tal pensamiento también contagió a los viejos keynesianos, lo que ayuda a explicar porque tantos estudiantes en el campo del viejo keynesianismo cambiaron de bando. Además las ER son, en gran medida, de muy poco interés en los modelos keynesianos estándar, al mismo tiempo que ofrecen críticas adicionales para los keynesianos en el modelo clásico. En consecuencia, el monetarismo marca II se benefició con las implicaciones resultantes de la incorporación de las ER al marco del modelo clásico, revirtiendo la inferioridad que afligía al monetarismo marca I.9

De la misma forma en que el monetarismo marca I extrajo de los primeros trabajos de Friedman, así también procedió el monetarismo marca II. Primero, la explicación de la tasa natural de desempleo se la construye en términos de imperfecciones y rigideces del mercado. Esta liga se remonta al ensayo de Friedman de 1948 que aborda la política de estabilización que hace hincapié en el papel que desempeñan las rigideces de los precios en la creación de desempleo.

Segundo, el monetarismo marca II parte del supuesto de que la economía es estable y se encuentra en una situación de equilibrio con pleno empleo o gravita rápidamente hacia ello. Esta caracterización es una constante en el trabajo de Friedman y se la defiende por la atracción que ejerce su "metodología de la economía positiva" (Friedman, 1953a). En lugar de explicar cómo se consigue el equilibrio, los modelos neoclásicos de expectativas racionales simplemente lo suponen. Se sostiene que la realidad se corresponde con un resultado que es un equilibrio estable, aún si ello exige descansar en supuestos poco plausibles respecto a trabajadores y hogares ordinarios tomando decisiones que permiten precios que a su vez permiten establecer equilibrio en el mercado o precios que adoptan la senda del ajuste que abre la vía a la estabilidad.

Tercero, dejando de lado las sacudidas impredecibles, tanto el monetarismo marca I como el monetarismo marca II afirman que las fluctuaciones en la actividad económica se deben a fluctuaciones en la oferta de dinero ocasionadas por los bancos centrales. Cuarta, evitar ese tipo de políticas que inducen fluctuaciones exige reglas para las políticas monetarias. Sin embargo, el monetarismo marca II cambia ligeramente la justificación para el uso de reglas. El monetarismo marca I subraya problemas administrativos con rezagos "internos" y "externos" que son los que hacen que la política discrecional resulte inferior en relación con políticas automáticamente estabilizadoras o basadas en reglas. El monetarismo marca II ve las reglas como un dispositivo de comunicación que puede reducir las percepciones erróneas en los agentes del sector privado. Luego, es ese aspecto de comunicación lo que exige credibilidad política, de forma que el público crea a la autoridad monetaria cuando anuncie una regla para una política, y ello engendró una agenda de investigación subsidiaria con relación a la formulación de políticas, como la independencia del banco central. Más aún, da la impresión que Friedman adoptó, incluso, una postura más hostil hacia el gobierno como parte de su evolución como economista político (aspecto al que regresaremos más adelante). De forma que, mientras el monetarismo marca I vio al gobierno como incompetente pero benévolo, el monetarismo marca II, además de verlo como incompetente, lo vio como mezquino, como lo reflejan expresiones del tipo de políticas que "engañan" a los trabajadores. Ello aporta una justificación adicional para el uso de reglas: evitar rezagos, mejorar la comunicación y atar las manos al gobierno.

En suma, el pensamiento friedmaniano del segundo monetarismo contiene supuestos y temas presentes tanto en sus primeros trabajos como en su trabajo relativo al primer monetarismo, su hipótesis de la tasa natural y su teoría monetaria de la percepción errónea del ciclo económico constituyen un rechazo a la economía keynesiana y un revivir de la macroeconomía prekeynesiana. Visto a través de la lente del viejo keynesianismo, los primeros trabajos de Friedman y el del primer monetarismo siempre han mostrado malestar hacia las ideas keynesianas, asignándoles un peculiar carácter que no les permite ser "una cosa ni la otra". El monetarismo marca II constituye una ruptura total con la macroeconomía keynesiana y representa la conclusión lógica de sus cuestionamientos. Rechaza la teoría keynesiana de la demanda que determina el equilibrio de producto y empleo, para adoptar la teoría clásica del equilibrio del mercado laboral, y también rechaza la teoría keynesiana de la tasa de interés, al mismo tiempo que rechaza las preferencias por la liquidez y adopta la teoría clásica de los fondos prestables.

Los viejos keynesianos evidentemente rechazan la NMC por razones teóricas, sin embargo, también la rechazan por razones empíricas. Como lo documenta Okun (1980), las implicaciones de la NMC no tienen soporte empírico. Primero, el ciclo económico muestra desviaciones persistentes significativas en torno a tendencia del producto que resultan inconsistentes con las expectativas racionales de la teoría de la tasa natural. Segundo, los salarios reales son ligeramente procíclicos, no obstante, de acuerdo con la teoría de la percepción errónea del ciclo económico, deben ser estrictamente contracíclicos en la medida que los trabajadores son engañados y ofertan fuerza laboral adicional. Tercero, la renuncia al empleo es fuertemente procíclica, si bien debe ser contracíclica de acuerdo con la NMC. Ello se debe a que las contracciones económicas son resultado de que los trabajadores son engañados para que retiren fuerza de trabajo (esto es, que renuncien al empleo).

Mishkin (1982) aporta otro cuestionamiento a las expectativas racionales de la versión friedmaniana de la teoría monetaria de percepción errónea del ciclo económico. Contrario a las predicciones del monetarismo marca II, Mishkin informa que cambios plenamente anticipados en la política monetaria tienen efectos reales sistemáticos que son similares a aquellos que provocan los cambios no anticipados.

La tasa natural de desempleo también ha probado ser operativamente inútil para propósitos de política. Si bien ha sido ideológicamente útil para argumentar a favor de políticas que atacan a los sindicatos, el salario mínimo y los derechos de los trabajadores —al tiempo que se afirma que dichas características incrementan la tasa natural— ha sido totalmente inútil para dirigir políticas macroeconómicas. Esto se debe a que no es posible observar la tasa natural y por lo mismo se tiene que estimar, y las estimaciones empíricas han probado ser altamente variables. Así, por ejemplo, para la economía de Estados Unidos, las estimaciones han variado entre cuatro y ocho por ciento (Staiger et al., 2001). Este rango tan amplio hace que la estimación resulte inútil para guiar políticas macroeconómicas en la medida que los responsables de formular políticas no tienen idea de qué lado de la tasa natural se encuentra la economía.

Finalmente, el monetarismo marca II adolece de lo mismo que critica al poskeynesianismo en cuanto a su teoría de la oferta de dinero, como lo hace el monetarismo marca I. En efecto, ambas formas de monetarismo toman la oferta de dinero como sujeta a estrictos controles exógenos por parte de la autoridad monetaria, cuando, de hecho, posee elementos endógenos significativos relacionados con el crédito bancario.

 

ECONOMÍA POLÍTICA

El cuarto aspecto de las aportaciones de Friedman se refiere a la economía política, como lo representa su clásico Capitalismo y Libertad (Friedman, 1962 [2002]). Esta es quizá la aportación que más ha perdurado y que es el aspecto más influyente de su legado. En efecto, influyó profundamente tanto en la profesión económica como en el público en general, empujando a todos a adoptar una visión del mundo más favorable al mercado, hacia las empresas y contra el gobierno.

El hombre y su circunstancia están íntimamente relacionados. La defensa que Friedman hizo de sus ideas se benefició de la guerra fría, que fue testigo del impulso que Estados Unidos diera a una creencia idealizada en el libre mercado como parte de su respuesta al desafío geopolítico que significó la existencia de la Unión Soviética. También se benefició del contraataque que las corporaciones estadounidenses levantaron contra las políticas y economía del New Deal keynesiano. Así, el respaldo recibido en los años de 1950 a través del American Enterprise Institute resultó crucial para hacer de Friedman un intelectual con presencia pública. Dicho lo anterior, también hay que señalar que si la circunstancia fue propicia para la visión de la política económica de Friedman, éste también fue el hombre para la circunstancia.

Friedman y George Stigler, su colega en la Universidad de Chicago, pueden ser considerados como los padres intelectuales del neoliberalismo estadounidense. El neoliberalismo es tanto una filosofía política como económica (Palley, 2012: cap. 2). En tanto que filosofía política, sostiene que una economía de mercado con laissez-faire es la mejor manera de promover la libertad individual. Y como filosofía económica, sostiene que una economía de mercado desregulada —de laisse-faire— es la mejor forma de promover la eficiencia económica y el bienestar económico.

El neoliberalismo estadounidense de Friedman sostiene que las economías de mercado reales en el mundo producen con resultados bastante eficientes (esto es, el óptimo de Pareto), definido esto como resultados que permiten que alguien mejore sin hacer que alguien más empeore. El resultado es que el gobierno debe quedarse al margen, en tanto que la política pública no puede mejorar los resultados del mercado. Aun cuando reconoce que hay fallas del mercado (como los monopolios, el monopolio natural, externalidades, suministro deficiente de bienes públicos), éstas son vistas como relativamente raras y de pequeña escala. Además, se afirma que, por lo general, las intervenciones del gobierno empeoran la economía debido a la incompetencia burocrática, a reguladores que quedan atrapados por intereses especiales y a distorsiones políticas.10 La conclusión es que las fallas del mercado son relativamente raras y que en la mayoría de los casos incluso una falla del mercado no justifica la intervención del gobierno porque los costos de las fallas de intervención del gobierno exceden los de las fallas del mercado. La opción para la sociedad es un gobierno minimalista —un gobierno vigilante— que únicamente proporcione defensa nacional, protección de la propiedad y las personas y obligue el cumplimiento de los contratos.

Un problema para evaluar el neoliberalismo estadounidense es que sigue dos líneas: el neoliberalismo de línea dura de la escuela de Chicago asociado con Milton Friedman y el de línea moderada de la escuela del MIT asociado con Paul Samuelson. El neoliberalismo del MIT argumenta que las economías del mundo real están permanentemente afectadas por fallas del mercado. Asimismo, sostiene que el gobierno puede remediar las fallas del mercado y que se ha exagerado con el argumento de la escuela de Chicago referente a la incompetencia del gobierno. Es posible prevenir la incompetencia del gobierno mediante el diseño de buenas instituciones que transparenten la operación del gobierno, que lo obliguen a rendir cuentas y esté sujeto a la competencia política democrática. En contraste con el neoliberalismo de línea dura de la escuela de Chicago, el neoliberalismo del MIT sostiene que las intervenciones de política para responder a las fallas del mercado por lo general pueden beneficiar a todo mundo.

Una crítica que el viejo keynesianismo hace al neoliberalismo de línea dura de Friedman se dirige a un aspecto más profundo del que aborda la crítica del neoliberalismo moderado del MIT. La crítica del viejo keynesianismo va directo al capitalismo de libre mercado, al que aplica el término de "sistema Manchester":

No veo razones para suponer que el sistema presente de verdad haga un uso deficiente de los factores de la producción. Hay en efecto errores de previsión que, sin embargo, no se evitarán centralizando las decisiones. Cuando se da empleo a nueve mil hombres de un total de diez mil, que están dispuestos y aptos para el trabajo, no hay evidencia que muestre que la fuerza de trabajo de estos hombres esté mal dirigida. La queja contra el sistema presente no es que sea menester emplear a estos nueve mil hombres en distintas tareas, sino que debe haber tareas disponibles para emplear a los mil hombres restantes. Es en la capacidad de determinar el volumen, que no en la dirección, donde el sistema presente está quebrado (Keynes, 1936: 379) [Traducción del texto original en inglés].

El problema no es que hay que desechar y reemplazar ese sistema, sino repararlo. No obstante, el diagnóstico que los viejos keynesianos hacen del problema no coincide con el de los economistas del MIT.

La escuela del MIT ofrece un diagnóstico pigoviano basado en las fallas y fricciones del mercado, que desemboca en una economía neokeynesiana. Una crítica desde la perspectiva del viejo keynesianismo se deriva de la economía de la Teoría General de Keynes. Las economías del mundo real están marcadas por incertidumbres fundamentales respecto al futuro, habitadas por seres humanos con emociones motivadas por el flujo y reflujo de los espíritus animales. En economías como esa, la DA cae cuando la gente demora sus planes para hacer gastos y ahorra su dinero, como respuesta a la incertidumbre y sus ánimos deprimidos, hasta que se disipan sus temores con relación al futuro incierto. Además, las economías de mercado también pueden producir desigualdades en los ingresos, lo cual también puede socavar la DA.

Puede que el sistema de mercado no tenga capacidad para restaurar un nivel suficiente de DA para garantizar el pleno empleo, pues no hay mecanismos de coordinación para reciclar el gasto aplazado y recuperar el gasto presente. Los precios bajos tampoco resuelven el problema en una economía monetaria donde se recurre ampliamente al endeudamiento, pues una caída en el nivel general de precios incrementa el peso de las deudas, lo que acarrea restricciones en el gasto. Asimismo, el sistema de mercado puede ocasionar mora que puede hacer zozobrar al sistema bancario y subvertir los mercados financieros. La deflación y la perspectiva de precios futuros bajos pueden alentar a la gente a aplazar su gasto, pues los consumidores tienen la expectativa de precios futuros bajos (Palley, 2008).

Estos argumentos desembocan en una economía política fundamentalmente distinta. Las economías de laissez-faire no producen automáticamente los resultados óptimos o cuasi-óptimos de Pareto. También pueden tener consecuencias negativas serias para la libertad, lo que puede socavar la aseveración de que el laissez-faire es la mejor manera de promover la libertad.

Primero, mercados desencadenados pueden producir alto desempleo y grandes desigualdades de ingreso que traen como resultado privaciones económicas que vacían de contenido el significado de la libertad, caricaturizándola, y eliminan los medios para ejercerla. En términos de Sen (1999: XII), el desempleo y la privación económica son formas de "ausencia de libertad".

Segundo, las desigualdades de ingreso y riqueza pueden acarrear profundas consecuencias políticas porque inclinan el poder político a favor de los ricos. Dado que parte de la libertad democrática implica el ejercicio de la libertad política por medio del sistema democrático, este cambio de poder, que se inclina hacia los ricos implícitamente, reduce la libertad de los demás. Parafraseando a George Orwell, crea un mundo donde unos son más libres que otros; una forma de ausencia de libertad política.

Tercero, la inclinación de las economías de laissez-faire a generar alto desempleo y desigualdad de ingreso también amenaza directamente la libertad política y estabilidad al producir enajenación. Esta es la base misma de la crítica que Polanyi (1944) dirige al neoliberalismo en el análisis que hace de los fracasos del capitalismo del siglo XIX y que desembocaron en el fascismo de comienzos del siglo XX. Un sistema político-económico que no valora a la gente puede operar en momentos de prosperidad, pero corre el riesgo de desplomarse en momentos prolongados de privaciones económicas e inseguridad. Bajo tales condiciones no sería difícil que se dé un distanciamiento de los procesos democráticos y una vuelta a la supresión de la libertad en la forma de políticas de intolerancia que tomen a ciertos grupos étnicos y raciales como chivos expiatorios, o incluso un regreso a políticas autoritarias que atacan la libertad de todos. Al prescindir del problema económico, la política económica de Friedman queda imposibilitada de ver los temas de la ausencia de libertad y de la necesidad de un sistema económico que genera resultados políticamente sostenibles.

Una cuarta crítica (Palley, 2012: cap. XII) al neoliberalismo estadounidense de Friedman es la que proviene de Adam Smith, el patrono economista del que se apropia injustificadamente el neoliberalismo estadounidense. Smith cree que los mercados necesitan individuos socializados con una sensibilidad ética para operar eficientemente; un argumento que formuló en su Teoría de los sentimientos morales (Smith, 1759 [1976a]), que vio la luz pública casi veinte años antes de La riqueza de las naciones (Smith, 1776 [1976b]). Dichos sentimientos morales son susceptibles de ser enseñados y constituyen una forma de capital social que se reproduce colectivamente y que genera valores como los de confianza y honestidad, que son esenciales para que operen los mercados sin verse abrumados por los costos de transacción ni de cumplimiento. Su creación requiere de inversión pública —como en educación— que crea elementos de identidad social compartida y un sentido de inclusión.

Una vez más, el neoliberalismo estadounidense de Friedman está incapacitado para ver estas necesidades, y esa incapacidad significa que tiene una interpretación equivocada de las bases de una economía de mercado eficiente. Esto desemboca en una situación irónica, esto es, una situación donde las políticas neoliberales de Friedman agotan sin reabastecer el capital social necesario para la operación de un capitalismo eficiente y, por lo tanto, socavándolo. Tal es una interpretación plausible de la historia de los últimos treinta años en los cuales a la sociedad se la fue dejando sin el capital social creado en el periodo previo del viejo keynesianismo socialdemócrata. El agotamiento de ese capital social es evidente en la crisis financiera de 2008, donde una de las causas que contribuyeron a ella fue el saqueo que cometió el sector financiero; que se consiguió mediante un sistema de incentivos de pago que recompensó a los ejecutivos y jefes de los departamentos de crédito por los negocios que cerraban en el presente sin importar sus consecuencias futuras. La ausencia de integridad entre los ejecutivos contribuyó a una falla sistémica de enormes proporciones que dejó al descubierto la lógica poderosa de Adam Smith que le permitió identificar la importancia de los sentimientos morales.

Una perspectiva económica desde el viejo keynesianismo rechaza las inadecuadas bases sociales de la economía política neoliberal de Friedman y reconoce que una economía de mercado requiere de las políticas económicas y sociales del viejo keynesianismo para generar de manera eficiente prosperidad sustentable y compartida. Esa necesidad hace que emerjan temas importantes respecto a la eficiencia del gobierno; un tema que Friedman trajo correctamente a colación y, no obstante ello, adoptó una economía política que contrapuso mercados y gobiernos. Gobiernos a los que consideró incompetentes y centrados en sus propios intereses, de ahí su exhorto a reglas para las políticas y un gobierno minimalista. Al igual que el neoliberalismo moderado, el viejo keynesianismo cree que es posible conseguir mejores resultados una vez que se ubica al gobierno en un contexto de competencia democrática con reglas constitucionales apropiadas y una desigualdad de ingreso razonable para contrarrestar los efectos políticos del dinero y la riqueza.

Finalmente, hay una diferencia socio-política fundamental respecto a Friedman. Mientras éste representaba la economía del sector privado como si tuviera un interés unificado, el viejo keynesianismo de izquierda considera al mercado como un lugar de conflicto, particularmente conflicto de clases y entre trabajo-capital. Más que un único interés en el mercado, hay intereses en competencia e intereses en conflicto. El desafío para los políticos es gestionar esos intereses y evitar que intereses particulares ejerzan una influencia excesiva sobre el gobierno y la política. Se requiere de instituciones y reglas políticas para estructurar y negociar dichos conflictos. Es una construcción de economía política que contrasta fundamentalmente con la visión simplista de Friedman, que considera un "nosotros" desclasado (el mercado) vs un "ellos" (el gobierno).

 

CONCLUSIÓN: BUSCANDO DEJAR ATRÁS LA SOMBRA DE FRIEDMAN

La influencia que Friedman ha ejercido en la profesión económica ha sido enorme y ello se refleja en la declaración de Summers (2006) en el sentido de que "ahora todos somos friedmanianos". Que Friedman haya tenido tal efecto sobre la profesión en cierto sentido refleja las fuerzas políticas y sociales que han hecho del neoliberalismo la doctrina mundialmente dominante desde la década de 1980. También es un testamento del poder retórico de Friedman. Si bien es cierto que poderosas fuerzas políticas crearon la ola neoliberal, también es verdad que Friedman dirigió la ola y contribuyó a ella.

El triunfo profesional de Friedman también es un testamento a la debilidad de las bases intelectuales y el anti-intelectualismo de la profesión economista. En tanto que integrantes de la sociedad, los profesionales de la economía inevitablemente se ven atrapados por y contribuyen con olas que barren con la sociedad. Empero, también han sido formados para contar con capacidad para mantenerse a la vera, observar y cuestionar dichas olas y, sin embargo, en el caso de Friedman la profesión falló. Un cuestionamiento cuidadoso de sus ideas deja al descubierto que son sustancialmente defectuosas, conceptual y empíricamente, y que las defiende una metodología de economía poco consistente.

Ahora el punto de vista y las ideas de Milton Friedman están profundamente enraizadas en la sociedad y en la profesión económica, y su triunfo ha hecho retroceder la comprensión económica a un momento prekeynesiano. Lo cual quiere decir que la meta sigue siendo aquella que identificó Keynes: "[...] no deshacernos del 'sistema Manchester', sino indicar la naturaleza del ambiente que requiere el libre juego de las fuerzas económicas si es que ha de realizar los plenos potenciales de la producción (Keynes, 1936: 379). [Traducción del texto original en inglés).

El desafío inmediato es cómo crear el espacio para que se escuche la voz de la economía del viejo keynesianismo que ha sido expulsada de la academia. Con sus doctrinas del monetarismo marca I y monetarismo marca II (nueva macroeconomía clásica), Milton Friedman encabezó la carga de la derecha contra el viejo keynesianismo y, no obstante, quien cerró la pinza fue la economía neokeynesiana que nada tiene que ver con la economía keynesiana, pero que ha engañado a los economistas y los ha hecho creer que sí. El así denominado nuevo keynesianismo no es otra cosa que simple monetarismo marca II al que se agregó la competencia imperfecta y las rigideces de precios y salario nominal. Y, sin embargo, al permitir la aseveración de que la macroeconomía se caracteriza por una división entre nuevo keynesianismo y nueva macroeconomía clásica, el primero creó una pinza que excluyó al viejo keynesianismo. En tanto dicha pinza se mantenga activa, la economía permanecerá a la sombra de Milton Friedman.

Imaginar cómo abrir la pinza exige hacer emerger el papel que desempeña el pensamiento de Friedman en la economía neokeynesiana y hacer clara la distinción entre la economía del viejo keynesianismo y la del nuevo keynesianismo. La palabra y las ideas son las herramientas para ello y el proceso debe iniciar con el cambio de etiqueta de neokeynesianismo a economía neopigoviana, y después seguir dejando al descubierto el núcleo friedmaniano que comparten la nueva macroeconomía clásica y la nueva macroeconomía pigoviana.

 

REFERENCIAS BIBLIOGRÁFICAS

Barro, R.J., 1974. Are Government Bonds Net Wealth? Journal of Political Economy, 82(6), pp. 1095-117.         [ Links ]

Barro, R.J. y Gordon, D.B., 1983. A Positive Theory of Monetary Policy in a Natural Rate Model. Journal of Political Economy, 91(4), agosto, pp. 589-610.         [ Links ]

Chinn, M.D., 2008. Real Exchange Rates. En: Durlauf, S. y Blume, L.E (eds.). The New Palgrave Dictionary of Economics. Segunda edición. [en línea] Palgrave Macmillan. Disponible en: <http://www.dictionaryofeconomics.com/dictionary>         [ Links ].

Duesenberry, J.S., 1948 [1971]. Income-consumption Relations and their Implications. En: Mueller, M.G. (ed.), 1971. Readings in Macroeconomics. Londres: Holt, Rinehart and Winston, Inc., pp. 61-76.         [ Links ]

Duesenberry, J.S., 1949. Income, Saving and the Theory of Consumption Behavior. Cambridge, MA.: Harvard University Press.         [ Links ]

Friedman, M., 1948. A Monetary and Fiscal Framework for Economic Stability. American Economic Review, 38, junio, pp. 245-264 [         [ Links ]Reimpreso en: Mueller, M.G. (ed.), 1971. Readings in Macroeconomics. Nueva York: Holt, Rinehart and Winston, Inc., pp. 337-52]         [ Links ].

Friedman, M., 1953a. The Methodology of Positive Economics. En: Essays in Positive Economics, Chicago: University of Chicago Press, pp. 3-43.         [ Links ]

Friedman, M., 1953b. The Case for Flexible Exchange Rates. En: Essays in Positive Economics, Chicago: University of Chicago Press, pp. 157-203.         [ Links ]

Friedman, M., 1956 [1969]. The Quantity Theory of Money - A Restatement. En: Friedman, M. (ed). 1969. Studies in the Quantity Theory of Money. Chicago: University of Chicago Press [         [ Links ]Reimpreso en Clower, R.W. (ed.). Monetary Theory: Penguin Books, pp. 94-111]         [ Links ].

Friedman, M., 1957. A Theory of the Consumption Function. New Jersey: Princeton University Press for National Bureau of Economic Research.         [ Links ]

Friedman, M., 1961. The Lag in Effects of Monetary Policy. Journal of Political Economy, 69(5), octubre, pp. 447-66.         [ Links ]

Friedman, M., 1962 [2002]. Capitalism and Freedom. Chicago: University of Chicago Press.         [ Links ]

Friedman, M., 1968. The Role of Monetary Policy. American Economic Review, 58, mayo, pp. 1-17 [         [ Links ]Reimpreso en: Korliras P.G. y Thorn, R.S. (eds.), 1979. Modern Macroeconomic Thought: Major Contributions to Contemporary Thought. Nueva York: Harper and Row, pp. 91-102]         [ Links ].

Friedman, M., 1969. The Optimum Quantity of Money. En: The Optimum Quantity of Money and Other Essays. Chicago: Aldine.         [ Links ]

Friedman, M., 1970. The Counter-revolution in Monetary Theory [IEA Occasional Paper no. 33, mimeo]. Institute of Economic Affairs, Londres.         [ Links ]

Friedman, M., 1971. A Theoretical Framework for Monetary Policy [Occassional Paper no. 112]. National Bureau of Economic Research (NBER), Nueva York [         [ Links ]Reimpreso en: Gordon, R. (ed.), 1974. Milton Friedman's Monetary Framework. Chicago: University of Chicago Press, pp. 1-62]         [ Links ].

Friedman, M. y Schwartz, A., 1963a. Money and Business Cycles. Review of Economics and Statistics [Suplemento], febrero, pp. 32-64.         [ Links ]

Friedman, M. y Schwartz, A., 1963b. A Monetary History of the United States, 1867-1960. Princeton: Princeton University Press.         [ Links ]

Goldfeld, S.M. y Sichel, D.E., 1990. The Demand for Money. En: Friedman, B.M. y Hahn, F.H. (eds.). Handbook of Monetary Economics [Vol. 1]. Amsterdam: North-Holand, pp. 299-356.         [ Links ]

Hicks, J.R., 1937. Mr. Keynes and the "Classics": A suggested interpretation. Econométrica, 5(2), pp. 147-59.         [ Links ]

Isard, P., 2007. Equilibrium Exchange Rates: Assessment methodologies [imf Working Paper no. WP/07/296]. International Monetary Fund, Washington, D.C.         [ Links ]

Kaldor, N., 1970. The New Monetarism. Lloyds Bank Review, 97, julio, pp. 1-18.         [ Links ]

Kaldor, N., 1982. The Scourge of Monetarism. Oxford: Oxford University Press.         [ Links ]

Keynes. J.M., 1936. The General Theory of Employment, Interest, and Money. Londres: Macmillan.         [ Links ]

Krueger, A.O., 1974. The Political Economy of Rent-seeking Society. American Economic Review, 64(3), pp. 291-303.         [ Links ]

Krugman, P. y Taylor, L., 1978. Contractionary Effects of Devaluation. Journal of International Economics, 8(3), agosto, pp. 445-56.         [ Links ]

Kuznets, S., 1946. National Product Since 1869. Nueva York: National Bureau of Economic Research (con asistencia de L. Epstein y E. Zenks).         [ Links ]

Lucas, R.E. Jr., 1973. Some International Evidence on Output-inflation Tradeoffs. American Economic Review, 63(3), pp. 326-34.         [ Links ]

Meese, R.A. y Rogoff, K., 1983. Empirical Exchange Rate Models of the Seventies: Do they fit out of sample? Journal of International Economics, 14(1-2), febrero, pp. 3-24.         [ Links ]

Minsky, H.P., 1992. The Financial Instability Hypothesis [Working Paper no. 74]. The Jerome Levy Economics Institute of Bard College, Nueva York [         [ Links ]Publicado en: Arestis, P. y Sawyer, M. (eds.), 1993. Handbook of Radical Political Economy. Alders-hot: Edward Elgar, pp. 153-158]         [ Links ].

Mishkin, F.S., 1982. Does Anticipated Monetary Policy Matter? An econometric investigation. Journal of Political Economy, 90(1), febrero, pp. 22-51.         [ Links ]

Modigliani, F. y Brumberg, R., 1954. Utility Analysis and the Consumption Function: An interpretation of cross-section data. En: Kurihara, K (ed.). Post Keynesian Economics. Londres: George Allen and Unwin.         [ Links ]

Moore, B.J., 1988. Horizpntalists and Verticalists: The Macroeconomics of Credit Money. Nueva York: Cambridge University Press.         [ Links ]

Niskanen, W.A., 1971. Bureaucracy and Representative Government. Chicago: Aldine-Atherton.         [ Links ]

Okun, A., 1980. Rational Expectations-with-Misperceptions as a Theory of the Business Cycle. Journal of Money, Credit, and Banking, 12(4), pp. 817-25.         [ Links ]

Olivera, J.H.G., 1964. On Structural inflation and Latin-American "Structuralism". Oxford Economic Papers, 16(3), pp. 321-32.         [ Links ]

Palley, T.I., 2008. Keynesian Models of Deflation and Depression Revisited. Journal of Economic Behavior and Organization, 68(1), octubre, pp. 167-77.         [ Links ]

Palley, T.I., 2009. After the Bust: The outlook for macroeconomics and macroecono-mic policy. En: Hein, E., Niechoj, T. y Stockhammer, E. (eds). Macroeconomic Policies on Shaky Foundations: Whither mainstream economics? Marburg, Alemania: Metropolis-Verlag, pp. 371-91 [Serie de studios de la Research Network Macroeconomics and Macroeconomic Policies (FMM) no. 12]         [ Links ].

Palley, T.I., 2010. The Relative Permanent Income Theory of consumption: A synthetic Keynes-Duesenberry-Friedman model. Review of Political Economy, 22(1), enero, pp. 41-56.         [ Links ]

Palley, T.I., 2011. A Theory of Minsky Super-cycles and Financial Crises. Contributions to Political Economy, 30(1), pp. 31-46.         [ Links ]

Palley, T.I., 2012. From Financial Crisis to Stagnation: The Destruction of Shared Prosperity and the Role of Economics. Nueva York: Cambridge University Press.         [ Links ]

Palley, T.I., 2013. Horizontalists, Verticalists, and Structuralists: The theory of endogenous money reassessed. Review of Keynesian Economics, 1(4), pp. 406-24.         [ Links ]

Patinkin, D., 1958. Liquidity Preference and Loanable Funds: Stock and flow analysis. Económica, 25(100), noviembre, pp. 300-318.         [ Links ]

Polanyi, K., 1944. The Great Transformation: The political and economic origins of our time. Nueva York: Farrar & Rinehart.         [ Links ]

Poole, W., 1970. Optimal Monetary Policy Instruments in a Simple Stochastic Macro Model. Quarterly Journal of Economics, 84(2), mayo, pp. 197-216.         [ Links ]

Robinson, J., 1962. Review: Money, Trade and Economic Growth. By H.G. Johnson (Londres: Allen & Unwin, 1962, pp. 199, 25s.). The Economic Journal, 72(287), septiembre, pp. 690-2.         [ Links ]

Rogoff, K., 1999. Monetary Models of Dollar/Yen/Euro Nominal Exchange Rates: Dead or undead. The Economic Journal, 109, noviembre,, pp. F655-F659.         [ Links ]

Sargent, T.J., 1979. Macroeconomic Theory. Nueva York: Academic Press.         [ Links ]

Sen, A.K., 1999. Development as Freedom. Oxford: Oxford University Press.         [ Links ]

Smith, A., 1759 [1976a]. The Theory of Moral Sentiments [Reimpreso con base en la edición de 1790 por Raphael D.D. y Macfie, A.L. (eds.), 1976a.         [ Links ] The Glasgow Edition of the Works and Correspondence of Adam Smith [Vol. 1]. Oxford: Clarendon Press.         [ Links ]

Smith, A., 1776 [1976b]. An Inquiry Into the Nature and Causes of the Wealth of Nations [Reimpreso con base en la edición de 1784 por Todd, W.B. (ed.). The Glasgow Edition of the Works and Correspondence of Adam Smith [Vol. 2 ]. Oxford: Clarendon Press.         [ Links ]

Smith, W.L., 1958. Monetary Theories of the Rate of Interest: A dynamic analysis. Review of Economics and Statistics, 40(1), febrero, pp. 15-21.         [ Links ]

Stigler, G.J., 1971. The Theory of Economic Regulation. Bell Journal of Economics and Management Science, 2(1), pp. 3-21.         [ Links ]

Staiger, D., Stock, J.H. y Watson, M.W., 2001. Prices, Wages, and the NAIRU in the U.S. in the 1990s. Cambridge, MA.: National Bureau of Economic Research.         [ Links ]

Steindl, J., 1952. Maturity and Stagnation in the American Economy. Oxford: Basil Blackwell.         [ Links ]

Summers, L.H., 2006. The Great Liberator. New York Times, 19 de noviembre.         [ Links ]

Sunkel, O., 1958. La inflación chilena: un enfoque heterodoxo. El Trimestre Económico, 25(100:4), octubre-diciembre, pp. 570-99.         [ Links ]

Taylor, M., 1995. The Economics of Exchange Rates. Journal of Economic Literature, 33(1), marzo, pp. 13-47.         [ Links ]

Temin, P., 1976. Did Monetary Forces Cause the Great Depression? Nueva York: WW Norton.         [ Links ]

Tobin, J., 1969. A General Equilibrium Approach to Monetary Theory. Journal of Money, Credit, and Banking, 1(1), pp. 15-29.         [ Links ]

Tobin, J., 1970. Money and Income: Post hoc ergo propter hoc? The Quarterly Journal of Economics, 84(2), mayo, pp. 301-19.         [ Links ]

Tobin, J., 1974. Friedman's Theoretical Framework. En: Gordon, R.J. (ed.). Mlilton Friedman's Monetary Framework. Chicago: University of Chicago Press, pp. 77-89.         [ Links ]

Tobin, J., 1978. A Proposal for International Monetary Reform. Eastern Economic Journal, 4(3-4), julio-octubre, pp. 153-9.         [ Links ]

Tobin, J., 1980. Asset Accumulation and Economic Activity. Chicago: Chicago University Press.         [ Links ]

Tobin, J., 1981. The Monetarist Counter-revolution Today - An Appraisal. The Economic Journal, 91(361), marzo, pp. 29-42.         [ Links ]

Tobin, J., 1982. Money and Finance in the Macroeconomic Process. Journal of Money, Credit, and Banking, 14(2), mayo, pp. 171-204.         [ Links ]

Tobin, J., 1993. Price Flexibility and Output Stability: An old Keynesian view. The Journal of Economic Perspectives, 7(1), invierno, pp. 45-66.         [ Links ]

Tsiang, S.C., 1956. Liquidity Preference and Loanable Funds Theories, Multiplier and Velocity Analysis: A synthesis. American Economic Review, 46(4), septiembre, pp. 539-64.         [ Links ]

Tullock, G., 1967. The Welfare Cost of Tariffs, Monopolies, and Theft. Western Economic Journal (ahora Economic Inquiry), 5(3), pp. 224-32.         [ Links ]

 

NOTAS

Este trabajo aparecerá en Robert Cord (ed.). Milton Friedman: Contributions to Economics and Public Policy. Oxford: Oxford University Press, de próxima aparición (2015). El autor agradece los comentarios del comité revisor de la revista y también al traductor.

1 El término "viejo keynesianismo" lo usó Tobin (1993), mi maestro y mentor, para describir su perspectiva macroeconómica. Tobin fue el gran rival intelectual de Friedman. Ambos recibieron el Premio Nobel de Economía que otorga el Riksbank de Suecia. Desde mi punto de vista, si bien Friedman perdió en la argumentación intelectual, ganó la guerra en el terreno de las ideas. Por su parte, Tobin ganó en la argumentación, pero perdió la guerra; al menos por ahora.

2 Este término lo acuñó Robinson (1962). El keynesianismo bastardo interpreta la Teoría General de Keynes a través de la lente de la rigidez de precios y salarios nominales, aunque retiene de Keynes su teoría monetaria de las tasas de interés.

3 Para ser precisos, hay tres posturas: la nueva macroeconomía clásica de Friedman (1968) con expectativas adaptativas; la nueva macroeconomía clásica de Lucas (1973) con expectativas racionales y la macroeconomía neokeynesiana. Friedman amplió el error de contratación nominal habida cuenta de las expectativas adaptativas; Lucas tiene error de contratación nominal muy temporal habida cuenta de las expectativas racionales, mientras que el nuevo keynesianismo ha ampliado el error de contratación nominal debido a los costos del menú y contratos nominales de largo plazo. Todos comparten un marco macroeconómico meta-teórico que ve el problema macroeconómico en términos de error de contratación nominal, aun cuando la explicación y la duración del error de contratación varíen.

4 A la fecha, la no pertinencia del realismo de los supuestos es una característica atrincherada de la economía moderna que resulta difícil de cuestionar. En múltiples sentidos, la nueva "economía del comportamiento" se centra en ello y ha comenzado a tener un cierto éxito. Ello explica por qué tantas proposiciones de la economía del comportamiento no son otra cosa que aspectos de sentido común. Si la introspección formara parte de las herramientas que utilizan los economistas teóricos, la economía del comportamiento sería menos necesaria en la medida que la economía iniciaría con supuestos realistas y plausibles que se corresponderían con una comprensión y experiencia introspectivas.

5 El marco unificado para la decisión quedó incorporado en el modelo de Tobin de 1982, si bien no formó parte del mismo en el modelo de 1969.

6 En su ensayo relativo a la cantidad óptima de dinero, Friedman (1969) aplica la microeconomía de la Escuela de Chicago para sostener que la tasa de interés nominal debe ser cero. La lógica microeconómica es que la producción de dinero no está exenta de costos y, por lo tanto, el costo marginal de mantener dinero debe ser cero. Si el punto de equilibrio de la tasa de interés real es 3% (esto es, igual a la tasa de crecimiento real) y la tasa nominal de interés es cero, ello implica una tasa de deflación de 3%. Aplicando la lógica de la macroeconomía monetarista de la ecuación de Fisher, supone que el crecimiento de la oferta de dinero nominal debe ser cero.

7 Tobin (1974) también mostró que los intentos de Friedman (1971) de responder a las críticas keynesianas sólo empeoraron la situación. En una de sus respuestas Friedman se desplazó a un marco keynesiano convencional, donde la economía confronta una curva con pendiente positiva de oferta agregada (oa) en producto real-precios en el tiempo, de forma que la división de producto nominal cambia entre precios y producto real dependiendo de la pendiente de la oa. En una segunda respuesta Friedman tuvo que esgrimir que la tasa real de interés era constante, con la tasa nominal ajustándose instantáneamente y en una relación uno a uno con la inflación, de forma que el dinero no tenga efectos de largo plazo. No sólo no es posible mantener empíricamente esta descripción de las tasas de interés real, sino que también significa que la política fiscal fue ultrapoderosa, lo que contrasta con las afirmaciones monetaristas.

8 Barro (1974) restringirá más dichos efectos con su hipótesis neoricardiana que afirma que los hogares poseen un horizonte infinito y neutralizan recortes de impuestos y del gasto del gobierno al reconocer que implican un incremento futuro de impuesto igual y contrario del mismo valor neto presente.

9 Tobin (1980: cap. II) enfatiza la distinción entre expectativas racionales y equilibrar continuamente el mercado, y hace notar que es lo primero lo que da al monetarismo marca II su atractivo profesional.

10 El argumento de la ineficiencia del gobierno está claramente presente en el trabajo que Friedman dedicó a la política de estabilización (Friedman, 1948; 1961) y en el monetarismo marca I (Friedman y Schwartz, 1963a; 1963b). Este argumento allanó el camino para que posteriormente se enfocara en el planteamiento de las políticas basadas en reglas. Despúes, el argumento de la ineficiencia lo complementaron los referentes a la incompetencia burocrática (Niskanen, 1971), captura regulatoria (Stigler, 1971) y comportamiento rentista (véase, por ejemplo, Tullock, 1967; Krueger, 1974). Para finales de los años de 1980 la idea del funcionario benévolo pero incompetente fue reemplazada por la de funcionario público mezquino (Barro y Gordon, 1983).