sábado, 27 de diciembre de 2014

¿Existe un método "correcto" para la economía?

Aviso: entrada larga, aburrida e introductoria para todo aquel que no esté interesado en la metodología de la ciencia. Un tema sobre el que no escribí nada hasta ahora, pero que a partir de la lectura de varios trabajos comenzó a interesarme, especialmente porque ayuda a entender el devenir de la ciencia y la acumulación de conocimiento en cada disciplina. 

Al igual que las distintas ciencias, la visión respecto a su metodología se ha ido modificando con el transcurso del tiempo. Siguiendo a Blaug (1992), hasta mediados del siglo XIX el inductivismo era el enfoque utilizado para el desarrollo de la ciencia. Sin embargo, éste fue desplazado por el método hipotético-deductivo (MHD) que surgió de los trabajos del Círculo de Viena en los primeros años del siglo XX.

El MHD parte de una ley universal (del tipo “si pasa A, también sucede B”), sumado a una afirmación deductiva (los “explicantes”) con el objetivo de explicar algún hecho particular (el “explicando). La superioridad de este método reside en que las hipótesis (supuestamente) pueden ser contrastadas a partir de predicciones realizadas en base a las mismas.

Asimismo, a partir de lo anterior se argüía que el proceso de explicación involucraba los mismos pasos que la predicción, salvo por el hecho de que la primera es posterior a los hechos, mientras que la segunda es anterior a los mismos. Esto es lo que se conoce como la tesis de la simetría.

No obstante, esta tesis presenta algunos problemas. En primer lugar, resulta evidente que en muchos casos la predicción puede no ser acompañada por una (correcta) explicación. Esto es lo que sucede, por ejemplo, en economía cuando se utilizan identidades contables para la predicción, siendo el caso más conocido el de la teoría cuantitativa del dinero, que parte de la identidad de cambio[1].

Por otro lado, también existen contraejemplos de casos donde hay explicación sin predicción, como en la teoría de la evolución de Darwin o el psicoanálisis. A pesar de lo anterior, Blaug sostiene que esto no termina siendo una crítica muy sólida y que por lo tanto el método apropiado debe poder explicar y predecir al mismo tiempo.

En parte como respuesta a este enfoque surge el método falsacionista de Popper, el cual buscaba en cambio definir criterios de evaluación para poder separar lo que era ciencia de lo que no lo era. Una de las principales críticas que realiza Popper al MHD es que éste definía como ciencia a aquellas teorías que utilizaban enunciados sintéticos que podían ser verificados. El problema con esto es que resulta imposible probar o verificar una teoría, dado que no se puede establecer leyes universales a partir de enunciados u observaciones particulares.

Por el contrario, cualquier ley universal puede ser refutaba a partir de una única observación. A partir de esta asimetría es que Popper establece su criterio de demarcación: se considera ciencia todo aquel cuerpo de enunciados sintéticos que pueden ser falsados a través de observaciones empíricas.

El principal problema que surge con el método falsacionista, y que es más grave aún en las ciencias sociales y particularmente en la economía, es que en la realidad resulta muy difícil falsar una teoría de manera concluyente, dado que por lo general al testear los explicantes no se puede distinguir entre la hipótesis particular y los enunciados auxiliares. De este modo, si queda falsado, se podría argumentar que esto se debe a que uno de los enunciados auxiliares era erróneo, manteniendo la hipótesis principal. Esto es lo que se conoce como la tesis Duhem-Quine.

Popper, al igual que los defensores del MHD, sostiene que la única manera de testear cada teoría es a partir de la falsabilidad de sus predicciones. Asimismo, su grado de corroboración va a depender del nivel de especificación de la teoría y de su poder predictivo respecto a las teorías rivales.

Uno de los problemas que presenta el método de Popper es que es fundamentalmente normativo. En este sentido, no presenta ningún quiebre respecto al MHD. En cambio, esto es lo que efectivamente sucede con el surgimiento de la teoría presentada por Kuhn, que presenta un enfoque descriptivo. Según este autor, el desarrollo de la ciencia no es lineal, sino que se divide en etapas, donde en condiciones “normales” existe un paradigma hegemónico que es aceptado por la mayoría de la comunidad científica. Sin embargo, con el transcurso del tiempo van surgiendo y se van acumulando distintas anomalías que el paradigma dominante no puede explicar (o que explica, pero a través de enunciados ad hoc) y que dan lugar a una revolución científica, donde un nuevo paradigma toma el lugar del anterior y se instala como el dominante, instaurando una nueva etapa de normalidad.

Se debe destacar que, posteriormente, Kuhn reconoció que este proceso no se da de manera violenta ni en secuencia lógica, sino que lleva tiempo, donde numerosos e inconmensurables paradigmas se disputan entre sí la hegemonía y se condicionan mutuamente. De lo anterior se desprende que el enfoque de Kuhn busca ser una descripción de la evolución de la ciencia, y que dicha evolución puede no venir acompañada de una creciente acumulación de conocimiento.

Posteriormente, y a modo de síntesis entre los métodos de Popper y Kuhn, Lakatos establece que en realidad la disputa no se lleva a cabo entre distintas teorías sino entre Programas de Investigación Científica (PIC), que son un conjunto de distintas teorías entrelazadas entre sí. Estos PIC comparten un núcleo duro, que contiene postulados metafísicos y heurísticos que no pueden ser falsados, el cual se encuentra cubierto por un “cinturón” protector que consiste en un conjunto de hipótesis auxiliares que pueden ser modificadas, eliminadas o reemplazadas para lidiar con las distintas anomalías que se van presentando.

De modo similar a lo planteado por Kuhn, a medida que las hipótesis auxiliares van siendo falsadas los PIC pueden ser considerados progresivos si incorporan nuevo contenido empírico o regresivos si solo tratan de acomodarse a los nuevos hechos a través de hipótesis ad hoc. De este modo, se obtiene un criterio de demarcación que es principalmente histórico, al tomar en consideración la evolución de las ideas.

A pesar de que es probable de que los avances en un mismo PIC o su reemplazo por otro conlleven alguna pérdida de contenido (problema que también se encuentra en el enfoque kuhniano), Lakatos cree que la ciencia progresa, y esto es debido a que, según este autor, los científicos se comportan de modo racional y optan siempre por el PIC progresivo por sobre el regresivo. Si bien acepta que a lo largo de la historia hubo casos donde esto no sucedió, donde las decisiones por uno u otro PIC estuvieron condicionadas por el contexto sociopolítico, aun así cree que la forma de analizar el devenir histórico de la ciencia es a partir de la racionalidad de los científicos a la hora de elegir.

Feyerabend, por el contrario, destaca que el principal problema que surge relacionado con lo anterior es que la mayoría de los hechos son teórico-sesgados (es decir, que están condicionados a priori por cierta conceptualización) y, dado que el avance de la ciencia implica siempre alguna pérdida de contenido, entonces no se puede decidir de manera racional entre un PIC u otro. Así, argumenta que no existe tal cosa como reglas universales metodológicas que sean respetadas por la academia, y que entonces la metodología no puede proveer una descripción general de la ciencia ni un método para distinguir entre ciencia y no ciencia.

En definitiva, lo que se desprende de lo anterior es que no existe un método correcto para verificar o falsar las teorías, y que por lo tanto no existe el conocimiento empírico cierto, y menos aún un método que asegure que el conocimiento que existe en un momento dado sobre la realidad sea el más preciso.




[1] Para una explicación más acabada de esta teoría, ver Blaug (1995). 

martes, 16 de diciembre de 2014

Autobombo: Seminario sobre la crisis europea

Por si a alguno le interesa, pasado mañana vamos a estar en un seminario junto a Esteban Bertuccio hablando sobre la crisis europea. Comentan Pablo Bortz y Cintia Gasparini.


lunes, 15 de diciembre de 2014

El problema de las matemáticas en la economía

Antes de que alguno nos salte a la yugular por el título, aclaro: no estoy en contra del uso de las matemáticas en la economía, todo lo contrario. Creo que en su justa medida son necesarias y aportan, sobre todo para el desarrollo de cualquier argumento; en muchos casos cuando exponemos un razonamiento y lo hacemos de forma verbal, existen serias posibilidades de que lo que estemos diciendo presente algún tipo de inconsistencia. Además, la formalización del argumento también enriquece la calidad de discusión, porque evita malos entendidos lingüísticos que se pueden llegar a dar (por ejemplo, entre una tasa de variación, una participación, un salto de nivel, etc., o en la ambigüedad de un término, como puede ser el efecto "acelerador" de la inversión).
Ahora bien, el problema es que en la actualidad la disciplina se pasó de rosca. Y el uso de las matemáticas pasó a ser un fin en sí mismo; es decir, pareciera ser que ahora es más importante el cómo que el qué: no importa tanto la validez del argumento que queremos decir si éste se presenta de modo elegante en términos matemáticos.
Un claro ejemplo de esto se puede observar en la evolución de la teoría del mainstream sobre el crecimiento endógeno. En un trabajo realmente excelente, Cesaratto muestra cómo esta teoría fue cambiando a lo largo del tiempo, desde el trabajo pionero de Solow hasta los modelos más recientes con capital humano y desarrollo tecnólogico. Y muestra que toda esta evolución se redujo, en realidad, a las distintas variantes matemáticas que presentó el modelo para hacer que sea estable. Lo que revela el trabajo es que primero se buscaba cómo hacer que el modelo sea estable, y luego se le buscaba una justificación (rídícula, en la mayoría de los casos) para tratar de acercarlos a la realidad.
De todos modos, el mejor ejemplo que vi hasta ahora es éste de J. Siegfried, que lleva al extremo el argumento. En el link está en inglés, acá se los dejo en castellano (en forma de imagen, porque blogger no deja poner fórmulas): 


domingo, 7 de diciembre de 2014

Una absurda obsesión

Dejo una nota que escribí sobre el déficit fiscal, que salió publicada en el suplemento Cash de Página 12:

DOMINGO, 7 DE DICIEMBRE DE 2014
SIGNIFICADO E IMPLICANCIAS DEL DEFICIT FISCAL

Absurda obsesión

 Por Juan Manuel Telechea *
Pocas recomendaciones de política económica se repiten tanto en la actualidad como la de reducir el déficit fiscal. Recomendación que no distingue orientación política, ya que la piden tanto los economistas de izquierda como los de derecha, opositores, e incluso algunos afines al gobierno actual.
¿Por qué esta obsesión? La respuesta de estos economistas es automática: el déficit fiscal genera inflación. Sin embargo, esta afirmación no resiste el más mínimo análisis, teórico ni empírico.
Para poder entender qué es el déficit fiscal resulta necesario mostrar cómo gasta y recauda un país soberano que emite su propia moneda, porque existe la creencia generalizada de que un Estado tiene que recaudar primero para poder gastar, cuando en realidad lo que sucede es lo contrario. El arraigo tan profundo de esta creencia radica en la asociación que se suele hacer entre las finanzas estatales y las de una familia, en la cual es evidente que primero se tiene que conseguir de algún modo el dinero necesario para poder gastar. Pero de ninguna manera se puede pensar al Estado como si fuera un hogar, porque éste detenta el monopolio de la creación de dinero, y por lo tanto necesita primero gastar para luego poder recaudar. Esto es así porque el dinero surge sólo cuando el Estado gasta.
En el hipotético caso de una economía en una situación inicial donde no hay dinero, el Estado no puede recaudar impuestos porque las personas no tienen los medios para pagar los tributos. Por lo tanto, el Estado debe primero crear el dinero para poder luego ponerlo en circulación. La manera de hacerlo es a través del gasto, por ejemplo contratando a esas personas y pagándoles un sueldo. Una vez que las personas tienen dinero, el Estado puede cobrarles los impuestos. Lo que se observa entonces es un flujo circular del dinero, que nace (con el gasto) y termina (con la recaudación) en el Estado.
De manera análoga se realiza el cobro de impuestos (es decir, retirando dinero de la economía), y su objetivo principal no es, insistimos, financiar el gasto público sino la redistribución de los ingresos y el manejo de la demanda agregada.
Ahora bien, cuando un Estado gasta más de lo que recauda se origina un déficit fiscal. Esto es lo mismo que decir que el Estado introduce (gasta) más dinero del que retira (recauda) en la economía. Y los destinatarios de ese excedente de dinero son justamente las familias y las empresas. Lo que se observa, entonces, es que un déficit fiscal significa un incremento de la riqueza del sector privado, mientras que un superávit fiscal implica una destrucción de la misma.
Al margen de su significado en términos macroeconómicos, el problema principal de estos economistas yace en cómo se financian los déficit fiscales, dado que la base fundamental de su trillada argumentación es que el financiamiento se realiza con pesos que emite el Banco Central (BCRA) y eso es lo que genera el aumento en el nivel de precios. Vemos entonces que el mecanismo por el cual el déficit generaría inflación es indirecto, y que no es otro que el arcaico argumento monetarista de que la emisión genera inflación.
El problema con esta teoría, repetido hasta el hartazgo, es que el orden de causalidad es inverso: toda economía capitalista necesita dinero para funcionar, y si la producción y los precios aumentan, está claro que la cantidad de dinero también debe hacerlo. Por lo tanto es la inflación la que “causa” la emisión, y no viceversa.
De aquí se desprende que el BCRA no controla la emisión de dinero, lo que hace es proveer toda la cantidad necesaria que demanda el sector privado. Esto significa que la oferta y la demanda de dinero se encuentran siempre en equilibrio, por lo que no puede existir tal cosa como un “exceso” de oferta, algo que estos economistas no se cansan de repetir para afirmar que por eso bajaría el precio del dinero, aumentando la inflación.
Otro punto por destacar es que, una vez que el dinero está puesto en circulación, los bancos privados pueden acrecentar esa cantidad de moneda a partir de la demanda de créditos provenientes del sector privado. Esto lo hacen “creando” dinero (por medio de depósitos bancarios), a la vez que obtienen un beneficio por la tasa de interés que cobran. Siguiendo la lógica de estos economistas, no se entiende por qué no critican con la misma ferocidad a los bancos, que también serían culpables de expandir la emisión.
Por último, a nivel empírico los datos para la Argentina no muestran una correlación estrecha entre la emisión y la inflación: tomando los datos de cualquiera de las consultoras privadas, lo que se observa es una inflación relativamente estable entre 2010 y 2013, mientras que la emisión monetaria se expandió notablemente entre 2010 y mediados de 2011, y en todo 2012. Paradójicamente, a fines de 2013 se observa un aumento de la inflación acompañado de una caída en la tasa de emisión, lo opuesto a lo que esta teoría afirma.
A pesar de todo lo anterior, se podría argumentar que en la actualidad el financiamiento del déficit fiscal pasó a ser una de las fuentes principales de creación del dinero y que justamente esta variable sí es controlada por el Gobierno. Esto es efectivamente lo que viene sucediendo desde 2013 y lo que va de 2014. Sin embargo, de nuevo, esto demuestra que estos economistas no entienden cómo funciona una economía capitalista, pero periférica, como la Argentina: en un contexto de menor crecimiento y de escasez de divisas como el que se observa desde principios del año pasado, el financiamiento del déficit fiscal funcionó como un factor contrarrestante de la contracción monetaria. ¿Por qué sucede esto? Porque los exportadores, que son quienes ingresan los dólares y a cambio reciben pesos (lo que se traduce en un aumento de la cantidad de dinero) últimamente no lo están haciendo al ritmo de años pasados. Esta había sido hasta ahora la principal fuente de creación del dinero.
A partir de todo lo anterior, no debería hacer falta aclarar que no se puede culpar al financiamiento del déficit fiscal como el causante de la inflación. Pero, como decía Voltaire, a fuerza de repetir una necedad terminamos creyéndola, así que vale la aclaración.
¿Esto implica que el déficit fiscal se puede financiar infinitamente? Desde ya que no. Toda política expansiva tiene límites. Pero, por lo general, éstos se encuentran bastante más allá de lo que afirma la ortodoxia
* Economista (UBA), docente (UNLZ).

miércoles, 26 de noviembre de 2014

Hacia una única teoría poskeynesiana de largo plazo

A modo de cierre, les dejo acá el trabajo terminado, y una presentación que resume y agrega algunas discusiones extra respecto a la (errónea) teoría de la tendencia que tiene el mainstream.
Además de la crítica teórica que hicimos en su momento acá, se le agrega una empírica-metodológica igual de grave.
A priori, el mainstream asume que ante una recesión, la brecha del producto (es decir, la diferencia entre el producto real y el potencial) se va a cerrar por medio de un crecimiento mayor del producto real en relación al potencial.
¿Por qué esto debería ser así? Porque el mainstream asume que las economías tienden a regresar siempre al pleno empleo (o sea, a la tendencia del producto potencial). Si, entonces, el producto real se separa del potencial, por una recesión por ejemplo, en el mediano plazo va a terminar creciendo más rápido hasta alcanzar nuevamente al potencial. Algo así:


¿Qué sucede en la realidad? Todo lo contrario: El crecimiento tiende a ser persistentemente menor al de la tendencia previa, y no hay ningún mecanismo que haga que el producto real vuelva a la tendencia anterior:




¿Cómo se cierra la brecha entonces? Revisando constantemente hacia la baja el producto potencial, hasta que finalmente algún día vuelvan a juntarse (!). Lo que ven más abajo es la estimación del producto potencial hecho por el Banco Central de Estados Unidos en 2007, antes de la crisis (línea naranja); en 2009, en plena crisis (línea amarilla); y en 2013 cuando la economía comienza a mejorar (línea celeste). La línea negra muestra el producto real de Estados Unidos. Noten como cuando comienza la crisis en 2008 y el producto real cae, se ensancha la brecha con el producto potencial (línea punteada roja). Pasan los años, y el producto real de EEUU no solo no crece más rápido sino que cada vez la brecha se va haciendo más grande (flecha roja). ¿Qué hace entonces el BC de EEUU? Revisa hacia abajo el producto potencial en 2013 (línea celeste) y así cierra la brecha. ¡Magia!


Esto deja bien claro que en la realidad los shocks de demanda suelen ser persistentes y que no existe algo así como un único producto potencial al cual tiende la economía. Esto es sumamente relevante para las recomendaciones de política económica, dado que la justificación principal que tiene esta teoría para decir que las políticas expansivas son inflacionarias, es que provocan que el producto real se ubique por encima del potencial, generando inflación. Pero si en realidad lo que sucede es que cuando crece el producto real, también crece el potencial, la barrera inflacionaria también se aleja.
Esto pone de manifiesto, además, que la manera en la que el mainstream explica la tendencia deja bastante que desear. 

viernes, 21 de noviembre de 2014

VI – ¿Hacia una nueva síntesis?

Va la última de la serie de entradas sobre la tendencia de largo plazo (para las anteriores ver acá):


A pesar de que el enfoque clásico-keynesiano se muestra como una opción consistente para la extensión de la demanda efectiva al largo plazo, el mismo recibió numerosas críticas a lo largo del tiempo y en la actualidad varios economistas incluso llegaron a excluirlo de la teoría poskeynesiana, siendo Davidson el más relevante entre éstos[1].
Lavoie (2011) enumera las principales críticas por las cuales el resto de los economistas poskeynesianos rechaza este enfoque y que son las que no permiten que el mismo sea adoptado como parte de esta teoría, entre las que se destacan: que la economía tienda a las posiciones naturales de largo plazo (es decir, que éstas sean centros atractores); que solo sea relevante el análisis del largo plazo; y que la posición de largo plazo venga dada por una tendencia que es determinada ex ante, la cual es independiente del corto plazo (es decir, que no haya dependencia de la trayectoria).
A partir de lo anterior concluye que la única de todas éstas que en la actualidad ofrece resistencia es la primera, dado que muestra que Garegnani (1992) describe como un aumento en el uso de la capacidad instalada inducido por una expansión de la demanda puede generar un sendero de crecimiento completamente diferente para la capacidad instalada y el producto. En palabras de este autor, esto significa que la demanda agregada determinada no solo el grado de utilización de la capacidad instalada característico del ciclo económico sino además el ritmo de acumulación de la economía. De aquí se desprende, además, que el análisis de corto plazo es tan o más relevante que el del largo plazo, dejando infundada la segunda crítica.
De todos modos, la primera crítica tampoco parecería ser un problema para el enfoque clásico-keynesiano. Según Bortis (1996):
Equilibrium in positive classical-Keynesian analysis relates to a presently existing state of affairs and is linked up with the degree of persistency of some determined variable which has no tendency to change as long as the predetermined variables and parameters stay firm. The degree of persistency is relatively small for short-term dependent variables but increases for medium- and long-term dependent variables. A long period equilibrium (a fully adjusted situation governed by the socio-economic system) is a slowly evolving reference situation which may attract short- and medium-term behavioural outcomes. It should be noted, however, that long-period equilibria, for example normal output levels or normal prices, do not represent centres of gravity since system outcomes reflected in normal magnitudes are not independent of behavioural outcomes (p. 88).
Lo que se observa entonces es que a priori no habría motivos que impidan una síntesis entre la teoría poskeynesiana y la clásico-keynesiana[2].
Además lo anterior pone de manifiesto que esto sería lo más lógico, dado que este enfoque se adecua mejor para explicar la tendencia al largo plazo que aquel planteado por los keynesianos fundamentalistas o los kaleckianos. Los primeros plantean que se debería respetar la teoría de Keynes (tal como la formuló en la Teoría General), y que entonces dada la incertidumbre imperante en el mundo real puede haber múltiples equilibrios en el largo plazo donde lo más probable sea que existe desempleo involuntario (Kregel, 1983). Los segundos afirman que se debería adoptar la teoría del ciclo kaleckiano y extenderla al largo plazo, dado que éste no es más que una sucesión de cortos plazos (Kalecki, 1968).
Esto conlleva un problema fundamental en ambos casos, ya que en ninguno se explica por qué una economía puede gravitar en torno a una tendencia (digamos de 5% de desempleo) en lugar de otra (con 20% de desempleo). Sumado a lo anterior, el enfoque fundamentalista mantiene la posibilidad de que la posición de largo plazo sea la de pleno empleo si los salarios y los precios son lo suficientemente flexibles (Garegnani, 1983), mientras que el kaleckiano asume que un shock permanente de demanda agregada puede llevar a cambios permanentes y significantes en el grado de utilización de la capacidad, algo que no se ve reflejado en la realidad (Skott, 2012).

Bibliografía utilizada:
Bortis, H. (1996), Institutions, behaviour and economic theory: A contribution to Classical-Keynesian political economy, Cambridge: Cambridge University Press.
Davidson, P. (2003), Setting the record straight on "A history of post keynesian economics", Journal of Post Keynesian Economics, Vol. 26(2), pp. 245-272.
Garegnani (1983), Two routes to effective demand: Comment on Kregel, en Kregel (ed.), Distribution, effective demand and international economic relations, Londres: Macmillan.
Garegnani, P. (1992) Some notes for an analysis of accumulation, en J. Halevi, D. L. y Nell E.J. (eds.), Beyond the steady state: A revival of growth theory, Londres: Macmillan, pp. 47-71.
Kalecki, M. (1968), Tendencia y ciclo económico, en Kalecki, M. (1971), Ensayos escogidos sobre la dinámica de la economía capitalista, México: Fondo de Cultura Económica.
Kregel, J. A. (1983), Effective demand: Origins and development of the notion, en Kregel (ed.), Distribution, effective demand and international economic relations, Londres: Macmillan.
Lavoie, M. (2011), Should Sraffians be dropped out of the post-Keynesian school?, Économies et Sociétés, Vol. 44(7), pp. 1027-1059.
Lavoie, M. (2014), Post-Keynesian economics: New foundations, Cheltenham: Edward Elgar.
Skott, P. (2012), Theoretical and empirical shortcomings of the Kaleckian investment function, Metroeconomica, Vol. 63(1), pp. 109-138.





[1] Al respecto ver, por ejemplo, Davidson (2003).

[2] Esto es efectivamente lo que termina haciendo Lavoie (2014) en su último libro sobre la teoría poskeynesiana.

miércoles, 19 de noviembre de 2014

V – La extensión de la demanda efectiva al largo plazo: El enfoque clásico-keynesiano.

Continuamos con la serie de entradas sobre la tendencia de largo plazo (para las anteriores ver acá):


A partir de lo anterior, se pone de manifiesto la relevancia que cobra el debate sobre el capital, al derribar la teoría marginalista de la producción y la distribución. Respecto de la primera, la refutación de las funciones decrecientes en relación al precio de los factores productivos (el primer postulado que había mantenido Keynes) elimina la tendencia al pleno empleo de los factores y permiten la posibilidad de reestablecer la demanda efectiva en el largo plazo, donde la inversión sea independiente de la propensión a ahorrar y el equilibrio se logre a través de cambios en el nivel de ingreso. Por el lado de la segunda, esto permite la posibilidad de reintroducir la teoría clásica de la distribución, dada a partir de la relación inversa entre salarios y ganancia. A partir de la combinación de estos dos elementos, es decir la extensión de la demanda efectiva al largo plazo y la distribución clásica de los ingresos, es que se puede pensar en la adopción de un enfoque clásico-keynesiano. Sin embargo, resulta necesario analizar la viabilidad del mismo, dado que a priori podría parecer que no son compatibles una teoría con la otra.
Un primer punto que surge de lo anterior es que la crítica de Keynes va dirigida en parte a Ricardo y sus antecesores. Como vimos en la sección III, esta crítica se basó fundamentalmente en la tendencia hacia el pleno empleo del factor trabajo y en el mecanismo de ajuste a través del nivel de precios mediado por la tasa de interés natural.  
En relación a esto, Garegnani afirma que no se puede encontrar en Ricardo tal mecanismo ya que la tasa de interés solo depende de la tasa de ganancia:
 (…) we cannot find in Ricardo the idea that the rate of interest would be the ‘balancing factor which brings the demand for saving in the shape of new investment . . . into equality with the supply of saving’ (Keynes, 1936, p. 165), which Keynes attributed to the ‘classical school’. The rate of interest appears in Ricardo only as a phenomenon subordinate to the rate of profits and governed by the latter (Garegnani, 1978: 339).
Si bien esto es correcto, Petri (2001) muestra que para Ricardo esta tasa de interés es además la única capaz de igualar la cantidad demandada y ofertada de préstamos. Es por esto que la discrepancia entre la oferta y la demanda de créditos es lo que provoca que la tasa de interés de mercado oscile en torno de la tasa de interés natural:
I do not dispute that if the Bank were to bring a large additional sum of notes into the market, and offer them on loan, but that they would for a time affect the rate of interest. (…) It is only during the interval of the issues of the Bank, and their effect on prices, that we should be sensible of an abundance of money; interest would, during that interval, be under its natural level; but as soon as the additional sum of notes or of money became absorbed in the general circulation, the rate of interest would be as high, and new loans would be demanded with as much eagerness as before the additional issues (Ricardo citado en Sraffa, 1952: 91).
De todos modos, a pesar de que en Ricardo ya se encontraba presente la noción de una tasa de interés natural[1], se debe destacar que esto no implica que se pueda asociar a la teoría clásica con la marginalista dentro de una misma escuela como lo hizo Keynes[2]. Esto se debe a que, como se analizó en las secciones I y II, estas teorías son diametralmente opuestas, pero fundamentalmente a que la estructura de la teoría clásica no implica ninguna tendencia en el largo plazo hacia el pleno empleo del factor trabajo.
Asimismo, también se mencionó que la derivación de la teoría clásica se realiza en dos estadios analíticos distintos, siendo uno de ellos es la determinación del producto (que quedaba determinado por la Ley de Say). Como bien resalta Garegnani (1978), resulta muy probable que la utilización de este supuesto fuera la consecuencia de la falta de una teoría en aquella época para la determinación del producto. A partir de lo anterior queda claro que la teoría de la distribución clásica es compatible con la introducción de la demanda efectiva[3], y que entonces se podría extender esta teoría al largo plazo tal como lo hace el enfoque clásico-keynesiano.

Bibliografía utilizada;
Garegnani, P. (1978), Notes on consumption, investment and effective demand: I, Cambridge Journal of Economics, Vol. 2, pp. 335-353.
Petri, F. (2001), Say’s law, theory of the rate of interest and capacity utilization in Ricardo, Universidad de Siena. Disponible en: http://growthconf.ec.unipi.it/papers/Petri.PDF
Sraffa, P. (1952), The works and correspondence of David Ricardo, Vol. III, Cambridge University Press.
Smithin, J. N. (2003), Controversies in monetary economics, Cheltenham: Edward Elgar.
Keynes, J. M. (1936), Teoría general de la ocupación, el interés y el dinero, cuarta edición (2009), Buenos Aires: Fondo de Cultura Económica.



[1] Cabe destacar que la noción de una tasa de interés natural que equilibra la oferta y demanda de crédito se puede rastrear hasta 1802, en el libro An Enquiry into the Nature and Effects of the Paper Credit of Great Britain de H. Thornton (Smithin, 2003).

[2] Comparto la posición de Garegnani (1978), que afirma que la asociación de Ricardo a los marginalistas se debe exclusivamente a que este autor adoptó la Ley de Say para su análisis. Esto queda reflejado, por ejemplo, en la siguiente cita del prefacio a la edición japonesa de la Teoría General: “La reciente y muy loable reimpresión, por parte del Círculo Internacional Económico de Tokyo, de los Principios de Economía Política de Malthus como primer volumen de la Serie de Reimpresiones de Tokyo, me anima a pensar que un libro que se ubica como descendiente de la obra de Malthus, en vez de la de Ricardo, podría ser percibido con simpatía en, al menos, algunos lugares” (p. 25).

[3] Debería resultar evidente que esto no sería posible en la teoría marginalista, donde la determinación del producto se realiza de manera simultánea a la distribución de los ingresos. 

lunes, 17 de noviembre de 2014

IV – La relevancia de las controversias del capital

Continuamos con la serie de entradas sobre la tendencia de largo plazo (para las anteriores ver acá):
Entre los años ‘50 y ’60 se produjo un debate entre las dos escuelas de Cambridge (Inglaterra y Estados Unidos) a partir de los serios problemas que presentaba el factor capital en la teoría neoclásica. Las críticas se centraron en dos aspectos: uno relacionado con la función de oferta, dado por la agregación y homogeneización del capital; y otro vinculado con la función de demanda, dado por el recambio de técnicas y la reversión del capital.
Respecto al primer problema, la crítica principal fue realizada por Robinson (1953), quien advierte que existe un problema de circularidad al tomar al capital como un bien homogéneo cuyo valor es medido en dinero, tal como hace la teoría neoclásica. Esto se debe a que para poder agregar los distintos bienes de capital con el fin de obtener un único factor medido en dinero es necesario conocer la tasa de ganancia. El problema radica en que la teoría neoclásica establece que la tasa de ganancia depende a su vez de la cantidad de capital utilizada.
Respecto al segundo problema, el debate en torno a la reversión del capital dejó en evidencia la posibilidad de que la demanda de capital sea una función creciente de la tasa de interés, y no decreciente como planteaba la teoría neoclásica. Esto se debió fundamentalmente a la posibilidad de que exista un recambio de técnicas, es decir, que la misma técnica sea utilizada tanto a niveles bajos como más altos de la tasa de interés.
La combinación de estos dos resultados implica serias dificultades para la teoría neoclásica, dado que no se puede afirmar que existe una relación inequívoca (decreciente) entre la demanda de capital y la tasa de interés (Lazzarini, 2011). Si esto no se cumple entonces toda la teoría marginalista se derrumba,  porque, por un lado, queda desarticulado el mecanismo wickselliano de ajuste entre ahorro e inversión a través de la tasa natural de interés, y por otro, pierde validez la teoría de la distribución dado que tampoco se podría derivar una función de demanda de trabajo porque, como vimos en la sección II, para poder lograr esto resulta necesario asumir el equilibrio en el mercado del capital[1].

Bibliografía utilizada:
Lazzarini, A. (2011), Revisiting the Cambridge capital theory controversies. A historical and analytical study, Pavia: Pavia University Press.
Petri (2010), Microeconomics for the critical mind, sin publicar. Disponible en: http://www.econ-pol.unisi.it/petri/
Robinson, J. (1953), The production function and the theory of capital, Review of Economic Studies, 21(2), p. 81-106.




[1] Además la función de demanda de trabajo también puede presentar varios problemas, como son la posibilidad de que el equilibrio implique un salario igual a cero, que haya cambios bruscos en la distribución del ingreso a partir de un cambio leve en el salario, la existencia equilibrios múltiples o que el mercado quede indeterminado (Petri, 2010).

sábado, 15 de noviembre de 2014

III – Antítesis y ¿síntesis?

Continuamos con la serie de entradas sobre la tendencia de largo plazo (para las anteriores ver acá). En la última habíamos presentado la teoría marginalista y sus críticas.

Es en este contexto que Keynes realiza su crítica a la teoría de la escuela clásica[1]. El objetivo principal de la misma es demostrar que la economía no tiende al pleno empleo, y que entonces el equilibrio entre el ahorro y la inversión planeada se va a dar a través de un cambio en el nivel de ingresos. De lo anterior se desprende que va a hacer falta una nueva teoría que determine el nivel de producción y de empleo, y es aquí donde cobra relevancia la demanda efectiva:
Este libro (…) se ha convertido en lo que es: sobre todo, un estudio de las fuerzas que determinan los cambios en la escala de producción y de ocupación como un todo (Keynes 1936: 18).
Say implícitamente suponía que el sistema económico operaba al máximo de su capacidad (…). Casi toda la teoría económica subsecuente ha dependido, en el sentido de que ha requerido, de este mismo supuesto. Pero aún una teoría tan fundamentada es claramente incompetente para enfrentar los problemas del desempleo y el ciclo económico. Tal vez la mejor forma de expresarles a mis lectores franceses lo que sostengo en este libro es decirles que la teoría de la producción es un rompimiento definitivo con las teorías de J. B. Say (Keynes 1936: 30).
La crítica fue dirigida fundamentalmente a la determinación de la tasa de interés, dado que es el mecanismo principal de ajuste entre el ahorro y la inversión para la teoría. De este modo, Keynes afirma que la tasa de interés no es el factor que iguala estos dos elementos, sino que en realidad es el que equilibra la oferta y demanda del stock de dinero.
Una vez removido este mecanismo, Keynes plantea que la manera en que el ahorro y la inversión se terminan igualando ex post es a través de un cambio en el nivel de ingresos. Así, una menor inversión en relación al ahorro ex ante va a ser equilibrado a través de una contracción en el nivel de producto, y no a través de una caída en el nivel de precios como planteaba la teoría marginalista. Resultado necesario destacar que Keynes mantiene el primer postulado de la teoría clásica, por lo que la inversión va a depender de la eficiencia marginal del capital (que a su vez va a estar influenciada por la tasa de interés).
La clave de todo este proceso es, en principio, la inflexibilidad a la baja que presentan para Keynes los salarios. Esto es lo que no permite que se produzca una deflación en los precios, que es lo que terminaba provocando que la tasa de interés de mercado se equiparara con la tasa natural, logrando la igualación entre ahorro e inversión en la teoría marginalista[2]. Sin embargo, en el capítulo XIX de la Teoría General Keynes deja bien en claro que el mecanismo de ajuste no depende de este supuesto. Para esto, se centra en el único camino posible que permitiría restablecer el equilibrio a través de una caída de los salarios en su teoría, esto es, la tasa de interés. Allí afirma que solo en el hipotético caso donde la caída en los salarios no sea acompañada de una caída de la oferta monetaria (lo que provoca una caída de la tasa de interés real), se podría llegar a generar dicho mecanismo. No obstante, aun en ese caso este resultado sería moderado y/o contrarrestado por: a) el efecto negativo que provoca la caída de los salarios en el estado de confianza de la economía; b) la imposibilidad de la tasa de interés de reducirse al nivel necesario para restablecer el equilibrio, explicado por la teoría de la demanda de dinero introducida por Keynes (Garegnani, 1979).
A pesar de que la crítica de Keynes fue rápidamente aceptada por la comunidad académica, su teoría general no corrió la misma suerte. El conservadurismo reaccionó de manera eficaz, logrando relegar a la demanda efectiva al corto plazo y manteniendo la tendencia al pleno empleo (a través de la idea de que el ahorro determina la inversión) en el largo plazo. Esto fue posible debido a la debilidad de la crítica planteada por Keynes en torno al mecanismo de ajuste de la tasa de interés para equilibrar el ahorro y la inversión, dado que la misma se basaba fundamentalmente en las expectativas, algo que resulta incompatible con un equilibrio de largo plazo (Garegnani, 1979). De este modo, Hicks (1937) y Modigliani (1944) mostraron que efectivamente una caída de salarios (o una política monetaria expansiva) permitían que en el largo plazo se mantuviesen las premisas de la teoría marginalista. Se consumaba, así, la síntesis neoclásica donde, paradójicamente, la teoría de Keynes terminó siendo un caso particular de la teoría marginalista.

Bibliografía utilizada:
Keynes, J. M. (1936), Teoría general de la ocupación, el interés y el dinero, cuarta edición (2009), Buenos Aires: Fondo de Cultura Económica.
Garegnani, P. (1979), Notes on consumption, investment and effective demand: II, Cambridge Journal of Economics, Vol. 3, pp. 63-82.
Hicks, J. R. (1937), Mr Keynes and the classics: a suggested interpretation, Econometrica, Vol. 5(2), p. 147-159.
Modigliani, F. (1944), Liquidity preference and the theory of interest and money, Econometrica, Vol. 12(1), p. 45-88.
Wicksell (1935), Lectures on political economy, vol. II, Londres: Routledge & Sons. 



[1] Para Keynes esta escuela no estaba conformada solo por Ricardo y sus predecesores sino que además incluye a sus continuadores: J.S. Mill, Marshall, Edgeworth y Pigou.
[2] Este mecanismo tiene su origen en la teoría de Wicksell (1935), quien afirma que existe una tasa natural de interés donde la demanda de créditos y el nivel de ahorro se igualan. A pesar de que en las economías capitalistas los bancos pueden responder a las variaciones de la demanda de crédito sin alterar la tasa de interés que cobran, esta última terminaría convergiendo a la tasa natural a través de un ajuste en el nivel de precios.

jueves, 13 de noviembre de 2014

Frenkel y su obsesión con el Rodrigazo

Una nueva nota de Frenkel, y un nuevo pedido por devaluar, metiendo miedo con que se puede venir otro Rodrigazo (la última vez, hace unos meses, hizo lo mismo acá).
Entiendo que políticamente pueda estar en la vereda de enfrente y que eso lo haga escribir este tipo de notas, pero lo del Rodrigazo ya es muy bajo para un economista que en su momento fue uno de los máximos exponentes de la heterodoxia en Latinoamérica. Por eso es que a él no se lo podemos dejar pasar (en cambio, si eso lo escribía Cachanosky no pasaba nada, ya nos tiene acostumbrados a ese tipo de exabruptos).
El agite con un nuevo Rodrigazo no es casual. Para los trabajadores, este episodio es uno de los más trágicos de toda la historia argentina (en términos económicos; no nos olvidamos de todas las masacres sufridas). Esto se debe a que representa la caída del salario real más grande de por lo menos los últimos 70 años donde, en tan solo un año el salario promedio cayó 38% en términos reales. Para ser bien claros: de un año para el otro, una persona que ganaba $10.000 pasó a ganar $6.200.
A mi juicio, existen dos diferencias muy claras que hacen casi imposible una reedición de este hecho. En primer lugar, la irresponsabilidad de un ministro de devaluar el tipo de cambio un 100% de un día para el otro, sabiendo las consecuencias que eso trae para toda la economía (en realidad, de todo el gobierno, porque luego se sucederían varias devaluaciones más que harían que el tipo de cambio se incrementara 1800% entre junio de 1975 y marzo de 1976). En segundo lugar, el contexto macroeconómico que precedió al Rodrigazo. Si bien la economía transitaba un período de escasez de divisas (como tantas otras veces en su historia), la inflación se había acelerado notablemente en los primeros cinco meses del año, ubicándose en 68% respecto al mismo período del año anterior, acompañada de un fuerte crecimiento en 1974 (+ 5,4%) y un nivel de desempleo ubicado en mínimos históricos (en torno al 4%) que reflejaba uno de los puntos más altos del sindicalismo nacional. Ante este contexto, resulta obvio que una devaluación de esa magnitud iba a desatar un espiral inflacionario difícil de controlar. Ah, y para aquellos que hoy no paran de repetir que el problema principal es el déficit fiscal, lamentamos informales que el déficit público de 1975 era de -13% en términos del PBI (sí leyó bien, T-R-E-C-E) *. Paradójicamente, el mismo Frenkel dijo todas estas mismas cosas.
En la actualidad, ante el férreo control de las divisas que entran y salen, solo se puede pensar a la devaluación como una decisión de política (o sea, no podría ser provocada por la propia dinámica del sistema). Y viendo las consecuencias de la devaluación -de un 20%- de enero, difícilmente se pueda pensar que esto se vuelva a repetir, menos todavía en términos de la magnitud del Rodrigazo.
Por lo tanto, cualquier analogía con dicho evento es puramente especulativa y de poca honestidad intelectual, por no decir otra cosa.

* Aclaro, para evitar cualquier mal interpretación: esto apunta a los que en la actualidad ven al déficit fiscal como la madre de todos los problemas, cuando éste en realidad se encuentra en niveles sumamente manejables (-0,7% el primario y -2,3% el financiero en el II.14).

martes, 11 de noviembre de 2014

Conferencia internacional en la UNSAM

Les dejo a continuación la invitación a la conferencia internacional de fin de año que organiza la maestría en Desarrollo Económico de la UNSAM, donde van a exponer Jan Kregel, Pier-Paolo Saviotti y Cristiano Antonelli:


viernes, 7 de noviembre de 2014

II - La (ausencia de) demanda efectiva en los autores neoclásicos

Continuamos con las sucesivas entregas sobre la teoría de la tendencia de largo plazo poskeynesiana (intro y sección I), pasando ahora al análisis de la teoría marginalista o neoclásica

Al igual que en los autores clásicos, en los autores neoclásicos (en realidad “marginalistas” se aplica mejor)[1] la demanda efectiva no tiene ningún rol en la determinación del producto de largo plazo. Sin embargo, ni esto ni su denominación debería dar la idea de que existe una continuidad entre ambas teorías, ya que son diametralmente opuestas.
Para ver esto alcanza con observar que la estructura analítica de la teoría marginalista es completamente diferente, dado que la misma toma como variables dadas a las preferencias de los consumidores, las dotaciones disponibles de los factores productivos y las condiciones técnicas de producción. A partir de esto, la teoría determina simultánea y simétricamente las cantidades producidas y los precios relativos, que a su vez establecen las remuneraciones de los factores productivos (Ciccone et al., 2007).
Esto además conlleva implicancias tanto para la determinación del producto como para la del nivel de empleo, dado que la teoría establece una tendencia hacia el pleno empleo de todos los factores productivos. Para poder entender lo anterior es necesario analizar los dos mecanismos que están detrás de esto.
Siguiendo a Petri(2010), vemos que esta tendencia hacia el pleno empleo de los factores se debe a que la proporción de los factores demandada es una función decreciente de la proporción de sus respectivas remuneraciones. Así, ante el exceso de oferta de un factor, se produciría una caída de su remuneración que generaría un incremento de la proporción en la que la firma desea utilizar ese factor respecto del otro, y por lo tanto un aumento de su demanda. Esto se conoce como el mecanismo de sustitución directa de los factores, dado que para producir una determinada cantidad las empresas utilizan el factor que se ha hecho relativamente más barato, sustituyéndolo por el otro.
Complementariamente, existe un segundo mecanismo, el de sustitución indirecta, que refuerza al anterior. Éste funciona a través de los consumidores, quienes demandarán una mayor cantidad del bien que sea relativamente más barato en relación al otro. Indirectamente, esto significa que los consumidores están demandando una mayor cantidad del factor de producción utilizado de manera más intensiva en la producción de ese bien. Así, ante un exceso de oferta de uno de los factores, caerá el precio del bien más intensivo en ese factor y aumentará la demanda de dicho bien (e implícitamente se incrementará la demanda de ese factor, logrando el equilibrio).
A partir de estos dos mecanismos es que quedan determinadas las curvas de demanda de los factores (las cuales se encuentran inversamente relacionadas con su respectivo precio), que en conjunto con las curvas de oferta permiten que se genere la tendencia hacia su equilibrio competitivo.
De lo anterior se desprende que como en cada mercado hay una tendencia hacia el pleno empleo del factor, no hay problemas en realizar el análisis suponiendo el pleno empleo de los otros factores, ya que tarde o temprano se llegará a un equilibrio donde todos los factores se encuentren plenamente empleados.
De este modo, la teoría marginalista logra un equilibrio que determina, de manera simultánea y simétrica, las cantidades producidas, la remuneración de los factores y los precios relativos de los bienes. En el equilibrio, la composición de la demanda de los bienes de consumo debe ser tal que asegure el pleno empleo de los factores de producción; esto implica además que los precios relativos de los bienes de consumo deben ser aquellos que logren esa composición en la demanda; y que como esos precios dependen de las remuneraciones relativas de los factores de producción, la distribución de los ingresos deber ser aquella que asegure el precio relativo apropiado de los bienes de consumo.
En relación a lo anterior se observa que, paradójicamente, en el enfoque marginalista no se adopta la Ley de Say, porque en realidad no hay espacio para ella. A partir de la propia estructura analítica de esta teoría no solo se logra que en el largo plazo toda la producción se realice en el mercado sino que además el único nivel (y composición) de producto compatible con el equilibrio es aquel donde todos los factores se encuentran plenamente utilizados.



[1] Los autores aquí considerados como neoclásicos, cuyo máximo exponente fue Marshall, son los que posteriormente Keynes critica. No obstante consideramos que es un error llamar a estos autores así, dado que su teoría se encuentra mucho más cerca de los marginalistas (Jevons, Menger y Walras), que de los clásicos. Al respecto, ver Lawson (2013).

martes, 4 de noviembre de 2014

La (ausencia de) demanda efectiva en los autores clásicos

En la entrada anterior, decíamos que la teoría poskyenesiana tiene una explicación para la tendencia de largo plazo que es, en definitiva, opuesta a la que presenta el mainstream. Este enfoque se conoce como clásico-keynesiano, dado que combina la teoría de la distribución clásica con la demanda efectiva keynesiana. Así, para poder entender este enfoque resulta necesario hacer un repaso histórico, arrancando por la teoría clásica.
Para poder analizar cómo se determina el nivel del producto en los autores clásicos[1] es necesario introducir la estructura analítica presente en su teoría. Esta estructura se podría representar a través de un núcleo que refleja las relaciones existentes entre las variables independientes y las dependientes.
Del cuadro se desprende que la tasa de salarios, el producto social y las condiciones técnicas de producción son las variables independientes, que se explican por fuera del núcleo, ya que su determinación depende del contexto sociohistórico e institucional, mientras que las relaciones que se establecen dentro son de carácter general y común a todos los sistemas económicos (beneficios, rentas y precios relativos). Por tales motivos resulta apropiado estudiar las variables que se encuentran fuera del núcleo de manera separada del resto, considerando las circunstancias del período analizado. Esta separación entre las variables que se encuentra fuera y dentro del núcleo señalan una característica fundamental del enfoque clásico: la posibilidad de representar a esta teoría como un conjunto de estadios analíticos distintos, aunque conectados entre sí (Ciccone et al., 2009).
A partir de lo anterior es que se puede apreciar el rol que tiene la denominada Ley de Say[2] en la teoría clásica. Dado que estos autores no contaban con una explicación para la determinación del producto, la utilización de este supuesto resulta clave para no tener que lidiar con dicho problema y para poder enfocarse en el aspecto distributivo y la determinación de los precios relativos (Mongiovi,1990). Lo que se observa entonces es que la demanda efectiva no tiene ningún rol en la determinación del producto de largo plazo para los autores clásicos.
No obstante, resulta necesario hacer algunas aclaraciones respecto de lo anterior. En primer lugar, esto no implica que los clásicos excluyeran de su análisis a la demanda efectiva, o que directamente la desconocieran. Por el contrario, reconocían que la demanda efectual (como la llamaban ellos) podía causar desequilibrios en la producción, pero éstos eran solo de carácter transitorio.
En segundo lugar, Malthus y Marx explícitamente criticaron la Ley de Say. En relación al primero, Malthus argumentaba que la tasa de ganancia natural podía no verse realizada dado que nada aseguraba que existiese una demanda adecuada que asegure que prevalezcan en el mercado los precios naturales (Costabile, 1983)[3]. Marx, en cambio, apelaba a la característica del dinero como medio de atesoramiento para afirmar que esto podía provocar que la venta de la producción no fuese realizada.
Por último, hay que destacar que para la teoría clásica la adopción de la Ley de Say no trae aparejada ninguna derivación respecto al nivel de empleo. Ésta solo establece que todo nivel de producción se verá realizado en el mercado, y que por lo tanto el equilibrio de largo plazo será compatible con cualquier nivel de empleo (Mongiovi, 1990). Esta aclaración vale porque en muchos casos se asocia automáticamente a la Ley de Say con el pleno empleo que asume la teoría mainstream, algo que es incorrecto y que en la próxima entrada vamos a desarrollar un poco más.


[1] Aquí tomaremos como clásicos a Smith, Malthus, Ricardo y Marx, dado que se puede encontrar en estos autores puntos similares en su teoría, con particular énfasis en los aspectos distributivos.
[2] Ésta se puede reducir a dos proposiciones fundamentales: 1) todo proceso de producción da lugar a una cantidad de ingresos cuyo poder de compra es exactamente idéntico a aquel necesario para adquirir dicha producción; 2) la demanda agregada tiende a adecuarse al nivel de producción llevado a cabo en la economía.
[3] Mongiovi (1990) plantea que a pesar de lo anterior, Malthus consideraba a la inversión como una consecuencia inevitable del ahorro, lo que es lo mismo que adherir a la Ley de Say.

viernes, 31 de octubre de 2014

La explicación mainstream de la tendencia

Justo cuando arrancamos a hablar de la tendencia de largo plazo, sale esta nota de L. Summers sobre la posibilidad de un “estancamiento secular” (en realidad esta idea la adelantó hace varios meses en esta charla que dio). Allí el autor utiliza una serie de gráficos como éste para afirmar que hubo un cambio en la tendencia de crecimiento de Estados Unidos y de la Unión Europea.

Como el cambio en la tendencia pone en jaque al mainstream, que asume que no es posible que algo así suceda dado que siempre la tendencia es la misma, y no es otra que la del pleno empleo de los factores productivos, Summers plantea la posibilidad de que estemos en presencia de un estancamiento secular, donde la economía no puede lograr el pleno empleo (con estabilidad financiera al mismo tiempo, ver más abajo).
¿Por qué pasaría esto? Porque la tasa de interés natural, es decir aquella que iguala el ahorro con la inversión y que permite llegar al pleno empleo, pasó a ser negativa. Y como la tasa de interés de referencia que fija el Banco Central no puede ser negativa (burdamente eso significaría que si pongo plata en un plazo fijo me devuelven menos que la que puse), entonces no se puede lograr el pleno empleo.
(Notar que la clave de todo esto pasa por el hecho de que para el mainstream la variable fundamental de política es la tasa de interés, dado que esta teoría asume que existe una tasa de interés natural que asegura el pleno empleo (y, por ende, es el objetivo del Banco Central igualar la tasa de referencia con la tasa natural). Esto va a ser relevante más adelante, cuando mostremos que a partir de las Controversias del Capital queda claro que en realidad no existe tal cosa como una tasa de interés natural de pleno empleo.)
Además, Summers sostiene que en realidad la tasa de interés natural pasó a ser negativa hace muchos años, pero que esto no se tradujo en un cambio en la tendencia de crecimiento porque estuvo encubierto fundamentalmente por la burbuja financiera (por eso lo de la estabilidad financiera, es decir no se pueden lograr al mismo tiempo las dos cosas).
Esta propuesta de Summers está generando mucho revuelo en el mainstream, justamente porque le viene como anillo al dedo para justificar los errores de interpretación y predicción que tiene la teoría. Una muestra más de la economía del gatopardo, es decir la capacidad que tiene el mainstream para cambiar (sin cambiar nada en realidad) ante las falencias de su teoría.
En las próximas entradas vamos a ver que la teoría poskeynesiana puede explicar de manera clara y consistente este cambio en la tendencia, lo que contrasta con esta explicación (bastante bizarra, diría yo) de que existe una tasa natural de interés que antes era positiva pero ahora es negativa.
De ser así, y aplicando el principio de parsimonia, ¿no estaríamos en presencia de una teoría superadora?