viernes, 29 de octubre de 2010

Incidencia distributiva del IVA: ¿qué tan regresivo? (1)


Al margen de las cuestiones de asignación de recursos, uno de los aspectos que más interesa a la hora de evaluar la política fiscal es la dimensión distributiva. Tanto las erogaciones que realiza el sector público como los recursos que éste obtiene mediante impuestos afectan el nivel de vida de los individuos en una economía. Para que dicho análisis de impacto sea preciso, debe tenerse en cuenta la totalidad de elementos constituyentes del presupuesto público. No obstante, dadas las numerosas dificultades que ello plantea es común que los análisis de incidencia propongan objetivos más modestos, realizando evaluaciones “parciales” de incidencia (tanto diferencial como absoluta).

En esta secuencia de posts trataré de hacer un ejercicio de evaluación de incidencia absoluta del IVA desde una perspectiva puramente teórica y deliberadamente simplificada, comparando los dos principales enfoques existentes en la literatura (incidencia anual e incidencia en el ciclo de vida) bajo un abanico de especificaciones diferentes de modelos de consumo, que van desde una función macro “keynesiana ad-hoc” hasta modelos con mayor sofisticación teórica como la hipótesis de suavización de consumo y de restricciones de liquidez. (En un próximo post, la idea será agregar extensiones más realistas sobre este mismo tema -exenciones, donaciones, inflación, etcétera-. El propósito del ejercicio -si es que tal cosa existe- es identificar los determinantes de la regresividad del IVA.)

Incidencia distributiva y enfoques 

La determinación del enfoque no es trivial, dado que los resultados de incidencia dependen en buena medida de la definición de las proxies de bienestar (ej. ingreso/consumo, corriente/permanente, etc.) y de las cargas tributarias empleadas. Al respecto, Metcalf (1992) hace una descripción breve pero interesante de los argumentos esgrimidos en los ’80 acerca de los efectos distributivos de la introducción de un impuesto al valor agregado en Estados Unidos, país que grava el consumo mediante impuestos a las ventas (sales tax). Por aquel entonces, la práctica más común para evaluar la progresividad o regresividad de un impuesto implicaba calcular qué proporción del ingreso se destinaba al pago de dicho gravamen, todo en términos anuales. Así, si suponemos sin pérdida de generalidad que el ingreso del período t se destina exclusivamente a consumo y ahorro (ecuación 1), podemos concluir que la carga tributaria asociada a un impuesto sobre el consumo de alícuota k queda determinada por la ecuación 2: 

A partir de la ecuación 2 resulta obvio por qué el IVA es un impuesto regresivo desde una perspectiva puntual: el IVA grava el consumo, y es prácticamente un hecho estilizado que éste tiene una mayor participación en los ingresos de los individuos de menor nivel de ingresos (que son los que tienen una menor capacidad de ahorro), por lo tanto la carga tributaria en estos sectores es más alta y se hace decreciente a medida que aumenta el ingreso.

Por otro lado, el enfoque de ciclo de vida hace énfasis en otros aspectos no menores. Desde el costado más intuitivo, es sabido que el ahorro presente constituye en alguna medida una demanda de consumo futuro, por lo cual los recursos que no son gravados en el presente período lo serán en cuanto se manifieste la voluntad efectiva de consumir.

En este sentido, partiendo de una definición inocua de la riqueza W como la ecuación 3 (a lo largo del ciclo de vida, el individuo se consume la totalidad de su flujo de ingresos, todo esto en valor presente), llegamos rápidamente a que el valor presente de los impuestos pagados por consumir queda definido por la ecuación 4, de la cual se desprende que en este mundo simplificado la carga tributaria del IVA es constante para todos los individuos independientemente de su nivel de consumo o ahorro,  y en este caso es equivalente a la alícuota promedio k. Con lo cual, de acuerdo al enfoque intertemporal el IVA es neutral.

Ejercicio “naive”

La simulación más simple consiste en evaluar la incidencia de un impuesto al consumo con alícuota promedio del 21%, modelando el consumo de forma tal que capture el hecho estilizado descripto en la sección anterior. Así, utilizamos los valores del ingreso per cápita familiar promedio por decil (tomados prestado de aquí) como variable de “bienestar”. Luego, para cada decil se plantea una función de consumo lineal en el ingreso, permitiendo heterogeneidad en la propensión marginal a consumir. De esta forma, para un periodo determinado el consumo del decil i queda definido por

Para la definición de los parámetros en (5) se tuvo en cuenta estimaciones propias de la propensión marginal a consumir a partir de datos agregados de gasto en consumo y producto en Argentina, mientras que la constante ajusta de forma tal que el decil más pobre consuma la totalidad de su ingreso (sin pérdida de generalidad, de esta forma el resto de los deciles consume una proporción menor del ingreso). La Tabla 1 presenta los resultados del ejercicio.

De esta forma, vemos que la alícuota promedio de cada decil es decreciente. Este es el argumento convencional a la hora de plantear la regresividad del IVA.

Pero, ¿qué pasa si extendemos el ejercicio a más períodos? El resultado que se obtiene en este marco simplificado al extremo es que de mantenerse esta estructura, al cabo de unos pocos períodos la regresividad del IVA disminuye considerablemente si calculamos la carga tributaria en términos de valores presentes. Para no marear con tanta tabla, presento en el siguiente gráfico los resultados de evaluar la carga tributaria acumulada (entendida como el ratio entre valor presente de los impuestos a valor presente de ingreso) hasta distintos períodos de tiempo.


Y acá aparece un resultado muy interesante: extender el horizonte de análisis ‘mitiga’ la regresividad del IVA, aún en un contexto en el cual los deciles más ricos no terminan de consumir toda su riqueza (por ejemplo, si omitimos la constante, en cada momento el decil 10 se consume el 68% de su ingreso). Así, si tomamos en cuenta el presente y los dos períodos futuros más cercanos, la carga tributaria del decil 10 asciende de 14.3% a 18%. Por lo tanto, si bien la neutralidad del IVA en este caso se presenta como un resultado ‘asintótico’, la principal conclusión es que la fuerte regresividad vista en un comienzo se reduce rápidamente tomando unos pocos períodos hacia adelante.

Por supuesto, este ejercicio es un tanto “naive” en el sentido de que no involucra ningún proceso decisorio por parte de los agentes, ni tampoco explicita por qué los agentes ahorran (ni bajo qué forma). En el próximo post, indagaremos al respecto.

martes, 19 de octubre de 2010

Predicción y factum en microeconomía I: racionalidad y ultimátum

En esta secuencia de posts voy a (intentar) hacer un review de algunas de las paradojas más ‘famosas’ de la teoría microeconómica. Es decir, casos en los que las predicciones que surgen de la misma son inconsistentes con los resultados observados empíricamente. En el presente post, es el turno del juego del Ultimátum.


Preludio

A riesgo de sobre-simplificar importantes cuestiones de status epistemológico, puede tenerse por cierto que la economía –en tanto disciplina- estudia el comportamiento humano en un sentido amplio: buena parte de las investigaciones en este campo procuran definir, identificar y comprobar (empírica o experimentalmente) las implicancias lógicas que se derivan de ciertos postulados básicos o axiomas utilizados como punto de partida. Este ejercicio sirve, entre otras cosas, para verificar la validez de los axiomas o supuestos (esto es, cuán relevantes son para determinar o explicar el comportamiento del fenómeno bajo estudio).

Sin dudas, los axiomas de racionalidad de los agentes pertenecen al núcleo duro de la teoría de la decisión moderna, convirtiéndose en el marco de referencia por excelencia (bien sea por dificultades para modelar ‘irracionalidad’ o por la comodidad que supone pensar en términos de desvíos respecto de un denominador común). No obstante, los requerimientos informativos y de capacidad de cálculo que suponen el “ser racional” constituyen –en el mejor de los casos- una caracterización estilizada del contexto decisorio bajo el cual operan los agentes económicos, por tanto hay varios argumentos para dudar de la relevancia o pertinencia de dicho supuesto.

En este sentido, los modelos de bargaining o negociación bilateral constituyen un escenario teórico inmejorable para testear la racionalidad de los agentes, porque a través de un sencillo juego podemos cotejar las predicciones de la teoría con la interacción real de quienes se prestan a este tipo de experimentos (como nota al pie, nótese que curiosamente suelen ser estudiantes de economía).

(Para motivar un poco el post, déjenme observar que varias situaciones de la vida real pueden ser representadas como un modelo de bargaining, por ejemplo la interacción de agentes en mercados descentralizados -el mercado inmobiliario, el mercado de lemons, el de trabajo, etcétera- o bien la resolución explícita/institucional de conflictos, con aplicaciones concretas en economía laboral y en lo que se conoce como political economy.)


Predicción

El ejemplo más natural -a fines de ilustrar la exposición- es el juego del Ultimátum, cuya secuencia describo a continuación:

 
  • Dos jugadores (1 y 2) deben repartirse una determinada suma de dinero D;
  • Primero, el jugador 1 debe hacer una oferta (s, 1 – s) al jugador 2, donde s es la fracción de la suma D que se queda el jugador 1;
  • Una vez hecha la oferta, el jugador 2 puede aceptar (en cuyo caso se reparte el dinero según lo acordado) o rechazar (en cuyo caso ambos jugadores se quedan sin recibir dinero alguno).

El resultado clásico de juegos (Rubinstein, 1982) muestra que la estrategia de equilibrio más robusta es que el jugador 1 se quede con todo el dinero (s = 1 - 'epsilon') y el jugador 2 acepte.  Y en este punto, hay dos supuestos que son clave: por un lado, todos los jugadores buscan maximizar su propio pago (bauticemos esto “homo-economicus”), además tienen preferencias racionales y saben que el resto de los jugadores sabe que se sigue este tipo de comportamiento. Esto último se denomina conocimiento común de la racionalidad.

La intuición del equilibrio propuesto es sencilla: si el jugador 2 rechaza la oferta se queda sin dinero, por lo tanto un “homo-economicus” no rechazará ofertas que le dejen una suma positiva, por más pequeña que ésta sea. Nótese que en este contexto no se pueden hacer amenazas creíbles. Por tanto el jugador 1 puede ofrecer cómodamente s = 1 - 'epsilon'.



Factum

Sin embargo, ésta no es la forma en la que se resuelven las negociaciones en la realidad. Güth, Schmittberger, Schwarze (1983) realizaron el primer estudio experimental de este juego sencillo, y encontraron que la oferta promedio de los jugadores 1 era de alrededor de ¡37%! del total, lo cual entra en claro cortocircuito con nuestra predicción de alrededor de 100%. Además, casi la mitad de los “jugadores 2” rechazaron ofertas inferiores al 30%. 

Naturalmente, esta paradoja llamó la atención de los investigadores, que ensayaron varias conjeturas a fin de reconciliar la predicción con el factum. Una primera línea ataca el paradigma de racionalidad, agregando restricciones a la capacidad de cálculo de los agentes (racionalidad acotada). Aún en un juego sencillo como éste, puede ser posible que haya “pifias” respecto de la oferta predicha. En esta línea, podría argumentarse que ensayando varias repeticiones del mismo juego, los jugadores 1 terminarían “aprendiendo” que pueden aumentar sus ofertas hasta llegar a la de equilibrio, aunque esto tampoco es un patrón recurrente en los estudios experimentales.

Otra salida a esta paradoja defiende el concepto tradicional de racionalidad, pero relaja la noción de “homo-economicus” incorporando preferencias por la igualdad/desigualdad en materia de distribución. Esto es, la “función objetivo” de los agentes no es sólo su propio resultado, sino que también incorpora el resultado de los demás jugadores. Así, cuando un jugador 2 rechaza una oferta por considerarla insuficiente está “castigando” al jugador 1 por su egoísmo. Siguiendo esta línea, Levine (1997) infiere distribuciones de altruismo y egoísmo a partir de los resultados experimentales de este tipo de juegos. Sorprendentemente, estas distribuciones ajustan bastante bien los resultados de otros tipos de juegos (por ejemplo, financiamiento de un bien público).



sábado, 16 de octubre de 2010

Operativo Clamor: EconUNLP reloaded


Y sí, como debe ser...


Luego de las miles de cartas y correos suplicando periodicidad en las publicaciones del blog (¿?), finalmente el staff de Economistas UNLP tomó la decisión de relanzar el blog. No fue fácil, pues el mantenimiento de un blog es una tarea que demanda tiempo (recurso escaso si los hay!) y que además exige un cierto nivel de compromiso. Por ello, estamos con un gran entusiasmo, y como siempre con muchas ganas de divertirnos. Y de aprender, por supuesto.


En breve se sumarán al equipo nuevos y brillantes blogueros, economistas ellos y platenses, claro está.


Así que ya están avisados. En el curso de la próxima semana volvemos al ruedo... Au revoir!

PD. antes de que me gasten, y por las dudas, aclaro que el que está con la pala en el cartel no soy yo.


Calificación