Falacias, dilemas y paradojas, 2a ed.

Tekst
Loe katkendit
Märgi loetuks
Kuidas lugeda raamatut pärast ostmist
Šrift:Väiksem АаSuurem Aa

Copi, Irving M. y Carl Cohen (2007): Introducción a la lógica, Limusa, México, 698 pp.

Deaño, Alfredo (2007): Introducción a la lógica, Alianza, Madrid, 424 pp.

Falguera López, José Luís y concepción Martínez Vidal (1999): Lógica Clásica de Primer Orden: Estrategias de Deducción, Formalización y Evaluación Semántica, Trotta, Madrid, 482 pp.

Ferrater Mora, J. (2004): Diccionario de Filosofía, Ariel, Barcelona, vol. I, pp. 218-222 y 890-891; vol. ii, pp. 1208-1212, y vol. iii, pp. 2693-2700.

Garrido, Manuel (20054): Lógica Simbólica, Tecnos, Madrid, 540 pp.

Hempel, carl, G. (2006): Filosofía de la ciencia natural, Alianza, Madrid, 168 pp.

Kuhn, Thomas, S. (2006): La estructura de las revoluciones científicas, Fondo de Cultura Económica, México, 360 pp.

Miranda Alonso, Tomás (2002): Argumentos, Publicacions de la Universitat de València, Valencia, 105 pp.

Quintás Alonso, Guillermo (2002): Términos y usos del lenguaje filosófico, Publicacions de la Universitat de València, Valencia, 365 pp.

— (ed.) (2010): El discurso del método de Descartes, KRK Ediciones, Oviedo, 159 pp.

Tulmin, Stephen (2007): Los usos de la argumentación, Península, Barcelona, 330 pp.

Píldora 2

Trampas del lenguaje y economía6

A diferencia de lo que ha ocurrido con la lógica clásica de primer orden, con la psicología o con la filosofía analítica, las relaciones entre el lenguaje y la economía no han sido muy fecundas. A excepción de John Stuart Mill, la mayoría de los economistas no sienten una enorme inclinación hacia las sutilezas que encierran las paradojas lógicas o semánticas cuando se refieren al ámbito económico. Y ello es así a pesar de la enorme confusión que creamos los economistas cuando descuidamos nuestras expresiones semánticas y, al hacerlo, damos a entender a nuestro interlocutor una realidad muy diferente de la que queremos representar. Por eso, en lo que sigue, voy a intentar poner de manifiesto, con la ayuda de algunos ejemplos muy habituales, la importancia que tiene en economía saber distinguir con claridad los modos en los que una expresión lingüística puede ser significativa.

En efecto, habitualmente utilizamos expresiones del lenguaje natural que, mezcladas con argumentos de naturaleza económica o matemática, dan lugar a ciertos equívocos. E11o es debido, a veces, a las diferencias entre el significado de dicho lenguaje natural y su significado económico o matemático. Analicemos, por ejemplo, la frase «La renta per cápita de los españoles ha crecido dos veces más que la renta de los colombianos».

En ella estamos utilizando un sintagma diferencial con el que construimos una comparación en la que la expresión dos veces más tiene un significado doble:

a) Por una parte, podemos entender que dos veces más significa el doble de la cuantía inicial sobre la que establecemos la comparación, pues es esto lo que de una manera espontánea se nos viene a la mente. Según este significado, la frase querría decir que si los colombianos tienen una renta per cápita de digamos 100 euros, nosotros la tendríamos de 200 euros. En el lenguaje natural decir dos veces más tiene una representación psicológica que nos hace pensar en el doble, del mismo modo que cuando digo «tres veces más» o «diez veces más» estoy utilizando esta expresión como equivalente del «triple» o del «décuplo», y así me entienden los demás.

b) Sin embargo, si repasamos y repensamos la expresión dos veces más, nos daremos cuenta de que tiene otro significado, y que dicho significado no consiste en el doble. Decir el doble significa multiplicar por dos la dimensión del objeto que se esté considerando; mientras que, por el contrario, el doble sólo representa una vez más (¡y no dos veces!) aquello a lo que nos estamos refiriendo; sencillamente porque si fuese dos veces más tendríamos el triple y no el doble.

¿Cómo explicar toda esta confusión? Una primera aproximación al problema del significado de la expresión «dos veces más» la podríamos encontrar en Wittgenstein, para quien el significado de la palabra está determinado por su uso, es decir, «el significado es el uso que hacemos de la palabra» (2008: 137-141). En nuestro caso, el uso habitual que hacemos de la expresión «dos veces más», la figura mental que construimos es la del doble. Sin embargo, lo mismo ocurre cuando decimos «una vez más», pues la figura psicológica que se nos aparece es la de una extensión de igual tamaño a la que tenemos como muestra y que, por lo tanto, supone el doble del original.

En la lengua castellana, el sustantivo vez hace referencia a la operación matemática de multiplicar o de dividir dependiendo de lo que siga a continuación. Si lo que sigue es la voz más, entonces multiplicamos; si se trata de «dos veces más», multiplicamos por dos; si trata de «tres veces más», multiplicamos por tres. Pero, si lo que sigue es la voz menos, entonces dividimos, de modo que si se trata de «dos veces menos», dividimos por dos, o sea, estamos queriendo decir «la mitad», y si decimos «tres veces menos», dividimos por tres, es decir, estamos queriendo significar «un tercio».

Además de lo anterior, la voz más –como también sensu contrario la voz menos– hace referencia a la operación matemática de sumar, a la función aditiva de la suma. Por eso, cuando ambas funciones, la multiplicativa vez y la aditiva más, se confunden en una sola en la expresión lingüística dos veces más, objeto de nuestro análisis, en términos matemáticos estaremos multiplicando por dos, e inmediatamente después, añadiendo una unidad adicional al resultado de la anterior multiplicación, por lo que obtendremos el triple y no el doble.

Otro error de comprensión muy común entre los economistas, y que viene inducido por la falta de precisión en el uso del lenguaje, consiste en afirmar que el coste marginal de una producción cualquiera es el coste de la última unidad producida. Cuando en realidad el marginalismo razona, por el contrario, en términos de incrementos discretos y, por eso mismo, nunca habló de las unidades últimas, sino de las unidades adicionales o de una unidad más. Está claro que el coste de un determinado número de piezas es el mismo tanto para la primera pieza física que se haya producido como para la última, y que dicho coste se corresponde con el coste medio de producción o coste por unidad producida (coste unitario), es decir, con el coste total dividido por el número de unidades producidas.

Bibliografía

Blasco, Josep Lluís, Tobies Grimaltos y Dora Sánchez (2006): Signo y Pensamiento, Ariel Filosofía, Barcelona, 238 pp.

Garrido, Manuel (20054): Lógica Simbólica, Tecnos, 540 pp.

Wittgenstein, Ludwig (20084): Investigaciones Filosóficas, Crítica, Barcelona, 547 pp.

Píldora 3

Un poco de matemática, física y economía7

La economía ha venido promoviendo e impulsando una utilización muy intensa de las matemáticas con el fin, entre otros, de superar su complejo de inferioridad como ciencia. Sin que esto sea reprobable, pues es bueno que la economía se interese por el rigor y la forma, también sería bueno que a la par no se olvide del contenido, a menos que queramos convertirla en una disciplina más interesada en el rigor formal de sus métodos y modelos, y en la precisión de sus estimaciones y cálculos, pero completamente desvinculada de la realidad y desinteresada por la verdad de los argumentos económicos.

Además, la imposibilidad de llevar a la práctica verificaciones empíricas al modo de las ciencias experimentales ha inducido a la economía a utilizar las matemáticas muy intensamente. Como la economía no puede realizar experimentación, un recurso muy habitual ha consistido en utilizar la expresión caeteris paribus para poder verificar el impacto que produce el cambio en una variable cuando las demás se mantienen invariables. En términos matemáticos, esta expresión es equivalente al concepto de derivada parcial, y expresa la necesidad de establecer relaciones de causalidad sin ser entorpecidos por la interacción simultánea de los determinantes últimos de las variables económicas consideradas.

Otra expresión económica que puede dar lugar a cierto despiste conceptual es el término desaceleración económica, del que tanto se habló a principios del 2007. El Gobierno utilizaba esta expresión como eufemismo para negar la realidad y evitar la connotación negativa que tenían y tienen las palabras crisis o recesión. La obsesión por soslayar la cruda realidad y dulcificarla llevó al ministro de Economía y Hacienda a afirmar que la economía española se encontraba en una situación de desaceleración acelerada. Antes utilizar expresiones pintorescas y ejercitarse en el funambulismo lingüístico que reconocer abiertamente ante los españoles que estábamos ya al filo de la recesión.

En términos de la física y las matemáticas el concepto está muy claro, sobre todo cuando nos encontramos en el universo de las funciones. La física aplica las matemáticas para estudiar funciones concretas, como puede ser el estudio de la posición de un objeto o masa puntual. Por analogía con la física, podemos entender el crecimiento del PIB como la velocidad a la que se desplaza un objeto, que en el ámbito de la economía podría ser el PIB. En nuestro caso, la función que nos interesa es la derivada de la posición inicial con respecto al tiempo, que es la velocidad.

 

Mientras que la aceleración sería la derivada de la velocidad, es decir, la segunda derivada de la posición respecto del tiempo dos veces. Por lo tanto, la aceleración se puede interpretar como «la velocidad a la que cambia la velocidad», mientras que «la velocidad con que cambia la aceleración» sería la tercera derivada. Del mismo modo, hablar de «acelerar la velocidad a la que cambia la velocidad» consistiría matemáticamente en la cuarta derivada de la posición respecto del tiempo cuatro veces, y así sucesivamente, hasta la n-ésima derivada.

La interpretación del concepto de aceleración que hacemos cuando en el lenguaje coloquial hablamos de un objeto que se acelera o, lo que es lo mismo, que varía (incrementa o disminuye) la velocidad respecto de la variable tiempo es la correcta. ¿Se puede hablar de «acelerar la velocidad»? Seguro, todo es posible, pero nos estaríamos refiriendo entonces a la «velocidad de cambio de la aceleración» (tercera derivada) y así sucesivamente con todos los términos (y derivadas) que se nos puedan ocurrir.

La velocidad de la velocidad o aceleración (segunda derivada) la puedo cambiar a mi gusto (tercera derivada, etc.). La puedo aumentar, acelerando, es decir, aumentando la velocidad. También la puedo disminuir, ralentizando, es decir, disminuyendo la velocidad de cambio en el tiempo. La aceleración es la variación de la velocidad con el tiempo y, por tanto, no se mide en kilómetros por segundo, como se podría pensar, sino en kilómetros dividido por segundos al cuadrado, ya que hay que dividir la velocidad (km/s) por el tiempo (s).

La noción de crecimiento en economía es exactamente la misma que en la naturaleza, como puede ser, por ejemplo, el crecimiento de una planta. Por eso, la fórmula del tipo de interés compuesto continuo –que necesita del uso de los límites y de los logaritmos neperianos para su cálculo– explica por qué, en este asunto, no hay ninguna diferencia con la física.

La lengua castellana y el lenguaje físico-matemático no coinciden siempre al cien por cien. En castellano, la palabra acelerar –y supongo que, por su significado en física, también en otras lenguas– significa ‘incremento de la velocidad en la unidad de tiempo’, es decir, aumentar la velocidad de alguna cosa en una unidad de tiempo. En física también tiene el mismo significado. Desgraciadamente, el diccionario de la RAE no nos clarifica si este incremento es constante y estable, es decir, en el sentido de una segunda derivada con valor constante, o por el contrario, variable en el sentido, por ejemplo, de una función de crecimiento exponencial.

Si el aumento de la velocidad no es continuo en el tiempo, sino que sólo se produce en un intervalo temporal finito, entonces la velocidad se incrementa hasta un nuevo valor, pero se estanca o –lo que es lo mismo– se estabiliza. Por eso, aunque no lo recoja el diccionario, el «sentido» del verbo acelerar, en la forma en que habitualmente lo utilizamos, es el de incremento continuo, que podría tomar la forma de función parabólica, exponencial u otra distinta, y no el de un salto discreto desde un nivel anterior de velocidad en la unidad de tiempo –y, por tanto, desde un nivel «estable» de velocidad– a otro nivel «estable» de velocidad.

En resumen, matemáticamente todas las derivadas son posibles. La interpretación «física», por su parte, determina el «sentido» de las funciones y se refiere a «cosas», siendo posibles todas las derivadas de esas cosas y, por lo tanto, «la función o variable posición de una partícula y la función o variable economía» podrían interpretarse del mismo modo.

Retomando el inicio de la píldora, cuando el ministro de Economía y Hacienda afirmaba que existía una «desaceleración acelerada», ello suponía y supone, según lo expuesto, que la desaceleración con el tiempo sigue una función que no es lineal –ya sea parabólica, exponencial o polinomio de orden mayor que la unidad– y, por lo tanto, hay que entender sus palabras como que «nos desaceleramos cada vez más rápidamente», ya que en el caso de que fuese una función lineal ese ritmo de desaceleración sería constante.

En otras palabras, si hoy la economía se desacelerase a razón de un cierto valor/día, digamos 10, mañana nos desaceleraríamos a razón de, por ejemplo, 100, pero pasado mañana no a razón de 1.000 (como cabría esperar si la relación fuera lineal), sino a razón de una magnitud superior, digamos 10.000, y el día siguiente, digamos 10.000.000.000, y así sucesivamente. Por suerte, el señor ministro de Economía no concretó si la aceleración de la desaceleración era constante o acelerada. En el caso de que fuese constante, la desaceleración se aceleraría de forma vertiginosa y se haría casi incalculable. Pero si la aceleración de la desaceleración se incrementase con el tiempo, es decir, fuese a su vez acelerada... ¡Qué mareo! En su lugar, casi que habría preferido utilizar la palabra recesión, o el término crisis económica, no sé... algo más tranquilo... ¿no?

Píldora 4

El dilema Goodhart

Las variables económicas tienen vida propia y, cuando se sacralizan, todavía más. Conviene tener esto muy en cuenta cuando se aborda cualquier análisis de tipo económico. En primer lugar, porque tanto la buena investigación empírica como el buen análisis económico requieren, para empezar, un examen detenido de los escollos y las trampas que nos tienden los propios datos, lo cual, en muchas ocasiones, sitúa la economía más cerca de un arte que de una ciencia. En segundo lugar, porque los datos están cargados de teoría la mayor parte de las veces, y este hecho produce un debilitamiento del proceso de objetivación en economía y del valor pretendidamente objetivo del análisis económico, de las verificaciones empíricas y de su carácter predictivo y, por lo tanto, científico.

Por esta razón, es conveniente que, antes de empezar cualquier investigación, sopesemos con cuidado lo apropiado que resulta elegir una u otra serie de datos; valoraremos lo que llamaría «limpieza de los datos». También conviene evaluar qué problemas nos pueden crear las observaciones extremas, las interacciones y, sobre todo, las variables irrelevantes que tantas malas pasadas juegan a los sistemas abiertos y complejos, como es el caso de la economía, cuyas predicciones no pueden tomar en cuenta dichas variables a pesar de que vienen determinadas por ellas. Por eso, muchas veces, éstas impiden que se le pueda aplicar a la economía la definición clásica de conocimiento, es decir, la de creencia verdadera justificada.

La importancia de utilizar datos económicos apropiados, limpios y descargados de teoría quedaría en parte englobada en lo que los económetras han etiquetado con el nombre de «errores de medida» (measurement errors), y que tienen una importancia capital, especialmente en los análisis económicos relativos a las cuestiones del mercado de trabajo. Pero hay más. Aun teniendo datos «limpios» y evitando la influencia de las variables irrelevantes, todavía es posible un comportamiento perverso de éstos, y aquí es donde entra en juego el famoso dilema Goodhart.

El origen de este dilema se encuentra en otro que veremos en la píldora que se refiere a la controversia entre la instrumentación de la política económica, ya sea mediante reglas o normas (rules) –como, por ejemplo, ocurría en los años setenta y ochenta con el establecimiento de normas monetarias para el crecimiento anual del stock de dinero– ya sea, por el contrario, mediante la discrecionalidad y el buen juicio económico (judgment) (Sanchis y Bekx, 1994: 21). En efecto, el dilema Goodhart nos habla de la capacidad que tienen algunas variables económicas para comportarse de forma caprichosa e inconsistente con lo que había sido, hasta ese momento, su trayectoria vital, una vez que las autoridades las sitúan bajo los focos de la observación pública y atribuyen a su evolución un elevado valor político. De este modo, se encuentran sometidas a un estricto control y presión políticos.

Charles Goodhart, profesor de la London School of Economics, criticaba el pretendido valor taumatúrgico que los monetaristas atribuían al control –mediante el establecimiento de reglas– de las distintas definiciones de stock monetario al analizar la estabilidad de la demanda de dinero, y planteó el dilema que subyacía a la relación entre magnitud monetaria y gasto nominal, en los siguientes términos: «cualquier relación estadística estable tenderá a debilitarse tan pronto como pretenda utilizarse como mecanismo de control».

Pero el dilema Goodhart se extiende más allá de lo monetario e invade otros terrenos de la economía, como puedan ser el de la política fiscal o el del mercado de trabajo, entre otros. También va más allá de lo económico e invade cualquier otro ámbito del comportamiento humano que se encuentre bajo presión, ya sea la política o de otro tipo, siempre que tenga lugar bajo los mismos presupuestos. En definitiva, el dilema Goodhart no es otra cosa que nuestro castizo: «hecha la ley hecha la trampa». En el terreno de la industria armamentística, por ejemplo, España prohibió hace poco la fabricación de bombas antipersonas, pero sigue fabricando cuatro tipos distintos de bombas racimo cuyos efectos sobre el terreno son equivalentes a los de las bombas antipersonas.

Recordemos también el período anterior a los informes de convergencia de la Comisión Europea y del Banco Central Europeo que hicieron luego posible el nihil obstat del consejo Europeo para permitir la entrada de los países de la Unión Europea en el euro. En aquellos años, la prensa europea hablaba continuamente de «contabilidad creativa» al referirse a los criterios estadísticos y de contabilización para determinadas operaciones de la contabilidad nacional que establecían algunos países con el fin de alcanzar la cifra objetivo de déficit a la que obligaba el Tratado de Maastricht.

Algo parecido empezó a ocurrir en materia de empleo desde que se lanzó en 1997, durante la Cumbre de Luxemburgo, la Estrategia Europea para el Empleo. Y sigue ocurriendo hoy, sólo basta con leer algunos de los titulares de aquella época y otros más recientes: (i) «El paro se reduce en 202.600 personas hasta marzo tras los cambios introducidos en la EPA» (El País, 20/05/1999); (ii) «Los métodos de la EPA, en entredicho. Los cambios metodológicos en la Encuesta de Población Activa desatan la polémica sobre la fiabilidad de la muestra» (El País, 1999), y (iii) «La nueva EPA endurece los requisitos para calificar a los parados y los reduce en 334.600. Un cambio por imperativo europeo» (El País, 3/02/2002). En realidad, lo que está actuando sobre la EPA es el dilema Goodhart; por eso, como señalaba en el prólogo a la primera edición de este libro, es conveniente que en economía procuremos siempre discernir entre apariencia y realidad.

Bibliografía

Conthe, M. (1998): «El dilema de Goodhart», El País, 15 de julio de 1998, p. 44.

El País (1999): «El paro se reduce en 202.600 personas hasta marzo tras los cambios introducidos en la EPA», El País, 20 de mayo de 1999, p. 57.

— (1999): «Los métodos de la EPA, en entredicho. Los cambios metodológicos en la Encuesta de Población Activa desatan la polémica sobre la fiabilidad de la muestra», El País, 20 de mayo de 1999, p. 58.

El País (2002): «La nueva EPA endurece los requisitos para calificar a los parados y los reduce en 334.600. Un cambio por imperativo europeo», El País, 3 de febrero de, 2002, p. 42.

Sanchis, M. y P. Bekx (1994): «Money Demand and Monetary Control in Spain», Brookings Discussion Papers in International Economics, 105: 21, The Brookings Institution, Washington, D.C.

Píldora 5

Còmo medir variables cualitativas en economía

Aunque a veces somos capaces de observar con facilidad las diferencias de calidad que hay entre distintos bienes –en principio, más o menos homogéneos– en un momento del tiempo, los cambios en la calidad también suelen ocurrir a lo largo del tiempo para un mismo bien. Tanto es así que una de las cuestiones del análisis económico más debatidas en la actualidad consiste en saber cómo se deben medir los cambios en la calidad a lo largo del tiempo para un mismo bien que –aunque se supone homogéneo en el tiempo– ha sufrido mejoras en la calidad debido, sobre todo, a los cambios tecnológicos asociados al desarrollo de la nueva economía.

Al estudiar la posibilidad de medir la calidad en términos económicos, el análisis se centró, al principio, en los índices de precios, pero uno de los defectos de estos índices consistía –y aún consiste– en que no eran capaces de reflejar debidamente los cambios en la calidad de un mismo producto. Para remediar este problema, el análisis económico propuso los precios hedónicos como base para poder analizar los cambios en la calidad. La construcción de índices de precios hedónicos, es decir, de índices de precios ajustados por la calidad para distintos tipos de bienes, se realiza mediante la utilización de métodos econométricos de regresión múltiple, que permiten tomar buena nota de los cambios en la calidad de unos mismos bienes a lo largo del tiempo o de unos mismos bienes entre sí –y, en principio, homogéneos– en un mismo momento del tiempo. En otras palabras, el enfoque hedónico convierte el problema de la «calidad» en una medida de cantidad.

 

El padre fundador del análisis de los precios hedónicos es Zvi Griliches (1961), aunque el trabajo más ampliamente citado en la literatura que dio origen a esta forma de abordar la medición de las variables cualitativas en economía fue el desarrollado por Andrew T. Court (1939). Aunque Andrew Court se ha llevado toda la gloria, en realidad, este método de medir la calidad tiene su origen, en realidad, en los trabajos pioneros de Haas (1922) para estimar el valor de las tierras agrícolas. Haas desarrolló una metodología consistente básicamente en estimar una regresión con el precio final del producto como función de las características actuales de las casas.

Sea como fuere, la General Motors le encargó a Court un estudio para que demostrara que las quejas que GM recibía por parte de los consumidores sobre los elevados precios de los automóviles no estaban justificadas. Esto era debido a que el aumento en la calidad del vehículo –que el consumidor suponía invariable en el tiempo– no se veía reflejado en el incremento de precios. Partiendo del paradigma del utilitarismo inglés de finales del siglo xviii y de principios del siglo xix, según el cual, el único fin legítimo de cualquier institución era «la mayor felicidad para el mayor número»,8 Andrew T. Court definió las comparaciones de precios hedónicos en los automóviles como aquellas que tenían en cuenta la contribución potencial de cualquier elemento constitutivo del automóvil –como, por ejemplo, el motor– al bienestar material del comprador y de la comunidad.

Además, señaló que los automóviles proporcionaban toda una serie de servicios para el disfrute de los usuarios y que, por lo tanto, sería deseable poder medir directamente el incremento en el bienestar y la felicidad derivado de dichos servicios. Aunque esto es lógicamente imposible, sí que podemos relacionar la satisfacción y el bienestar que recibe con el automóvil el consumidor con las características físicas –como, por ejemplo, el diseño, la maniobrabilidad, etc.– y los atributos operativos y técnicos –como, por ejemplo, la potencia, la velocidad, la seguridad, etc. –del vehículo. Combinando los datos que reflejan dichos atributos se puede construir un índice de utilidad y deseabilidad, es decir, de contenido hedónico, y, si dividimos los precios del automóvil por dicho índice hedónico, podemos obtener comparaciones relevantes en términos de calidad.

Pero la utilidad del enfoque hedónico no se ha limitado a los automóviles o a los índices de precios. Esta metodología se ha usado también en otros productos como, por ejemplo, los ordenadores (Chow, 1967: 1117-1130) o los espárragos, estudiando la influencia de los atributos de los espárragos sobre su precio (Waugh, 1928: 185-196). Y se ha hecho uso de ella con profusión en otras áreas de la economía como las primas en la industria del seguro o los costes del transporte por camión, no mediante una medida de output única –como toneladas por kilómetro recorrido–, sino ajustado por los atributos de lo transportado, dado que el output transportado es muy heterogéneo (Spady y Friedlaender, 1978: 159-178). Idealmente, se podrían construir índices hedónicos para medir la calidad de otras variables económicas con mayor contenido político, y obtener mediciones del gasto público o del PIB, por ejemplo, ajustadas por la calidad. Es muy probable, sin embargo, que las enormes dificultades metodológicas a las que tendríamos que hacer frente hiciesen inviables o controvertidas dichas estimaciones hedónicas.

Otro aspecto de la realidad económica sobre el que también podríamos medir la calidad es la fuerza de trabajo, la cual constituye un elemento determinante en los modelos de crecimiento. Tanto es así, que algunos de los economistas americanos más prestigiosos consideraron clave el deterioro de la calidad de la fuerza de trabajo para explicar la caída de la productividad en EE. UU. después del primer shock del petróleo (Baily y Gordon, 1988: 370).

Tomemos entonces este último caso, por ser un ejemplo importante y porque nos concierne de cerca, pues recordemos que el Consejo Europeo de Lisboa de marzo del 2000 estableció como objetivo para el año 2010, entre otros, obtener «más y mejores puestos de trabajo». Esto se ha traducido en una serie de importantes trabajos elaborados por la Comisión Europea, que ha sido la encargada de reflexionar sobre el mejor modo de alcanzar «mejores» puestos de trabajo, y de analizar y medir las transformaciones que los cambios tecnológicos asociados al desarrollo de la nueva economía podían inducir en la calidad del trabajo.

Teniendo en mente todo lo anterior, sería interesante explorar las posibilidades que puede ofrecer el enfoque hedónico en el análisis de la calidad del trabajo, ya que puede resultar relativamente fácil transponer el mismo procedimiento que se utiliza en la construcción de índices de precios ajustados por la calidad, para construir índices de ganancias salariales ajustadas por la calidad del trabajo.

Del mismo modo que ocurre en el estudio de Andrew T. Court, sería plausible asociar la satisfacción de los trabajadores en el trabajo al conjunto de atributos de ese puesto de trabajo. Aunque los salarios son un elemento importante en la calidad de un trabajo, no son el único. Sin embargo, dado que hay una estrecha relación entre ganancias salariales y calidad en el trabajo, sería razonable considerar las ganancias salariales como una variable (proxy) que se aproxime a la calidad del trabajo. Por consiguiente, podríamos defender que la calidad de un trabajo, medida por el nivel de sus ganancias salariales, puede ser ajustada a un conjunto de características adicionales de calidad, y que dicho conjunto de atributos puede evolucionar a lo largo del tiempo. Se trataría de atributos tales como el nivel de educación, la formación profesional, la formación profesional en el puesto de trabajo, las condiciones de salud y seguridad en el trabajo, la satisfacción en el trabajo debido a la distancia entre el lugar de trabajo y el domicilio del trabajador, el tipo de trabajo y las condiciones del contrato de trabajo según fuese a tiempo completo, a tiempo parcial, contrato indefinido, contrato temporal, etc.

Bibliografía

Adelman, Irma y Zvi Griliches (1961): «On an Index of Quality Change», American Statistical Association Journal, septiembre, pp. 535-548.

Baily, Martin Neil y Robert J. Gordon (1988): «The Productivity slowdown, Measurement Issues, and the Explosion of Computer Power», The Brookings Papers on Economic Activity, 2, Washington, D.C., pp. 347-431. Bentham, Jeremy (1990): Falacias Políticas, Centro de Estudios Constitucionales, Madrid, 227 pp.

Berndt, Ernst R. (1990): «The Measurement of Quality Change», capítulo 4 de The practice of Econometrics, Addison-Wesley, pp. 102-149.

Chow, Gregory C. (1967): «Technological Change and the Demand for Computers», American Economic Review, 57:5, diciembre, pp. 1117-1130.

Comisión Europea (2001): Políticas sociales y de empleo: un marco para invertir en calidad, Comisión Europea, Bruselas, COM(2001) 313 final.

Court, Andrew T. (1939): «Hedonic Price Indexes with Automotive Examples», en The Dynamics of Automobile Demand, The General Motors Corporation, Nueva York, pp. 99-117.