¿Por qué Antonio Meucci?
Yolima Andrea Díaz Chaparro

Editorial

Aseguramiento de la Calidad en la Información Estadística Un estudio de caso
Ernesto Rojas Morales

Reflexiones Sobre los Fundamentos de los Indicadores
Jesús Romo y García

Las Actividades del Instituto Nacional de Estadística de España en el Marco del Sistema Estadístico Internacional
Antonio Martínez Serrano

Propuesta de Creación de una Red de Transmisión del Conocimiento Para la Formación en Estadística Oficial en América Latina y el Caribe
Angela Vivas Martínez

Los Esquemas Internacionales Dentro de la Estrategia del Candane Para la Implementación y Desarrollo de la Certificación de la Calidad de la Información Básica
Diego Raúl Barrios Lequerica

El proceso de certificación del sector transporte
Comisión de Expertos Independientes

La importancia de la Calidad de la Información
Jesús Domingo Aleixandre, miembro de la CEI evaluadora del subsector Transporte.

Informe de Evaluación del IPC-98 e IPP
Comisión de expertos independientes

Las Caras de la Moneda
Entrevistas a Mauricio Cárdenas y Hernando Torres Corredor

El Sistema Colombiano de Difusión de Información Básica Colombiestad
Carolina Gutiérrez Hernández

Calidad Estadística en el Contexto
Bernardo García Guerrero

Evaluación de Calidad de los Datos Estadísticos
Nicolás Dib David

El enfoque costo-calidad para el mejoramiento del proceso de producción estadística
Eduardo Libreros Dávila

Prensa-Libros
Jorge Eduardo Estrada Villegas

Cine Tecnología y Sociedad
Yolima Andrea Díaz Chaparro

Sudoku
Pedro José Fernández Ayala

Separata

Bernardo García Guerrero
Economista - Universidad Católica de Lovaina (Bélgica) Candidato al doctorado Instituto de Altos Estudios de la Universidad de París -Gerente del Proyecto de Cuentas Macroeconómicas Intermedias - DANE

Existen manuales de evaluación de errores en censos, encuestas y registros. En la captura de los datos, en su procesamiento y en la expansión de las muestras se presume que se define y agota la calidad de las estadísticas.

Buena síntesis de esta disciplina es el «Repertoire des méthodes d'evaluation des erreurs dans les recensements et les enquëtes » traducido y publicado por el DANE. Su índice: errores de cobertura, errores de respuesta y medida, errores por no respuesta, errores de codificación, errores en la grabación de los datos, controles, verificaciones, imputación, muestreo y estimación.

Todo aquello es perfecto, pero no alude al más común de los errores estadísticos que echa por tierra la más excelsa calidad de muchas series estadísticas, en sí mismas, porque el error está en contexto. Se puede alegar que ese es error de los usuarios y de los analistas y jamás de los estadísticos.

Sea; pero entonces los estadísticos tendrían que poner en guardia a los ingenuos usuarios puesto que el material que producen en abstracto cronológico sería peligroso.

No obstante, el temor es que nos volvamos a encontrar, como los mismos estadísticos, como analistas o como econometristas, usando alegremente series estadísticas sin contexto. Simplemente fechadas como si el calendario pudiera responder por los cambios de naturaleza de los fenómenos socioeconómicos. Los cambios de régimen jurídico provocados por medidas de política económica y social inciden en la magnitud o en la cualidad de esos fenómenos.

Por ejemplo, señala Bujarati1, “En su momento de apogeo durante las décadas de los años sesenta y setenta, los modelos elaborados para describir la economía de los Estados Unidos (en Colombia recordar a Lester Taylor y a Alberto Musalem) basados en ecuaciones simultáneas dominaron la predicción económica. Pero más adelante, el encanto respecto de ese tipo de predicción terminó debido a las crisis del precio del petróleo de 1973 y de 1979, y a la crítica de Lucas2. Pero no sólo esta escuela padece los fatales cambios de los regímenes jurídicos que norman actividades económicas cuantificadas por las estadísticas.

En economía, las cifras puntuales de un año, por ejemplo, pueden tolerar márgenes de error en la medida en que lo que se busca no es la cifra perfecta de una cruel cuenta de cobro, sino órdenes de magnitud macroeconómicos. Cuando se trabaja con series de tiempo para varios años, lo importante es que los errores en esos órdenes de magnitud sean sistemáticos, es decir, que se reincida siempre en ellos. Puede haber subvaluación o sobrevaluación y su corrección implicaría la corrección de toda la serie, pero cuando son erráticos y provocados por fenómenos exógenos, la corrección debe ser puntual o se decide trabajar con juicio por tramos de tiempo.

El problema entonces es de otra índole. En la profesión, el hábito de reflexionar con el supuesto del ceteris paribus, significa que las variables cuantificadas puestas en consideración son las que varían y que el contexto es uniforme. En las series de tiempo para calcular tendencias, correlaciones, proyecciones, etc. este supuesto es la fuente de errores. Si se procede, por ejemplo, a analizar el comportamiento de las importaciones en función de la tasa cambiaria, su comportamiento puede resultar espúrio si la serie comporta tramos con control cambiario, cuotas y tasas cambiarias reguladas, y tramos con apertura, bajas tasas arancelarias y tasa cambiaria flotante.

Las técnicas para suavizar las series estadísticas, mediante promedios móviles o transportándola a series logarítimicas, sólo facilitan la aproximación de la serie estadística a funciones matemáticas continuas, alisando los dientes de la dispersión de los datos. El artificio de paso rebaja los grados de dispersión estándar que valida o rechaza la validez de un promedio. Y al fin de cuentas, las regresiones por el método de los mínimos cuadrados es un promedio.

Pero la trampa permanece oculta en razón de los cambios del régimen jurídico de las importaciones. También pueden sufrir contingencias por tratados bilaterales de compensación, de cooperación o de libres comercios multilaterales o bilaterales. Puede padecer, igualmente, de desestímulos tales como depósitos previos antes de realizar la importación.

Medidas similares afectan un sinnúmero de variables macroeconómicas y se deben considerar como efectivas variables independientes aunque de contera sean exógenas. Porque son eficientes, exigen aparecer en el contexto como variable ficticia u operar de frente imputaciones sensatas. Otro ejemplo notable es la versión de magnitudes en dólares para convertirlos en moneda nacional. ¿Se toma la tasa cambiaria oficial vigente en el mercado? Pero, ¿qué pasa cuando la tasa cambiaria está sobrevaluada o subvaluada en proporciones del orden el 20 a 30%? En el caso de sobrevaluación como sucede en el presente colombiano- las importaciones en valor cif dólares al convertirlas en valor pesos, los bienes de consumo, insumos y bienes de capital van a quedar subvaluados. ¿Se cae en realidad el consumo o la formación bruta de capital fija? Las variables macroeconómicas van a sufrir ese efecto en las Cuentas Nacionales.

A las cifras estadísticas no les importa mucho ni les puede importar el contexto en que viven. A los estadísticos tampoco. Pero el análisis económico puede cometer errores crasos cuando calcula ecuaciones para estimar futuros comportamientos en base a series con un considerable número de años.

La estadística de series de tiempo -tan frecuentemente usadas- en consecuencia, debería seguir las normas de la crítica histórica en donde cualquier evento histórico que se respete, además de su análisis de autenticidad y veracidad, etc., va marcado y clasificado bajo escarapelas que señalan el sitio, el año y el contexto para que el historiador-redactor pueda entender los comportamientos e interpretar los hechos.

Así que bajo un régimen de control las importaciones pueden comportarse con extrema discreción lineal, bajo régimen libertario se pueden disparar como locas en funciones exponenciales y, si están en función de la capacidad de pago, pueden ligarse en alta correlación con las exportaciones realizadas el año anterior. Y si esto sucede por tramos de tiempo, como suele suceder...

Alberto Musalem, un econometrista del Banco Mundial vino en los años 70 a Colombia a indagar la función inflación o sea del comportamiento de los precios en periplos largos de tiempo. La crítica, purificación y sistematización de las series estadísticas le tomó más de medio año. Calidad de las cifras. Se presumía que con la novísima tecnología de los computadores de cálculo programado, las series arrojarían coeficientes aceptables. No obstante, las pruebas de hipótesis rechazaban todos los resultados.

Hechas diversas sesiones para repasar todos las hipótesis y procedimientos llevados a cabo por el equipo de Musalem, se llegó a la conclusión de que la apariencia de las cifras podía ser estadísticamente perfecta, pero tenían una naturaleza perversa porque procedían de contextos tan disímiles que podrían equivaler a cifras interpoladas de diversos países y en diversas épocas: unos con control directo de precios, otros con absoluta libertad de mercado; unos con sequías severas, otros con inviernos devastadores y un resto similares en clima y precipitaciones...

La conclusión de Musalem fue tan científica como la de físicos rigurosos: si se dejara caer un plumón en el vacío y al nivel del mar, es posible que la ley de la gravedad se ratifique una vez más. Si por el contrario, hago ese experiencia en Barranquilla en tubo al vacío, otra en Bucaramanga a pleno viento, otra en Bogotá cayendo el plumón entre un estrecho tubo abierto, y luego en fin, hago un promedio, es muy posible que ese promedio refute la ley de la gravedad y la declare falsa. Si le pongo a cada experimento fecha, lugar y condiciones, la ley funciona pero tengo que “imputarle” a cada experimento correctivos por aire, altitud, humedad, rozamiento, etc. ¡Odiosa imputación en cifras perfectas!

Si todo aquello se conoce como ficha al pie de cada cifra, o para un lote marcado con sus circunstancias, entonces la corrección imputada y registrada en pie de página con las debidas notas aclaratorias, el trabajo se puede salvar. Pero si sólo se advierte al final, como lo hiciera Musalem, sistematizando y clasificando textos de todos los virajes legislativos que ciertamente invalidaron las perfectas series estadísticas y las correctas regresiones computarizadas, para probar ex post que los resultados resultaron inaceptables por la perturbación de aquellas erráticas contingencias legislativas.

Mucho tiempo después Miguel Urrutia retoma el trabajo de Musalem, pero sin la presunción de formular un modelo de comportamiento de la inflación en Colombia, sino de señalar algunas tendencias a largo plazo y algunas coincidencias funcionales en ciertos periplos de tiempo, sin pretensión de establecer leyes y efectos sistemáticos.

En el caso de que los especialistas en la producción de cifras tengan el cuidado de impartir un registro civil de nacimiento precisando el régimen o la época que las ve nacer, los econometristas no se lanzarían desde el trampolín creyendo que van a pescar en aguas homogéneas, de profundidad pareja y donde sólo hay deliciosos pargo rojos.

Recolección a destajo

Otro sesgo frecuente en tiempos del nuevo régimen laboral lo produce el encuestador a destajo. Su productividad diaria en la recolección de datos puede aumentar mucho más que el encuestador profesional y de planta. Pero pronto resulta visible que los encuestadotes a destajo producen un volumen mayor de “no sabe no responde” y de respuestas idénticas o en seguidilla que los encuestadores profesionales. El destajo ata remuneración a volumen de encuestas diligenciadas. Otro tanto sucede con respuestas que están tan abiertas, tipo codificación actividades CIIU, por ejemplo, en donde la falta de especialización y la premura del tiempo lo hace incurrir en grandes y erráticos errores. Para remediarlo no hay imputación (por audaz que sea) que valga.

Graves errores y de muy difícil enmienda. Además no se trata de errores sistemáticos sino perfectamente erráticos. A falta de mejores datos, los economistas solemos rellenar por simple regla de tres, márgenes desiguales del “no sabe . no responde” (desde 10% hasta 70%), con los datos conocidos (entre un 90 y un 30%). ¿Es la expansión legítima de una muestra aleatoria?
O más bien es la expansión de un confuso sondeo de opinión, en la confianza que en la mezcla aleatoria puede salir a flote la estructura de la comunidad encuestada? Audaz actitud que nunca será confrontada con ningún tipo de comicios electorales como sucede con los sondeos políticos de opinión.

Cuentas nacionales

Las científicas y rotundas cifras de las Cuentas Nacionales, que en ocasiones los líderes políticos se arrojan a la cara como petardos explosivos, son otra fuente de lamentables errores.

Los econometristas sólo piden que las 46 variables macroeconómicas estén bien calculadas o sea que sean compatibles y coherentes dentro de las 22 ecuaciones del modelo general de las Cuentas.

Se presume que el analista de resultados no se ocupa de la calidad anterior de las estadísticas. Su actitud científica se puede asimilar a la de los historiadores que redactan sobre fuentes secundarias y bibliografías. A ellos les asiste todo el derecho de pruritos profesionales. Sin embargo, el cálculo de las Cuentas Nacionales no se parece en nada a la contabilidad empresarial que procesa certidumbre. Los agregados macro, por el contrario, buscan configurar agregados que ofrezcan órdenes de magnitud para que los polilcy makers no tomen decisiones locas al ritmo de su humor e intuición.

Así que las cifras redondas y consistentes como el consumo nacional, puede ser un residuo de residuos: PIB más importaciones, menos exportaciones, menos formación bruta de capital fijo, más o menos variación de inventarios. El saldo de esos saldos es un “consumo aparente”.

Con esa cifra movediza que puede encajar todos los márgenes de error de los demás agregados, no se puede incursionar en solitario en los vastos territorios del consumo. Podría hacerse otras aproximaciones por la vía de las encuestas de las canastas familiares y de los estratos sociales para investigaciones más específicas, o sea un proceso bottom up (de abajo a arriba) y no top down (de arriba abajo):
El problema más grave es que para tomar las variables macro con más o menos confianza es menester conocer de cerca el tipo de estimaciones y aproximaciones realizadas en la construcción de las cuentas. Pero la mayoría de los econometristas de aquello no tienen ni la menor idea y, en consecuencia, trabajan con variables sin que tengan la más mínima noción de los márgenes de error con que trabajan. Una vez más se lanzan desde el trampolín con la certidumbre de que el pargo rojo pesa 5 kilos, como le dijo el pescador de profesión.

Sobre el pantanoso territorio de las apreciadas e indispensables Cuentas Nacionales, se han realizado no pocos coloquios internacionales como el del Insée Université Paris I CNRS: “Huitieme colloque de Contabilité Nationale” (19-21 janvier 2.000), en el que se trataron numerosos problemas que surgen de la “modelisation” a partir de las Cuentas Nacionales.

Ese es el diálogo indispensable entre “científicos”, “técnicos” y “analistas”, que se debe establecer entre quienes cuantifican la cibernética del sistema contable que es la del organismo económico- y quienes ven pasar por sus “unidades” el aparato en plan de ensamblaje.

1 Gujarati, Damonar N. “Econometría”, Mc Graw Hill, Bogotá, 1998 pg.718

2 La fuerza de esta crítica consiste en afirmar que los parámetros estimados de un modelo econométrico dependen de la política prevaleciente en el momento en que el modelo se estima que cambiará si hay un cambio de política. En resumen: los parámetros estimados no son invariantes ante cambios de política.

Lucas, Robert E.: Econometric Policy Evaluation : A critique, en Carnegie Rochester Conference Series, The Phillips Curve, North Holland, Amsterdam, 1976, pp.19-46 y Sánchez P. Mauricio y Ochoa G. Marta Milena: Reflexiones sobre la importancia de la crítica de Lucas” en Revista Ecos de Economía Nº 20 abril 2005, Medellín, pg. 117 128.