¿Por qué William Brass?

Fecundidad adolescente: diferenciales
sociales y geográficos 2005

Carmen Elisa Flórez

Caracterización demográfica de la
población con limitaciones permanentes
en Colombia, 2005

B. Piedad Urdinola C. y Ronald F. Herrera C.

Asistencia escolar y nivel educativo: un
análisis del censo de población de 2005

Martha Isabel Gutiérrez

Ser mujer jefa de hogar en Colombia
Sandra Patricia Velásquez

Visibilización de la población étnica
en el Censo general 2005: análisis
comparativo de los principales
indicadores demográficos

Astrid Hernández R. y David A. Pinilla A.

El concepto de representatividad en
la escogencia de la mejor estrategia
de muestreo

Hugo Andrés Gutiérrez Rojas

Hugo Andrés Gutiérrez Rojas1

Introducción.

En términos de estadísticas oficiales, el tipo de inferencia dominante después de la Segunda Guerra Mundial, fue la fundamentada en el diseño de muestreo (Neyman, 1934; Cochran, 1977) que descansa en la base de la aleatoriedad de las muestras y considera que las características de interés de cada individuo son parámetros poblacionales; sin embargo, a comienzos de los años setenta, Richard Royal, con la ayuda de otros coautores, quiso cambiar rotundamente esa tendencia con gran determinación. Él afirmó que la inferencia basada en el diseño, aunque no hace supuestos acerca de las probabilidades y parece ser no paramétrica y robusta, estaba sujeta a importantes defectos. Algunas de las limitaciones que cita Royal (1971) son las sorprendentes complicaciones encontradas en el estudio y ejecución de los diseños de probabilidad proporcional al tamaño y las dificultades encontradas en las estimaciones probabilísticas concernientes a la estimación de razones.

La sugerencia de Royal fue radical: él propuso abandonar la inferencia basada en el diseño de muestreo, a favor de estimadores cuyas útiles propiedades (insesgamiento, consistencia, optimalidad, etc.) estuvieran definidas en términos del modelo predictivo apropiado. Esto significa que conceptos como el sesgo y la varianza ya no están definidos como esperanzas a través de todas las posibles muestras, sino como promedios de las realizaciones de las unidades poblacionales (estén en la muestra o no) bajo el modelo predictivo establecido. Desde el punto de vista de Royal, el proceso de aleatorización se convierte en irrelevante y propone que la muestra sea escogida a conveniencia (lo que en la práctica a veces significa escoger las unidades más grandes) puesto que las características de interés de cada individuo se consideran cantidades aleatorias.

Acerca de los modelos predictivos, Box (1979) dice que “todos los modelos son errados, pero algunos son útiles”. El hecho de que todos los modelos están equivocados se hace más y más claro cuando el tamaño de la muestra se incrementa; por esta razón, las estimaciones resultantes de un modelo predictivo errado son deficientes.

De una cosa se debe estar seguros, las inferencias basadas en modelos predictivos y en el diseño de muestreo no se deben ver como competencia, sino como puntos de vista que pueden llegar a ser complementarios, es así como nace la inferencia basada en el diseño de muestreo, pero asistida por modelos predictivos (model assisted survey sampling). Estos dos tipos de inferencia, aunque se pueden combinar, no se pueden conciliar porque su filosofía es literalmente distinta.

La inferencia basada en el diseño de muestreo varía radicalmente de la fundada en los modelos predictivos y quizás de cualquier otro modelo estadístico, porque está apoyada exclusivamente en las observaciones muestrales y no hace supuestos a priori; además, su dirección de análisis va en contravía con la dirección de la inferencia basada en modelos. Kyburg (1987) escribe una vindicación sobre la inferencia basada en modelos y hace un comentario con respecto al tipo de inferencias estadísticas que existen; él dice que: “la inferencia inversa procede de lo particular a lo general, la inferencia directa, de lo general a lo particular”. Desde este punto de vista, la inferencia basada en el diseño de muestreo es inversa puesto que al seleccionar una muestra, ésta sirve como base para obtener conclusiones acerca de la población; mientras que la fundamentada en modelos predictivos es directa porque supone que la población se comporta de acuerdo con la estructura probabilística de un modelo predictivo, por tanto, la muestra seleccionada debe comportarse igual.

En términos de estadísticas oficiales, la tendencia moderna en algunos reconocidos institutos nacionales de estadística, es utilizar la inferencia basada en el diseño de muestreo (inferencia inversa) para obtener conclusiones sobre poblaciones o subgrupos poblacionales grandes; sin embargo, cuando se trata de realizar inferencia con subgrupos poblacionales pequeños (small areas) es conveniente emplear la inferencia basada en modelos poblacionales predictivos.

Este artículo está dirigido a todos los profesionales involucrados en la consecución de estadísticas oficiales para poblaciones grandes y relaciona el uso de la inferencia inversa con el principio de la representatividad. Después de una breve introducción, la segunda sección de este artículo define conceptos básicos que son necesarios para desarrollar el tema central del mismo; en la tercera y cuarta sección se expone el concepto de la representatividad en el diseño de muestreo y en la escogencia de estimadores representativos, respectivamente. En la quinta sección se presentan algunas ilustraciones de la práctica estadística, y finalmente en la última sección se dan algunas recomendaciones.

1. Definiciones básicas

El ejemplo por excelencia de un estimador lineal es el estimador de Horvitz-Thompson, donde las ponderaciones resultan ser iguales al inverso de la probabilidad de inclusión del elemento k.

2. La representatividad en el diseño de muestreo

Uno de los errores más comunes del estadístico es querer seleccionar una muestra representativa, puesto que equivocadamente se cree que la muestra debe ser siempre similar a la población, de tal manera que la estructura de las categorías más importantes de la población (por ejemplo sociodemográficas) sea equivalente en la muestra. Un claro ejemplo de esta situación se presenta en la planeación de estudios no probabilísticos donde la muestra se selecciona por medio de cuotas. Esta práctica se ve afianzada incluso en las aulas de clase en donde los docentes inculcan este tipo de pensamiento tanto en los estudiantes de estadística como en los estudiantes que serán usuarios de la estadística.

Luego, se ha generado la creencia de que una muestra representativa es un modelo reducido de la población y de aquí se desprende un argumento de validez sobre la muestra: “una buena muestra es aquella que se parece a la población, de tal forma que las categorías aparecen con las mismas proporciones que en la población”. Nada más falso que esta creencia.

En ciertas ocasiones es fundamental “sobre representar” algunas categorías o incluso seleccionar unidades con probabilidades desiguales.

Tillé (2006) cita el siguiente ejemplo: suponga que el objetivo es estimar la producción de hierro en un país y que nosotros sabemos que el hierro es producido por dos compañías gigantes, con miles de empleados, y por cientos de pequeñas compañías, con pocos empleados. ¿La mejor forma de seleccionar la muestra consiste en asignar la misma probabilidad a cada compañía? Claro que no; primero se averigua la producción de las grandes compañías; después, se selecciona una muestra de las compañías pequeñas con probabilidades desiguales y de algunas compañías grandes con probabilidad de inclusión forzosa; de forma que población y muestra difieren estructuralmente en el porcentaje de empresas pertenecientes a cada categoría.

La muestra no debe ser un modelo reducido de la población; debe ser una herramienta usada para obtener estimaciones. Es así como el concepto de muestra representativa pierde peso, más aún, según las definiciones vistas en la sección anterior, como una estrategia de muestreo es una dupla: diseño de muestreo (distribución de probabilidad sobre todas las posibles muestras) y estimador, el investigador debe preocuparse por ambos aspectos de esta dupla. La teoría de muestreo se ha ocupado de estudiar estrategias óptimas que permitan asegurar la calidad de las estimaciones; entonces, el concepto de representatividad debería estar asociado con las estrategias de muestreo y no sólo con las muestras.

Siguiendo con Tillé (2006), una estrategia se dice representativa si permite estimar un total poblacional exactamente, es decir, sin sesgo y con varianza nula. Si se utiliza el estimador de Horvitz-Thompson junto con un diseño de muestreo apropiado, esta estrategia es representativa sólo si, junto con la muestra seleccionada, el estimador reproduce algunos totales de la población; tales muestras se llaman muestras balanceadas.

Existen también, estimadores que brindan a la estrategia el calificativo de representativa, algunos de ellos son conocidos como de calibración.

3. La representatividad en el estimador

Con base en lo expuesto anteriormente, es útil introducir la considerada regla de oro del muestreo: suponga que se utiliza el estimador de Horvitz-Thompson para estimar un parámetro de interés y que se planea un diseño muestral p que induce probabilidades de inclusión desiguales; la regla de oro en este caso, exige que el vector de probabilidades de inclusión de primer orden sea proporcional a la característica de interés.

Al respecto, el adjetivo proporcional debe entenderse como la similaridad en el comportamiento estructural del vector de probabilidades de inclusión y el vector de valores observados de la característica de interés; por ejemplo, suponga una encuesta que desea indagar acerca de la repartición de la riqueza en un país latino; se sabe que hay pocos individuos que poseen gran cantidad de riqueza, hay muchos individuos que tienen una cantidad media de riqueza y la gran mayoría de personas en ese país tienen recursos muy limitados y se consideran pobres. Ahora suponga tres diseños de muestreo para el mismo problema: el primero, que asigna probabilidades de inclusión iguales a cada elemento de la población; el segundo, que asigna mayores probabilidades de inclusión a los individuos que poseen menos y menores probabilidades de inclusión a los individuos que poseen gran cantidad de riqueza, y el tercer diseño asigna probabilidades de inclusión mayores a los ricos y menores a los pobres. Teniendo en cuenta la regla de oro del muestreo, el mejor diseño es este último, pues más riqueza implica mayores probabilidades de inclusión y menos recursos económicos implican menores probabilidades de inclusión.

Lo anterior tiene lógica cuando se acude al principio de representatividad sobre el cual se basa todo el andamiaje epistemológico de la inferencia en poblaciones finitas (Brewer, 2002: 101-104); como es bien sabido, a pesar de la variación per se de todas la poblaciones, algunos individuos son capaces de representarse a sí mismos y a algún otro conjunto de individuos. Es por lo anterior que en estadística se utilizan ponderadores para representar a la población de interés y un ponderador natural es el inverso de la probabilidad de inclusión, por tanto, un individuo con una probabilidad de inclusión máxima igual a uno, sólo es capaz de representarse a sí mismo y a nadie más, puesto que el inverso de la unidad es la unidad. Un individuo con una probabilidad de inclusión baja, se representará a sí mismo y a un conjunto grande de individuos. Si se utiliza el primer diseño muestral, se está incurriendo en un error pues se le está asignando el mismo peso a los ricos y a los pobres, pero si se utiliza el segundo diseño muestral se está incurriendo en un error más grave aún, ya que se está afirmando que los ricos se representan a sí mismos y a muchos otros y a la vez los pobres no tendrán mucha participación en la población, lo que es obviamente incorrecto.

Así que, la regla de oro del muestreo, no es otra cosa que sentido común combinado con el principio de la representatividad. En este caso se debe planear un buen diseño de muestreo acompañado de un estimador cuyas ponderaciones satisfagan la regla de oro. Ya Basú (1971) ha instruido acerca de los resultados de combinar un diseño muestral que no satisface la regla de oro junto con el único estimador hiperadmisible en la clase de todos los estimadores insesgados polinomiales generalizados. La moraleja de la fábula de los elefantes de Basú recae en que el investigador debe asumir la escogencia de una estrategia, no de un diseño ni de un estimador por aparte.

Por otra parte, suponga que en esta encuesta se planea un diseño muestral que induce probabilidades de inclusión proporcionales al comportamiento de la característica de interés y que se tiene acceso a información auxiliar de tipo continuo.

De esta forma, el estadístico puede utilizar procesos de estimación avanzados como el raking o estimadores de calibración, puesto que son más atractivos en este tipo de situaciones; aunque es muy importante que tenga en cuenta que la información auxiliar continua debe estar altamente correlacionada con la característica de interés, ya que estos procesos de estimación, en últimas, crean estimadores lineales cuyas ponderaciones no dependen directamente del diseño muestral. De esta manera, por ejemplo, si se planea un buen diseño que induce probabilidades de inclusión proporcionales a la variable de interés, al utilizar una característica de información auxiliar que no se encuentre bien correlacionada con la variable de interés, se tendrá como resultado que las ponderaciones finales de un proceso de calibración no cumplirán con el principio de representatividad, puesto que éstas se verán influenciadas en gran manera por el comportamiento no proporcional de la característica de información auxiliar. Con esto en mente, si la información auxiliar no está correlacionada con la característica de interés, las ponderaciones resultantes tampoco estarán correlacionadas con esta misma; por lo tanto, al final se tendrá una estrategia deficiente compuesta por un excelente diseño muestral y un pésimo estimador.

4. Algunos escenarios prácticos

4.1. Encuestas multipropósito

A finales del siglo pasado, Smith (1976) hizo el siguiente llamado: “si los estadísticos teóricos hacen caso omiso al reto de enfrentar las encuestas multipropósito, entonces el vacío existente entre ellos y los estadísticos prácticos se hará cada vez más grande. El diseño y análisis de encuestas multivariantes debe ser una de las próximas áreas de mayor investigación.” Esta invitación se encuentra enmarcada en un artículo que discute los fundamentos de la teoría de muestreo, desde sus primeros años hasta las últimas tendencias, en cuanto a predicción y estimación en poblaciones finitas.

En sus múltiples artículos, Smith afirmó que en el muestreo, los problemas univariados (estimación de un parámetro desconocido para una sola característica de interés) se encuentran en unas cuantas ramas de aplicación, limitadas a encuestas de opinión pública, muestreo industrial de aceptación y muestreo en auditorías; sin embargo, la gran mayoría de encuestas que se realizan alrededor del mundo son de tipo multipropósito (estimación de varios parámetros desconocidos para varias características de interés).

El profesor Smith tuvo en cuenta la limitación que presentan los grandes textos clásicos del muestreo, al no considerar este tipo de estudios ni incluirlos en sus páginas y llamó la atención a los teóricos del muestreo a realizar investigación formal en este tipo de tópicos.

Dado que los institutos nacionales de estadística que manejan las cifras oficiales, con las cuales el gobierno decide acerca de sus políticas públicas, entre otros, realizan encuestas multipropósito, el estadístico debe preguntarse acerca del principio de representatividad en este ámbito. Si las encuestas que se planean responden al objetivo de la estimación de múltiples parámetros de interés, entonces el diseño de muestreo debería inducir probabilidades de inclusión que sean proporcionales al comportamiento estructural de todas y cada una de las características de interés.

Por supuesto que lograr lo anterior puede tornarse en una tarea muy difícil, si no imposible; sin embargo, Holmberg (2002) plantea una solución a este problema, recurriendo a la minimización de la varianza de estimadores lineales cuando se tienen en cuenta varios parámetros de interés. De esta manera, es posible encontrar un vector de probabilidades de inclusión que sea óptimo en el sentido de que minimiza la varianza de las estimaciones resultantes; en Gutiérrez (2009) se plantean ejercicios prácticos que ilustran estas situaciones.

4.2. Modelos o aleatorización

Las nociones de la inferencia en poblaciones finitas fueron expresadas hace más de 60 años en muchos libros clásicos como Cochran, Hansen, Hurwitz y Madow, Deming, Murthy, Des Raj y otros; la teoría de muestreo era aplicada desde la perspectiva misma de la selección aleatorizada de posibles muestras en la población finita, y dependiendo de las circunstancias prácticas, la selección se hacía de distintas maneras: muestreo aleatorio simple, muestreo aleatorio estratificado, muestreo de conglomerados, muestreo en dos etapas, etc. El muestreo era considerado como la actividad primaria y la estimación nunca fue considerada como una práctica separada sino como una consecuencia automática, lo cual se debía a que cada tipo de diseño de muestreo inducía un estimador cuyas propiedades estadísticas, como el insesgamiento y la varianza, eran establecidas de antemano con el diseño y así, la varianza era calculable y estimable.

Así que, para la década de los sesenta, muchos creyeron que la investigación en el campo del muestreo y de la inferencia en poblaciones finitas ya estaba muerta porque se deberían inventar nuevas formas de selección de muestras, más allá de las que se cubrían en los libros clásicos del muestreo. Aunque el estimador de razón fue considerado en algún detalle por los textos de referencia, la inclusión de varias variables de información auxiliar no se vio como un tópico que prometiera rédito alguno para emprender el camino de la investigación en esa vía.

En la década de los setenta, varios autores dieron un viraje en su perspectiva epistemológica de la inferencia en poblaciones finitas, es así como Basú, Brewer, Godambe y Royal, entre otros, consideraron los modelos estadísticos (en sintonía con la estadística clásica Fisheriana) como los verdaderos fundamentos de la estimación e inferencia en poblaciones finitas. Su trabajo se cimentó alrededor de la posibilidad de tener una inferencia que dependiera estrictamente del modelo propuesto y no tuviera nada que ver con el diseño de muestreo utilizado en la recolección de los datos. Como consecuencia, la atención se tornó alrededor de la estimación y se dejó de lado el muestreo por la relación existente o propuesta entre la característica de interés y las variables de información auxiliar.

El camino que tomó la historia del muestreo fue, precisamente, la incorporación de las dos corrientes de pensamiento bajo una sola sombrilla, de modo que fue posible combinar la aleatorización clásica con una percepción más general de la relación de la característica de interés, con la información auxiliar disponible, y no hubo necesidad de sacrificar los principios basados en la aleatorización. Así nació la inferencia asistida por modelos, pero basada en la aleatorización (model assited design-based inference), la cual se hizo muy atractiva porque la regresión y los modelos acompañan al estadístico desde sus primeros cursos y van tomando más fuerzas a medida que se avanza en el camino universitario, al punto que este pensamiento “asistido por modelos” es un matrimonio efectivo y tolerante que permite las ideas de la regresión junto con el paradigma de la aleatorización. Jan Wrettman (citado por Kott, 2005) opina que el ajuste de un modelo se ha convertido en parte integral de la teoría clásica del muestreo, aunque los principios de la misma deben permanecer intocables porque las propiedades de los estimadores son evaluadas con respecto al mecanismo de probabilidad generado por la muestra y no con respecto a cualquier modelo asumido.

No obstante, acudir al tipo de inferencia que Royal y otros plantean, dejando de lado el principio de aleatorización de las unidades, es peligroso, como se expondrá en la siguiente sección.

Simplemente, al acudir al pensamiento lógico de Kish, se hace a veces inverosímil acoger esta recomendación en términos de la puesta en marcha de encuestas que arrojarán estadísticas oficiales.

El enunciado que se encuentra en cualquier libro de inferencia estadística es el siguiente: “Dadas n variables aleatorias, seleccionadas de una población, independientes e idénticamente distribuidas.” Kish afirma que cada palabra en el anterior enunciado es engañosa: las muestras no son dadas, deben ser seleccionadas, asignadas o capturadas; el tamaño de la muestra no siempre es un número n fijo, en la mayoría de casos prácticos, es una variable aleatoria; los datos no siguen el supuesto de independencia ni de idéntica distribución, es más, en muchas ocasiones no existe una sola población, sino que la muestra seleccionada es el resultado de una selección de subpoblaciones para las cuales se deben producir, no sólo una estimación, sino un montón de estimaciones. En consecuencia, la historia que contaron no aplica en la mayoría de situaciones prácticas; de todos los universos que se puedan suponer, en la vida práctica no existe ninguno que siga el patrón de la urna con bolas bien revueltas. En el día a día de la consecución de estadísticas oficiales, el estadístico trata con universos complejos y por tanto se deben utilizar diseños de muestreo complejos que contemplen, entre otros, el principio de representatividad.

4.3. Encuestas electorales

Alguien dirá que la sugerencia de Royal puede ser implementada en el escenario práctico de las encuestas electorales; aunque estos estudios no son experimentos controlados ni respetan el principio de la aleatorización, sí son válidos para la aplicación de la sugerencia de Royal, dado que el tamaño de muestra final es elevado y máxime cuando los resultados de las encuestadoras no son disímiles. Por ejemplo, en el último pulso electoral en Colombia, la tendencia de un empate técnico entre dos candidatos presidenciales era clara, continua y contundente. Ahora, apelando a la teoría estadística de la inferencia en poblaciones finitas basada en modelos poblacionales y reuniendo las observaciones de las distintas encuestas, se llega a conclusiones similares, pero esta vez respaldadas por las técnicas estadísticas sugeridas por Royal. Con base en lo anterior, se podría afirmar que existe evidencia estadística de que la votación de la primera vuelta de las elecciones presidenciales en Colombia no sería otra cosa que una reñida puja entre los dos candidatos; sin embargo, la realidad de las votaciones arrojó otro escenario muy distinto al que sugería la estadística basada en los modelos. La mayoría de las encuestas fue realizada en los principales municipios y ciudades del país de forma telefónica y unas pocas se hicieron por interceptación en la calle. En el desarrollo de la contienda electoral se hacía énfasis en que todas las encuestas habían tenido en cuenta la repartición socio-económica y demográfica, de tal forma que los porcentajes en cada una de estas categorías coincidían en la población y en la muestra. Lo anterior era interpretado por los analistas políticos como una ventaja en el planeamiento de las encuestas que conducía a la robustez de las cifras y estimativos presentados en los medios de comunicación. Sin embargo, a la mayoría de firmas encuestadoras se les olvidó que la subpoblación de colombianos con teléfono no representa a Colombia, que es un país pobre y con millones de personas en la indigencia. Más aún, pareciese que obviaron que la carencia de teléfono no implica abstinencia en el voto. Luego, muchas personas de este gran conglomerado de ciudadanos votaron a favor del candidato oficialista y se presentó una victoria contundente.

La situación anterior, además de constituir una violación flagrante al principio de representatividad, hace que obviar una gran subpoblación de colombianos sin teléfono se considere un grave error, incluso en estudios no probabilísticos, si se quieren realizar pronósticos en un país en donde la regla es la pobreza. Lo expuesto anteriormente, da pie para concluir, al menos empíricamente, que si el modelo sobre el cual se basa el proceso de estimación es errado, también lo serán las cifras resultantes de este proceso.

5. Discusión

La muestra es una herramienta que no admite el calificativo de representativa y la estrategia de muestreo se dice representativa, si el estimador aplicado en la muestra seleccionada tiene la capacidad de reproducir algunos totales poblacionales.

El estadístico debe tener en cuenta el principio de representatividad en su práctica de planeamiento y ejecución de encuestas que arrojen estadísticas oficiales. En este ejercicio deben utilizarse estrategias de muestreo basadas en diseños de muestreo que induzcan probabilidades de inclusión que respeten el principio de la representatividad, ya sea porque el comportamiento estructural del vector de probabilidades de inclusión es proporcional a una característica de interés, o porque minimiza la varianza de las estimaciones resultantes en encuestas multipropósito.

Asimismo, el estadístico debe utilizar estimadores que hagan uso de estas probabilidades de inclusión proporcionales o que utilicen modelos que describan el comportamiento estructural de las características de interés; así, se asegura una estrategia de muestreo óptima pues, de igual manera, el diseño muestral y el estimador van en la misma vía del principio de representatividad. Es un error utilizar un buen diseño muestral junto con estimadores que dejen de lado las ponderaciones inducidas por el diseño; de la misma manera, es un error no planear un excelente diseño muestral confiando en que un estimador avanzado arreglará estas falencias.

Por la naturaleza per se de las encuestas que arrojan estadísticas oficiales y por la posterior utilización de las cifras que estas encuestas proyectan, en todo tiempo, el estadístico debe involucrar el principio de la representatividad en la estrategia de muestreo, tanto en el diseño, como en el estimador.

El uso de la inferencia basada en modelos en este contexto debe ser limitado solamente a la estimación de áreas pequeñas, que en última instancia poseen un muy pequeño tamaño de muestra, que en algunos casos llega a ser nulo.

Agradecimientos

El autor agradece a Dios por permitirle escribir estas líneas, al comité editorial de ib Revista de la información básica y a la señora Irina Torres Vargas por la cordial invitación para formar parte de este número conmemorativo en el día mundial de la estadística, al árbitro que revisó este artículo en su primera versión, y por último, a los lectores del blog Apuntes de Estadística (www.predictive. wordpress.com) de donde fueron extraídos varios apartes de este artículo.

Bibliografía

Basu, D. (1971). An essay on the logical foundations of survey sampling. Holt, Rinehart and Winston. Toronto. pp. 203-242.

Brewer, K. (2002). Combined Survey Sampling Inference: Weighing Basu’s Elephants. Arnold Publishers.

Box, G. E. P. (1979). Robustness in the Strategy of Scientific Model Building in Robusteness. En: Statistics, Academies Press.

Cochran, W. (1977). Sampling Techniques. Wiley.

Gutiérrez, H. A. (2009). Estrategias de muestreo. Editorial Universidad Santo Tomás.

Holmberg, A. (2002). A multiparameter perspective on the choice of sampling design in surveys. En: Statistics in Transition, 5, pp. 969-994.

Kott, P. S., Sweensson, B., Särndal, C. E. & Wretman, J. (2005). An interview with the authors of the book: Model-assisted survey sampling. En: Journal of Official Statistics, 21, pp. 171-182.

Kyburg, H. E. (1987), ‘The basic bayesian blunder’, The Foundations of Statistical Inference pp. Reidel, Dordrecht.

Neyman, J. (1934). ‘On the two differents aspects of the representative method: the method of stratified sampling and the method of purposive selection. En: Journal of the Royal Statistical Society, 97, pp. 558-625.

Royall, R. M. (1971). ‘Linear regression models in finite population sampling theory’. En: The Foundations of Survey Sampling. Godambe, V.P. and Sprott, D.A. (eds.), 236, Holt, Rinehart, and Winston.

Smith, T. M. F. (1976). The foundations of survey sampling: a review (with discussion). En: Journal of the Royal Statistical Society 139, pp. 183-204.

Tillé, Y. (2006). Sampling Algorithms. Springer.

1Director del Centro de Investigaciones y Estudios Estadísticos (CIEES). Universidad Santo Tomás. hugogutierrez@usantotomas.edu.co