Introducción.
En términos de estadísticas oficiales, el tipo de
inferencia dominante después de la Segunda
Guerra Mundial, fue la fundamentada en el
diseño de muestreo (Neyman, 1934; Cochran,
1977) que descansa en la base de la aleatoriedad
de las muestras y considera que las características
de interés de cada individuo son parámetros
poblacionales; sin embargo, a comienzos
de los años setenta, Richard Royal, con la ayuda
de otros coautores, quiso cambiar rotundamente
esa tendencia con gran determinación. Él afirmó
que la inferencia basada en el diseño, aunque
no hace supuestos acerca de las probabilidades
y parece ser no paramétrica y robusta, estaba
sujeta a importantes defectos. Algunas de las
limitaciones que cita Royal (1971) son las sorprendentes
complicaciones encontradas en el
estudio y ejecución de los diseños de probabilidad
proporcional al tamaño y las dificultades
encontradas en las estimaciones probabilísticas
concernientes a la estimación de razones.
La sugerencia de Royal fue radical: él propuso
abandonar la inferencia basada en el diseño de
muestreo, a favor de estimadores cuyas útiles
propiedades (insesgamiento, consistencia, optimalidad,
etc.) estuvieran definidas en términos
del modelo predictivo apropiado. Esto significa
que conceptos como el sesgo y la varianza
ya no están definidos como esperanzas a través
de todas las posibles muestras, sino como
promedios de las realizaciones de las unidades
poblacionales (estén en la muestra o no) bajo
el modelo predictivo establecido. Desde el punto
de vista de Royal, el proceso de aleatorización se
convierte en irrelevante y propone que la muestra
sea escogida a conveniencia (lo que en la
práctica a veces significa escoger las unidades
más grandes) puesto que las características de
interés de cada individuo se consideran cantidades
aleatorias.
Acerca de los modelos predictivos, Box (1979)
dice que “todos los modelos son errados, pero
algunos son útiles”. El hecho de que todos los
modelos están equivocados se hace más y más
claro cuando el tamaño de la muestra se incrementa;
por esta razón, las estimaciones resultantes
de un modelo predictivo errado son deficientes.
De una cosa se debe estar seguros,
las inferencias basadas en modelos predictivos
y en el diseño de muestreo no se deben ver
como competencia, sino como puntos de vista
que pueden llegar a ser complementarios, es así
como nace la inferencia basada en el diseño de
muestreo, pero asistida por modelos predictivos
(model assisted survey sampling). Estos dos
tipos de inferencia, aunque se pueden combinar,
no se pueden conciliar porque su filosofía es literalmente
distinta.
La inferencia basada en el diseño de muestreo
varía radicalmente de la fundada en los
modelos predictivos y quizás de cualquier otro
modelo estadístico, porque está apoyada exclusivamente
en las observaciones muestrales y
no hace supuestos a priori; además, su dirección
de análisis va en contravía con la dirección
de la inferencia basada en modelos. Kyburg
(1987) escribe una vindicación sobre la inferencia
basada en modelos y hace un comentario con
respecto al tipo de inferencias estadísticas que
existen; él dice que: “la inferencia inversa procede
de lo particular a lo general, la inferencia
directa, de lo general a lo particular”. Desde este
punto de vista, la inferencia basada en el diseño
de muestreo es inversa puesto que al seleccionar
una muestra, ésta sirve como base para obtener
conclusiones acerca de la población; mientras
que la fundamentada en modelos predictivos
es directa porque supone que la población
se comporta de acuerdo con la estructura probabilística
de un modelo predictivo, por tanto,
la muestra seleccionada debe comportarse igual.
En términos de estadísticas oficiales, la tendencia
moderna en algunos reconocidos institutos
nacionales de estadística, es utilizar la inferencia
basada en el diseño de muestreo (inferencia
inversa) para obtener conclusiones sobre poblaciones
o subgrupos poblacionales grandes; sin
embargo, cuando se trata de realizar inferencia
con subgrupos poblacionales pequeños (small
areas) es conveniente emplear la inferencia
basada en modelos poblacionales predictivos.
Este artículo está dirigido a todos los profesionales
involucrados en la consecución de estadísticas
oficiales para poblaciones grandes y relaciona
el uso de la inferencia inversa con el principio
de la representatividad. Después de una breve
introducción, la segunda sección de este artículo
define conceptos básicos que son necesarios para
desarrollar el tema central del mismo; en la tercera
y cuarta sección se expone el concepto de
la representatividad en el diseño de muestreo y
en la escogencia de estimadores representativos,
respectivamente. En la quinta sección se presentan
algunas ilustraciones de la práctica estadística,
y finalmente en la última sección se dan
algunas recomendaciones.
1. Definiciones básicas
El ejemplo por excelencia de un estimador lineal es
el estimador de Horvitz-Thompson, donde las ponderaciones
resultan ser iguales al inverso
de la probabilidad de inclusión del elemento k.
2. La representatividad en el diseño de
muestreo
Uno de los errores más comunes del estadístico
es querer seleccionar una muestra representativa,
puesto que equivocadamente se cree que la
muestra debe ser siempre similar a la población,
de tal manera que la estructura de las categorías
más importantes de la población (por ejemplo
sociodemográficas) sea equivalente en la
muestra. Un claro ejemplo de esta situación se
presenta en la planeación de estudios no probabilísticos
donde la muestra se selecciona por
medio de cuotas. Esta práctica se ve afianzada
incluso en las aulas de clase en donde los docentes
inculcan este tipo de pensamiento tanto en
los estudiantes de estadística como en los estudiantes
que serán usuarios de la estadística.
Luego, se ha generado la creencia de que una
muestra representativa es un modelo reducido
de la población y de aquí se desprende un argumento
de validez sobre la muestra: “una buena
muestra es aquella que se parece a la población,
de tal forma que las categorías aparecen con las
mismas proporciones que en la población”. Nada
más falso que esta creencia.
En ciertas ocasiones es fundamental “sobre
representar” algunas categorías o incluso seleccionar
unidades con probabilidades desiguales.
Tillé (2006) cita el siguiente ejemplo: suponga
que el objetivo es estimar la producción de hierro
en un país y que nosotros sabemos que el
hierro es producido por dos compañías gigantes,
con miles de empleados, y por cientos de
pequeñas compañías, con pocos empleados. ¿La
mejor forma de seleccionar la muestra consiste
en asignar la misma probabilidad a cada compañía?
Claro que no; primero se averigua la producción
de las grandes compañías; después, se
selecciona una muestra de las compañías pequeñas
con probabilidades desiguales y de algunas
compañías grandes con probabilidad de inclusión
forzosa; de forma que población y muestra difieren
estructuralmente en el porcentaje de empresas
pertenecientes a cada categoría.
La muestra no debe ser un modelo reducido de la
población; debe ser una herramienta usada para
obtener estimaciones. Es así como el concepto
de muestra representativa pierde peso, más
aún, según las definiciones vistas en la sección
anterior, como una estrategia de muestreo es
una dupla: diseño de muestreo (distribución de
probabilidad sobre todas las posibles muestras)
y estimador, el investigador debe preocuparse
por ambos aspectos de esta dupla. La teoría de
muestreo se ha ocupado de estudiar estrategias
óptimas que permitan asegurar la calidad de las estimaciones; entonces, el concepto de representatividad
debería estar asociado con las estrategias
de muestreo y no sólo con las muestras.
Siguiendo con Tillé (2006), una estrategia se
dice representativa si permite estimar un total
poblacional exactamente, es decir, sin sesgo y
con varianza nula. Si se utiliza el estimador de
Horvitz-Thompson junto con un diseño de muestreo
apropiado, esta estrategia es representativa
sólo si, junto con la muestra seleccionada, el estimador
reproduce algunos totales de la población;
tales muestras se llaman muestras balanceadas.
Existen también, estimadores que brindan a la
estrategia el calificativo de representativa, algunos
de ellos son conocidos como de calibración.
3. La representatividad en el estimador
Con base en lo expuesto anteriormente, es útil
introducir la considerada regla de oro del muestreo:
suponga que se utiliza el estimador de
Horvitz-Thompson para estimar un parámetro
de interés y que se planea un diseño muestral p
que induce probabilidades de inclusión desiguales;
la regla de oro en este caso, exige que el
vector de probabilidades de inclusión de primer
orden sea proporcional a la característica de interés.
Al respecto, el adjetivo proporcional debe
entenderse como la similaridad en el comportamiento
estructural del vector de probabilidades
de inclusión y el vector de valores observados de
la característica de interés; por ejemplo, suponga
una encuesta que desea indagar acerca de la
repartición de la riqueza en un país latino; se
sabe que hay pocos individuos que poseen gran
cantidad de riqueza, hay muchos individuos que
tienen una cantidad media de riqueza y la gran
mayoría de personas en ese país tienen recursos
muy limitados y se consideran pobres. Ahora
suponga tres diseños de muestreo para el mismo
problema: el primero, que asigna probabilidades
de inclusión iguales a cada elemento de la población;
el segundo, que asigna mayores probabilidades
de inclusión a los individuos que poseen
menos y menores probabilidades de inclusión
a los individuos que poseen gran cantidad de
riqueza, y el tercer diseño asigna probabilidades
de inclusión mayores a los ricos y menores a los
pobres. Teniendo en cuenta la regla de oro del
muestreo, el mejor diseño es este último, pues
más riqueza implica mayores probabilidades de
inclusión y menos recursos económicos implican
menores probabilidades de inclusión.
Lo anterior tiene lógica cuando se acude al principio
de representatividad sobre el cual se basa
todo el andamiaje epistemológico de la inferencia
en poblaciones finitas (Brewer, 2002: 101-104);
como es bien sabido, a pesar de la variación per
se de todas la poblaciones, algunos individuos
son capaces de representarse a sí mismos y a
algún otro conjunto de individuos. Es por lo anterior
que en estadística se utilizan ponderadores
para representar a la población de interés y un
ponderador natural es el inverso de la probabilidad
de inclusión, por tanto, un individuo con una
probabilidad de inclusión máxima igual a uno,
sólo es capaz de representarse a sí mismo y a
nadie más, puesto que el inverso de la unidad
es la unidad. Un individuo con una probabilidad
de inclusión baja, se representará a sí mismo y
a un conjunto grande de individuos. Si se utiliza
el primer diseño muestral, se está incurriendo
en un error pues se le está asignando el mismo
peso a los ricos y a los pobres, pero si se utiliza
el segundo diseño muestral se está incurriendo
en un error más grave aún, ya que se está afirmando
que los ricos se representan a sí mismos
y a muchos otros y a la vez los pobres no tendrán
mucha participación en la población, lo que es
obviamente incorrecto.
Así que, la regla de oro del muestreo, no es
otra cosa que sentido común combinado con el
principio de la representatividad. En este caso
se debe planear un buen diseño de muestreo
acompañado de un estimador cuyas ponderaciones
satisfagan la regla de oro. Ya Basú (1971) ha
instruido acerca de los resultados de combinar
un diseño muestral que no satisface la regla de
oro junto con el único estimador hiperadmisible
en la clase de todos los estimadores insesgados
polinomiales generalizados. La moraleja de la
fábula de los elefantes de Basú recae en que el
investigador debe asumir la escogencia de una
estrategia, no de un diseño ni de un estimador
por aparte.
Por otra parte, suponga que en esta encuesta se
planea un diseño muestral que induce probabilidades
de inclusión proporcionales al comportamiento
de la característica de interés y que se
tiene acceso a información auxiliar de tipo continuo.
De esta forma, el estadístico puede utilizar
procesos de estimación avanzados como el
raking o estimadores de calibración, puesto que
son más atractivos en este tipo de situaciones;
aunque es muy importante que tenga en cuenta
que la información auxiliar continua debe estar
altamente correlacionada con la característica de
interés, ya que estos procesos de estimación, en
últimas, crean estimadores lineales cuyas ponderaciones
no dependen directamente del diseño
muestral. De esta manera, por ejemplo, si se
planea un buen diseño que induce probabilidades
de inclusión proporcionales a la variable de
interés, al utilizar una característica de información
auxiliar que no se encuentre bien correlacionada
con la variable de interés, se tendrá como
resultado que las ponderaciones finales de un
proceso de calibración no cumplirán con el principio
de representatividad, puesto que éstas se
verán influenciadas en gran manera por el comportamiento
no proporcional de la característica
de información auxiliar. Con esto en mente, si la
información auxiliar no está correlacionada con
la característica de interés, las ponderaciones
resultantes tampoco estarán correlacionadas con
esta misma; por lo tanto, al final se tendrá una
estrategia deficiente compuesta por un excelente
diseño muestral y un pésimo estimador.
4. Algunos escenarios prácticos
4.1. Encuestas multipropósito
A finales del siglo pasado, Smith (1976) hizo
el siguiente llamado: “si los estadísticos teóricos
hacen caso omiso al reto de enfrentar las
encuestas multipropósito, entonces el vacío
existente entre ellos y los estadísticos prácticos
se hará cada vez más grande. El diseño y análisis
de encuestas multivariantes debe ser una
de las próximas áreas de mayor investigación.”
Esta invitación se encuentra enmarcada en un
artículo que discute los fundamentos de la teoría
de muestreo, desde sus primeros años hasta
las últimas tendencias, en cuanto a predicción y
estimación en poblaciones finitas.
En sus múltiples artículos, Smith afirmó que en
el muestreo, los problemas univariados (estimación
de un parámetro desconocido para una
sola característica de interés) se encuentran en
unas cuantas ramas de aplicación, limitadas a
encuestas de opinión pública, muestreo industrial
de aceptación y muestreo en auditorías; sin
embargo, la gran mayoría de encuestas que se
realizan alrededor del mundo son de tipo multipropósito
(estimación de varios parámetros desconocidos
para varias características de interés).
El profesor Smith tuvo en cuenta la limitación
que presentan los grandes textos clásicos del
muestreo, al no considerar este tipo de estudios
ni incluirlos en sus páginas y llamó la atención a
los teóricos del muestreo a realizar investigación
formal en este tipo de tópicos.
Dado que los institutos nacionales de estadística
que manejan las cifras oficiales, con las cuales
el gobierno decide acerca de sus políticas públicas,
entre otros, realizan encuestas multipropósito,
el estadístico debe preguntarse acerca del
principio de representatividad en este ámbito. Si
las encuestas que se planean responden al objetivo
de la estimación de múltiples parámetros de
interés, entonces el diseño de muestreo debería
inducir probabilidades de inclusión que sean
proporcionales al comportamiento estructural de
todas y cada una de las características de interés.
Por supuesto que lograr lo anterior puede
tornarse en una tarea muy difícil, si no imposible;
sin embargo, Holmberg (2002) plantea una
solución a este problema, recurriendo a la minimización
de la varianza de estimadores lineales
cuando se tienen en cuenta varios parámetros
de interés. De esta manera, es posible encontrar
un vector de probabilidades de inclusión que sea
óptimo en el sentido de que minimiza la varianza
de las estimaciones resultantes; en Gutiérrez
(2009) se plantean ejercicios prácticos que ilustran
estas situaciones.
4.2. Modelos o aleatorización
Las nociones de la inferencia en poblaciones finitas
fueron expresadas hace más de 60 años en
muchos libros clásicos como Cochran, Hansen,
Hurwitz y Madow, Deming, Murthy, Des Raj y
otros; la teoría de muestreo era aplicada desde
la perspectiva misma de la selección aleatorizada
de posibles muestras en la población finita,
y dependiendo de las circunstancias prácticas, la
selección se hacía de distintas maneras: muestreo
aleatorio simple, muestreo aleatorio estratificado,
muestreo de conglomerados, muestreo
en dos etapas, etc. El muestreo era considerado
como la actividad primaria y la estimación nunca
fue considerada como una práctica separada
sino como una consecuencia automática, lo cual
se debía a que cada tipo de diseño de muestreo
inducía un estimador cuyas propiedades estadísticas,
como el insesgamiento y la varianza, eran
establecidas de antemano con el diseño y así, la
varianza era calculable y estimable.
Así que, para la década de los sesenta, muchos
creyeron que la investigación en el campo del
muestreo y de la inferencia en poblaciones finitas
ya estaba muerta porque se deberían inventar
nuevas formas de selección de muestras,
más allá de las que se cubrían en los libros clásicos
del muestreo. Aunque el estimador de razón
fue considerado en algún detalle por los textos
de referencia, la inclusión de varias variables de
información auxiliar no se vio como un tópico
que prometiera rédito alguno para emprender el
camino de la investigación en esa vía.
En la década de los setenta, varios autores dieron
un viraje en su perspectiva epistemológica de
la inferencia en poblaciones finitas, es así como
Basú, Brewer, Godambe y Royal, entre otros,
consideraron los modelos estadísticos (en sintonía
con la estadística clásica Fisheriana) como
los verdaderos fundamentos de la estimación
e inferencia en poblaciones finitas. Su trabajo
se cimentó alrededor de la posibilidad de tener
una inferencia que dependiera estrictamente del
modelo propuesto y no tuviera nada que ver con
el diseño de muestreo utilizado en la recolección
de los datos. Como consecuencia, la atención
se tornó alrededor de la estimación y se dejó
de lado el muestreo por la relación existente o
propuesta entre la característica de interés y las
variables de información auxiliar.
El camino que tomó la historia del muestreo
fue, precisamente, la incorporación de las dos
corrientes de pensamiento bajo una sola sombrilla,
de modo que fue posible combinar la aleatorización
clásica con una percepción más general
de la relación de la característica de interés,
con la información auxiliar disponible, y no hubo
necesidad de sacrificar los principios basados en
la aleatorización. Así nació la inferencia asistida
por modelos, pero basada en la aleatorización
(model assited design-based inference), la cual
se hizo muy atractiva porque la regresión y los
modelos acompañan al estadístico desde sus
primeros cursos y van tomando más fuerzas a
medida que se avanza en el camino universitario,
al punto que este pensamiento “asistido por
modelos” es un matrimonio efectivo y tolerante
que permite las ideas de la regresión junto con
el paradigma de la aleatorización. Jan Wrettman
(citado por Kott, 2005) opina que el ajuste de un
modelo se ha convertido en parte integral de la
teoría clásica del muestreo, aunque los principios
de la misma deben permanecer intocables
porque las propiedades de los estimadores son
evaluadas con respecto al mecanismo de probabilidad
generado por la muestra y no con respecto
a cualquier modelo asumido.
No obstante, acudir al tipo de inferencia que
Royal y otros plantean, dejando de lado el principio
de aleatorización de las unidades, es peligroso,
como se expondrá en la siguiente sección.
Simplemente, al acudir al pensamiento
lógico de Kish, se hace a veces inverosímil
acoger esta recomendación en términos de la
puesta en marcha de encuestas que arrojarán
estadísticas oficiales.
El enunciado que se encuentra en cualquier libro
de inferencia estadística es el siguiente: “Dadas
n variables aleatorias, seleccionadas de una
población, independientes e idénticamente distribuidas.”
Kish afirma que cada palabra en el
anterior enunciado es engañosa: las muestras
no son dadas, deben ser seleccionadas, asignadas
o capturadas; el tamaño de la muestra no
siempre es un número n fijo, en la mayoría de
casos prácticos, es una variable aleatoria; los
datos no siguen el supuesto de independencia
ni de idéntica distribución, es más, en muchas
ocasiones no existe una sola población, sino que
la muestra seleccionada es el resultado de una
selección de subpoblaciones para las cuales se
deben producir, no sólo una estimación, sino un
montón de estimaciones. En consecuencia, la
historia que contaron no aplica en la mayoría de
situaciones prácticas; de todos los universos que
se puedan suponer, en la vida práctica no existe
ninguno que siga el patrón de la urna con bolas
bien revueltas. En el día a día de la consecución
de estadísticas oficiales, el estadístico trata con
universos complejos y por tanto se deben utilizar
diseños de muestreo complejos que contemplen,
entre otros, el principio de representatividad.
4.3. Encuestas electorales
Alguien dirá que la sugerencia de Royal puede
ser implementada en el escenario práctico de
las encuestas electorales; aunque estos estudios
no son experimentos controlados ni respetan el
principio de la aleatorización, sí son válidos para
la aplicación de la sugerencia de Royal, dado
que el tamaño de muestra final es elevado y
máxime cuando los resultados de las encuestadoras
no son disímiles. Por ejemplo, en el último
pulso electoral en Colombia, la tendencia de un
empate técnico entre dos candidatos presidenciales
era clara, continua y contundente. Ahora,
apelando a la teoría estadística de la inferencia
en poblaciones finitas basada en modelos poblacionales
y reuniendo las observaciones de las
distintas encuestas, se llega a conclusiones similares,
pero esta vez respaldadas por las técnicas
estadísticas sugeridas por Royal. Con base en
lo anterior, se podría afirmar que existe evidencia
estadística de que la votación de la primera
vuelta de las elecciones presidenciales en Colombia
no sería otra cosa que una reñida puja entre
los dos candidatos; sin embargo, la realidad de
las votaciones arrojó otro escenario muy distinto
al que sugería la estadística basada en los
modelos. La mayoría de las encuestas fue realizada
en los principales municipios y ciudades del
país de forma telefónica y unas pocas se hicieron
por interceptación en la calle. En el desarrollo
de la contienda electoral se hacía énfasis en
que todas las encuestas habían tenido en cuenta
la repartición socio-económica y demográfica,
de tal forma que los porcentajes en cada una
de estas categorías coincidían en la población y
en la muestra. Lo anterior era interpretado por
los analistas políticos como una ventaja en el
planeamiento de las encuestas que conducía a la
robustez de las cifras y estimativos presentados
en los medios de comunicación. Sin embargo, a
la mayoría de firmas encuestadoras se les olvidó
que la subpoblación de colombianos con teléfono
no representa a Colombia, que es un país pobre
y con millones de personas en la indigencia. Más
aún, pareciese que obviaron que la carencia de
teléfono no implica abstinencia en el voto. Luego,
muchas personas de este gran conglomerado de
ciudadanos votaron a favor del candidato oficialista
y se presentó una victoria contundente.
La situación anterior, además de constituir una
violación flagrante al principio de representatividad,
hace que obviar una gran subpoblación de
colombianos sin teléfono se considere un grave
error, incluso en estudios no probabilísticos, si
se quieren realizar pronósticos en un país en
donde la regla es la pobreza. Lo expuesto anteriormente,
da pie para concluir, al menos empíricamente,
que si el modelo sobre el cual se basa
el proceso de estimación es errado, también lo
serán las cifras resultantes de este proceso.
5. Discusión
La muestra es una herramienta que no admite
el calificativo de representativa y la estrategia
de muestreo se dice representativa, si el estimador
aplicado en la muestra seleccionada tiene la
capacidad de reproducir algunos totales poblacionales.
El estadístico debe tener en cuenta
el principio de representatividad en su práctica
de planeamiento y ejecución de encuestas que
arrojen estadísticas oficiales. En este ejercicio
deben utilizarse estrategias de muestreo basadas
en diseños de muestreo que induzcan probabilidades
de inclusión que respeten el principio
de la representatividad, ya sea porque el
comportamiento estructural del vector de probabilidades
de inclusión es proporcional a una
característica de interés, o porque minimiza
la varianza de las estimaciones resultantes en
encuestas multipropósito.
Asimismo, el estadístico debe utilizar estimadores
que hagan uso de estas probabilidades de inclusión
proporcionales o que utilicen modelos que describan
el comportamiento estructural de las características
de interés; así, se asegura una estrategia
de muestreo óptima pues, de igual manera, el
diseño muestral y el estimador van en la misma
vía del principio de representatividad. Es un error
utilizar un buen diseño muestral junto con estimadores
que dejen de lado las ponderaciones
inducidas por el diseño; de la misma manera, es
un error no planear un excelente diseño muestral
confiando en que un estimador avanzado arreglará
estas falencias.
Por la naturaleza per se de las encuestas que arrojan
estadísticas oficiales y por la posterior utilización
de las cifras que estas encuestas proyectan,
en todo tiempo, el estadístico debe involucrar el
principio de la representatividad en la estrategia
de muestreo, tanto en el diseño, como en el estimador.
El uso de la inferencia basada en modelos
en este contexto debe ser limitado solamente a la
estimación de áreas pequeñas, que en última instancia
poseen un muy pequeño tamaño de muestra,
que en algunos casos llega a ser nulo.
Agradecimientos
El autor agradece a Dios por permitirle escribir
estas líneas, al comité editorial de ib Revista de la
información básica y a la señora Irina Torres Vargas
por la cordial invitación para formar parte de
este número conmemorativo en el día mundial de
la estadística, al árbitro que revisó este artículo
en su primera versión, y por último, a los lectores
del blog Apuntes de Estadística (www.predictive.
wordpress.com) de donde fueron extraídos varios
apartes de este artículo.
Bibliografía
Basu, D. (1971). An essay on the logical foundations
of survey sampling. Holt, Rinehart and
Winston. Toronto. pp. 203-242.
Brewer, K. (2002). Combined Survey Sampling
Inference: Weighing Basu’s Elephants. Arnold
Publishers.
Box, G. E. P. (1979). Robustness in the Strategy
of Scientific Model Building in Robusteness. En:
Statistics, Academies Press.
Cochran, W. (1977). Sampling Techniques. Wiley.
Gutiérrez, H. A. (2009). Estrategias de muestreo.
Editorial Universidad Santo Tomás.
Holmberg, A. (2002). A multiparameter perspective
on the choice of sampling design in surveys.
En: Statistics in Transition, 5, pp. 969-994.
Kott, P. S., Sweensson, B., Särndal, C. E. & Wretman,
J. (2005). An interview with the authors of
the book: Model-assisted survey sampling. En:
Journal of Official Statistics, 21, pp. 171-182.
Kyburg, H. E. (1987), ‘The basic bayesian blunder’,
The Foundations of Statistical Inference pp.
Reidel, Dordrecht.
Neyman, J. (1934). ‘On the two differents aspects
of the representative method: the method of
stratified sampling and the method of purposive
selection. En: Journal of the Royal Statistical
Society, 97, pp. 558-625.
Royall, R. M. (1971). ‘Linear regression models
in finite population sampling theory’. En: The
Foundations of Survey Sampling. Godambe, V.P.
and Sprott, D.A. (eds.), 236, Holt, Rinehart,
and Winston.
Smith, T. M. F. (1976). The foundations of survey
sampling: a review (with discussion). En:
Journal of the Royal Statistical Society 139,
pp. 183-204.
Tillé, Y. (2006). Sampling Algorithms. Springer.
1Director del Centro de Investigaciones y Estudios Estadísticos (CIEES). Universidad Santo Tomás. hugogutierrez@usantotomas.edu.co
|