Sección 6 Bootstrap no paramétrico

Bootstrap: to pull oneself up by one’s bootstrap

Estas notas se desarrollaron con base en Efron and Tibshirani (1993), adicionalmente se usaron ideas de Hesterberg (2015). Abordamos los siguientes temas:

  • Muestras aleatorias
  • El principio del plug-in
  • Bootstrap no paramétrico
  • Ejemplos: componentes principales, ajuste de curvas, muestreo.

Ejemplo: aspirina y ataques cardiacos

Como explican Efron y Tibshirani, las explicaciones del bootstrap y otros métodos computacionales involucran las ideas de inferencia estadistica tradicional. Las ideas báscias no han cambiado pero la implementación de estas sí.

Los tres conceptos básicos de estadística son:

  1. Recolección de datos,

  2. resúmenes (o descriptivos) de datos y

  3. inferencia.

Veamos un ejemplo de estos conceptos y como se introduce bootstrap. Usaremos datos de un estudio clínico de consumo de aspirina y ataques cardiacos cuyos resultados fueron publicados en el New York Times:

Planteamiento: se diseñó un estudio para investigar si el consumo de dosis bajas de aspirina podía prevenir los ataques cardiacos en hombres sanos en edad media.

Recolección de datos: Se hizo un diseño controlado, aleatorizado y doblemente ciego. La mitad de los participantes recibieron aspirina y la otra mitad un placebo.

Descriptivos: Las estadísticas descriptivas del artículo son muy sencillas:

grupo ataques cardiacos sujetos
aspirina 104 11037
placebo 189 11034

De manera que la estimación del cociente de las tasas es \[\hat{\theta}=\frac{104/11037}{189/11034} = 0.55\] En la muestra los individuos que toman aspirina tienen únicamente 55% de los ataques que los que toman placebo. Sin embargo, lo que realmente nos interesa es \(\theta\): el cociente de tasas que observaríamos si pudieramos tratar a todos los hombres y no únicamente a una muestra.

Inferencia: aquí es donde recurrimos a inferencia estadística:

\[0.43 < \theta < 0.70\] El verdadero valor de \(\theta\) esta en el intervalo \((0.43,0.70)\) con una confianza del 95%.

Ahora, el bootstrap es un método de simulación basado en datos para inferencia estadística. La idea detrás es que si una muestra es una aproximación de la población que la generó, entoces podemos hacer muestreos de la muestra para calcular una estadística de interés y medir la exactitud en la misma.

En este caso tenemos los resultados del experimento en la variable trial.

Y calculamos el cociente de las tasas:

Después calculamos 1000 replicaciones bootstrap de \(\hat{\theta*}\)

Las replicaciones se pueden utilizar para hacer inferencia de los datos. Por ejemplo, podemos estimar el error estándar de \(\theta\):

Referencias

Efron, Bradley, and Robert J. Tibshirani. 1993. An Introduction to the Bootstrap. Monographs on Statistics and Applied Probability 57. Boca Raton, Florida, USA: Chapman & Hall/CRC.

Hesterberg, Tim C. 2015. “What Teachers Should Know About the Bootstrap: Resampling in the Undergraduate Statistics Curriculum.” The American Statistician 69 (4). Taylor & Francis:371–86. https://doi.org/10.1080/00031305.2015.1089789.