Lección 5: Inferencia Estadística

Autor/a

Saavedra, P.

1 El problema de la inferencia estadística

El inductivismo es un método científico que elabora conclusiones generales a partir de enunciados observacionales particulares y por tanto, lleva de lo particular a lo general. Bertrand Russell fundamenta la inducción en el concepto de uniformidad de la naturaleza merced al cual el curso de ésta se mantiene constante, de modo que el futuro ha de parecerse al pasado dado que a causas semejantes siguen efectos semejantes. Las uniformidades pasadas causan expectativas con respecto al futuro (Russell, 1973).

Tomamos este debate como punto de partida para hacer una aproximación al concepto de inferencia estadística y lo haremos considerando el problema de establecer si un nuevo tratamiento terapéutico para una enfermedad realmente la curará, o cual es la probabilidad de que lo haga (tasa de respuesta favorable al tratamiento). La complejidad de los seres vivos conduce a que normalmente sólo podamos hablar de probabilidad de curación. La necesidad de predecir en el futuro la evolución de la enfermedad justifica la necesidad de conocer esta probabilidad, la cual sería una ley que nos dice algo acerca de las expectativas de curación de cualquier sujeto de la población de enfermos que han recibido el tratamiento de estudio. Las cantidades que nos informan de determinados aspectos de tales poblaciones, en este caso la tasa de respuesta al tratamiento, reciben el nombre de parámetros.

Ahora bien, ¿cómo podríamos conocer el verdadero valor de los parámetros? Para el problema de la tasa de respuesta a un tratamiento, casi todo el mundo pensaría inmediatamente que mediante la aplicación del tratamiento a un subconjunto de pacientes (muestra) y estimando el valor desconocido del parámetro por la frecuencia de respuestas favorables. Esto es, extrapolando los resultados de la muestra a toda la población. Ahora bien, si el estudio se repitiese con diferentes muestras, previsiblemente los estimaciones variarían entre los estudios. Por tanto, ¿qué valor tienen realmente las estimaciones de los parámetros? El propósito de esta lección es describir métodos que nos permitan hacer estimaciones fiables de parámetros.

Los elementos por tanto de un problema de inferencia estadística son:

  • Universo o población de estudio.

  • Parámetros que son cantidades que nos dicen algo sobre la población de estudio.

  • Muestra o subconjunto de la población de estudio, normalmente extraída de forma aleatoria.

  • Datos observados en los elementos de la muestra y que constituyen la base de la inferencia.

  • Estadísticos o funciones de los datos, cuya finalidad es inferir a la población lo observado en la muestra (método inductivo).

 

 

2 Estimación puntual

En esta sección se considera el problema de estimar un parámetro desconocido \(\theta\) a través de un conjunto de datos \(\mathscr{X}\) obtenidos de una muestra aleatoria de la población de estudio. Haremos en primer lugar una aproximación heurística al concepto de estimador puntual a través de un estudio de simulación. El estudio pondrá de manifiesto que el estadístico estimador es una variable aleatoria y por tanto, que su fiablidad depende de su distribución de probabilidad. Se formalizará entonces el concepto de estimador puntual como un estadístico cuyo propósito es hacer buenas aproximaciones al verdadero valor de \(\theta\). Finalmente, se analizarán los estimadores de diversos parámetros simples.

 

2.1 Estudio de simulación

Sea un parámetro \(\pi\) que representa la tasa de respuesta favorable a un tratamiento. Su estimador natural es la proporción de respuestas favorables observadas en una muestra aleatoria de \(n\) pacientes que han recibido el tratamiento de estudio y al cual denotaremos por \(\hat{\pi}_{n}\) . Obviamente el valor de \(\hat{\pi}_{n}\) depende de la muestra aleatoriamente seleccionada, lo que supone que es una variable aleatoria. Resumimos ahora el algoritmo de simulación en los siguientes pasos:

  1. Supóngase que la tasa de respuestas es \(\pi=0.70\), lo que significa que cada vez que se aplica el tratamiento a un paciente, hay una probabilidad del 70% de que responda favorablemente.

  2. Se aplica el tratamiento a una muestra aleatoria de \(n\) pacientes y se obtiene la proporción de respuestas favorables al mismo \(\hat{\pi}_{n}\). Se considerarán los tamaños muestrales: \(n=\) 20, 100, 384 y 1000.

  3. El paso anterior se repite 10,000 veces, lo que supone que se dispone de 10,000 observaciones de la variable aleatoria \(\hat{\pi}_{n}\).

  4. Representamos finalmente las 10,000 observaciones de \(\hat{\pi}_{n}\) mediante un histograma para cada uno de los tamaños muestrales \(n\).

Figura 1: Esta simulación se basa en el hecho de que el verdadero valor del parámetro es \(\pi=0.7\). Para cada uno de los tamaños muestrales se han realizado 10,000 estimaciones. Este estudio pone de manifiesto que las estimaciones tienen como centro de gravedad el verdadero valor de \(\pi\) y que son más fiables (menor varianza) cuando el tamaño muestral es mayor.

En la figura 1 se muestran los histogramas correspondientes a las 10,000 observaciones del estimador \(\hat{\pi}_{n}\) para los diferentes tamaños muestrales considerados. Nótese que para \(n\) = 20, una buena parte de las estimaciones están próximas al verdadero valor \(\pi\) = 0.70, pero algunas bajan hasta 0.40 lo que supone que el estimador carece de fiabilidad para este tamaño muestral. Para \(n\) = 100 raramente las estimaciones son inferiores a 0.60 o superiores a 0.80 lo que implica una mayor fiabilidad que en el caso anterior. El aumento a \(n\) = 384 conduce a una mayor fiabilidad (pocas estimaciones se alejan en más de 0.05 del verdadero valor de \(\pi\)). Nótese por último que para \(n\) = 1000, se consigue aún un cierto aumento de la fiabilidad (pocas estimaciones se alejan más de 0.03 del verdadero valor de \(\pi\)); sin embargo pasar de \(n=\) 384 a \(n=\) 1000 significa aumentar muchísimo el tamaño de la muestra para conseguir un ligero aumento de la fiabilidad. La idea a extraer del estudio es, por tanto, que el estimador \(\hat{\pi}_{n}\) es una variable aleatoria y que su fiabilidad depende de su distribución de probabilidad. Más concretamente, que la distribución debe concentrarse alrededor del verdadero valor del parámetro.

 

2.2 Definición de estimador puntual

La estimación de cualquier parámetro desconocido \(\theta\) se basa en general en un conjunto de datos \(\mathscr{X}\) obtenidos aleatoriamente de la población de estudio, los cuales deben contener información acerca del verdadero valor de dicho parámetro.

En general, un estimador puntual para un parámetro \(\theta\) basado en un conjunto de datos \(\mathscr{X}\), es un estadístico (una función de los datos) que representaremos por: \(\hat{\theta}=\hat{\theta}\left(\mathscr{X}\right)\) y cuya finalidad es hacer buenas aproximaciones al verdadero valor de \(\theta\). La naturaleza aleatoria del conjunto de datos \(\mathscr{X}\) da lugar a que el estimador \(\hat{\theta}\) sea una variable aleatoria, y de esta forma, su fiabilidad dependerá de su distribución de probabilidad. Dos propiedades deseables de cualquier estimador son:

  • Que sea centrado; esto es: que \(E\left[\hat{\theta}\right]=\theta\). Esta propiedad supone que todas las estimaciones posibles tendrán como centro de gravedad el verdadero valor del parámetro \(\theta\).

  • Que tenga poca varianza. En este sentido, se llama error estándar de un estimador a su desviación estándar; esto es: \(\textrm{sd}\left(\hat{\theta}\right)\).

En aquellos casos en los que los datos consistan en una única muestra aleatoria de tamaño \(n\), podemos expresar el estimador usando la notación \(\hat{\theta}_{n}\). En este caso, una propiedad deseable del estimador es que \(\textrm{sd}\left(\hat{\theta}_{n}\right)\longrightarrow0\), según \(n\longrightarrow\infty\).

 

3 Estimación de parámetros elementales

En esta sección se proponen estimadores para los parámetros más usuales y se obtienen sus esperanzas y varianzas. Asimismo se examinará el problema de determinar el tamaño muestral necesario para que el estimador tenga una fiabilidad predeterminada. Para ello utilizaremos el siguiente resultado (ver también la figura figura 1):

Proposición 1: Si \(Z\cong N\left(0,1\right)\), entonces: \(\Pr\left(-z_{1-\alpha/2}\leq Z\leq z_{1-\alpha/2}\right)=1-\alpha\).

Figura 2: Distribución de probabilidad normal estándar

Recuérdese que \(z_{q}\) representa el cuantil \(q\) de la distribución normal estándar; esto es, si \(Z\cong N\left(0,1\right)\) y se fija un valor \(0<q<1\), \(z_{q}\) satisface: \(q=\Pr\left(Z\leq z_{q}\right)\).

 

3.1 Probabilidades

Considérese un experimento aleatorio en el que la probabilidad de que ocurra un cierto suceso es \(\pi\). Por ejemplo, \(\pi\) puede ser la probabilidad de respuesta favorable a un tratamiento terapéutico (tasa de respuesta favorable al tratamiento) o la probabilidad de que al seleccionar aleatoriamente un sujeto de una cierta población tenga una enfermedad (prevalencia de esa enfermedad).

En orden a estimar \(\pi\) el experimento aleatorio se repite \(n\) veces en las mismas condiciones de tal forma que los resultados de las sucesivas repeticiones sean independientes.

Asociada a cada una de las repeticiones del experimento aleatorio se definen las variables aleatorias \(X_{i}\) como 1 ó 0 según en la \(i\)-ésima repetición ocurra o no el suceso considerado (por ejemplo, que el paciente \(i\)-ésimo responda favorablemente al tratamiento considerado). De esta forma, \(X_{1},\ldots,X_{n}\) son variables aleatorias independientes y con distribución de probabilidad \(b\left(1,\pi\right)\). Nótese que \(E\left[X_{i}\right]=\pi\) y \(\textrm{var}\left(X_{i}\right)=\pi\left(1-\pi\right).\)

Un estimador natural de \(\pi\) basado en \(X_{1},\ldots,X_{n}\) es la proporción muestral de veces que ocurre el suceso de interés, la cual se obtiene como:

\[\hat{\pi}_{n}=\frac{1}{n}\sum_{i=1}^{n}X_{i}\]

Veamos ahora que el estimador es centrado y calculemos su varianza. En efecto:

\[E\left[\hat{\pi}_{n}\right]=E\left[\frac{1}{n}\sum_{i=1}^{n}X_{i}\right]=\frac{1}{n}\sum_{i=1}^{n}E\left[X_{i}\right]=\frac{1}{n}n\pi=\pi\]

\[\textrm{var}\left(\hat{\pi}_{n}\right)=\textrm{var}\left(\frac{1}{n}\sum_{i=1}^{n}X_{i}\right)=\frac{1}{n^{2}}\sum_{i=1}^{n}\textrm{var}\left(X_{i}\right)=\frac{\pi\left(1-\pi\right)}{n}\]

Supóngase ahora que se desea determinar el tamaño muestral \(n\) que se precisa para estimar el parámetro \(\pi\) a través de \(\hat{\pi}_{n}\) con una precisión dada por la expresión:

\[\Pr\left(\pi-B\leq\hat{\pi}_{n}\leq\pi+B\right)=1-\alpha\]

Aquí, \(B\) recibe el nombre de cota de error y \(1-\alpha\) de confianza. Para resolver esta ecuación de precisión se requiere disponer de información acerca de la distribución de probabilidad de \(\hat{\pi}_{n}\). Para ello tendremos en cuenta que \(\hat{\pi}_{n}\) es una suma de variables aleatorias independientes, y de ahí, la siguiente aproximación basada en el teorema central del límite:

\[\frac{\hat{\pi}_{n}-\pi}{\sqrt{\pi\left(1-\pi\right)/n}}\approx N\left(0,1\right)\]

Entonces, tipificando en la ecuación de precisión se obtiene:

\[\Pr\left(-\frac{B}{\sqrt{\pi\left(1-\pi\right)/n}}\leq\frac{\hat{\pi}_{n}-\pi}{\sqrt{\pi\left(1-\pi\right)/n}}\leq\frac{B}{\sqrt{\pi\left(1-\pi\right)/n}}\right)=1-\alpha\]

Teniéndose en cuenta la proposición 1 se llega a:

\[\frac{B}{\sqrt{\pi\left(1-\pi\right)/n}}=z_{1-\alpha}\]

Despejando el tamaño muestral \(n\) queda:

\[n=\frac{z_{1-\alpha}^{2}}{B^{2}}\cdot\pi\left(1-\pi\right)\]

Nótese que la solución depende del parámetro que se desea estimar (\(\pi\)), cuyo valor no se conoce. La solución práctica puede aproximarse de dos formas alternativas, a saber:

  1. Si se tiene una idea aproximada acerca del posible valor \(\pi\), sustituir tal valor en la expresión de \(n\).

  2. Utilizar la desigualdad \(\pi\left(1-\pi\right)\leq1/4\) (es fácil su comprobación). En tal caso, la solución queda acotada en la forma: \(n\leq z_{1-\alpha}^{2}/\left(4B^{2}\right)\).

Seleccionando los valores \(\alpha=B=0.05\), puede comprobarse que \(n\leq384\).

3.2 Esperanzas

Considérese una magnitud aleatoria cuya distribución de probabilidad \(\mathscr{P}\) tiene esperanza \(\mu\) y varianza \(\sigma^{2}\). En orden a estimar \(\mu\) se selecciona una muestra aleatoria \(X_{1},.\ldots,X_{n}\) de \(\mathscr{P}\) y se considera el estimador media muestral, definido como:

\[\hat{\mu}_{n}=\frac{1}{n}\sum_{i=1}^{n}X_{i}\]

Nótese que \(E\left[X_{i}\right]=\mu\) y \(\textrm{var}\left(X_{i}\right)=\sigma^{2}\). Veamos que \(\hat{\mu}_{n}\) es centrado para \(\mu\). En efecto:

\[E\left[\hat{\mu}_{n}\right]=E\left[\frac{1}{n}\sum_{i=1}^{n}X_{i}\right]=\frac{1}{n}\sum_{i=1}^{n}E\left[X_{i}\right]=\frac{1}{n}n\mu=\mu\]

La varianza del estimador es:

\[\textrm{var}\left(\hat{\mu}_{n}\right)=\textrm{var}\left(\frac{1}{n}\sum_{i=1}^{n}X_{i}\right)=\frac{1}{n^{2}}\sum_{i=1}^{n}\textrm{var}\left(X_{i}\right)=\frac{1}{n^{2}}n\sigma^{2}=\frac{\sigma^{2}}{n}\]

De lo anterior resulta que el error estándar del estimador es: \(\sigma/\sqrt{n}\).

Supóngase ahora que se desea estimar la esperanza de una distribución de probabilidad \(\mu\) con una cota de error \(B\) y una confianza \(1-\alpha\). El tamaño muestral se obtendrá entonces como solución de la ecuación:

\[\Pr\left(\mu-B\leq\hat{\mu}_{n}\leq\mu+B\right)=1-\alpha\]

Para resolver la ecuación anterior hacemos uso de la siguiente aproximación basada en el teorema central del límite:

\[\sqrt{n}\cdot\frac{\hat{\mu}_{n}-\mu}{\sigma}\approx N\left(0,1\right)\]

Tipificando en la ecuación de precisión queda:

\[\Pr\left(-\frac{B}{\sigma}\sqrt{n}\leq\sqrt{n}\cdot\frac{\hat{\mu}_{n}-\mu}{\sigma}\leq\frac{B}{\sigma}\sqrt{n}\right)=1-\alpha\]

Ello supone que: \(B\sqrt{n}/\sigma=z_{1-\alpha/2}\), lo que lleva finalmente a:

\[n=\frac{z_{1-\alpha/2}^{2}\cdot\sigma^{2}}{B^{2}}\]

Nótese que para poder fijar el tamaño muestral \(n\), se precisa hacer uso de alguna información que se pueda disponer del verdadero valor de \(\sigma^{2}\).

3.3 Varianzas

Considérese nuevamente una magnitud aleatoria cuya distribución de probabilidad \(\mathscr{P}\) tiene esperanza \(\mu\) y varianza \(\sigma^{2}\). Un estimador natural para \(\sigma^{2}\) basado en una muestra aleatoria \(X_{1},.\ldots,X_{n}\) de la correspondiente distribución de probabilidad sería:

\[\frac{1}{n}\sum_{i=1}^{n}\left(X_{i}-\mu\right)^{2}\]

Sin embargo, el parámetro \(\mu\) no se conoce en la práctica, por lo cual procedería sustituirlo por la estimación \(\hat{\mu}_{n}\) dada en la subsección anterior. En orden a que el estimador sea centrado, proponemos finalmente el estimador llamado varianza muestral, el cual se define por:

\[\hat{\sigma}_{n}^{2}=\frac{1}{n-1}\sum_{i=1}^{n}\left(X_{i}-\hat{\mu}_{n}\right)^{2}\]

Teorema (de Fisher) Para el supuesto en el que la distribución de probabilidad fuese \(\mathscr{P}=N\left(\mu,\sigma\right)\), se satisface:

\[\left(n-1\right)\frac{\hat{\sigma}_{n}^{2}}{\sigma^{2}}\cong\chi^{2}\left(n-1\right)\]

Del teorema anterior se sigue que \(\hat{\sigma}_{n}^{2}\) es un estimador centrado para \(\sigma^{2}\). En efecto:

\[E\left[\left(n-1\right)\frac{\hat{\sigma}_{n}^{2}}{\sigma^{2}}\right]=n-1\]

Teniendo en cuenta las propiedades de la esperanza se sigue que \(E\left[\hat{\sigma}_{n}^{2}\right]=\sigma^{2}\).

Para la varianza se tiene:

\[\textrm{var}\left(\left(n-1\right)\frac{\hat{\sigma}_{n}^{2}}{\sigma^{2}}\right)=2\left(n-1\right)\]

Aplicando las propiedades de la varianza se llega finalmente a:

\[\textrm{var}\left(\hat{\sigma}_{n}^{2}\right)=\frac{2\sigma^{4}}{n-1}\]

3.4 Riesgo relativo y odds-ratio

Considérense las poblaciones \(E\) y \(C\) y sean \(\pi_{E}\) y \(\pi_{C}\) las probabilidades de que los elementos de estas poblaciones posean un atributo \(D\); esto es: \(\pi_{E}=\Pr\left(D\mid E\right)\) y \(\pi_{C}=\Pr\left(D\mid C\right).\)

El riesgo relativo es entonces:

\[\rho=\frac{\pi_{E}}{\pi_{C}}\]

y la odds-ratio:

\[\omega=\frac{\pi_{E}\left(1-\pi_{C}\right)}{\pi_{C}\left(1-\pi_{E}\right)}\]

Para la estimación de \(\pi_{E}\) se observa una muestra aleatoria \(X_{E,1},...,X_{E,n_{E}}\) de la distribución de probabilidad \(b\left(1,\pi_{E}\right)\) y se estima \(\pi_{E}\) por la proporción muestral \(\hat{\pi}_{E}=\left(1/n_{E}\right)\sum_{j=1}^{n_{E}}X_{E,j}\). Análogamente, para la estimación de \(\pi_{C}\) se observa una muestra aleatoria \(X_{C,1},...,X_{C,n_{C}}\) de la distribución de probabilidad \(b\left(1,\pi_{C}\right)\) y se estima \(\pi_{C}\) por la proporción muestral \(\hat{\pi}_{C}=\left(1/n_{C}\right)\sum_{j=1}^{n_{C}}X_{C,j}\). Las propiedades de los estimadores \(\hat{\pi}_{E}\) y \(\hat{\pi}_{C}\) se dan en 3.1. Finalmente, se consideran los siguiente estimadores:

Para el riesgo relativo \(\rho\)

\[\hat{\rho}=\frac{\hat{\pi}_{E}}{\hat{\pi}_{C}}\]

y para la odds-ratio \(\omega\):

\[\hat{\omega}=\frac{\hat{\pi}_{E}\left(1-\hat{\pi}_{C}\right)}{\hat{\pi}_{C}\left(1-\hat{\pi}_{E}\right)}\]

Los cálculos de las esperanzas y varianzas de ambos estimadores resultan más complicados que en los casos anteriores. Por tal motivo consideramos inicialmente el estadístico \(\textrm{ln }\hat{\rho}\) como estimador del parámetro \(\textrm{ln }\rho\) mediante la siguiente aproximación :

\[\textrm{ln }\hat{\rho}\approx\textrm{ln }\rho+\frac{\hat{\pi}_{E}}{\pi_{E}}-\frac{\hat{\pi}_{C}}{\pi_{C}}\]

Veamos que el estimador \(\ln\hat{\rho}\) es centrado para \(\ln\rho\).

En efecto:

\[E\left[\ln\hat{\rho}\right]\approx\ln\rho+\frac{1}{\pi_{E}}E\left[\hat{\pi}_{E}\right]-\frac{1}{\pi_{C}}E\left[\hat{\pi}_{C}\right]=\ln\rho\]

Análogamente, la varianza de \(\ln\hat{\rho}\) es:

\[\textrm{var}\left(\textrm{ln }\hat{\rho}\right)\approx\frac{1}{\pi_{E}^{2}}\textrm{var}\left(\hat{\pi}_{E}\right)+\left(-1\right)^{2}\frac{1}{\pi_{C}^{2}}\textrm{var}\left(\hat{\pi}_{C}\right)=\]

\[\frac{1}{\pi_{E}^{2}}\frac{\pi_{E}\left(1-\pi_{E}\right)}{n_{E}}+\frac{1}{\pi_{C}^{2}}\frac{\pi_{C}\left(1-\pi_{C}\right)}{n_{C}\pi_{C}}=\frac{1-\pi_{E}}{n_{E}\pi_{E}}+\frac{1-\pi_{C}}{n_{C}\pi_{C}}\]

Para la odds-ratio \(\omega\) consideramos la aproximación:

\[\textrm{ln }\hat{\omega}\approx\textrm{ln }\omega+\frac{\hat{\pi}_{E}-\pi_{E}}{\pi_{E}\left(1-\pi_{E}\right)}-\frac{\hat{\pi}_{C}-\pi_{C}}{\pi_{C}\left(1-\pi_{C}\right)}\]

De aquí puede deducirse también que \(\textrm{ln }\hat{\omega}\) es centrado para \(\textrm{log }\omega\) y que la varianza tiene la forma:

\[\textrm{var}\left(\ln\hat{\omega}\right)\approx\frac{1}{n_{E}\pi_{E}\left(1-\pi_{E}\right)}+\frac{1}{n_{C}\pi_{C}\left(1-\pi_{C}\right)}\]  

4 Intervalos de confianza

Considérese un parámetro desconocido \(\theta\) y un conjunto de datos \(\mathscr{X}\) conteniendo información sobre \(\theta\). En este escenario, un intervalo de confianza al nivel \(1-\alpha\) para \(\theta\), es un intervalo cuyos extremos son estadísticos \(\theta_{L}=\theta_{L}\left(\mathscr{X}\right)\) y \(\theta_{U}=\theta_{U}\left(\mathscr{X}\right)\) tales que:

\[\Pr\left(\theta_{L}\leq\theta\leq\theta_{U}\right)=1-\alpha\]

Nótese que \(\theta\), aunque desconocido, es un valor fijo, pero los extremos al depender de los datos son de naturaleza aleatoria. Ello significa que la cobertura de \(\theta\) por el intervalo \(\left[\theta_{L}\,;\,\theta_{U}\right]\) es incierta. Que el intervalo sea al nivel \(1-\alpha\) significa que la probabilidad de cobertura es \(1-\alpha\).

Sea \(\mu\) el valor esperado de una distribución de probabilidad \(N\left(\mu,1\right)\). En orden a determinar un intervalo de confianza al 95% para \(\mu\), se selecciona una muestra aleatoria \(X_{1},...,X_{n}\). Proponemos entonces el siguiente intervalo de confianza para \(\mu\) :

\[\left[\hat{\mu}_{n}-\frac{1.96}{\sqrt{n}}\,;\,\hat{\mu}_{n}+\frac{1.96}{\sqrt{n}}\right]\]

Aquí, \(\hat{\mu}_{n}=\left(1/n\right)\sum_{i=1}^{n}X_{i}\). El hecho de que este sea un intervalo de confianza al 95% significa que tiene un probabilidad del 95% de cubrir al verdadero valor de \(\mu\). Ello supone que se tomásemos un número muy elevado de muestras \(X_{1},...,X_{n}\) y de cada una de ellas obtuviésemos el correspondiente intervalo de confianza, aproximadamente el 95% de las veces cubriría el verdadero valor de \(\mu\).

Proposición 2. Considérese un estimador centrado \(\hat{\theta}\) para un parámetro \(\theta\) tal que:

\[\frac{\hat{\theta}-\theta}{\textrm{sd}\left(\hat{\theta}\right)}\approx N\left(0,1\right)\]

En tales condiciones, un intervalo de confianza al nivel \(1-\alpha\) para \(\theta\) tiene la forma:

\[\left[\hat{\theta}-z_{1-\alpha/2}\cdot\textrm{sd}\left(\hat{\theta}\right)~;\hat{~\theta}+z_{1-\alpha/2}\cdot\textrm{sd}\left(\hat{\theta}\right)\right]\]

teniendo en cuenta que el estadístico \(\left(\hat{\theta}-\theta\right)/\textrm{sd}\left(\hat{\theta}\right)\approx N\left(0,1\right)\), podemos entonces escribir de acuerdo con la proposición 2:

\[\Pr\left(-z_{1-\alpha/2}\leq\frac{\hat{\theta}-\theta}{\textrm{sd}\left(\hat{\theta}\right)}\leq z_{1-\alpha/2}\right)=1-\alpha\]

Si la inecuación se multiplica por \(\left(-1\right)\) cambia de sentido la desigualdad y queda:

\[\Pr\left(-z_{1-\alpha/2}\leq\frac{\theta-\hat{\theta}}{\textrm{sd}\left(\hat{\theta}\right)}\leq z_{1-\alpha/2}\right)=1-\alpha\]

Finalmente, despejando \(\theta\) queda:

\[\Pr\left(\hat{\theta}-z_{1-\alpha/2}\cdot\textrm{sd}\left(\hat{\theta}\right)\leq\theta\leq\hat{\theta}+z_{1-\alpha/2}\cdot\textrm{sd}\left(\hat{\theta}\right)\right)=1-\alpha\]

Lo anterior completa la demostración.

 

4.1 Intervalo de confianza para una probabilidad

Aplicando la propiedad dada en esta proposición 2, podemos obtener intervalos de confianza para los parámetros elementales estudiados en la sección anterior. Así por ejemplo, para el parámetro \(\pi\) (probabilidad) analizado en la sección 3.1 vimos que el estimador \(\hat{\pi}_{n}\) estandarizado tenía aproximadamente, en virtud del teorema central del límite, una distribución normal estándar. De esta forma un intervalo de confianza al nivel \(1-\alpha\) para \(\pi\) es:

\[\left[\hat{\pi}_{n}-z_{1-\alpha/2}\cdot\sqrt{\frac{\pi\left(1-\pi\right)}{n}}~;\hat{\pi}_{n}+z_{1-\alpha/2}\cdot\sqrt{\frac{\pi\left(1-\pi\right)}{n}}\right]\]

Este intervalo de confianza en la práctica no puede obtenerse dado que el parámetro \(\pi\) es desconocido. Este problema puede obviarse sustituyendo \(\pi\) por su estimación \(\hat{\pi}_{n}\) (método plug-in) y entonces se obtiene el intervalo aproximado:

\[\left[\hat{\pi}_{n}-z_{1-\alpha/2}\cdot\sqrt{\frac{\hat{\pi}_{n}\left(1-\hat{\pi}_{n}\right)}{n}}~;\hat{\pi}_{n}+z_{1-\alpha/2}\cdot\sqrt{\frac{\hat{\pi}_{n}\left(1-\hat{\pi}_{n}\right)}{n}}\right]\]

4.2 Intervalo de confianza para la esperanza

Considérese ahora una muestra aleatoria \(X_{1},...,X_{n}\) de una distribución de probabilidad \(N\left(\mu,\sigma\right)\). En orden a obtener un intervalo de confianza para \(\mu\), cosideramos inicialmente el estadístico \(\sqrt{n}\left(\hat{\mu}_{n}-\mu\right)/\sigma\) el cual tiene una distribución de probabilidad normal estándar. Sin embargo, el intervalo de confianza deducido de este estadístico depende del parámetro desconocido \(\sigma\). Para obviar este problema, consideramos el estadístico alternativo que resulta de sustituir \(\sigma\) por su estimador \(\hat{\sigma}_{n}\). El estadístico que resulta tiene entonces una distribución de probabilidad t de Student con \(n-1\) grados de libertad; esto es:

\[\sqrt{n}\cdot\frac{\hat{\mu}_{n}-\mu}{\hat{\sigma}_{n}}\cong t\left(n-1\right)\]

De esta forma, puede deducirse fácilmente que un intervalo de confianza al nivel \(1-\alpha\) para \(\mu\) es:

\[\left[\hat{\mu}_{n}-t_{1-\alpha/2}\left(n-1\right)\cdot\frac{\hat{\sigma}_{n}}{\sqrt{n}}~;\hat{\,\mu}_{n}+t_{1-\alpha/2}\left(n-1\right)\cdot\frac{\hat{\sigma}_{n}}{\sqrt{n}}\right]\]

siendo \(t_{1-\alpha/2}\left(n-1\right)\) el cuantil \(1-\alpha/2\) de la distribución de probabilidad t de Student con \(n-1\) grados de libertad.

4.3 Intervalo de confianza para el riesgo relativo

En 3.4 se dio (sin demostración) la aproximación:

\[\textrm{ln }\hat{\rho}\approx\textrm{ln }\rho+\frac{\hat{\pi}_{E}}{\pi_{E}}-\frac{\hat{\pi}_{C}}{\pi_{C}}\]

Nótese que \(\hat{\pi}_{E}=\left(1/n_{E}\right)\sum_{i=1}^{n_{E}}X_{E,i}\) y \(\hat{\pi}_{C}=\left(1/n_{C}\right)\sum_{i=1}^{n_{C}}X_{C,i}\) y de esta forma, \(\textrm{ln }\hat{\rho}-\textrm{ln }\rho\) es una suma de variables aleatorias independientes. Dado que además \(E\left[\ln\hat{\rho}\right]\approx\ln\rho\), el teorema central del límite justifica la aproximación:

\[\frac{\ln\hat{\rho}-\ln\rho}{\textrm{sd}\left(\ln\hat{\rho}\right)}\approx N\left(0,1\right)\]

De esta forma, un intervalo de confianza al nivel \(1-\alpha\) para \(\ln\rho\) es:

\[\left[\ln\hat{\rho}-z_{1-\alpha/2}\cdot\textrm{sd}\left(\ln\hat{\rho}\right)~;\ln\hat{\rho}+z_{1-\alpha/2}\cdot\textrm{sd}\left(\ln\hat{\rho}\right)\right]\]

donde según se vio, \(\textrm{sd}\left(\ln\hat{\rho}\right)\approx\sqrt{\left(1-\pi_{E}\right)/\left(n_{E}\pi_{E}\right)+\left(1-\pi_{C}\right)/\left(n_{C}\pi_{C}\right)}\). Dado que los parámetros \(\pi_{E}\) y \(\pi_{C}\) son desconocidos, aproximaremos \(\textrm{sd}\left(\ln\hat{\rho}\right)\) mediante la sustitución (plug-in) de estos parámetros por sus estimadores \(\hat{\pi}_{E}\) y \(\hat{\pi}_{C}\).

Finalmente, el intervalo de confianza al nivel \(1-\alpha\) para \(\rho\) es.

\[\left[\hat{\rho}\cdot\exp\left(-z_{1-\alpha/2}\cdot\textrm{sd}\left(\ln\hat{\rho}\right)\right)~;~\hat{\rho}\cdot\exp\left(z_{1-\alpha/2}\cdot\textrm{sd}\left(\ln\hat{\rho}\right)\right)\right]\]

Téngase en cuenta que en la expresión del error estándar de \(\ln\hat{\rho}\) aparecen los parámetros desconocidos \(\pi_{E}\) y \(\pi_{C}\) lo que supone que deben ser sustituidos por sus estimaciones \(\hat{\pi}_{E}\) y \(\hat{\pi}_{C}\).

 

 

 

Ejercicios

  1. Sean \(\mu\) y \(\sigma\) el valor esperado y la desviación estándar respectivamente de la HDL (mg/dL) en la población de Telde no diabética de más de 30 años. En el estudio de Telde se incluyeron 902 sujetos no diabéticos y se obtuvieron las siguientes estimaciones: \(\hat{\mu}_{902}=54.9\) y \(\hat{\sigma}_{902}=12.3\). Hallar un intervalo de confianza al 95% para \(\mu\).

  2. Considérese el mismo ejercicio anterior pero para la población diabética de Telde con más de 30 años. El número de diabéticos incluido fue de 128 y las estimaciones obtenidas para \(\mu\) y \(\sigma\) fueron respectivamente \(\hat{\mu}_{128}=50.0\) y \(\hat{\sigma}_{128}=12.7\). Hallar un intervalo de confianza al 95% para \(\mu\). ¿Qué conclusión se obtiene comparando los resultados de éste y el anterior ejercicio?

  3. A partir de una muestra aleatoria \(X_{1},...,X_{n}\) de una distribución de probabilidad \(N\left(\mu,\sigma\right)\), con \(\mu\) y \(\sigma\) desconocidos, obtener un intervalo de confianza para \(\sigma^{2}\). [Hacer uso del teorema de Fisher: \(\left(n-1\right)\hat{\sigma_{n}^{2}/\sigma^{2}\cong\chi^{2}\left(n-1\right)}\)]

  4. Sean \(X_{E,1},...,X_{E,n_{E}}\) y \(X_{C,1},...,X_{C,n_{C}}\) muestras aleatorias de las distribuciones de probabilidad \(N\left(\mu_{E},\sigma_{E}\right)\) y \(N\left(\mu_{C},\sigma_{C}\right)\) respectivamente. Obtener un intervalo de confianza al nivel \(1-\alpha\) para el parámetro \(\delta=\mu_{E}-\mu_{C}\).

  5. Kelly et al (2020) llevaron a efecto un ensayo clínico aleatorizado y a doble ciego, que consistió en un período de tratamiento de 56 semanas y un período de seguimiento de 26 semanas. Se inscribieron adolescentes (de 12 a 18 años de edad) con obesidad y una mala respuesta a la terapia de estilo de vida solamente. Los participantes fueron asignados aleatoriamente (1:1) a recibir liraglutida (3,0 mg) o placebo por vía subcutánea una vez al día, además de la terapia de estilo de vida. El criterio de valoración primario fue el cambio en la puntuación del índice de masa corporal en la semana 56 con respecto al valor inicial. Los resultados del ensayo para el cambio del IMC (\(Kg/m^{2}\)) se resumen en la siguiente tabla (los datos que se muestran son \(medias\pm Desv.est\acute{a}ndar\)).

    Liraglutida ( \(n=125\)) Placebo ( \(n=126\))
    Cambio en el IMC ( \(Kg/m^{2}\)) \(-0.23\pm0.05\) \(-0.00\pm0.05\)

Obtener un intervalo de confianza al 95% para la diferencia entre las variaciones de los índices de masa corporal. ¿hay evidencias que la liraglutida es más eficaz en la reducción del IMC que el placebo?

  1. El estudio 4S (scandinavian simvastatin survival study) es un ensayo clínico aleatorizado con dos grupos paralelos, diseñado para evaluar el efecto de la simvastatina frente a placebo en la reducción de la morbi-mortalidad cardiovascular en pacientes que habían sufrido previamente un infarto ó angina de pecho y que tenían niveles de colesterol total superiores a 212 mg/dL. Tras un seguimiento de 5,4 años en mediana, se observó que de los 2221 pacientes del grupo simvastatina (\(E\)) murieron por causas cardiovasculares 111, mientras que en los 2223 del grupo placebo (\(C\)) lo hicieron 189. Si representamos por \(\pi_{E}\) y \(\pi_{C}\) las probabilidades de muerte cardiovascular en los brazos \(E\) y \(C\), hallar un intervalo de confianza al 95% para el riesgo relativo \(\rho=\pi_{E}/\pi_{C}\).

  2. El gen UCP2 regula la secreción de insulina y juega un importante papel en la relación entre obesidad y diabetes mellitus de tipo 2 (DM2). Bulotta et al (2005) analizaron el polimorfismo - 866G/A correspondiente al referido gen con la finalidad de evaluar su asociación con la DM2. De esta forma, los genotipos asociados los representamos por \(GG\), \(GA\) y \(AA\). Dado que el alelo \(G\) es el de mayor prevalencia, entenderemos que el genotipo \(GG\) es el de referencia, considerándose por tanto que las variantes \(GA\) y \(AA\) son mutaciones del gen (\(G\longrightarrow A\)). Los autores incluyeron en el estudio 746 personas con DM2 y 327 controles. Los resultados del estudio se resumen en la siguiente tabla:

    Asociación DM2 - presencia del alelo \(A\) en el UCP2

    DM2

    \(n=746\)

    Control

    \(n=327\)

    \(G\longrightarrow A\) 362 185

Estimar la odds-ratio que mide la asociación entre la mutación \(G\longrightarrow A\) y la DM2.

Referencias

  1. Russell, Bertrand, Joaquín Xirau, and Emilio Lledó Iñigo. Los problemas de la filosofía. Labor, 1973. Versión en inglés en el Proyecto Gutenberg

  2. Boronat, M., Varillas VF, Saavedra P, Suárez V, Bosch E, Carrillo A, Nóvoa FJ. Diabetes mellitus and impaired glucose regulation in the Canary Islands (Spain): prevalence and associated factors in the adult population of Telde, Gran Canaria. Diabet Med. 2006 Feb;23(2):148-55. doi: 10.1111/j.1464-5491.2005.01739.x. PMID: 16433712.

  3. Kelly AS, Auerbach P, Barrientos-Perez M, Gies I, Hale PM, Marcus C, Mastrandrea LD, Prabhu N, Arslanian S; NN8022-4180 Trial Investigators. A Randomized, Controlled Trial of Liraglutide for Adolescents with Obesity. N Engl J Med. 2020 May 28;382(22):2117-2128. doi: 10.1056/NEJMoa1916038. Epub 2020 Mar 31. PMID: 32233338. Ver pdf

  4. Randomised trial of cholesterol lowering in 4444 patients with coronary heart disease: the Scandinavian Simvastatin Survival Study (4S). Lancet. 1994 Nov 19;344(8934):1383-9. PMID: 7968073.

  5. Bulotta A, Ludovico O, Coco A, Di Paola R, Quattrone A, Carella M, Pellegrini F, Prudente S, Trischitta V. The common -866G/A polymorphism in the promoter region of the UCP-2 gene is associated with reduced risk of type 2 diabetes in Caucasians from Italy. J Clin Endocrinol Metab. 2005 Feb;90(2):1176-80. doi: 10.1210/jc.2004-1072. Epub 2004 Nov 23. PMID: 15562023. Ver pdf