Este archivo contiene las demostraciones de diversos resultados presentados en la asignatura.
Si X es una variable aleatoria tal que \(E\left[X\right]=\mu\) y \(Var\left(X\right)=\sigma^{2}\), entonces para todo \(k\ge1\):
\[\large{P\left(\left|X-\mu\right|<k\sigma\right)\ge1-\frac{1}{k^{2}}}\]
Presentamos la demostración para el caso de variables aleatorias discretas. El caso continuo es análogo sustituyendo sumatorias por integrales.
Consideremos el suceso: \(A=\left\{ x:\left|x-\mu\right|\ge k\sigma\right\}\)
De la definición de varianza se tiene que:
\[\sigma^{2}=E\left[\left(X-\mu\right)^{2}\right]=\sum_{x}\left(x-\mu\right)^{2}P\left(X=x\right)=\sum_{x\in A}\left(x-\mu\right)^{2}P\left(X=x\right)+\sum_{x\in\overline{A}}\left(x-\mu\right)^{2}P\left(X=x\right)\]
Como ambos sumandos son positivos:
\[\sigma^{2}\ge\sum_{x\in A}\left(x-\mu\right)^{2}P\left(X=x\right)\]
Ahora bien, tal como se ha definido el suceso A, para todos los \(x\in A\) se tiene que \(\left|x-\mu\right|\ge k\sigma\). Por tanto:
\[\sigma^{2}\ge\sum_{x\in A}\left(x-\mu\right)^{2}P\left(X=x\right)\ge\sum_{x\in A}\left(k\sigma\right)^{2}P\left(X=x\right)=\left(k\sigma\right)^{2}\sum_{x\in A}P\left(X=x\right)=\left(k\sigma\right)^{2}P\left(A\right)\]
De aquí se sigue que:
\[P\left(A\right)\le\frac{1}{k^{2}}\]
y por tanto:
\[P\left(\left|X-\mu\right|<k\sigma\right)=1-P\left(A\right)\ge1-\frac{1}{k^{2}}\]
La función característica de la distribución normal es:
\[\Large{\varphi\left(u\right)=e^{i\mu u-\frac{1}{2}\sigma^{2}u^{2}}}\]
Partimos de la definición de función característica:
\[\varphi\left(u\right)=E\left[e^{iuX}\right]=\int_{-\infty}^{\infty}e^{iux}\frac{1}{\sigma\sqrt{2\pi}}e^{-\frac{1}{2}\left(\frac{x-\mu}{\sigma}\right)^{2}}dx=\frac{1}{\sigma\sqrt{2\pi}}\int_{-\infty}^{\infty}e^{iux-\frac{1}{2}\left(\frac{x-\mu}{\sigma}\right)^{2}}dx\] Para simplificar llamaremos: \[a=\frac{1}{\sigma\sqrt{2\pi}}\] por lo que podemos expresar:
\[\varphi\left(u\right)=a\int_{-\infty}^{\infty}e^{iux-\frac{1}{2}\left(\frac{x-\mu}{\sigma}\right)^{2}}dx\]
Hacemos ahora el cambio de variable \(t=x-\mu\), \(dt=dx\), y se tiene que:
\[\large{\varphi\left(u\right)=a\int_{-\infty}^{\infty}e^{iu\left(t+\mu\right)-\frac{1}{2}\left(\frac{t}{\sigma}\right)^{2}}dt=ae^{iu\mu}\int_{-\infty}^{\infty}e^{iut-\frac{1}{2}\left(\frac{t}{\sigma}\right)^{2}}dt=ae^{iu\mu}\int_{-\infty}^{\infty}e^{-\frac{1}{2\sigma^{2}}\left(t^{2}-2iut\sigma^{2}\right)}dt=}\]
\[\large{=ae^{iu\mu}\int_{-\infty}^{\infty}e^{-\frac{1}{2\sigma^{2}}\left(t^{2}-2iut\sigma^{2}+\left(iu\sigma^{2}\right)^{2}-\left(iu\sigma^{2}\right)^{2}\right)}dt=ae^{iu\mu-\frac{1}{2}u^{2}\sigma^{2}}\int_{-\infty}^{\infty}e^{-\frac{1}{2\sigma^{2}}\left(t-iu\sigma^{2}\right)^{2}}dt=}\] \[\large{=ae^{iu\mu-\frac{1}{2}u^{2}\sigma^{2}}\int_{-\infty}^{\infty}e^{-\left(\frac{t-iu\sigma^{2}}{\sigma\sqrt{2}}\right)^{2}}dt}\] y haciendo ahora el nuevo cambio de variable: \[s=\frac{t-iu\sigma^{2}}{\sigma\sqrt{2}}\]
\[ds=\frac{1}{\sigma\sqrt{2}}dt\]
la integral anterior puede expresarse como: \[\varphi\left(u\right)=a\sigma\sqrt{2}e^{iu\mu-\frac{1}{2}u^{2}\sigma^{2}}\int_{-\infty}^{\infty}e^{-s^{2}}ds\]
Sustituyendo \(a\) por su valor original \(\frac{1}{\sigma\sqrt{2\pi}}\):
\[\varphi\left(u\right)=\frac{1}{\sqrt{\pi}}e^{iu\mu-\frac{1}{2}u^{2}\sigma^{2}}\int_{-\infty}^{\infty}e^{-s^{2}}ds\] El término \(\int_{-\infty}^{\infty}e^{-s^{2}}ds\) se conoce como integral de Gauss y su valor es: \[\int_{-\infty}^{\infty}e^{-s^{2}}ds=\sqrt{\pi}\] (véase, por ejemplo, https://es.wikipedia.org/wiki/Integral_de_Gauss para una demostración de este resultado). Sustituyendo el valor de la integral de Gauss en la expresión de \(\varphi\left(u\right)\) se obtiene definitivamente que la función característica de la distribución normal es:
\[\large{\varphi\left(u\right)=e^{i\mu u-\frac{1}{2}\sigma^{2}u^{2}}}\]
La covarianza entre dos variables aleatorias \(X\) e \(Y\) se define como:
\[\Large{\textrm{Cov}(X,Y)=E[(X-E[X])(Y-E[Y])]}\]
Asimismo, el coeficiente de correlación de Pearson entre \(X\) y \(Y\) se define como:
\[\Large{\rho_{_X,_Y}=\frac{\textrm{cov}\left(X,Y\right)}{\sigma_{_X}\sigma_{_Y}}}\]
\[\Large{\textrm{Cov}(X,Y)^2 \le \textrm{Var}(X)\cdot \textrm{Var}(Y)}\]
Observemos que para cualquier constante \(a\), y para cualesquiera variables aleatorias \(U\) y \(V\) se tiene que
\[E\left[\left(aU+V\right)^{2}\right]\ge0\]
Desarrollando el cuadrado y aplicando las propiedades de la esperanza resulta:
\[a^{2}E\left[U^{2}\right]+2aE\left[UV\right]+E\left[V^{2}\right]\ge0\]
Esta ecuación representa una parábola que a lo sumo toca al eje de abcisas en un punto; por tanto, la ecuación:
\[a^{2}E\left[U^{2}\right]+2aE\left[UV\right]+E\left[V^{2}\right]=0\]
tiene como mucho una solución, lo que significa que su discriminante debe ser menor o igual que cero, esto es,
\[4\left(E\left[UV\right]\right)^{2}-4E\left[U^{2}\right]E\left[V^{2}\right]\le0\]
o lo que es lo mismo:
\[\left(E\left[UV\right]\right)^{2}\le E\left[U^{2}\right]E\left[V^{2}\right]\]
Si consideramos \(U=\left(X-E\left[X\right]\right)\) y \(V=\left(Y-E\left[Y\right]\right)\) queda demostrada la proposición.
\[\Large{-1 \le \rho_{_X,_Y} \le 1}\]
Se deduce directamente de la proposición anterior y de la definición del coeficiente de correlación.
Si \(\left|\rho\right|=1\) entonces \(Y=aX+b\) (los valores \(\left(X,Y\right)\) se disponen exactamente a lo largo de una recta)
Si \(\left|\rho\right|=1\) entonces siguiendo hacia atrás el argumento que acabamos de emplear, concluimos que existe una constante \(a\) tal que:
\[E\left[\left(aU+V\right)^{2}\right]=0\]
Como los términos \(\left(aU+V\right)^{2}\) son siempre mayores o iguales que 0 (por ser un cuadrado), la única forma de que su esperanza sea 0, es que \(aU+V=0\). Por tanto, si \(U=X-E[X]\) y \(V=Y-E[Y]\):
\[a\left(X-E\left[X\right]\right)+\left(Y-E\left[Y\right]\right)=0\] de donde:
\[Y=aX-aE\left[X\right]+E\left[Y\right]\]
Llamando \(b=-aE\left[X\right]+E\left[Y\right]\) se tiene que:
\[Y=aX+b\]
por lo que la relación entre \(X\) e \(Y\) es lineal.
© 2016 Angelo Santana, Carmen N. Hernández, Departamento de Matemáticas ULPGC