sábado, 21 de octubre de 2017

SEMANA 15

VARIABLES ALEATORIAS UNIDIMENSIONALES
En la sección dedicada a la Estadística Descriptiva hemos estudiado las variables estadísticas, estudiándolas como mediciones que se efectúan sobre los individuos de la muestra. Trabajábamos, por tanto con números observados después de la realización del experimento.
Si se analizan las variables desde una perspectiva más formal, entendiéndolas como una abstracción previa a la realización del experimento, reciben el nombre de variables aleatorias (v. a.), a cuyos posibles resultados se les asocian probabilidades, que desempeñan un papel análogo al de las frecuencias relativas.
Así, pueden entenderse los desarrollos que se realizarán a continuación como una revisión de los temas de la sección de Estadística Descriptiva, donde los experimentos ya realizados son substituidos por experimentos potenciales, y las frecuencias relativas por probabilidades.
DISTRIBUCIÓN DE PROBABILIDADES
Variables aleatorias discretas: una variable aleatoria X se dice que es discreta si el conjunto de valores que toma con probabilidad no nula (dominio) es finito o infinito numerable. La probabilidad con que la variable toma cada uno de los posibles valores: Pr(Xi = xi) con i= 1,2,3,….,n,… se le denomina función de densidad discreta o función de cuantía; y cumple las siguientes dos propiedades: 1) 0 ≤ Pr(X=xi) ≤ 1; 2) Σ Pr(X=xi) = 1. Es importante entender que las probabilidades son puntuales, o sea que la probabilidad pertenece a un punto dado de x.
A partir de la función de densidad se puede obtener fácilmente la función de distribución, sin más que acumular las correspondientes probabilidades; recíprocamente se puede obtener la función de densidad a partir de la función de distribución sin más que restar la función de distribución de dos valores consecutivos.


Variables aleatorias continuas: una variable aleatoria X se dice que es continua si puede tomar (con probabilidad no nula) los infinitos valores de un intervalo; en este caso, la probabilidad puntual es cero; en este tipo de variables sólo tiene sentido calcular probabilidades de intervalos de valores. La función de distribución se puede expresar como la integral de una determinada función f(x), llamada función de densidad, de modo que: F(x) = Pr(X ≤ x) = ∫-∞x f(x) dx. Si f(x) es continua, tenemos la relación: (d/dx) F(x) = f(x).La función de densidad tiene que cumplir las siguientes condiciones: 1) es no negativa: f(x) ≥ 0 para todo x perteneciente a los reales, 2) la integral en toda la recta es igual a la unidad: ∫-∞∞ f(x) dx = 1.Podemos nombrar algunas propiedades:
  1. Pr(a ˂ X ≤ b) = F(b) – F(a) = ∫ab f(x) dx
  1. Pr(X ˃ a) = 1 – Pr(X ≤ a) = ∫a∞ f(x) dx
  1. Pr( X ≤ b) = F(b) = ∫-∞b f(x) dx = 1 - ∫b∞ f(x) dx
Variables aleatorias mixtas: una variable aleatoria X tiene una distribución mixta si tiene una parte continua y otra discreta. Es decir, existe una función f(.) y un conjunto de números reales xi con probabilidades Pr(X = xi) ˃ 0 , i ≥ 1 tales que para cada A contenido en los reales se verifica: Pr(X ϵ A) = ∫A f(x) dx + ΣA Pr(X = xi)

Esperanza: sea X una variable aleatoria discreta que toma los valores X={x1,x2,……} con probabilidades Pr(X=xi), i=1,2,…. Llamaremos media, esperanza matemática o valor esperado de X, a la cantidad:
E(X) = Σ xi Pr(X=xi), siempre que la serie anterior sea absolutamente convergente. Si X es una variable aleatoria continua con función de densidad f(x), la media, esperanza matemática o valor esperado se define como:
E(X) = ∫ x f(x) dx, siempre que el valor de la integral sea finito.

Cuando la serie o integral que definen la esperanza son divergentes, es decir, con valor infinito, se dice que la variable X no tiene esperanza, o que X no presenta una regularidad media.


Varianza: es una medida de dispersión y permite estudiar la representatividad de la media. Es una medida que da cuenta de cómo están concentrados los valores de la variable alrededor de su media. Para tal fin parecería una posibilidad, considerar las diferencias entre los valores de la variable y el valor esperado, para luego calcular el valor medio de tales diferencias; pero si recordamos la propiedad 1 de la esperanza, vimos que este resultado da 0 porque se compensan los valores que sobrepasan la media con aquellos que están por debajo de dicho valor; para solucionar este problema, elevamos al cuadrado la diferencia:
Var(X) = E [X – E(X)]^2 = E(X^2) – [E(X)]^2 (se comprueba la igualdad al desarrollar el cuadrado).
Llamamos desvío típico a la raíz cuadrada de la varianza, y se expresa por: σ(x). Es importante tener en cuenta que la varianza no tiene la misma medida de unidad que la variable, sino que es esa medida al cuadrado; mientras que el desvío trabaja con la misma unidad que la variable.




No hay comentarios:

Publicar un comentario