sábado, 21 de octubre de 2017

SEMANA 16

DISTRIBUCIÓN DE VARIABLE ALEATORIA DISCRETA

Se denomina distribución de variable discreta a aquella cuya función de probabilidad sólo toma valores positivos en un conjunto de valores de  finito o infinito. A dicha función se le llama función de masa de probabilidad. En este caso la distribución de probabilidad es la suma de la función de masa, por lo que tenemos entonces que:
Y, tal como corresponde a la definición de distribución de probabilidad, esta expresión representa la suma de todas las probabilidades desde  hasta el valor .

Tipos de distribuciones de variable discreta


DISTRIBUCIÓN BIMONIAL
En estadistica, la distribución binomial es una distribución de probabilidad discreta que cuenta el número de éxitos en una secuencia de n ensayos de Bernoulli independientes entre sí, con una probabilidad fija p de ocurrencia del éxito entre los ensayos. Un experimento de Bernoulli se caracteriza por ser dicotómico, esto es, sólo son posibles dos resultados. A uno de estos se denomina éxito y tiene una probabilidad de ocurrencia p y al otro, fracaso, con una probabilidad q = 1 - p. En la distribución binomial el anterior experimento se repite n veces, de forma independiente, y se trata de calcular la probabilidad de un determinado número de éxitos. Para n = 1, la binomial se convierte, de hecho, en una distribución.
Para representar que una  X sigue una distribución binomial de parámetros n y p, se escribe:

DISTRIBUCIÓN
GEOMÉTRICA

En teoria de probabilidad y estadística, la distribución geométrica es cualquiera de las dos distribución de probabilidades discretas siguientes:
  • la distribución de probabilidad del número X del ensayo de Bermoulli necesaria para obtener un éxito, contenido en el conjunto { 1, 2, 3,...} o
  • la distribución de probabilidad del número Y = X − 1 de fallos antes del primer éxito, contenido en el conjunto { 0, 1, 2, 3,... }.

  1. La distribución geométrica no tiene memoria, es decir, 
  2. Si la probabilidad de éxito en cada ensayo es p, entonces la de que x ensayos sean necesarios para obtener un éxito es  para x = 1, 2, 3,.... Equivalentemente, la de que haya x fallos antes del primer éxito es  para y = 0, 1, 2,... .En ambos casos, la secuencia de es una progresión geométrica.
  3. El valor esperado de una variable aleatoria X distribuida geométricamente es  y dado que Y = X-1, .
  4. En ambos casos, la varianza es .
  5. Las funciones generatrices de X y la de Y son, respectivamente, .
  6. Como su análoga continua, la distribución exponencial, la distribución geométrica carece de memoria. Esto significa que si intentamos repetir el experimento hasta el primer éxito, entonces, dado que el primer éxito todavía no ha ocurrido, la distribución de condicional del número de ensayos adicionales no depende de cuantos fallos se hayan observado. El dado o la moneda que uno lanza no tiene "memoria" de estos fallos. La distribución geométrica es de hecho la única distribución discreta sin memoria.
  7. De todas estas distribuciones de contenidas en {1, 2, 3,... } con un valor esperado dado μ, la distribución geométrica X con parámetro p = 1/μ es la de mayor entropia.

DISTRIBUCIÓN
 POISSON

En teoría de probabilidad y estadística, la distribución de Poisson es una distribución de probabilidad discreta que expresa, a partir de una frecuencia de ocurrencia media, la probabilidad de que ocurra un determinado número de eventos durante cierto período de tiempo. Concretamente, se especializa en la probabilidad de ocurrencia de sucesos con probabilidades muy pequeñas, o sucesos "raros".
Fue descubierta por Simeon Denis Poisson, que la dio a conocer en 1838 en su trabajo Recherches sur la probabilité des jugements en matières criminelles et matière civile (Investigación sobre la probabilidad de los juicios en materias criminales y civiles).

  • k es el número de ocurrencias del evento o fenómeno (la función nos da la probabilidad de que el evento suceda precisamente k veces).
  • λ es un parámetro positivo que representa el número de veces que se espera que ocurra el fenómeno durante un intervalo dado. Por ejemplo, si el suceso estudiado tiene lugar en promedio 4 veces por minuto y estamos interesados en la probabilidad de que ocurra k veces dentro de un intervalo de 10 minutos, usaremos un modelo de distribución de Poisson con λ = 10×4 = 40.
  • e es la base de los logaritmos naturales (e = 2,71828...)

SEMANA 15

VARIABLES ALEATORIAS UNIDIMENSIONALES
En la sección dedicada a la Estadística Descriptiva hemos estudiado las variables estadísticas, estudiándolas como mediciones que se efectúan sobre los individuos de la muestra. Trabajábamos, por tanto con números observados después de la realización del experimento.
Si se analizan las variables desde una perspectiva más formal, entendiéndolas como una abstracción previa a la realización del experimento, reciben el nombre de variables aleatorias (v. a.), a cuyos posibles resultados se les asocian probabilidades, que desempeñan un papel análogo al de las frecuencias relativas.
Así, pueden entenderse los desarrollos que se realizarán a continuación como una revisión de los temas de la sección de Estadística Descriptiva, donde los experimentos ya realizados son substituidos por experimentos potenciales, y las frecuencias relativas por probabilidades.
DISTRIBUCIÓN DE PROBABILIDADES
Variables aleatorias discretas: una variable aleatoria X se dice que es discreta si el conjunto de valores que toma con probabilidad no nula (dominio) es finito o infinito numerable. La probabilidad con que la variable toma cada uno de los posibles valores: Pr(Xi = xi) con i= 1,2,3,….,n,… se le denomina función de densidad discreta o función de cuantía; y cumple las siguientes dos propiedades: 1) 0 ≤ Pr(X=xi) ≤ 1; 2) Σ Pr(X=xi) = 1. Es importante entender que las probabilidades son puntuales, o sea que la probabilidad pertenece a un punto dado de x.
A partir de la función de densidad se puede obtener fácilmente la función de distribución, sin más que acumular las correspondientes probabilidades; recíprocamente se puede obtener la función de densidad a partir de la función de distribución sin más que restar la función de distribución de dos valores consecutivos.


Variables aleatorias continuas: una variable aleatoria X se dice que es continua si puede tomar (con probabilidad no nula) los infinitos valores de un intervalo; en este caso, la probabilidad puntual es cero; en este tipo de variables sólo tiene sentido calcular probabilidades de intervalos de valores. La función de distribución se puede expresar como la integral de una determinada función f(x), llamada función de densidad, de modo que: F(x) = Pr(X ≤ x) = ∫-∞x f(x) dx. Si f(x) es continua, tenemos la relación: (d/dx) F(x) = f(x).La función de densidad tiene que cumplir las siguientes condiciones: 1) es no negativa: f(x) ≥ 0 para todo x perteneciente a los reales, 2) la integral en toda la recta es igual a la unidad: ∫-∞∞ f(x) dx = 1.Podemos nombrar algunas propiedades:
  1. Pr(a ˂ X ≤ b) = F(b) – F(a) = ∫ab f(x) dx
  1. Pr(X ˃ a) = 1 – Pr(X ≤ a) = ∫a∞ f(x) dx
  1. Pr( X ≤ b) = F(b) = ∫-∞b f(x) dx = 1 - ∫b∞ f(x) dx
Variables aleatorias mixtas: una variable aleatoria X tiene una distribución mixta si tiene una parte continua y otra discreta. Es decir, existe una función f(.) y un conjunto de números reales xi con probabilidades Pr(X = xi) ˃ 0 , i ≥ 1 tales que para cada A contenido en los reales se verifica: Pr(X ϵ A) = ∫A f(x) dx + ΣA Pr(X = xi)

Esperanza: sea X una variable aleatoria discreta que toma los valores X={x1,x2,……} con probabilidades Pr(X=xi), i=1,2,…. Llamaremos media, esperanza matemática o valor esperado de X, a la cantidad:
E(X) = Σ xi Pr(X=xi), siempre que la serie anterior sea absolutamente convergente. Si X es una variable aleatoria continua con función de densidad f(x), la media, esperanza matemática o valor esperado se define como:
E(X) = ∫ x f(x) dx, siempre que el valor de la integral sea finito.

Cuando la serie o integral que definen la esperanza son divergentes, es decir, con valor infinito, se dice que la variable X no tiene esperanza, o que X no presenta una regularidad media.


Varianza: es una medida de dispersión y permite estudiar la representatividad de la media. Es una medida que da cuenta de cómo están concentrados los valores de la variable alrededor de su media. Para tal fin parecería una posibilidad, considerar las diferencias entre los valores de la variable y el valor esperado, para luego calcular el valor medio de tales diferencias; pero si recordamos la propiedad 1 de la esperanza, vimos que este resultado da 0 porque se compensan los valores que sobrepasan la media con aquellos que están por debajo de dicho valor; para solucionar este problema, elevamos al cuadrado la diferencia:
Var(X) = E [X – E(X)]^2 = E(X^2) – [E(X)]^2 (se comprueba la igualdad al desarrollar el cuadrado).
Llamamos desvío típico a la raíz cuadrada de la varianza, y se expresa por: σ(x). Es importante tener en cuenta que la varianza no tiene la misma medida de unidad que la variable, sino que es esa medida al cuadrado; mientras que el desvío trabaja con la misma unidad que la variable.




SEMANA 14

Probabilidad condicional: es la probalidad de que ocurra un evento A, sabiendo que también sucede otro evento B. La probabilidad condicional se escribe P(A|B), y se lee «la probabilidad de A dado B».


No tiene por qué haber una relación causal o temporal entre A y BA puede preceder en el tiempo a B, sucederlo o pueden ocurrir simultáneamente. A puede causar B, viceversa o pueden no tener relación causal. Las relaciones causales o temporales son nociones que no pertenecen al ámbito de la probabilidad. Pueden desempeñar un papel o no dependiendo de la interpretación que se le dé a los eventos.



por ejemplo tomando los casos en los que B se cumple,  se puede interpretar como la parte en los que también se cumple A. Si el evento B es, por ejemplo, tener la gripe, y el evento A es tener dolor de cabeza,  sería la probabilidad de tener dolor de cabeza cuando se está enfermo de gripe.


Regla de multiplicación de probabilidades
1. Regla de multiplicación de probabilidades
Si se tienen varios eventos sucesivos e independientes entre sí, la probabilidad de que ocurran todos ellos a la vez corresponde a la multiplicación de las probabilidades de cada uno de los eventos.
Ejemplos:
1. Si se responden al azar cuatro preguntas con cinco opciones cada una, ¿cuál es la probabilidad de acertar a todas?
La probabilidad de acierto en cada una de las preguntas es 1/5. Por lo tanto, la probabilidad de acertar en las cuatro es:
Pe a es igual a uno partido por seiscientos veniticinco

2. Suponiendo que la probabilidad de tener un hijo o una hija es ½, ¿cuál es la probabilidad de que al tener tres hijos, 2 solamente sean varones?
Si H representa el nacimiento de un hombre y M el de una mujer, tenemos los siguientes casos favorables:    HHM – HMH – MHH 
La probabilidad de cada uno de estos eventos es: 
un octavo

El teorema de Bayes

En la teoria de la probabilidad, es una proposición planteada por el filósofo inglés Thomas Bayes (1702-1761)-1 en 1763,-2​ que expresa la probabilidad condicional de un evento aleatorio A dado B en términos de la distribución de probabilidad condicional del evento B dado A y la distribución de probabilidad de sólo A.
En términos más generales y menos matemáticos, el teorema de Bayes es de enorme relevancia puesto que vincula la probabilidad de A dado B con la probabilidad de B dado A. Es decir, por ejemplo, que sabiendo la probabilidad de tener un dolor de cabeza dado que se tiene gripe, se podría saber (si se tiene algún dato más), la probabilidad de tener gripe si se tiene un dolor de cabeza. Muestra este sencillo ejemplo la alta relevancia del teorema en cuestión para la ciencia en todas sus ramas, puesto que tiene vinculación íntima con la comprensión de la probabilidad de aspectos causales dados los efectos observados.

SEMANA 13

Todo experimento aleatorio presenta tres características:
  • Todos los resultados posibles son conocidos con anterioridad a su realización.
  • No se puede predecir con certeza el resultado que vamos a obtener.
  • El experimento puede repetirse, todas las veces que se desee, en idénticas condiciones.
Por tanto, un experimento aleatorio es un proceso, que se puede repetir indefinidamente en las mismas condiciones, cuyo resultado no se puede predecir con certeza.
El conjunto de todos los resultados posibles de un experimento aleatorio se denomina espacio muestral E.
A los resultados de un experimento aleatorio se les denomina sucesos y se representa por las letras: A, B, ...
Los sucesos a su vez pueden ser elementales o compuestos, dependiendo de la cantidad de resultados de los que consten.
Al suceso que siempre ocurre se le denomina suceso seguro y al que no puede ocurrir se le llama suceso imposible ∅.
Operaciones con sucesos basadas en la teoría de conjuntos:
Unión: A ∪ B
Intersección A ∩ B
Complementario: A¯


ESPACIO MUESTRAL: consiste en el conjunto de todos los posibles resultados de un experimento aleatorio, junto con una estructura sobre el mismo
Podemos diferenciar entre dos tipos principales de espacios maestrales, cada uno con categorías:
  • Espacios muestrales discretos o numerables, que a su vez se dividen en
    • Espacios maestrales finitos.
    • Espacios muestrales infinitos numerables.
  • Espacios maestrales continuos, que siempre son infinitos no numerables.



LEYES DE LA PROBABILIDAD


La probabilidad es un método por el cual se obtiene la frecuencia de un suceso determinado mediante la realización de un experimento aleatorio, del que se conocen todos los resultados posibles, bajo condiciones suficientemente estables. La teoria de la probabilidad se usa extensamente en áreas como la estadistica, la fisica, la matematicas, las ciencias y la filosofia para sacar conclusiones sobre la probabilidad discreta de sucesos potenciales y la mecánica subyacente discreta de sistemas complejos.
La probabilidad constituye un importante parámetro en la determinación de las diversas casualidades obtenidas tras una serie de eventos esperados dentro de un rango estadístico.
Existen diversas formas como método abstracto, como la teoria de dempster y la teoria de la relatividad numerica, esta última con un alto grado de aceptación si se toma en cuenta que disminuye considerablemente las posibilidades hasta un nivel mínimo ya que somete a todas las antiguas reglas a una simple ley de relatividad.
La probabilidad de un evento se denota con la letra p y se expresa en términos de una fracción y no en porcentajes, por lo que el valor de p cae entre 0 y 1. Por otra parte, la probabilidad de que un evento “no ocurra” equivale a 1 menos el valor de p y se denota con la letra q
P(Q) = 1 - P(E)
Los tres métodos para calcular las probabilidades son la regla de la adición, la regla de la multiplicación.

Regla de la adición

La regla de la adición o regla de la suma establece que la probabilidad de ocurrencia de cualquier evento en particular es igual a la suma de las probabilidades individuales, si es que los eventos son mutuamente excluyentes, es decir, que dos no pueden ocurrir al mismo tiempo.
P(A o B) = P(A) U P(B) = P(A) + P(B) si A y B son mutuamente excluyente. P(A o B) = P(A) + P(B) − P(A y B) si A y B son no excluyentes.
Siendo: P(A) = probabilidad de ocurrencia del evento A. P(B) = probabilidad de ocurrencia del evento B. P(A y B) = probabilidad de ocurrencia simultánea de los eventos A y B.

Regla de la multiplicación

La regla de la multiplicación establece que la probabilidad de ocurrencia de dos o más eventos estadísticamente independientes es igual al producto de sus probabilidades individuales.
P(A y B) = P(A B) = P(A)P(B) si A y B son independientes. P(A y B) = P(A B) = P(A)P(B|A) si A y B son dependientes
La regla de Laplace establece que:
  • La probabilidad de ocurrencia de un suceso imposible es 0.
  • La probabilidad de ocurrencia de un suceso seguro es 1, es decir, P(A) = 1.
Para aplicar la regla de Laplace es necesario que los experimentos den lugar a sucesos equiprobables, es decir, que todos tengan o posean la misma probabilidad.
  • La probabilidad de que ocurra un suceso se calcula así:
P(A) = Nº de casos favorables / Nº de resultados posibles
Esto significa que: la probabilidad del evento A es igual al cociente del número de casos favorables (los casos dónde sucede  A) sobre el total de casos posibles.-

EJEMPLOS DE GRAFICAS EN EXCEL






sábado, 5 de agosto de 2017

SEMANA 4 Y 5

MEDIDAS DE TENDENCIA CENTRAL

Son puntos de referencia para interpretar las calificaciones que se obtienen de la prueba.
Su objetivo es mostrar en qué lugar se ubica la persona promedio o típica del grupo, sirve como método para comparar o interpretar cualquier puntaje en relación con el puntaje en relación al puntaje central o típico.

La media aritmética: Se representa por medio de una letra M o por una X con una línea en la parte superior. Se obtiene al dividir la suma de todos los valores de una variable por la frecuencia total, en palabras más sencillas corresponde a la suma de un conjunto de datos dividida por el número total de dichos datos.

La mediana: La cual es el puntaje que se ubica en el centro de una distribución. Se representa como Md, para reconocerla es necesario tener ordenados los valores sea de mayor a menor o lo contrario, se divide el total de casos entre dos y el valor resultante corresponde al número de caso que representa la mediana de la distribución.
Es el valor central de un conjunto de valores ordenados en forma creciente o decreciente dicho en palabras más sencillas.

La moda: Es el puntaje que se representa con mayor frecuencia en una distribución, se representa Mo.
Entre los datos obtenidos, ejemplo: edades de 3º. Básico: 14, 15, 16,15, 15, 14, 16,15 notamos que la edad que más se repite es 15 por lo tanto 15 sería el valor de la moda.



SEMANA 3

Polígono de frecuencias:
Gráfico que se crea a partir de un histograma de frecuencias. Pero aquí solo se marcan los puntos más altos de las barras del histograma y se unen, por lo tanto, podríamos decir que es el que se forma a partir de la unión de distintos puntos medios de las cimas de las columnas de un histograma.
Ojiva:
Es un polígono frecuencia acumulado, es decir que permite ver cuantas observaciones se encuentran por encima o debajo de ciertos valores en lugar de exhibir solo valores asignados a cada intervalo.
Gráfico lineal:
Son perfectos para mostrar tendencias a lo largo de un periodo de tiempo, es muy utilizada para representar ventas en las empresas pues permite apreciar bien los altos y bajos que tuvo basado en un intervalo de tiempo lo cual la vuelve la gráfica indica para notar donde fueron altas y bajas las ventas.
Gráfico de puntos:
Permite mostrar apropiadamente a pequeños conjuntos de datos y tiene la gran ventaja de ser fácilmente construido a mano.


Todas la gráficas tiene sus respectivas ventajas unas son más usadas que otras pero es importante tener el conocimiento de todas para saber cuál se adapta mejor a la situación y facilitar la interpretación de datos al público para que tengan una idea clara y puedan comprender mejor de que se está hablando.