CLASE Nº 4
(4/01/2017)
MEDIA Y
VARIANZA DE VARIABLES ALEATORIAS CONTINUAS
X = VARIABLE
ALEATORIA CONTINUA
F(x) = función
de densidad
Media de X = u(x) integral xf(x)dx
Varianza de
x = v(x) = E[(x-u)^2]
DISTRIBUCION
DE PROBABILIDADES DISCRETAS
Una distribución de probabilidades para una variable
aleatoria discreta es un listado mutuamente excluyente de todos los resultados
numéricos posibles para esa variable aleatoria tal que una probabilidad específica de ocurrencia se asocia con cada
resultado. El valor esperado de una variable aleatoria discreta es un
promedio ponderado de todos los posibles resultados, donde las ponderaciones
son las probabilidades asociadas con cada uno de los resultados.
Dónde: Xi = i-ésimo resultado de X, la variable
discreta de interés.
P(Xi) = probabilidad de ocurrencia del i-ésimo
resultado de X
La varianza de una variable aleatoria discreta (s 2)
se define como el promedio ponderado de los cuadros de las diferencias entre
cada resultado posible y su media (los pesos son las probabilidades de los
resultados posibles).
Dónde: Xi = i-ésimo resultado de X, la variable
discreta de interés.
P(Xi) = probabilidad de ocurrencia del i-ésimo
resultado de X
CLASE Nº 5
(6/01/2017)
DISTRIBUCIÓN
DE BERNOULLI
En teoría de probabilidad y estadística, la distribución
de Bernoulli (o distribución dicotómica), nombrada así por el matemático y científico suizo Jakob Bernoulli, es una distribución de probabilidad discreta, que toma valor 1
para la probabilidad de éxito (p) y valor 0 para la probabilidad de fracaso (q = 1 – p )
Si X es una variable aleatoria que mide el "número de
éxitos", y se realiza un
único experimento con dos
posibles resultados (éxito o fracaso), se dice que la variable
aleatoria X se
distribuye como una Bernoulli de parámetro (p).
X sigue el camino Be(p)
Su función de probabilidad viene definida por:
f(x) = p^x(1-p)^1-x con X = { 0 , 1 }
La fórmula será
p si x = 1
f(x;p) = q si x = 0
0 cualquier otro caso
Un experimento al cual se aplica la distribución de
Bernoulli se conoce como Ensayo de Bernoulli o
simplemente ensayo, y la
serie de esos experimentos como ensayos
repetidos.
DISTRIBUCION BINOMIAL
Esta distribución se basa en el proceso de Bernoulli. Se denominan procesos de tipo Bernoulli, a todo experimento
consistente en una serie de pruebas repetidas, caracterizadas por tener resultados
que se pueden clasificar en si verifican o no cierta propiedad o atributo, siendo aleatorios e independientes.
Para identificar un proceso Bernoulli en una serie de
pruebas repetidas, se deben verificar tres condiciones:
Resultados dicotómicos: Los resultados de
cada prueba se pueden clasificar en "éxito" si verifican cierta condición, o
"fracaso" en el caso contrario.
Independencia de las pruebas: El resultado de una
prueba cualquiera es independiente del resultado obtenido en la prueba
anterior, y no incide en el resultado de la prueba siguiente.
Estabilidad de las pruebas: La probabilidad p
de obtener un resultado considerado como un éxito se mantiene constante a lo
largo de toda la serie de pruebas.
Cuando en un proceso del tipo Bernoulli se desea saber
la probabilidad de obtener exactamente r éxitos, en una serie de n pruebas, con una probabilidad de éxito p, se puede aplicar la fórmula de la
probabilidad binomial:
X = 0, 1, 2, ……, n.
La media o valor esperado es m = np
La varianza s 2 = np(1-p)
Veamos el siguiente ejemplo:
Sea el caso de una droga X, con una dosis mortal de 1g/100 ml para cobayos
experimentales, en el 25% de los casos. Aplicando esta dosis a cien cobayos se
desea saber cuanto vale la probabilidad de que mueran veinte de ellos.
Primero analizaremos si este caso cumple los supuestos
básicos de una distribución binomial:
Los cobayos mueren (éxito) o sobreviven (fracaso).
Que un cobayo muera con la dosis, no significa que lo
hará el siguiente (independencia) pues no se trata de una epidemia.
La probabilidad de que mueran se mantiene constante a
lo largo de la serie de pruebas (p = 0,25).
Entonces, como si cumple los supuestos básicos,
aplicamos la fórmula:
MEDIA Y VARIANZA
CLASE Nº 6
(11/01/2017)
DISTRIBUCIÓN DE POISSON
La distribución de Poisson es un
modelo que puede usarse para calcular la probabilidad
correspondiente al número de “éxitos” que se obtendrían en una región o en intervalo de
tiempo especificados, si se conoce el número promedio de “éxitos” que ocurren.
Este modelo requiere que se cumplan las siguientes suposiciones:
correspondiente al número de “éxitos” que se obtendrían en una región o en intervalo de
tiempo especificados, si se conoce el número promedio de “éxitos” que ocurren.
Este modelo requiere que se cumplan las siguientes suposiciones:
El número de “éxitos” que ocurren en la región o intervalo es independiente de lo que ocurre en otra región o intervalo
La probabilidad de que un
resultado ocurra en una región o intervalo muy pequeño, es igual para todos los
intervalos o regiones de igual tamaño y es proporcional al tamaño de la región
o intervalo.
La probabilidad de que más de un
resultado ocurra en una región o intervalo muy pequeño no es significativa.
MEDIA Y VARIANZA:
APROXIMACIÓN DE LA DISTRIBUCIÓN
BINOMIAL CON LA DISTRIBUCIÓN DE POISSON
En la Distribución Binomial cuando n es grande no es práctico el uso de la fórmula. Para
entender esto, suponga que n=100, p=0.05 y se quiere calcular la probabilidad que la variable aleatoria X tome el valor 4:
En esta situación se puede
calcular aproximadamente la probabilidad mediante otro modelo, en este caso,
con la Distribución de Poisson.
Del desarrollo algebraico, que lo
omitimos, se obtiene el siguiente resultado para la Distribución
Binomial:
CLASE Nº 7
(13/01/2017)
DISTRIBUCIÓN HIPERGEOMÉTRICA
Tomar una muestra sin reemplazo
significa que los elementos son tomados uno a uno, sin
devolverlos. Podemos concluir entonces que los ensayos ya no pueden ser considerados
independientes porque la probabilidad de “éxito” al tomar cada nuevo elemento es afectada por el resultado de los ensayos anteriores debido a que la cantidad de elementos de la población está cambiando.
devolverlos. Podemos concluir entonces que los ensayos ya no pueden ser considerados
independientes porque la probabilidad de “éxito” al tomar cada nuevo elemento es afectada por el resultado de los ensayos anteriores debido a que la cantidad de elementos de la población está cambiando.
La cantidad de “éxitos” que se obtienen en la muestra no puede exceder a la cantidad de “éxitos” disponibles en el conjunto. Igualmente, la cantidad de n - x “fracasos” no puede exceder a los N - K disponibles.
MEDIA Y VARIANZA
APROXIMACIÓN DE LA DISTRIBUCIÓN HIPERGEOMÉTRICA CON LA DISTRIBUCIÓN BINOMIAL
DISTRIBUCIÓN BINOMIAL NEGATIVA
Este modelo de probabilidad
tienen características similares al modelo binomial: los ensayos
son independientes, cada ensayo tiene únicamente dos resultados posibles, y la probabilidad que cada ensayo tenga un resultado favorable es constante. Pero, en este modelo la variable aleatoria es diferente:
son independientes, cada ensayo tiene únicamente dos resultados posibles, y la probabilidad que cada ensayo tenga un resultado favorable es constante. Pero, en este modelo la variable aleatoria es diferente:
MEDIA Y VARIANZA:
DISTRIBUCIÓN GEOMÉTRICA
Es un caso especial de la
distribución binomial negativa, cuando k=1. Es decir interesa conocer la
probabilidad respecto a la cantidad de ensayos que se realizan hasta obtener el
primer “éxito”
CLASE N° 8
(18/01/2017)
DISTRIBUCIONES DE PROBABILIDAD CONTINUA
Distribución Uniforme
La distribución Uniforme es el modelo (absolutamente) continuo más simple. Corresponde al caso de una variable aleatoria que sólo puede tomar valores comprendidos entre dos extremos a y b, de manera que todos los intervalos de una misma longitud (dentro de (a, b)) tienen la misma probabilidad. También puede expresarse como el modelo probabilístico correspondiente a tomar un número al azar dentro de un intervalo (a, b).
De la anterior definición se desprende que la función de densidad debe tomar el mismo valor para todos los puntos dentro del intervalo (a, b) (y cero fuera del intervalo). Es decir,
.
Gráficamente:
La función de distribución se obtiene integrando la función de densidad y viene dada por:
Gráficamente:
Esperanza de la función uniforme continua:
Varianza de la función uniforme continua:
Por lo que se obtiene:
Distribución normal
Se trata, sin duda, del modelo continuo más importante en estadística, tanto por su aplicación directa, veremos que muchas variables de interés general pueden describirse por dicho modelo, como por sus propiedades, que han permitido el desarrollo de numerosas técnicas de inferencia estadística. En realidad, el nombre de Normal proviene del hecho de que durante un tiempo se creyó, por parte de médicos y biólogos, que todas las variables naturales de interés seguían este modelo.
Su función de densidad viene dada por la fórmula:
Curva de distribución normal
El campo de existencia es cualquier valor real, es decir, (-∞, +∞).
Es simétrica respecto a la media µ.
Tiene un máximo en la media µ.
Crece hasta la media µ y decrece a partir de ella.
En los puntos µ − σ y µ + σ presenta puntos de inflexión.
El eje de abscisas es una asíntota de la curva.
El área del recinto determinado por la función y el eje de abscisas es igual a la unidad.
Al ser simétrica respecto al eje que pasa por x = µ, deja un área igual a 0.5 a la izquierda y otra igual a 0.5 a la derecha.
La probabilidad equivale al área encerrada bajo la curva.
p(μ - σ < X ≤ μ + σ) = 0.6826 = 68.26 %
p(μ - 2σ < X ≤ μ + 2σ) = 0.954 = 95.4 %
p(μ - 3σ < X ≤ μ + 3σ) = 0.997 = 99.7 %
Distribución normal estabdar
La distribución normal estándar, o tipificada o reducida, es aquella que tiene por media el valor cero, μ = 0, y por desviación típica la unidad, σ =1.
Su función de densidad es:
Su gráfica es:
La probabilidad de la variable X
dependerá del área del recinto sombreado en la figura. Y para calcularla
utilizaremos una tabla.
Para poder utilizar la tabla
tenemos que transformar la variable X que sigue una
distribución N(μ, σ) en otra variable Z que siga una
distribución N(0, 1).
Tabla de distribución normal: https://www.uam.es/personal_pdi/ciencias/gallardo/Tablas-normal-chi-t-F.pdf
CLASE N° 9
(20/01/2017)
En esta clase se rindió la primera prueba del 2do bimestre.
CLASE N° 10
(25/01/2017)
Aproximación Binomial a Normal
En este caso se estarán
calculando probabilidades de experimentos Binomiales de una forma muy
aproximada con la distribución Normal, esto puede llevarse a cabo si n¥® y p =
p(éxito) no es muy cercana a 0 y 1, o cuando n es pequeño y p tiene
un valor muy cercano a ½ ; esto es:
Dónde:
x =
variable de tipo discreto; solo toma valores enteros
m = np =
media de la distribución Binomial
s = (npq)1/2 = desviación estándar
de la distribución Binomial
Cuando
ocurren las condiciones anteriores, la gráfica de la distribución Binomial, es
muy parecida a la distribución Normal, por lo que es adecuado calcular
probabilidades con la Normal en lugar de con la Binomial y de una forma más
rápida.
En
resumen, se utiliza la aproximación Normal para evaluar probabilidades
Binomiales siempre que p no esté cercano a 0 o 1. La
aproximación es excelente cuando n es grande y bastante buena para
valores pequeños de n si p está razonablemente cercana a ½.
Una posible guía para determinar cuándo puede utilizarse la
aproximación Normal es tener en cuenta el cálculo de np y nq. Sí
ambos, np y nq son mayores o iguales a 5, la aproximación será
buena.
Antes
de empezar a resolver problemas con la aproximación Normal, es bueno aclarar
que se están evaluando probabilidades asociadas a una variable discreta x, con
una distribución que evalúa variables de tipo continuo como es la
Normal,
Por lo
que z sufre un pequeño cambio como se muestra a continuación:
CLASE N° 11
(27/01/2017)
Este modelo
suele utilizarse para variables que describen el tiempo hasta que se
produce un determinado suceso.
Su función de
densidad es de la forma:
Como vemos este
modelo depende de un único parámetro α que debe ser positivo:
α > 0. A continuación se muestra un programa que nos permite ver
cómo cambia la forma de la función de densidad según el parámetro α.
La función de
distribución se obtiene integrando la de densidad y es de la forma:
Podemos utilizar
el programa siguiente para calcular dicha función de distribución:
Propiedades del
modelo Exponencial
Su esperanza es
α.
Su varianza es α2.
Una propiedad
importante es la denominada carencia de memoria, que podemos definir así:
si la variable X mide el tiempo de vida y sigue una distribución
Exponencial, significará que la probabilidad de que siga con vida dentro de 20
años es la misma para un individuo que a fecha de hoy tiene 25 años que para
otro que tenga 60 años.
Cuando el número
de sucesos por unidad de tiempo sigue una distribución de Poisson de
parámetro λ (proceso de Poisson), el tiempo entre dos sucesos consecutivos
sigue una distribución Exponencial de parámetro α = 1/λ.






























No hay comentarios:
Publicar un comentario