Enero




CLASE Nº 4
(4/01/2017)
MEDIA Y VARIANZA DE VARIABLES ALEATORIAS CONTINUAS
X = VARIABLE ALEATORIA CONTINUA
F(x) = función de densidad

Media de X = u(x) integral xf(x)dx
Varianza de x = v(x) = E[(x-u)^2]

DISTRIBUCION DE PROBABILIDADES DISCRETAS
Una distribución de probabilidades para una variable aleatoria discreta es un listado mutuamente excluyente de todos los resultados numéricos posibles para esa variable aleatoria tal que una probabilidad específica de ocurrencia se asocia con cada resultado. El valor esperado de una variable aleatoria discreta es un promedio ponderado de todos los posibles resultados, donde las ponderaciones son las probabilidades asociadas con cada uno de los resultados.

Dónde: Xi = i-ésimo resultado de X, la variable discreta de interés.
P(Xi) = probabilidad de ocurrencia del i-ésimo resultado de X
La varianza de una variable aleatoria discreta (s 2) se define como el promedio ponderado de los cuadros de las diferencias entre cada resultado posible y su media (los pesos son las probabilidades de los resultados posibles).

Dónde: Xi = i-ésimo resultado de X, la variable discreta de interés.
P(Xi) = probabilidad de ocurrencia del i-ésimo resultado de X

CLASE Nº 5
(6/01/2017)
DISTRIBUCIÓN DE BERNOULLI
En teoría de probabilidad y estadística, la distribución de Bernoulli (o distribución dicotómica), nombrada así por el matemático y científico suizo Jakob Bernoulli, es una distribución de probabilidad discreta, que toma valor 1 para la probabilidad de éxito (p{\displaystyle p}) y valor 0 para la probabilidad de fracaso (q = 1 – p ){\displaystyle q=1-p}QQQ 
Si X {\displaystyle X} xxxxes una variable aleatoria que mide el "número de éxitos", y se realiza un único experimento con dos posibles resultados (éxito o fracaso), se dice que la variable aleatoria X{\displaystyle X\,} se distribuye como una Bernoulli de parámetro (p).
X sigue el camino Be(p)

Su función de probabilidad viene definida por:

f(x) = p^x(1-p)^1-x     con    X = { 0 , 1 }

{\displaystyle f(x)=p^{x}(1-p)^{1-x}\,\qquad {\text{ con }}\,x=\{0,1\}\,}La fórmula será
                p       si x = 1
f(x;p) =    q       si x = 0
                0      cualquier otro caso
{\displaystyle f\left(x;p\right)=\left\{{\begin{matrix}p&{\mbox{si }}x=1,\\q&{\mbox{si }}x=0,\\0&{\mbox{en cualquier otro caso}}\end{matrix}}\right.}
Un experimento al cual se aplica la distribución de Bernoulli se conoce como Ensayo de Bernoulli o simplemente ensayo, y la serie de esos experimentos como ensayos repetidos.
DISTRIBUCION BINOMIAL
Esta distribución se basa en el proceso de Bernoulli. Se denominan procesos de tipo Bernoulli, a todo experimento consistente en una serie de pruebas repetidas, caracterizadas por tener resultados que se pueden clasificar en si verifican o no cierta propiedad o atributo, siendo aleatorios e independientes.
Para identificar un proceso Bernoulli en una serie de pruebas repetidas, se deben verificar tres condiciones:

Resultados dicotómicos: Los resultados de cada prueba se pueden clasificar en "éxito" si verifican cierta condición, o "fracaso" en el caso contrario.
Independencia de las pruebas: El resultado de una prueba cualquiera es independiente del resultado obtenido en la prueba anterior, y no incide en el resultado de la prueba siguiente.
Estabilidad de las pruebas: La probabilidad p de obtener un resultado considerado como un éxito se mantiene constante a lo largo de toda la serie de pruebas.
Cuando en un proceso del tipo Bernoulli se desea saber la probabilidad de obtener exactamente r éxitos, en una serie de n pruebas, con una probabilidad de éxito p, se puede aplicar la fórmula de la probabilidad binomial:

X = 0, 1, 2, ……, n.

La media o valor esperado es m = np
La varianza s 2 = np(1-p)
Veamos el siguiente ejemplo:
Sea el caso de una droga X, con una dosis mortal de 1g/100 ml para cobayos experimentales, en el 25% de los casos. Aplicando esta dosis a cien cobayos se desea saber cuanto vale la probabilidad de que mueran veinte de ellos.
Primero analizaremos si este caso cumple los supuestos básicos de una distribución binomial:
Los cobayos mueren (éxito) o sobreviven (fracaso).
Que un cobayo muera con la dosis, no significa que lo hará el siguiente (independencia) pues no se trata de una epidemia.
La probabilidad de que mueran se mantiene constante a lo largo de la serie de pruebas (p = 0,25).
Entonces, como si cumple los supuestos básicos, aplicamos la fórmula:

MEDIA Y VARIANZA




CLASE Nº 6
(11/01/2017)

DISTRIBUCIÓN DE POISSON
La distribución de Poisson es un modelo que puede usarse para calcular la probabilidad
correspondiente al número de “éxitos” que se obtendrían en una región o en intervalo de
tiempo especificados, si se conoce el número promedio de “éxitos” que ocurren.

Este modelo requiere que se cumplan las siguientes suposiciones:

 El número de “éxitos” que ocurren en la región o intervalo es independiente de lo que ocurre en otra región o intervalo
La probabilidad de que un resultado ocurra en una región o intervalo muy pequeño, es igual para todos los intervalos o regiones de igual tamaño y es proporcional al tamaño de la región o intervalo.
La probabilidad de que más de un resultado ocurra en una región o intervalo muy pequeño no es significativa.



MEDIA Y VARIANZA:




APROXIMACIÓN DE LA DISTRIBUCIÓN BINOMIAL CON LA DISTRIBUCIÓN DE POISSON

En la Distribución Binomial cuando n es grande no es práctico el uso de la fórmula. Para
entender esto, suponga que n=100, p=0.05 y se quiere calcular la probabilidad que la variable aleatoria X tome el valor 4:




En esta situación se puede calcular aproximadamente la probabilidad mediante otro modelo, en este caso, con la Distribución de Poisson.
Del desarrollo algebraico, que lo omitimos, se obtiene el siguiente resultado para la Distribución

Binomial:


CLASE Nº 7
(13/01/2017)

DISTRIBUCIÓN HIPERGEOMÉTRICA

Tomar una muestra sin reemplazo significa que los elementos son tomados uno a uno, sin
devolverlos. Podemos concluir entonces que los ensayos ya no pueden ser considerados
independientes porque la probabilidad de “éxito” al tomar cada nuevo elemento es afectada por el resultado de los ensayos anteriores debido a que la cantidad de elementos de la población está cambiando.



La cantidad de “éxitos” que se obtienen en la muestra no puede exceder a la cantidad de “éxitos” disponibles en el conjunto. Igualmente, la cantidad de n - x “fracasos” no puede exceder a los N - K disponibles.


MEDIA Y VARIANZA





APROXIMACIÓN DE LA DISTRIBUCIÓN HIPERGEOMÉTRICA CON LA DISTRIBUCIÓN BINOMIAL




DISTRIBUCIÓN BINOMIAL NEGATIVA

Este modelo de probabilidad tienen características similares al modelo binomial: los ensayos
son independientes, cada ensayo tiene únicamente dos resultados posibles, y la probabilidad que cada ensayo tenga un resultado favorable es constante. Pero, en este modelo la variable aleatoria es diferente:




MEDIA Y VARIANZA:



DISTRIBUCIÓN GEOMÉTRICA

Es un caso especial de la distribución binomial negativa, cuando k=1. Es decir interesa conocer la probabilidad respecto a la cantidad de ensayos que se realizan hasta obtener el primer “éxito”



CLASE N° 8

(18/01/2017)

DISTRIBUCIONES DE PROBABILIDAD CONTINUA

Distribución Uniforme


La distribución Uniforme es el modelo (absolutamente) continuo más simple. Corresponde al caso de una variable aleatoria que sólo puede tomar valores comprendidos entre dos extremos a y b, de manera que todos los intervalos de una misma longitud (dentro de (ab)) tienen la misma probabilidad. También puede expresarse como el modelo probabilístico correspondiente a tomar un número al azar dentro de un intervalo (ab).
De la anterior definición se desprende que la función de densidad debe tomar el mismo valor para todos los puntos dentro del intervalo (a, b) (y cero fuera del intervalo). Es decir,
.

Gráficamente:

La función de distribución se obtiene integrando la función de densidad y viene dada por:

Gráficamente:



Esperanza de la función uniforme continua:





Varianza de la función uniforme continua:


Por lo que se obtiene:



Distribución normal
Se trata, sin duda, del modelo continuo más importante en estadística, tanto por su aplicación directa, veremos que muchas variables de interés general pueden describirse por dicho modelo, como por sus propiedades, que han permitido el desarrollo de numerosas técnicas de inferencia estadística. En realidad, el nombre de Normal proviene del hecho de que durante un tiempo se creyó, por parte de médicos y biólogos, que todas las variables naturales de interés seguían este modelo.
Su función de densidad viene dada por la fórmula:


Curva de distribución normal

El campo de existencia es cualquier valor real, es decir, (-∞, +∞).
Es simétrica respecto a la media µ.
Tiene un máximo en la media µ.
Crece hasta la media µ y decrece a partir de ella.
En los puntos µ − σ y µ + σ presenta puntos de inflexión.
El eje de abscisas es una asíntota de la curva.
El área del recinto determinado por la función y el eje de abscisas es igual a la unidad.
Al ser simétrica respecto al eje que pasa por x = µ, deja un área igual a 0.5 a la izquierda y otra igual a 0.5 a la derecha.
La probabilidad equivale al área encerrada bajo la curva.
p(μ - σ < X ≤ μ + σ) = 0.6826 = 68.26 %
p(μ - 2σ < X ≤ μ + 2σ) = 0.954 = 95.4 %
p(μ - 3σ < X ≤ μ + 3σ) = 0.997 = 99.7 %
Distribución normal estabdar
La distribución normal estándar, o tipificada o reducida, es aquella que tiene por media el valor cero, μ = 0, y por desviación típica la unidad, σ =1.
Su función de densidad es:


Su gráfica es:


La probabilidad de la variable X dependerá del área del recinto sombreado en la figura. Y para calcularla utilizaremos una tabla.

Para poder utilizar la tabla tenemos que transformar la variable X que sigue una distribución N(μ, σ) en otra variable Z que siga una distribución N(0, 1).



Tabla de distribución normal: https://www.uam.es/personal_pdi/ciencias/gallardo/Tablas-normal-chi-t-F.pdf

CLASE N° 9
(20/01/2017)

En esta clase se rindió la primera prueba del 2do bimestre.


CLASE N° 10
(25/01/2017)

Aproximación Binomial a Normal

En este caso se estarán calculando probabilidades de experimentos Binomiales de una forma muy aproximada con la distribución Normal, esto puede llevarse a cabo si n¥® y p = p(éxito) no es muy cercana a 0 y 1, o cuando n es pequeño y p tiene un valor muy cercano a ½ ; esto es:



Dónde:
x = variable de tipo discreto; solo toma valores enteros
m = np = media de la distribución Binomial
s = (npq)1/2 = desviación estándar de la distribución Binomial

Cuando ocurren las condiciones anteriores, la gráfica de la distribución Binomial, es muy parecida a la distribución Normal, por lo que es adecuado calcular probabilidades con la Normal en lugar de con la Binomial y de una forma más rápida.
En resumen, se utiliza la aproximación Normal para evaluar probabilidades Binomiales siempre que p no esté cercano a 0 o 1. La aproximación es excelente cuando n es grande y bastante buena para valores pequeños de n si p está razonablemente cercana a ½. Una posible guía para determinar cuándo puede utilizarse la aproximación Normal es tener en cuenta el cálculo de np y nq. Sí ambos, np y nq son mayores o iguales a 5, la aproximación será buena.

Antes de empezar a resolver problemas con la aproximación Normal, es bueno aclarar que se están evaluando probabilidades asociadas a una variable discreta x, con una distribución  que evalúa variables de tipo continuo como es la Normal,
Por lo que z sufre un pequeño cambio como se muestra a continuación:



CLASE N° 11
(27/01/2017)

Este modelo suele utilizarse para variables que describen el tiempo hasta que se produce un determinado suceso.
Su función de densidad es de la forma:


Como vemos este modelo depende de un único parámetro  α  que debe ser positivo:  α > 0. A continuación se muestra un programa que nos permite ver cómo cambia la forma de la función de densidad según el parámetro α.


La función de distribución se obtiene integrando la de densidad y es de la forma:


Podemos utilizar el programa siguiente para calcular dicha función de distribución:


Propiedades del modelo Exponencial
Su esperanza es α.
Su varianza es α2.
Una propiedad importante es la denominada carencia de memoria, que podemos definir así: si la variable X mide el tiempo de vida y sigue una distribución Exponencial, significará que la probabilidad de que siga con vida dentro de 20 años es la misma para un individuo que a fecha de hoy tiene 25 años que para otro que tenga 60 años.
Cuando el número de sucesos por unidad de tiempo sigue una distribución de  Poisson de parámetro λ (proceso de Poisson), el tiempo entre dos sucesos consecutivos sigue una distribución Exponencial de parámetro α = 1/λ.













































































No hay comentarios:

Publicar un comentario