miércoles, 29 de mayo de 2013





APLICA LA DISTRIBUCIÓN BINOMIAL Y DISTRIBUCIÓN DE VARIABLE ALEATORIA CONTINUAS

 En estadística, la distribución binomial es una distribución de probabilidad discreta que mide el número de éxitos en una secuencia de n ensayos de Bernoulli independientes entre sí, con una probabilidad fija p de ocurrencia del éxito entre los ensayos. Un experimento de Bernoulli se caracteriza por ser dicotómico, esto es, sólo son posibles dos resultados. A uno de estos se denomina éxito y tiene una probabilidad de ocurrencia p y al otro, fracaso, con una probabilidad q = 1 - p. En la distribución binomial el anterior experimento se repite n veces, de forma independiente, y se trata de calcular la probabilidad de un determinado número de éxitos. Para n = 1, la binomial se convierte, de hecho, en una distribución de Bernoulli.
Para representar que una variable aleatoria X sigue una distribución binomial de parámetros n y p, se escribe:
X \sim B(n, p)\,
La distribución binomial es la base del test binomial de significación estadística
Las siguientes situaciones son ejemplos de experimentos que pueden modelizarse por esta distribución:
  • Se lanza un dado diez veces y se cuenta el número X de tres obtenidos: entonces X ~ B(10, 1/6)
  • Se lanza una moneda dos veces y se cuenta el número X de caras obtenidas: entonces X ~ B(2, 1/2)
Una partícula se mueve unidimensionalmente con probabilidad p de moverse de aquí para allá y 1-q de moverse de allá para acá.


Función de masa de probabilidad
Función de distribución acumulada 
 
 
 
 
Supongamos que se lanza un dado (con 6 caras) 50 veces y queremos conocer la probabilidad de que el número 3 salga 20 veces. En este caso tenemos una X ~ B(50, 1/6) y la probabilidad sería P(X=20):
  
Ejemplo 6:
Un agente de seguros vende pólizas a cinco personas de la misma edad y que
 disfrutan de  buena salud. Según las tablas actuales, la probabilidad de que
una persona en esta s condiciones viva 30 años o más es 2/3. Hállese la
probabilidad de que, transcurridos 30 años, vivan:
1. Las cinco personas.
B(5, 2/3) p = 2/3 q = 1/3

2.Al menos tres personas.

3.Exactamente dos personas.



Si de seis a siete de la tarde se admite que un número de teléfono de cada cinc
o está  comunicando, ¿cuál es la probabilidad de que, cuando se marquen
10 números de  teléfono elegidos al azar, sólo comuniquen dos?
B(10, 1/5)p = 1/5q = 4/5





La probabilidad de que un hombre acierte en el blanco es 1/4. Si dispara 10 veces
 ¿cuál es la probabilidad de que acierte exactamente en tres ocasiones?
 ¿Cuál es la probabilidad de que acierte por lo menos en una ocasión?
B(10, 1/4) p = 1/4q = 3/4



En una urna hay 30 bolas, 10 rojas y el resto blancas. Se elige una bola al azar
 y se anota  si es roja; el proceso se repite, devolviendo la bola, 10 veces. 

Calcular la media y la desviación típica.
B(10, 1/3) p = 1/3q = 2/3


lanza una moneda cuatro veces. Calcular la probabilidad de que salgan más
 caras que cruces
.
B(4, 0.5) p = 0.5q = 0.5
DISTRIBUCIÓN DE PROBABILIDAD CON VARIABLES CONTINUAS

En teoría de la probabilidad una distribución de probabilidad se llama continua si su función de distribución es continua. Puesto que la función de distribución de una variable aleatoria X viene dada por F_X(x) = P( X \le x ), la definición implica que en una distribución de probabilidad continua X se cumple P[X = a] = 0 para todo número real a, esto es, la probabilidad de que X tome el valor a es cero para cualquier valor de a. Si la distribución de X es continua, se llama a X variable aleatoria continua.
En las distribuciones de probabilidad continuas, la distribución de probabilidad es la integral de la función de densidad, por lo que tenemos entonces que:
F(x) = P( X \le x ) = \int_{-\infty}^{x} f(t)\, dt
Mientras que en una distribución de probabilidad discreta un suceso con probabilidad cero es imposible, no se da el caso en una variable aleatoria continua. Por ejemplo, si se mide la anchura de una hoja de roble, el resultado 3,5 cm es posible, pero tiene probabilidad cero porque hay infinitos valores posibles entre 3 cm y 4 cm. Cada uno de esos valores individuales tiene probabilidad cero, aunque la probabilidad de ese intervalo no lo es. Esta aparente paradoja se resuelve por el hecho de que la probabilidad de que X tome algún valor en un conjunto infinito como un intervalo, no puede calcularse mediante la adición simple de probabilidades de valores individuales. Formalmente, cada valor tiene una probabilidad infinitesimal que estadísticamente equivale a cero.
Existe una definición alternativa más rigurosa en la que el término "distribución de probabilidad continua" se reserva a distribuciones que tienen función de densidad de probabilidad. Estas funciones se llaman, con más precisión, variables aleatorias absolutamente continuas (véase el Teorema de Radon-Nikodym). Para una variable aleatoria X absolutamente continua es equivalente decir que la probabilidad P[X = a] = 0 para todo número real a, en virtud de que hay un incontables conjuntos de medida de Lebesgue cero (por ejemplo, el conjunto de Cantor).
Una variable aleatoria con la distribución de Cantor es continua de acuerdo con la primera definición, pero según la segunda, no es absolutamente continua. Tampoco es discreta, ni una media ponderada de variables discretas y absolutamente continuas.
En aplicaciones prácticas, las variables aleatorias a menudo ofrece una distribución discreta o absolutamente continua, aunque también aparezcan de forma natural mezclas de los dos tipos.

Definición

Para una variable continua hay infinitos valores posibles de la variable y entre cada dos de ellos se pueden definir infinitos valores más. En estas condiciones no es posible deducir la probabilidad de un valor puntual de la variable; como se puede hacer en el caso de variables discretas, pero es posible calcular la probabilidad acumulada hasta un cierto valor (función de distribución de probabilidad), y se puede analizar como cambia la probabilidad acumulada en cada punto (estos cambios no son probabilidades sino otro concepto: la función de densidad.
En el caso de variable continua la distribución de probabilidad es la integral de la función de densidad, por lo que tenemos entonces que:
F(x) = P( X \le x ) = \int_{-\infty}^{x} f(x)\, dx
Sea  X una variable continua, una distribución de probabilidad o función de densidad de probabilidad (FDP) de  X es una función f(x) tal que, para cualesquiera dos números  a y  b siendo  a \le b .

 P( a \le X \le b )=  \int_{a}^{b} f(x)\, dx

La gráfica de  f(x) se conoce a veces como curva de densidad, la probabilidad de que  X tome un valor en el intervalo  [a,b] es el área bajo la curva de la función de densidad; así, la función mide concentración de probabilidad alrededor de los valores de una variable aleatoria continua.

 P(a \le X \le b)= área bajo la curva de  f(x) entre  a y  b

Para que  f(x) sea una FDP ( FDP=f(x) ) legítima, debe satisfacer las siguientes dos condiciones:

1.  f(x) \ge \; 0 para toda x.

2.  \int_{-\infty}^{\infty} f(x)\, dx=1

Ya que la probabilidad es siempre un número positivo, la FDP es una función no decreciente que cumple:

1. \lim_{x \to \infty} F(x) = 1. Es decir, la probabilidad de todo el espacio muestral es 1.

2. \lim_{x \to -\infty} F(x) = 0. Es decir, la probabilidad del suceso nulo es cero.

Algunas FDP están declaradas en rangos de -\infty \; a  \infty \;, como la de la distribución normal.


DISTRIBUCIÓN NORMAL


En estadística y probabilidad se llama distribución normal, distribución de Gauss o distribución gaussiana, a una de las distribuciones de probabilidad de variable continua que con más frecuencia aparece aproximada en fenómenos reales.
La gráfica de su función de densidad tiene una forma acampanada y es simétrica respecto de un determinado parámetro estadístico. Esta curva se conoce como campana de Gauss y es el gráfico de una función gaussiana.
La importancia de esta distribución radica en que permite modelar numerosos fenómenos naturales, sociales y psicológicos. Mientras que los mecanismos que subyacen a gran parte de este tipo de fenómenos son desconocidos, por la enorme cantidad de variables incontrolables que en ellos intervienen, el uso del modelo normal puede justificarse asumiendo que cada observación se obtiene como la suma de unas pocas causas independientes.
De hecho, la estadística es un modelo matemático que sólo permite describir un fenómeno, sin explicación alguna. Para la explicación causal es preciso el diseño experimental, de ahí que al uso de la estadística en psicología y sociología sea conocido como método correlacional.
La distribución normal también es importante por su relación con la estimación por mínimos cuadrados, uno de los métodos de estimación más simples y antiguos.
Algunos ejemplos de variables asociadas a fenómenos naturales que siguen el modelo de la normal son:
  • caracteres morfológicos de individuos como la estatura;
  • caracteres fisiológicos como el efecto de un fármaco;
  • caracteres sociológicos como el consumo de cierto producto por un mismo grupo de individuos;
  • caracteres psicológicos como el cociente intelectual;
  • nivel de ruido en telecomunicaciones;
  • errores cometidos al medir ciertas magnitudes;
  • etc.
La distribución normal también aparece en muchas áreas de la propia estadística. Por ejemplo, la distribución muestral de las medias muéstrales es aproximadamente normal, cuando la distribución de la población de la cual se extrae la muestra no es normal.1 Además, la distribución normal maximiza la entropía entre todas las distribuciones con media y varianza conocidas, lo cual la convierte en la elección natural de la distribución subyacente a una lista de datos resumidos en términos de media muestral y varianza. La distribución normal es la más extendida en estadística y muchos tests estadísticos están basados en una supuesta "normalidad".
En probabilidad, la distribución normal aparece como el límite de varias distribuciones de probabilidad continuas y discretas.






 
 

No hay comentarios:

Publicar un comentario