Laboratorio Virtual > Pruebas de Bernoulli > 1 2 3 4 [5] 6 7
Suponga nuevamente que nuestro experimento aleatorio es realizar pruebas de Bernoulli I1, I2, ... En esta sección estudiaremos la variable aleatoria Yk que da el número de prueba del k-ésimo éxito. Note que Y1 es el número de pruebas necesarias para obtener el primer éxito, el cual conocemos tiene distribución geométrica. Recuerde también que Xn, el número de éxitos en las primeras n pruebas, tiene distribución binomial con parámetros n y p.
1.
Demuestre que Yk = n si y solo si In = 1
y Xn-1
= k - 1.
2. Use
el Ejercicio 1, independencia, y la distribución
binomial para demostrar que
P(Yk = n) = C(n - 1, k - 1)pk(1 - p)n - k para n = k, k + 1, k + 2, ...
La distribución definida por la función densidad del Ejercicio 2 es conocidacomo la distribución binomial negativa; tiene dos parámetros, el número de éxitos k y la probabilidad de éxito p.
3.
En el experimento
binomial negativo, varíe k y p con las barras de
desplazamiento y note la forma de la función densidad. Ahora fije k = 2
y p = 0.4 y haga correr el experimento con una frecuencia de
actualización de 10. Observe la convergencia aparente de la función frecuencia
relativa a la función densidad.
4. Demuestre que las secuencias binomial y binomial negativa son inversas una
hacia la otra en el sentido que
Xn k
si y sólo si Yk
n
Por lo tanto, razone que cualquier evento que pueda ser expresado en términos de variables binomiales negativas puede ser expresado también en términos de variables binomiales.
5.
Demuestre que
P(Yk = n) > P(Yk = n - 1) si y sólo si n < (k - 1 + p) / p.
Por lo tanto, la función densidad al principio crece y luego decrece, alcanzando su valor más máximo en el entero máximo en (k - 1 + p) / p. Este entero es la moda de la distribución y por ende la distribución binomial negativa es unimodal.
6. Un dado no trucado es arrojado hasta obtener 3 unos. Encuentre la
probabilidad de que al menos 15 lanzamientos sean necesarios.
Definiremos variables aleatorias que dan el número de pruebas entre éxitos sucesivos:
Z1 = Y1 y Zk = Yk - Yk-1 para k = 2, 3, ...
7.
Observe que estas variables son independientes y que cada una tiene
distribución geométrica con parámetro p. Más aún,
Yk = Z1 + Z2 + ··· + Zk.
La media, varianza y la función generadora de probabilidad de Yk ahora salen facilmente de los resultados para la distribución geométrica.
8.
Demuestre que E(Yk) = k / p.
9.
Demuestre que var(Yk)
= k(1 - p) / p2.
10.
Demuestre que E(tYk)
= [pt / (1 - t + tp)]k
para |t|
< 1 / (1 - p).
11.
Suponga que U y V son variables aleatorias independientes
para un experimento, y que U tiene la distribución binomial
negativa con parámetros j y p y V tiene la
distribución binomial negativa con parámetros k y p.
Demuestre que U + V tiene la distribución binomial negativa con
parámetros j + k y p.
12.
En el experimento
binomial negativo, varíe k y p con las barras de
desplazamiento y tome nota de la posición y el tamaño de la barra
media/desviación estándar. Ahora fije k = 3 y p =
0.25 y haga correr el experimento con una frecuencia de actualización de 10.
Observe la convergencia aparente de la media y desviación estándar de la
muestra a la media y distribución estándar de la distribución.
13. Un cierto tipo de misil tiene una probabilidad de fallar de 0.02. Encuentre
la media y la desviación estándar del número de despegue de la cuarta falla.
14.
En el experimento
binomial negativo, comience con p = 0.5 y k =
1. Sucesivamente incremente k en 1, tomando nota cada vez de la forma
de la función distribución. Repita con p = 0.3 y p = 0.8.
A pesar de que está limitado a k = 5, aún se puede ver la forma de campana característica. Esto es una consecuencia del teorema del límite central porque la variable binomial negativa puede ser escrita como suma de k variables aleatorias independientes, y distribuidas identicamente (distribución geométrica).
15.
Demuestre que la distribución de la variable estandarizada escrita a
continuación converge a la distribución
normal estándar a medida que se incrementa k.
(Yk - k / p) / [k(1 - p) / p]1/2 = (pYk - k) / [k(1 - p)]1/2.
16.
En el experimento
binomial negativo, fije p = 0.5 y k = 5. Haga correr
el experimento 1000 veces con una frecuencia de actualización de100. Calcule y
compare cada uno de los siguientes::
17. Una moneda es arrojada hasta que se obtiene la cara nro. 50.
Suponga que un profesor poco inteligente (¿acaso existe alguna otra clase de profesor?) tiene N fósforos en su bolsillo derecho y N fósforos en su bolsillo izquierdo. Cuando necesita un fósforo para encender su pipa, toma un fósforo de cualquier bolsillo en forma igualmente probable. Se quiere calcular la función densidad de la variable aleatoria W que da el número de fósforos que quedan cuando el profesor descubre por primera vez que uno de sus bolsillos está vacío. Esto se conoce como el problema de los fósforos de Banach, en nombre del matemático Stefan Banach, quien evidentemente se comportaba de la manera descripta.
Podemos replantear el problema en términos de la distribución binomial negativa. Claramente la selección de los fósforos forman una secuencia de pruebas de Bernoulli con parámetro p = 1/2. Especificamente, podemos considerar a un fósforo del bolsillo derecho como un triunfo para el jugador R, y a un fósforo del bolsillo izquierdo como un triunfo para el jugador L. En una secuencia hipotética de infinitas pruebas, deje que Y denote el número de pruebas necesarias para que R gane N + 1 pruebas, y Z el número de pruebas necesarias para que L gane N + 1 pruebas. Note que Y y Z tienen cada uno distribución binomial negativa con parámetros N + 1 y p.
18. Para k = 0, 1, ..., N, demuestre que
19. para k = 0, 1, ..., N, demuestre que
20. Combine los resultados de los dos ejercicios anteriores para concluir que
P(W = k) = C(2N - k, N) (1/2)2N - k para k = 0, 1, ..., N.
También podemos resolver el problema de los fósforos de Banach no-simétrico, utilizando los mismos métodos que anteriormente. Por lo tanto, suponga que el profesor toma un fósforo de su bolsillo derecho con probabilidad p y de su bolsillo izquierdo con probabilidad 1 - p, donde 0 < p < 1. El cambio esencial en el análisis es que Y tiene distribución binomial negativa con parámetros N + 1 y p, dónde Z tiene distribución binomial negativa con parámetrosN + 1 y 1 - p.
P(W = k) = C(2N - k, N)[pN + 1 (1 - p)N - k + (1 - p)N pN - k] para k = 0, 1, ..., N.
Suponga que dos equipos (o individuos) A y B juegan una secuencia de pruebas de Bernoulli, dónde p es la probabilidad de que el jugador A gane la prueba. Para enteros no negativos n y m, deje que Fn,m(p) denote la probabilidad de que A gane n puntos antes de que B gane m puntos. Calcular Fn,m(p) es un problema historicamente famoso, conocido como el problema de los puntos, que fue resuelto por Pierre de Fermat y por Blaise Pascal.
22.
Discuta acerca de la validez de las suposiciones de las pruebas de Bernoulli
(pruebas independientes y probabilidad de éxito constante) para juegos
deportivos en los que hay tanto un componente de habilidad como un componente de
aleatoriedad.
Existe una solución fácil al problema de los puntos utilizando la
distribución binomial; esta fue esencialmente la solución de Pascal. Deje que
pretendamos que se juegan n + m - 1 pruebas,
independientemente de los resultados, y deje que
23.
Demuestre que A gana n pruebas antes de que B
gane m pruebas si y sólo si
Xn + m - 1 n.
24. Use
el resultado del ejercicio anterior para demostrar que
Fn,m(p) = k
= n, ..., n + m -1 C(n + m -
1, k) pk(1 - p)n + m - 1 - k.
25.
En el experimento
del problema de los puntos, varíe los parámetros n, m,
y p, y vea como cambia la probabilidad. Ahora con n = 10, m = 5,
y p
= 0.5, haga correr el experimento 1000 veces con una frecuencia de
actualización de 10. Note la convergencia aparente de la frecuencia relativa a
la probabilidad.
También existe una solución fácil al problema de los puntos utilizando la distribución binomial negativa. En algún sentido, este tiene que ser el caso, dada la equivalencia entre los procesos binomial y binomial negativo. Primero, deje que pensemos que los juegos continuan para siempre, independientemente de los resultados, y deje que Yn denote el número de juegos necesarios para que A gane n juegos. Por definición, Yn tiene distribución binomial negativa con parámetros n y p.
26.
Demuestre que A gana n pruebas antes de que B
gane m pruebas si y sólo si
Yn n + m -1
27. Use el resultado del ejercicio anterior para demostrar que
Fn,m(p) = j
= n, ..., n + m - 1 C(j - 1, n
- 1) pn(1 - p)j - n.
28.
En el problema
del experimento de los puntos, varíe los parámetros j, k,
y p, y note como cambia la probabilidad. Ahora con n = 10, m = 10,
y p
= 0.7, haga correr el problema 1000 veces con una frecuencia de actualización
de 10. Note la convergencia aparente de la frecuencia relativa a la
probabilidad.
29.
Demuestre que para n y m fijos, Fn,m(p)
se incrementa de 0 a 1 a medidad que p se incrementa de 0 a 1.
30. En el problema
del experimento de los puntos, varíe los parámetros n, m,
y p, y note como cambia la probabilidad. Ahora con n = 5, m = 10,
y p
= 0.3, haga correr el experimento 1000 veces con una frecuencia de
actualización de 10. Note la convergencia aparente de la frecuencia relativa a
la probabilidad.
31.
Demuestre que Fn,m(p) decrece a medida
que n se incrementa para m y p fijos, y
que Fn,m(p) se incrementa a medida que m
se incrementa para n y p fijos.
32. En el problema
del experimento de los puntos, varíe los parámetros n, m,
y p, y note como cambia la probabilidad. Ahora con n = 10, m = 15,
y p
= 0.3, haga correr el problema 1000 veces con una frecuencia de actualización
de10. Note la convergencia aparente de la frecuencia relativa a la probabilidad.
33.
Condición en el resultado de la primera prueba para derivar la siguiente
relación de recurrencia y condiciones de frontera (esta fue esencialmente la
solución de Fermat):
El caso especial n = m es importante, ya que Fn,n(p) es la probabilidad de que A gane un mejor n de 2n - 1 series. Estas series, especialmente cuando n = 2, 3, ó 4, son frecuentemente usadas en torneos de campeonatos.
34.
Suponga que p = 0.6. Explicitamente encuentre la probabilidad de que A gane
35.
En el problema
del experimento de los puntos, varíe los parámetros n, m
y p
(dejando n = m), y note como cambia la probabilidad.
Ahora simule un mejor 3 de 5 series seleccionando n = m = 3, p = 0.6.
Haga correr el experimento 1000 veces, actualizando cada 10. Note la
convergencia aparente de la frecuencia relativa a la probabilidad verdadera.
36.
Demuestre que Fn,n(1
- p) = 1 - Fn,n(p) para cualquier n
y p.
37.
En el problema
del experimento de los puntos, varíe los parámetros n, m
y p
(dejando n = m), y note como cambia la probabilidad.
Ahora simule un mejor 4 de 7 series seleccionando n = m = 4, p = 0.45.
Haga correr el experimento 1000 veces, actualizando cada 10. Note la
convergencia aparente de la frecuencia relativa a la probabilidad verdadera.
38.
Suponga que n > m. Demuestre que Fn,n(p) > Fm,m(p)
si y sólo si p > 1/2. Interprete el resultado.
El problema de los puntos se origina de una pregunta formulada por Chevalier de Mere, quien estaba interesado en la división justa de apuestas cuando un juego era interrumpido. Especificamente, suponga que los jugadores A y B apuestan cada uno C unidades monetarias, y luego juegan pruebas de Bernoulli hasta que alguno de ellos gana un número específico de pruebas. El ganador toma entonces la fortuna entera 2C.
39.
Si el juego es interrumpido cuando A necesita ganar n
pruebas más y B necesita ganar m
pruebas más, discuta que la fortuna debería ser dividida entre A y
B, respectivamente, como sigue:
40. Suponga que los jugadores A y B apuestan $50 cada uno.
Los jugadores lanzan una moneda no trucada hasta que uno de ellos gana 10 veces;
el ganador toma la fortuna entera. Suponga que el juego es interrumpido por la
policía cuando A tiene 5 ganadas y B tiene 3 ganadas.
¿Cómo deberían dividirse las apuestas?