Unidad 4
Teoría de Probabilidades
Teoría de las Probabilidades:
Es la base para la estimación estadística y la toma de decisiones
a través de la docimasia de hipótesis. Además, se utiliza para todos aquellos problemas donde
interviene la incertidumbre.
En la estadística se saca un puñado de la caja negra. En la probabilidad se predice que se va a
extraer de la caja transparente.
Un suceso aleatorio es aquel fenómeno que ejecutado bajo las mismas condiciones puede tener
varios resultados y en cada ocurrencia del suceso es imposible predecir el resultado,
atribuyéndose el mismo al azar. Si lanzamos una moneda puedo tener cara o cruz como
resultados pero no sabemos qué puede salir.
Un experimento es una observación de un fenómeno que ocurre en la naturaleza. Pueden ser:
–
Determinísticos:
Son aquellos en donde no hay incertidumbre acerca del resultado queocurrirá cuando éstos son repetidos varias veces.
–
Aleatorios:
Son aquellos en donde no se puede anticipar el resultado que ocurrirá, pero sitiene una completa idea acerca de todos los resultados posibles del experimento cuando este es
ejecutado.
Espacio Probabilístico o Muestral ( ):
Es el conjunto de todos los Ω resultados posibles de
un experimento aleatorio. Equivale al conjunto universal. Los elementos de este conjunto
(llamados puntos muéstrales) deben ser mutuamente excluyentes y colectivamente
exhaustivos.
○ Espacios Muéstrales Discretos:
Son espacios muéstrales cuyos elementos
Son espacios muéstrales cuyos elementos
resultan de hacer conteos, y por lo general son subconjuntos de los números
enteros.
○ Espacios Muéstrales Continuos:
Son espacios muéstrales cuyos
Son espacios muéstrales cuyos
elementos resultan de hacer mediciones.
●
Eventos:
Es un resultado particular de un experimento aleatorio (es un subconjunto delespacio muestral), se representa cómo 𝐸 . 0, 𝐸1, … , 𝐸𝑛
○ Evento Simple:
Contiene exactamente un elemento del espacio
Contiene exactamente un elemento del espacio
probabilístico. Ej: Que salga el número 1 al lanzar un dado.
○ Evento Compuesto:
Contiene más de un elemento del espacio
Contiene más de un elemento del espacio
probabilístico. Se presenta si algún elemento ocurre. Ej: Que salga un número par al lanzar un dado.
Evento Imposible:
Un conjunto que no contiene elementos del espacio
probabilístico. Ej: Que salga el número 7 al lanzar un dado.
Evento Cierto:
Contiene todos los eventos elementales, o sea, es el espacio
muestral. Su probabilidad es igual a 1. Ej: Que salga un número al lanzar un
dado.
●
Uníón de eventos
Es el evento que contiene los elementos que están en A o en Bo en ambos. Ocurre si al menos uno de los dos eventos ocurren.
●
Intersección de eventos:
Es el evento que contiene los elementos que están en A yen B al mismo tiempo. Ocurre si los dos eventos ocurren simultáneamente.
❖ Evento no mutuamente excluyentes:
Aquella que tienen elementos en común, su
Aquella que tienen elementos en común, su
intersección es distinta al vacío 𝐸 . Estos pueden ser: 1 ∩ 𝐸2 ≠ ⊘
Dependientes:
La ocurrencia o no de un m evento afecta a la probabilidad
del otro.
Independientes:
La ocurrencia o no de un m evento no afecta a la probabilidad del otro.
❖ Evento mutuamente excluyentes:
Aquella que NO tienen elementos en común, su
Aquella que NO tienen elementos en común, su
intersección es igual al vacío 𝐸 . 1 ∩ 𝐸2 = ⊘
❖ Eventos colectivamente exhaustivos:
Cuando la uníón de dos eventos es igual al espacio
Cuando la uníón de dos eventos es igual al espacio
probabilístico 𝐸 . 1 ∪ 𝐸2 = Ω
●
Teorías Probabilísticas:
❖ Teoría Clásica:
La define Jakob Bernoulli (1713): “Una fracción en la que el numerador es
La define Jakob Bernoulli (1713): “Una fracción en la que el numerador es
igual al número de apariciones del suceso y el denominador es igual al número total de
casos en los que ese suceso pueda o no ocurrir. Tal fracción expresa la probabilidad de que
ocurra ese suceso”.
𝑃(𝐸) = 𝑁ú𝑚𝑒𝑟𝑜𝑠 𝑑𝑒 𝑐𝑎𝑠𝑜𝑠 𝑓𝑎𝑣𝑜𝑟𝑎𝑏𝑙𝑒𝑠 𝑎 𝐸 /𝑁ú𝑚𝑒𝑟𝑜𝑠 𝑑𝑒 𝑐𝑎𝑠𝑜𝑠 𝑝𝑜𝑠𝑖𝑏𝑙𝑒𝑠 𝑒𝑛 Ω
= 𝑛(𝐸) / 𝑛(Ω)
Teoría Frecuencial:
Bernoulli introdujo el concepto de probabilidad frecuentista o
Estadística:
Asignar como probabilidad de un suceso el resultado que se obtendría si el
proceso se repitiera en condiciones similares un gran número de veces, ideando la Ley de
los grandes Números, en base a que era consciente de que las frecuencias observadas se
acercaban a un cálculo previo de su probabilidad al aumentar el número de repeticiones del experimento.
Teoría Subjetivista o personalista:
En este caso la probabilidad mide el grado de creencia
de un individuo en la verdad de una preposición variando entre 0 y 1. Basada en la
confianza personal del investigador. Es un método subjetivo.
Propiedades para la probabilidad de eventos:
○ es un evento entonces 𝐴 existe un número para 𝑃(𝐴).
○ 0 ≤ 𝑃(𝐴) ≤ 1.
○ 𝑃(𝐴) ≥ 0 para todo evento 𝐴.
○ 𝑃(Ω) = 1.
○ Si 𝐴 ∩ 𝐵 =⊘entonces 𝑃(𝐴 ∪ 𝐵) = 𝑃(𝐴) + 𝑃(𝐵).
○ Si 𝐴 ⊂ 𝐵 ⇒ 𝑃(𝐴) < 𝑃(𝐵).
○ Si 𝐴 ⊂ 𝐵 entonces 𝑃(𝐵 − 𝐴) = 𝑃(𝐵) − 𝑃(𝐴).
○ Ley de complementación: 𝑃(𝐴) = 1 − 𝑃(𝐴).
○ Desigualdad de Boole: Si 𝐴 ∩ 𝐵 ≠=⊘ ⇒ 𝑃(𝐴 ∪ 𝐵) ≤ 𝑃(𝐴) + 𝑃(𝐵)
Propiedad Total:
La probabilidad de la uníón de dos eventos.
■ Si los eventos son no mutuamente excluyentes es igual a la suma de sus
probabilidades menos la probabilidad de la intersección de dichos eventos.
Si 𝐴 ∩ 𝐵 ≠⊘ ⇒ 𝑃(𝐴 ∪ 𝐵) = 𝑃(𝐴) + 𝑃(𝐵) − 𝑃(𝐴 ∩ 𝐵)
Si los eventos son mutuamente excluyentes es igual a la suma de sus
probabilidades de dichos eventos.
Si 𝐴 ∩ 𝐵 =⊘ ⇒ 𝑃(𝐴 ∪ 𝐵) = 𝑃(𝐴) + 𝑃(𝐵)
●
Tipos de Probabilidad:
○ Probabilidades Condicionales:
Se utiliza cuando tengo cierta información a priori,
Se utiliza cuando tengo cierta información a priori,
ya que, es posible disponer de información que reduce el espacio probabilístico
original a un subconjunto. Se simboliza 𝑃(𝐴/𝐵), lease probabilidad de que ocurra “A”
dado “B”.
𝑃(𝐴/𝐵) = 𝑃(𝐴∩𝐵) / 𝑃(𝐵)
Se puede ver también como una probabilidad conjunta sobre la marginal.
○ Probabilidad Compuesta o Conjunta:
Son los valores del cuerpo de una tabla de
Son los valores del cuerpo de una tabla de
doble entrada de probabilidades de eventos. Son los eventos de intersección
■ Si los eventos son dependientes:
La ocurrencia de A afecta a la de B
La ocurrencia de A afecta a la de B
𝑃(𝐴 ∩ 𝐵) = 𝑃(𝐵) . 𝑃(𝐴/𝐵) = 𝑃(𝐴) . 𝑃(𝐵/𝐴). Se calcula despejando la
probabilidad condicional. Para más de dos hechos: 𝑃(𝐴𝐵𝐶) = 𝑃(𝐴) . 𝑃(𝐵/𝐴) . 𝑃(𝐶/𝐴𝐵).
■ SI los eventos son independientes:
La ocurrencia de A no afecta a la de B entonces: 𝑃(𝐴 ∩ 𝐵) = 𝑃(𝐴) . 𝑃(𝐵)
La ocurrencia de A no afecta a la de B entonces: 𝑃(𝐴 ∩ 𝐵) = 𝑃(𝐴) . 𝑃(𝐵)
Probabilidad Marginal:
Se obtiene sumando una fila o una columna de la tabla:
𝑃(𝐴) = 𝑃(𝐴𝐶) + 𝑃(𝐴𝐷) = 𝑃(𝐴 ∩ 𝐶) + 𝑃(𝐴 ∩ 𝐷)
Dependencia e Independencia estadística:
Dos eventos son dependientes si la
probabilidad de ocurrencia es afectada por la ocurrencia del otro. En general, este tipo de
eventos son generados por el muestreo sin reposición.
Se determina: Por hechos independientes entre sí, si la probabilidad de la ocurrencia
conjunta de A y B es igual al producto de sus respectivas probabilidades independientes:
𝑃(𝐴 ∩ 𝐵) = 𝑃(𝐴) . 𝑃(𝐵).
Si esta igualdad no se obtiene los eventos son dependientes.
Teorema de Bayes: Establece una relación entre las probabilidades condicionales con el resto de las probabilidades para cuando no se cuenta con todos los datos en la tabla:
Unidad 5
Variables aleatorias y distribuciones de probabilidad
●
Variable Aleatoria (x):
Es una función que asigna un número real, a cada resultado delespacio muestral de un experimento aleatorio. Es una función X definida 𝑋: Ω → 𝐼𝑅 , o sea,
una función cuyo dominio es el espacio muestral (como si trabajamos con una población) y
el rango es el conjunto de los números reales.
Representará al conjunto de resultados posibles (van a estar todos porque trabajo con la
población), es decir, los valores que puede asumir una nueva variable llamada variable
aleatoria y cada valor de dicha variable tendrá asociado una probabilidad de presentación.
Distribuciones de Probabilidad:
La probabilidad de los eventos se traslada a los valores
de las variables aleatorias. Entonces una distribución de probabilidad muestra a través de
una tabla, gráfico o fórmula todos los valores posibles que puede asumir una variable
aleatoria (o sea su comportamiento) y su correspondiente probabilidad de presentación
(valor entre 0 y 1).
Como ya tengo una variable aleatoria numérica la misma puede ser:
○ Variable Aleatorias Discretas:
Cuando tienen una cantidad numerable de valores o
Cuando tienen una cantidad numerable de valores o
infinitos pero de valores reales.
■
Puntual
Se calcula con la Función de Probabilidad (o de Cuantía).■
Acumulada
Se calcula con la Función de Distribución (o de Acumulación).○ Variable Aleatorias Continuas:
Cuando pueden asumir cualquier valor real o
Cuando pueden asumir cualquier valor real o
cuando la diferencia entre un valor y otro es de un infinitésimo. No se pueden
expresar para un valor puntual, sino que se trabaja con intervalos de valores,
entonces cuando se calcula una probabilidad, se hace en función de un área de
valores y se trabaja integrando. Acá es donde aparece:
■
Función de densidad
Sirven para trabajar con variables aleatorias conprobabilidades por intervalos, y su integral coincide con esa probabilidad.
Función de Cuantía:
Permite obtener la probabilidad para un valor exacto de la variable
aleatoria discreta.
Función de distribución o de acumulación:
𝑃(𝑥 ≤ 𝑥 es la probabilidad de que la 𝑖)
variable aleatoria discreta 𝑥 asuma valores menores o iguales a 𝑥 .
Función de densidad:
Una variable continua puede tomar un valor fraccionario en un
determinado rango de valores, entonces cómo va a existir un número infinito de mediciones
no puedo calcular una única probabilidad para esos valores, así que se define la función de
densidad. Por esto se habla de un área debajo de una curva que denota la densidad de
probabilidad.
Parámetros en las distribuciones de Probabilidad:
Son medidas que se calculan con los valores
posibles que una variable puede asumir en las distribuciones de probabilidad y se utilizan para
caracterizar el fenómeno. Me ayudan a analizar mejor el comportamiento de la variable aleatoria.
Son parámetros porque trabajo con todos los valores posibles de la variable aleatoria.
Esperanza matemática o valor esperado
Es el promedio de un fenómeno aleatorio.
Describe la tendencia central de la variable.
Variables Aleatorias Discretas:
Es la suma de los productos de todos los posibles
valores de la variable aleatoria por sus respectivas probabilidades.
Variables Aleatorias Continuas:
Cuando se trata de una variable aleatoria continua
la suma se transforma en integral.
Propiedades:
■ 𝐸(𝑐𝑡𝑒) = 𝑐𝑡𝑒
■ 𝐸(𝑐. 𝑥) = 𝑐 . 𝐸(𝑥)
■ 𝐸(𝑐 ± 𝑥) = 𝐸(𝑥) ± 𝑐
■ 𝐸(𝑥 ± 𝑥) = 𝐸(𝑥) ± 𝐸(𝑥)
■ 𝐸(𝑥 . 𝑦) = 𝐸(𝑥) . 𝐸(𝑦)
Varianza:
Es una medida de dispersión que permite conocer la concentración de los datos
alrededor de la esperanza correspondiente a dicha distribución.
Variable Aleatorias Discretas:
Es la sumatoria de la desviación cuadrada de los
valores de dicha variable con respecto a su media multiplicada por la probabilidad de
ocurrencia del evento
Variable Aleatorias Continuas:
Es la integral de los valores de la variable al
cuadrado, multiplicados por la función valuada en el punto, menos la esperanza al
cuadrado
Desviación Estándar:
Es la raíz cuadrada positiva de la varianza σ = sqrt σ2.
Momentos en las distribuciones de Probabilidad:
Son la expectativa o esperanza de
diferentes potencias de la variable aleatoria.
Unidad 6
Modelos especiales de Probabilidad para variables aleatorias discretas
●
Modelo Probabilístico:
Nos permite decir que, dadas ciertas condiciones iniciales,ocurrieron ciertos eventos con determinadas probabilidades, ósea, son modelos
matemáticos apropiados para situaciones del mundo real en condiciones específicas. Son
importantes porque ayudan a predecir la conducta de futuras repeticiones de un
experimento.
Modelo de Bernoulli o Bipuntual:
Se aplica a una variable que puede asumir solo
dos valores, éxito o fracaso, por ello, se habla de población dicotómica. Generamos
la variable aleatoria, dando el valor “1” a la carácterística estudiable (éxito) y “0” a la
carácterística no estudiada (fracaso).
Función de Cuantía:
cálculo una 𝑓(𝑥) = 𝑝 probabilidad puntual 𝑥 𝑞1−𝑥
Función de Acumulación: No tengo porque realizo la prueba una sola vez.
Modelo Binomial:
Se repite una prueba simple un número “n” de veces bajo las
mismas condiciones (son “n” pruebas Bernoulli). En cada prueba sólo pueden
presentarse dos alternativas mutuamente excluyentes, éxito y fracaso con
probabilidades P y Q=1-P.
Los “n” ensayos Bernoulli son independientes entre sí, o sea que el resultado de un
ensayo no afecta al resultado de los demás (muestreo con reposición). Es
importante que todas las pruebas estén realizadas bajo las mismas condiciones.
Tanto P y Q se mantienen constantes en cada una de las pruebas. Para asegurarme
de que sean constantes debo ver si la población es finita o infinita y si el muestreo es
con o sin reemplazo:
– Si la muestra se toma con reemplazo me da lo mismo que sea una población finita o infinita porque se vuelve a dejar en su lugar.
– Si la muestra se toma sin reemplazo y es una población finita, el número de unidades va disminuyendo de a uno, lo que hace que la probabilidad aumente. Va a permanecer constante siempre que n<5% s/N.
– Si la muestra se toma sin reemplazo y es una población infinita es despreciable yno afecta a las probabilidades.
Función de Cuantía: Por tratarse de una variable discreta la Función de Probabilidad se llama Función de Cuantía.
Función de Distribución ó Acumulación:
Al trabajar con “n” pruebas se pueden acumular haciendo la sumatoria.
Al trabajar con “n” pruebas se pueden acumular haciendo la sumatoria.
Parámetros:
● Esperanza: donde n es 𝐸(𝑥) = 𝑛 . 𝑃 la cantidad de pruebas.
● Varianza: 𝑉(𝑥) = 𝑛 . 𝑃. 𝑄
● Desviación Estándar: σ = sqrt(𝑛. 𝑃. 𝑄)
Modelo de Poisson:
Se utilizan para procesos en los que hay una observación por
Se utilizan para procesos en los que hay una observación por
intervalo de tiempo, espacio o volumen, que se caracterizan por el número de éxitos
esperados en una unidad específica.
Es parte de la distribución binomial porque se realiza el experimento un número “n”
muy elevado de veces, por lo que, la probabilidad de éxito “p” en cada ensayo es
reducida.
Se la intenta transformar en una Binomial dividiendo en intervalos tan pequeños que
la probabilidad de una tercera posibilidad además de éxito y fracaso sea casi nula.
Modelo Hipergeométrico:
Se aplica cuando la población es finita de N elementos y
Se aplica cuando la población es finita de N elementos y
la muestra aleatoria se toma sin reposición o sin reemplazo, por lo que la
probabilidad cambiará para cada nueva observación.
Aclaración: Si la muestra es con reposición la probabilidad de obtener un éxito en
cada una de las extracciones en K/N, es constante y las extracciones son
independientes. Si la muestra es sin reposición la probabilidad de éxito es variable y
las extracciones dependientes.
Función de Probabilidad (Cuantía):
Tenemos una población finita de “N”
Tenemos una población finita de “N”
elementos dentro de los cuales “K” tiene cierta carácterística, y “N-K” no la
tiene.
K: Número de elementos de la población que posee la carácterística.
n: Muestra aleatoria de tamaño n obtenida de la población anterior (MSR).
Modelo Uniforme Discreto:
Es una distribución en la cual la probabilidad asociada
Es una distribución en la cual la probabilidad asociada
con los resultados es una constante, todos tienen la misma probabilidad de
presentarse. Son “N” resultados mutuamente excluyentes ya igualmente probables.
Modelo de Proporción de Éxitos:
A veces no nos interesa el número de éxitos sino
A veces no nos interesa el número de éxitos sino
la proporción de los mismos. Si es un MCR voy a ir por un Modelo Binomial y si es
MSR por el Modelo Hipergeométrico.
Parámetros para Hipergeométrica:
Son iguales a la de la Binomial pero a la
Son iguales a la de la Binomial pero a la
varianza y a la desviación estándar le tengo que aplicar el factor de corrección porque es un MSR.