Conceptos clave de probabilidad y estadística


Si X es una variable aleatoria. ¿Cuándo puede decirse que cumple siempre que P(a≤X≤b) = P(a<X<b)?

Solo si X es una variable aleatoria continua.

Para que una función f(X) sea la verdadera función de densidad de una variable aleatoria X se debe verificar:

f (x) ≥ 0 y ∫ f(x) dx= 1

Sea una variable aleatoria cualquiera con función de distribución F (X), entonces se verifica que:

F(x) está acotada entre 0 y 1.

Sean dos variables X, y cualesquiera. Entonces, se verifica siempre que:

VAR (X – Y) = VAR (X) + (VAR (Y)) – 2COV (X, Y)

La suma de variables aleatorias p (ʎ) es una distribución p (2 ʎ):

Solo si son independientes.

Si x es la variable aleatoria que mide el número de éxitos obtenidos en n pruebas de Bernoulli independientemente con idéntica probabilidad de éxito (p) y la variable y mide el número de fracasos en las mismas circunstancias, entonces:

X + Y= N

Una población normal N (µ,σ), en la que ambos parámetros son desconocidos el mejor estadístico para estimar la media (µ), a partir de una muestra aleatoria simple de tamaño pequeño, admitiendo que y es la desviación típica muestral o cuarta-desviación típica es:

T student

Si se utiliza un intervalo de confianza al 95%, obteniendo a partir de la realización de una muestra aleatoria simple entonces:

El 95% de las realizaciones proporcionan intervalos que contienen el parámetro.

En un contraste de hipótesis, el nivel de significación es:

Tamaño del error de tipo 1.

En cualquier contraste de hipótesis paramétricas, para un tamaño muestral fijo, en el que σ designa el tamaño del error de tipo 1 y β al tamaño del error de tipo II, se verifica que:

Si aumenta β es porque σ tiende a disminuir.

Al conjunto de observaciones muestrales que conduce a la aceptación de la hipótesis alternativa (hi) de un contraste se le denomina:

Región crítica.

Sean dos variables independientes X, Y de manera que sus distribuciones respectivas son ambas B(10, 0.3), entonces la distribución de la variable aleatoria ( X + Y) es:

B (20, 0.3)

La distribución de Poisson:

Puede ser unimodal o bimodal.

La función de distribución de una variable aleatoria binomial es:

Discontinua a saltos.

En una distribución de Poisson:

La media siempre coincide con la varianza.


¿En cuál de las siguientes se necesita hacer una corrección por continuidad?

Cuando una distribución de Poisson se aproxima por una normal.

La suma de las variables aleatorias normales independientes es una distribución normal cuando:

Siempre.

Si X es la variable aleatoria que mide el número de éxitos obtenidos en n pruebas de Bernoulli independientemente con idéntica probabilidad de éxito (p) y la variable Y mide el número de fracasos en las mismas circunstancias entonces:

X + Y=n

La media de una distribución uniforme en un intervalo es:

El punto medio del intervalo.

Si x es la variable que mide el número de éxitos en n pruebas de Bernoulli independientemente con idéntica probabilidad de éxito (p) y la variable Y mide el número de fracasos en las mismas circunstancias, entonces:

La distribución de Y es binomial B (n, a-p).

En un intervalo de confianza, el nivel de confianza indica:

La proporción de realizaciones muestrales que producirán intervalos que contendrán al parámetro bajo estudio.

En un contraste de hipótesis estadísticas, el nivel de significación y la probabilidad de cometer el error del tipo I:

Son iguales.

Al realizar un contraste de hipótesis, cometemos un error de tipo i si:

Rechazamos H0 siendo cierta.

En un contraste de hipótesis paramétricos, la región crítica es:

El conjunto de realizaciones muestrales para las que se rechaza la hipótesis nula.

Cualquier variable aleatoria continua se caracteriza por:

Únicamente es necesario que sea continua la función de distribución.

Supongamos que la variable aleatoria X tiene varianza nula.

Esto es posible y ocurre cuando la variable aleatoria asigna toda la probabilidad a un único valor, que es su valor esperado.

Si X es una variable aleatoria continua cualquiera, con función de densidad de probabilidad f(x), entonces:

f(x) puede ser decreciente.

Si F(x) es la función de distribución de una variable aleatoria continua X y f(x) es su función de densidad de probabilidad, entonces P(X>x) es:

1-F(x)

  1. Una variable aleatoria tiene una distribución binomial B(1000; 0,001), entonces se puede aproximar bien por:

Una distribución de Poisson de parámetro (media) =1.

  1. Si Z ~ N(0, 1) entonces P(Z = 0) es igual a:

0

  1. Dada una variable aleatoria Y~ N(1 ; 2), entonces la variable W=3Y-2 se distribuye según una distribución:

Normal de media 1 y varianza 36.


ANOVA

X1:…. N(μ1, desviación típica) H0:μ1=μ2=μ3

X2:…. N(μ2, desviación típica) H1: Existe al menos una μi distinta de las demás

x1,x2,x3 son independientes


Fuente de variaciónSuma cuadradosGrados de libertadCuadrados mediosFexp
ENTRE GRUPOSSCEk-1DivisiónFexp
DENTRO GRUPOSSCDn-kDivisión
TOTALSCTsuma——————————————————————————————-

Dejar un Comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *