Estatistica
Probabilidades n! = n × (n − 1) × · · · × 2 × 1, n Ak =
n! , (n − k)!
n
A0 = nk , k
n
Ck =
µ ¶ n n! = . k (n − k)!k !
Leis de Morgan: A ∩ B = A ∪ B e A ∪ B = A ∩ B
¡ ¢ Teoremas: P A ∩ B = P (A\B) = P (A) − P (A ∩ B) e P (A ∪ B) = P (A) + P (B) − P (A ∩ B) Probabilidade condicionada: P (A|B) =
P (A ∩ B) , com P (B) 6= 0; A e B independentes se P (A ∩ B) = P (A) × P (B). P (B) n X P (B|Ai ) P (Ai ) Sendo Ai , i = 1, · · · , n, uma partição de Ω, tem-se: P (B) = P (B|Aj ) P (Aj ), P (Ai |B) = . P (B) j=1 Variáveis aleatórias Discretas: Contínuas: f (xi ) ≥ 0, f (x) ≥ 0, n P
f (xi ) = 1, f (x)dx = 1,
F (x) =
−∞
i=1 +∞ R
F (x) =
h i V ar (X) = σ 2 = E (X − μX )2 = E(X 2 ) − μ2 X X Distribuição conjunta de duas variáveis Corr(X, Y ) =
xi ≤x x R
P
f (xi ), f (t)dt,
E(X) =
E(X) =
−∞
i=1 +∞ R −∞
n P
xi f (xi ),
E [g(X)] =
i=1
xf (x)dx,
E [g(X)] =
n P
g(xi )f (xi ).
+∞ R
g(x)f (x)dx.
−∞
Cov(X, Y ) = E[(X − μX )(Y − μY )] = E(XY ) − E(X)E(Y ), E [g(X, Y )] = PP i j
Cov(X, Y ) . σX σY
g(xi , yj )f (xi , yj ) V ar(a + bX + cY ) = b2 V ar(X) + c2 V ar(Y ) + 2bc Cov(X, Y ).
E(a + bX + cY ) = a + bE(X) + cE(Y ),
X ∼ B (n, p) X ∼ BN (r, p) X ∼ H (N, n, r)
X ∼ P (λ) X ∼ U (a, b)
X ∼ Exp (λ) X ∼ N (μ, σ) X ∼ χ2 (n) X ∼ t(n)
Distribuições teóricas µ ¶ n x f (x) = p (1 − p)n−x , para n ∈ N e x = 0, · · · , n; E(X) = np e V ar(X) = np(1 − p) x µ ¶ x−1 r r r × (1 − p) f (x) = e V ar(X) = p (1 − p)x−r , para r ∈ N e x = r, r + 1, · · · ; E(X) = p p2 −1 µr ¶µ ¶ r N −r x n−x µ ¶ f (x) = , max{0, n − (N − r)} ≤ x ≤ min{r, n} e x, N, n, r ∈ N; N n r r N −r N −n E(X) = n × e V ar(X) = n × × × N N N N −1 e−λ λx f (x) = , com λ > 0 e x = 0, 1, · · · ; E(X) = λ e V ar(X) = λ ⎧x! ⎪ 1 ⎪ ⎨ a≤x≤b a+b (b − a)2 b−a f (x) = , com a < b; E(X) = e V ar(X) = ⎪ 2 12 ⎪ 0 ⎩ xb ⎧ ⎪ ⎪ λe−λx x > 0 ⎨ 1 1 , com λ > 0; E(X) = f (x) = e V ar(X) = 2 ⎪ λ λ ⎪