regressao linear
Para se estimar o valor esperado, usa-se de uma equação, que determina a relação entre ambas as variáveis. Y_i = \alpha + \beta \, X_i + \epsilon_i
Em que: Y_i - Variável explicada (dependente); é o valor que se quer atingir;
\alpha - É uma constante, que representa a interceptação da reta com o eixo vertical;
\beta - É outra constante, que representa o declive da reta;
X_i - Variável explicativa (independente), representa o factor explicativo na equação;
\epsilon_i - Variável que inclui todos os factores residuais mais os possíveis erros de medição. O seu comportamento é aleatório, devido à natureza dos factores que encerra. Para que essa fórmula possa ser aplicada, os erros devem satisfazer determinadas hipóteses, que são: serem variáveis normais, com a mesma variância \sigma^2\, (desconhecida), independentes e independentes da variável explicativa X.
Cálculo dos fatores \alpha e \beta[editar]
\hat{\alpha}=\frac{\sum \,X^2 \sum Y -\sum \,(X Y) \, \sum X}{n \, \sum_\,X^2-(\sum X)^2}
\hat{\beta}=\frac{n \sum \,(X Y)-\sum X \, \sum Y}{n \, \sum_\,X^2-(\sum X)^2}
Definindo \overline{X} = \frac {\sum X} {n} e \overline{Y} = \frac {\sum Y} {n}, temos que \hat{\alpha} e \hat{\beta} se relacionam por:
\hat{\alpha}=\overline{Y}-\hat{\beta} \, \overline{X}
Desenvolvimento[editar]
Estas fórmulas podem ser desenvolvidas a partir da definição de mínimos quadrados
O objectivo é determinar \alpha e \beta de forma que a soma dos quadrados dos erros seja mínima, ou seja, devemos minimizar
\sum (Y_i \, - \, \beta \, X_i \, - \, \alpha)^2
Desenvolvendo este quadrado e eliminando os termos constantes (ou seja, aqueles que não têm termos em \alpha e \beta, chega-se a:
\beta^2 \, \sum X^2 \, + \, n \, \alpha^2 \, - \, 2 \, \beta \sum (X Y) \, - \, 2 \, \alpha \, \sum Y \, + \, 2 \, \alpha \, \beta \, \sum X
A partir desse ponto, pode-se resolver usando-se cálculo (tomando as derivadas parciais, etc), ou através de uma