Regressão Linear
Definição 1.1.1
Consideremos duas variáveis X e Y. Dados n pares (X1,Y1),(X2,Y2),...,(Xn,Yn), se Y é função linear de X, pode-se estabelecer uma regressão linear simples cujo modelo estatístico é
\[Y_i=\beta_0+\beta_1 x_i+\varepsilon_i,~~~\mbox{para }~i=1,\ldots,n,~~~~~(1.1.1)\] em que substituímos Xi por xi uma vez que Xi é uma variável determinística (constante conhecida).
Neste modelo,
Yi é uma variável aleatória e representa o valor da variável resposta (variável dependente) na i-ésima observação;
xi representa o valor da variável explicativa (variável independente, variável regressora) na i-ésima observação;
εi é uma variável aleatória que representa o erro experimental;
ß0 e ß1 são os parâmetros do modelo, que serão estimados, e que definem a reta de regressão e
n é o tamanho da amostra.
1.1.1 Interpretação dos parâmetros do modelo
O parâmetro ß0 é chamado intercepto ou coeficiente linear e representa o ponto em que a reta regressora corta o eixo dos y's, quando x=0. Já o parâmetro ß1 representa a inclinação da reta regressora e é dito coeficiente de regressão ou coeficiente angular. Além disso, temos que para um aumento de uma unidade na variável x, o valor E(Y|x) aumenta ß1 unidades. A interpretação geométrica dos parâmetros ß0 e ß1 pode ser vista na Figura 1.1.1.
Figura 1.1.1: Reta Regressora.
Um ponto negativo na Definição 1.1.1 é que o modelo de regressão linear simples não acomoda impactos de erros experimentais (variação de matéria prima), de erros de medida, entre outras inúmeras fontes de variabilidade, tornando-se inadequado nestes casos.
1.1.2 Suposições para o modelo
Ao