Estatistica
1. INTRODUÇÃO
A regressão múltipla envolve três ou mais variáveis, portanto, estimadores. Ou seja, ainda uma única variável dependente, porém duas ou mais variáveis independentes (explanatórias).
A finalidade das variáveis independentes adicionais é melhorar a capacidade de predição em confronto com a regressão linear simples. Isto é, reduzir o coeficiente do intercepto, o qual, em regressão, significa a parte da variável dependente explicada por outras variáveis, que não a considerada no modelo.
Mesmo quando estamos interessados no efeito de apenas uma das variáveis, é aconselhável incluir as outras capazes de afetar Y, efetuando uma análise de regressão múltipla, por 2 razões:
a) Para reduzir os resíduos estocásticos. Reduzindo-se a variância residual (ERRO PADRÃO DA ESTIMATIVA), aumenta a força dos testes de significância;
b) Para eliminar a tendenciosidade que poderia resultar se simplesmente ignorássemos uma variável que afeta Y substancialmente.
Uma estimativa é tendenciosa quando, por exemplo, numa pesquisa em que se deseja investigar a relação entre a aplicação de fertilizante e o volume de safra, atribuímos erroneamente ao fertilizante os efeitos do fertilizante mais a precipitação pluviométrica.
O ideal é obter o mais alto relacionamento explanatório com o mínimo de variáveis independentes, sobretudo em virtude do custo na obtenção de dados para muitas variáveis e também pela necessidade de observações adicionais para compensar a perda de graus de liberdade decorrente da introdução de mais variáveis independentes. 2. O MODELO MATEMÁTICO
A equação da regressão múltipla tem a forma seguinte:
Yc = a + b1x1 + b2x2 + ... + bkxk, onde:
a = intercepto do eixo y;
bi = coeficiente angular da i-ésima variável;
k = número de variáveis independentes. ou, como define WONNACOTT (1981, p. 326):
Yi = + xi + zi + ei
é interpretado geometricamente como o coeficiente angular do plano, na medida em