Regressão linear e correlação
Em experimentos que procuram determinar a relação existente entre duas ou mais variáveis, dois tipos de situação podem ocorrer: a) Uma variável (X) pode ser medida minuciosamente e seu valor escolhido pelo experimentador. Por exemplo, a dose de uma droga a ser administrada no animal. Esta variável e chamada de variável independente. A outra variável (Y), chamada variável dependente ou resposta, está sujeita a erro experimental, e seu valor depende do valor escolhido para a variável independente. Assim, a resposta (Y) é uma variável dependente da variável independente (X). Este é o caso da regressão. b) As duas variáveis estão sujeitas a erros experimentais, isto é, erros de natureza aleatória, inerentes ao experimento. Por exemplo, produção de leite e produção de gorduras medidas em vacas em lactação. Este tipo de associação entre duas variáveis constitui o caso da correlação. Em estatítica, regressão linear é um método para se estimar a condicional (valor esperado) de uma variável y, dados os valores de algumas outras variáveis x. A regressão, em geral, trata da questão de se estimar um valor condicional esperado. É frequente, no cotidiano, termos não só que explicar fatos, observado por nós mesmos ou por outras pessoas, como fazer estimativas ou previsões sobre suas ocorrências futuras. Tais exigências podem ser atendidadas quando, dado o fenômeno, conhecem-se suas variáveis significativas e o modo como elas se relacionam. Ao conjunto das variáveis consideradas, combinando com o modo como elas se relacionam, dá-se o nome de “modelo matemático” do fenômeno. Quanto a qualidade de um dado modelo, duas observações devem ser feitas: uma, é que ela é diretamente proporcional à significância das variáveis para o fenômeno considerado; outra, é que, na prática, modelos preditos são impossíveis simplesmente porque não há como identificar, e muito menos controlar, todas as variáveis envolvidas nos fenômenos em estudo