Correlação e regressao
Em teoria da probabilidade e estatística, correlação, também chamada de coeficiente de correlação, indica a força e a direção do relacionamento linear entre duas variáveis aleatórias. No uso estatístico geral, correlação ou co-relação se refere a medida da relação entre duas variáveis, embora correlação não implique causalidade. Neste sentido geral, existem vários coeficientes medindo o grau de correlação, adaptados à natureza dos dados.
Vários coeficientes são utilizados para situações diferentes. O mais conhecido é o coeficiente de correlação de Pearson, o qual é obtido dividindo a covariância de duas variáveis pelo produto de seus desvios padrão. Apesar do nome, ela foi apresentada inicialmente por Francis Galton.
A correlação falha em capturar dependência em algumas instancias. Em geral é possível mostrar que há pares de variáveis aleatórias com forte dependência estatística e que no entanto apresentam correlação nula. Para esse caso devem-se usar outras medidas de dependência.
Definição de Correlação
Existe entre duas variáveis quando uma delas está de alguma forma, relacionada com a outra.
Coeficiente de Pearson.
Em estatística descritiva, o coeficiente de correlação de Pearson, também chamado de "coeficiente de correlação produto-momento" ou simplesmente de "[pic] de Pearson" mede o grau da correlação (e a direcção dessa correlação - se positiva ou negativa) entre duas variáveis de escala métrica (intervalar ou de rácio/razão).
Este coeficiente, normalmente representado por [pic]assume apenas valores entre -1 e 1. • [pic] Significa uma correlação perfeita positiva entre as duas variáveis. • [pic] Significa uma correlação negativa perfeita entre as duas variáveis - Isto é, se uma aumenta, a outra sempre diminui. • [pic] Significa que as duas variáveis não dependem linearmente uma da outra. No entanto, pode existir uma dependência não linear. Assim, o resultado [pic]deve ser investigado por outros meios.
Calculo.