teoria dos erros
Ao se fazer qualquer medição (de tempo, massa, velocidade, etc), o valor obtido está sujeito a erros e incerteza, que podem ser grandes ou pequenos. Por exemplo, no dia a dia não faz muito sentido a precisão de segundos para marcar um encontro, mas se em uma fábrica de tecidos existe uma diferença de alguns centímetros no corte de um tecido, isso pode gerar muitos prejuízos. Veja mais sobre esses e outros conceitos (como média e desvio padrão) para fazer medições de boa qualidade em medições sucessivas e sob as mesmas condições.
“Erro” é a diferença entre um valor medido e um valor verdadeiro de uma grandeza. “Incerteza” é a quantificação da dúvida sobre o resultado da medição. Sob uma outra óptica, uma grande diferença entre esses dois conceitos é que o erro pode, em princípio, ser “corrigido” enquanto a incerteza é um intervalo de confiança das medidas.
O “valor verdadeiro” seria conhecido apenas sob condições ideais, sem fontes de erros atuando. Na prática, esse valor é obtido a partir de uma medida de referência, na qual é utilizado o conhecimento científico mais avançado possível sobre os processos envolvidos.
O grau de concordância entre um valor medido e um valor verdadeiro é conhecido como “exatidão” (ou acurácia). Difere do conceito de “precisão“, que é a proximidade entre resultados de diversas medições independentes (utilizando-se os mesmos métodos e condições) de uma mesma variável. Sempre haverá uma incerteza na medição, mesmo quando as medições são precisas e exatas.
Diferença entre exatidão e precisão
Tipos de erros
Erro sistemático (ou tendenciosidade) – erro que afeta igualmente todas as medições (valores aparecem deslocados com relação ao valor verdadeiro). Pode ser de origem instrumental, ambiental ou observacional (por exemplo, realizar a leitura de um termômetro sempre olhando de um ângulo errado, em vez de observar diretamente). É quantificado pela grandeza chamada viés.
Erro aleatório (ou estatístico) – resulta de