Teoria dos erros
Introdução
As grandezas físicas são determinadas experimentalmente por medidas ou combinações de medidas. Essas medidas têm uma incerteza intrínseca que advém das características dos equipamentos utilizados na sua determinação e também do operador. Assim, a experiência mostra que, sendo uma medida repetida várias vezes com o mesmo cuidado e procedimento pelo mesmo operador ou por vários operadores, os resultados obtidos não são, em geral, idênticos.
Ao fazermos a medida de uma grandeza física achamos um número que a caracteriza.
Quando este resultado vai ser aplicado, é freqüentemente necessário saber com que confiança podemos dizer que o número obtido representa a grandeza física. Deve-se, então, poder expressar a incerteza de uma medida de forma que outras pessoas possam entende-las e para isso utiliza-se de uma linguagem universal. Também devese utilizar métodos adequados para combinar as incertezas dos diversos fatores que influem no resultado.
A maneira de se obter e manipular os dados experimentais, com a finalidade de conseguir estimar com a maior precisão possível o valor da grandeza medida e o seu erro, exige um tratamento adequado que é o objetivo da chamada “Teoria dos Erros”, e que será abordada aqui na sua forma mais simples e sucinta.
Algarismos significativos
Em medições físicas é fácil encontrar uma extensão de valores muito grande. O raio de um átomo comparado ao raio do universo é só um exemplo entre tantos. Para expressar esses valores adequadamente, é conveniente o uso da notação científica.
Na notação científica, o valor da medição é expresso com auxílio de potências de dez.
Escreve-se o valor da medição em forma decimal com apenas um dígito diferente de zero antes da vírgula, completando com algarismos decimais necessários
(eventualmente truncando e arredondando o valor em alguma casa decimal) e multiplicando tudo pela potência de dez adequada. Por exemplo, o comprimento de uma estrada vale