Conceito de erros
Aluno : Pedro Matheus de Figueiredo Scharrff
Professor : Doutor Joaquim Barboza ph.D
Cuiabá - 2014
Sumário
Conteúdo
Introdução
Uma afirmação inicial que podemos fazer é que nada é exato em uma ciência experimental. O ato de se medir é um ato de se interferir de alguma maneira no fenômeno e esta interferência faz com que não possamos "ver" o fenômeno como ele realmente acontece. Um exemplo simples pode esclarecer melhor esta questão: Quando vamos medir a corrente que atravessa um circuito colocamos em serie com o mesmo um amperímetro, e como este medidor tem uma certa resistência interna Ra que, embora normalmente pequena comparada às outras resistências do circuito, modifica as características do mesmo. Vários outros exemplos poderiam ser citados, alguns não tão simples e fáceis de se ver como este, mas sempre há o aparecimento da interferência do medidor na medida. No passado chegou-se a acreditar que toda a teoria da Física estava formulada e que era necessário apenas fazer aparelhos de medida cada vez mais precisos para se obter valores exatos que, obrigatoriamente, deveriam concordar com a formulação teórica. Esta é uma afirmação errônea por duas razões:
- Todo o desenvolvimento posterior da Física mostra quanto os físicos da época estavam errados. Hoje sabemos que o entendimento completo . de uma área do conhecimento é impossível.
- Com o surgimento da Física Moderna, principalmente da Física das partículas elementares, pode-se mostrar claramente que nunca se obteve nem nunca se obterá uma medida exata de um fenômeno qualquer.
Por estas razões a medida de uma grandeza tem obrigatoriamente uma incerteza que será chamada aqui de faixa de desvio, erro ou simplesmente desvio.
Uma medida de uma grandeza deve ser sempre expressa com este desvio. Usamos de dois modos para escrever o valor da medida.
Definições
Medição: conjunto de