Trabalho De Teoria Dos Erros
Turma: 3097
Aluno: André Ferreira da Silva
Teoria dos Erros
Introdução
O ato de medir é, em essência, um ato de comparar, e essa comparação envolve erros de diversas origens (dos instrumentos, do operador, do processo de medida etc.). Medir implica em comparar uma característica de um sistema (por exemplo, comprimento, volume, velocidade, massa, temperatura, etc.) com referências tidas como padrão (unidades). Exemplos de padrões são o metro (para comprimentos), o segundo (para tempo), o quilograma (para massa), definidos por Institutos de Metrologia ao redor do mundo, que definem o sistema SI (sistema internacional de unidades).
Objetivo
Quando se pretende medir o valor de uma grandeza, pode-se realizar apenas uma ou várias medidas repetidas, dependendo das condições experimentais particulares ou ainda da postura adotada frente ao experimento. Em cada caso, deve-se extrair do processo de medida um valor adotado como melhor na representação da grandeza e ainda um limite de erro dentro do qual deve estar compreendido o valor real. Assim, na produção científica adotamos alguns parâmetros nos cálculos e fórmulas se não vejamos:
Algarismos Significativos;
Arredondamento;
Ordem de Grandeza;
Notação Científica.
Embasamento Teórico
Em medidas físicas, é fácil encontrar uma dispersão de valores muito grande. O raio de um átomo e o raio do universo são exemplos entre tantos. Para expressar esses valores adequadamente, é conveniente o uso da notação científica. Escreve-se o valor com apenas um dígito antes da vírgula, completa-se com algarismos decimais necessários (eventualmente truncando e arredondando o valor em alguma casa decimal) e se multiplica tudo pela potência de dez adequada. Por exemplo, o comprimento de um fio vale 14269513 mm ou é da ordem de grandeza de 1,43x107 mm. Note que usamos apenas dois algarismos após a vírgula, sendo que o último foi arredondado para “cima” uma vez que 1,4269 está mais próximo de