Computaçao numerica
Em computação numérica, as quantidades são em geral aproximadas, assim, é importante que se tenha uma medida de quão próximo uma quantidade está do valor “exato”, ou seja , uma medida de exatidão de uma quantidade.
Define-se erro como sendo a diferença entre o valor medido e o verdadeiro valor da grandeza. O ato de medir é, em essência, um ato de comparar, e essa comparação envolve erros de diversas origens (dos instrumentos, do operador, do processode medida etc.)
TIPOS DE ERRO
Quanto aos dados experimentais e aos valores dos parâmetros, os erros podem ser: * Sistemáticos - Erros que atuam sempre no mesmo sentido e podem ser eliminados mediante uma seleção de aparelhagem e do método e condições de experimentação.
* Fortuitos - Erros com origem em causas indeterminadas que actuam em ambos os sentidos de forma não previsível. Estes erros podem ser atenuados, mas não completamente eliminados. * Erros de truncatura - Resultam do uso de fórmulas aproximadas, ou seja, uma truncatura da realidade. Por exemplo, quando se tomam apenas alguns dos termos do desenvolvimento em série de uma função. * Erros de arredondamento - Resultam da representação de números reais com um número finito de algarismos significativos.
Erro Absoluto e Erro Relativo
Seja um número com valor exacto e um valor aproximado de . A diferença entre o valor exato e o valor aproximado é o erro de X.
Ao módulo deste valor, chama-se de erro absoluto de X.
Como geralmente não temos acesso ao valor exato , o erro absoluto não tem na maior parte dos casos utilidade prática. Assim, temos que determinar um majorante de . Este valor designa-se de .
O mínimo do conjunto dos majorantes de , chama-se "erro máximo absoluto" em que representa .
Em face das regras de arredondamento consideradas, um número com casas decimais deve supor-se afectado de um erro máximo absoluto de:
Geralmente, mais útil do que o erro máximo absoluto é a relação entre este e a grandeza