Metodos numericos - eq. não lineares
1. Método de Newton Em análise numérica, o método de Newton (ou método de Newton-Raphson, por ser atribuído a Sir Isaac Newton e Joseph Raphson) tem o objetivo de estimar as raízes de uma função. Em notação matemática, teríamos: , onde n indica a n-ésima iteração do algoritmo e f'(xn) é a derivada da função f em xn. Para que se obtenha sucesso, alguns pontos devem ser levados em consideração:
• O intervalo delimitado deve conter a raiz de f;
• A função f deve ser diferenciável em todo o intervalo;
• A primeira derivada no intervalo não deve trocar de sinal;
• A segunda derivada no intervalo não deve trocar de sinal. Uma vez delimitado um intervalo que cumpra tais exigências, escolhe-se para o valor-inicial o ponto mais à esquerda se o produto da primeira pela segunda derivada for negativo, ou escolhe-se o ponto mais à direita se ocorrer o contrário, se o produto for positivo. Este é considerado por muitos autores o melhor método para encontrar sucessivas melhores aproximações de raizes (ou zeros) de uma determinada função real. A convergência frequentemente é rápida, em especial se a estimativa inicial (ou chute inicial) está "suficientemente próximo" da raiz da função.
2. Método da Bissecção
Em matemática , o método da bissecção é um algoritmo de encontrar-raiz que corta repetidamente um intervalo , em seguida, seleciona um subintervalo em que a raiz deve estar para processamento posterior. É um método muito simples, mas também é relativamente lento para encontrar o resultado.
O método é aplicável quando queremos resolver a equação f (x) = 0 para escalar variável x, onde f é uma função contínua . O método da bissecção requer dois pontos iniciais a e b tal que f (a) e f (b) têm sinais opostos. Isso é chamado de suporte de uma raiz, pelo teorema do valor intermediário a função contínua f deve ter pelo menos uma raiz no intervalo (a, b). O método agora divide o intervalo em dois pelo cálculo do ponto médio C = (a + b) / 2