otimização de função
Determinante hessiano
Em matemática, a matriz Hessiana de uma função "f" de n variáveis é a matriz quadrada com "n" colunas e "n" linhas (n X n) das derivadas parciais de segunda ordem da função. Por isto, esta matriz descreve a curvatura local da função "f". Matrizes Hessianas são usadas em larga escala em problemas de otimização que não usam métodos Newtonianos.
A matriz hessiana foi desenvolvida no século XIX pelo alemão Ludwig Otto Hesse, razão porque mais tarde James Joseph Sylvester lhe deu este nome. O próprio Hesse, ao contrário, usava o termo "determinantes funcionais".
Definição formal em termos matemáticos
Dada uma função real de n variáveis reais Sendo que x (em negrito) indica o vetor de dimensão nX1 das variáveis
Em linguagem matemática
Em Português
Exemplo: função com n=2:
derivada parcial de primeira ordem da função "f" em relação a uma variável
A derivada da derivada (=derivada de segunda ordem): primeiro tomou-se a derivada da função "f" em relação à variável e depois derivou-se esta derivada em relação à variável 1 .
Se todas as derivadas parciais de "f" existirem, então a matriz hessiana de f é a matriz quadrada das derivadas de segunda ordem de f:2
Uma outra definição equivalente é: dado o vetor gradiente nX1, a matriz hessiana é sua derivada3 . Por isso, há outras representações para a mesma matriz hessiana H acima:
4 5
Propriedades da matriz hessiana
Dimensão: Como uma função com "n" variáveis tem n2 derivadas parciais de segunda ordem, a matriz hessiana também terá n2 elementos. Por isto, ela sempre será uma matriz quadrada de dimensão nXn.
Fora da diagonal principal, uma matriz hessiana é composta por derivadas mistas de f.
Simetria: Se as "segundas derivadas" de f são todas contínuas em uma região dada consequentemente a hessiana de f é uma matriz simétrica em cada ponto de dado que, pelo teorema de Young6 e pelo teorema de Schwartz, nestes casos a ordem de diferenciação não