Método de Newton


A presente página temm por objetivo apresentar o Método de Newton para a resolução de um sistema de equações não lineares. Para essa considere o seguinte sistema de equações não lineares:

\[\begin{gathered} \begin{array}{l} f_1 \left( {x_1 ,x_2 , \ldots x_n } \right) = 0 \\ f_2 \left( {x_1 ,x_2 , \ldots x_n } \right) = 0 \\ \vdots \\ f_n \left( {x_1 ,x_2 , \ldots x_n } \right) = 0 \\ \end{array}\end{gathered}\]

onde \(f_i\) (\(i\)=1, ..., \(n\)) representa a \(i\)-ésima equação não linear com \(x_i\) incógnitas a serem determinadas. Esse sistema pode ser escrito na forma compacta:

\[\begin{gathered} \vec f\left( {\vec x} \right) = 0\end{gathered}\]

Aplicando a Série de Taylor multi-dimensional no ponto \(\vec x^0\) e truncando na primeira derivada, obtêm-se a seguinte expressão:

\[\begin{gathered} \vec f\left( {\vec x^0 + \Delta \vec x} \right) = \vec F\left( {\vec x^0 } \right) + \sum\limits_{i = 1}^n {\left. {\frac{{\partial F}}{{\partial x_i }}} \right|} _{\vec x^0 } \Delta x_i\end{gathered}\]

Considerando o atendimento do lado esquerdo da equação acima obtêm-se:

\[\begin{gathered} \vec f\left( {\vec x^0 } \right) + \sum\limits_{i = 1}^n {\frac{{\partial \vec f}}{{\partial x_i }}\Delta x_i } = 0\end{gathered}\]

ou

\[\begin{gathered} \displaystyle \vec f\left( {\vec x^0 } \right) + {\rm{ }}\left. {\left[ {\begin{array}{*{20}c} {\frac{{\partial f_1 }}{{\partial x_1 }}} & {\frac{{\partial f_1 }}{{\partial x_2 }}} & \ldots & {\frac{{\partial f_1 }}{{\partial x_n }}} \\ {\frac{{\partial f_2 }}{{\partial x_1 }}} & {\frac{{\partial f_2 }}{{\partial x_2 }}} & \ldots & {\frac{{\partial f_2 }}{{\partial x_n }}} \\ \vdots & \vdots & \ddots & \vdots \\ {\frac{{\partial f_n }}{{\partial x_1 }}} & {\frac{{\partial f_n }}{{\partial x_2 }}} & \ldots & {\frac{{\partial f_n }}{{\partial x_n }}} \\ \end{array}} \right]} \right|_{\vec x^0 } \left[ {\begin{array}{*{20}c} {\Delta x_1 } \\ {\Delta x_2 } \\ \vdots \\ {\Delta x_n } \\ \end{array}} \right] = 0\end{gathered}\]

Esta equação pode ser reescrita como:

\[\begin{gathered} \vec f\left( {\vec x^0 } \right) + J\Delta \vec x = 0\end{gathered}\]

onde os elementos da matriz Jacobiana são dados por:

\[\begin{gathered} J_{i,j} = \frac{{\partial f_i }}{{\partial x_j }}{\rm{, \;\; com \;\;}}i = 1,{\rm{ }}2, \ldots ,n{\rm{\;\; }}{\rm{e \;\;}}j = 1,{\rm{ }}2, \ldots ,n{\rm{ }}\end{gathered}\]

Explicitando o incremento obtêm-se:

\[\begin{gathered} \Delta \vec x = - J^{ - 1} \vec F\left( {\vec x^0 } \right)\end{gathered}\]

Finalmente, com a definição de uma estimativa inicial para o vetor \(\vec x^0\), novas estimativa são calculadas \(\vec x^{k+1}\) (\(k\)=1, 2, ...) através da seguinte relação:

\[\begin{gathered} \label{CapNLExtensao09} \vec x^{k + 1} = \vec x^k - \left( {J^k } \right)^{-1}\vec F\left( {\vec x^k } \right)\end{gathered}\]

O procedimento acima é repetido até que um determinado critério de parada seja satisfeito. Em geral, pode-se utilizar como critério de parada o número máximo de chamadas da função, o número máximo de iterações ou alguma métrica associada ao erro em duas iterações consecutivas.


Voltar para a Desrição do Problema
Simular o Perfil de Concentração
Análise de Sensibilidade
Voltar para a página principal do LabSim-EQ
visitas