Unidad 4: Métodos de optimización sin restricciones
Método del Gradiente
Método del Newton
En análisis numérico, el método de Newton (conocido también como el método de Newton-Raphson o el método de Newton-Fourier) es un algoritmo para encontrar aproximaciones de los ceros o raíces de una función real. También puede ser usado para encontrar el máximo o mínimo de una función, encontrando los ceros de su primera derivada.El método de Newton es un método abierto, en el sentido de que no está garantizada su convergencia global. La única manera de alcanzar la convergencia es seleccionar un valor inicial lo suficientemente cercano a la raíz buscada. Así, se ha de comenzar la iteración con un valor razonablemente cercano al cero (denominado punto de arranque o valor supuesto). La relativa cercanía del punto inicial a la raíz depende mucho de la naturaleza de la propia función; si ésta presenta múltiples puntos de inflexión o pendientes grandes en el entorno de la raíz, entonces las probabilidades de que el algoritmo diverja aumentan, lo cual exige seleccionar un valor supuesto cercano a la raíz. Una vez que se ha hecho esto, el método linealiza la función por la recta tangente en ese valor supuesto. La abscisa en el origen de dicha recta será, según el método, una mejor aproximación de la raíz que el valor anterior. Se realizarán sucesivas iteraciones hasta que el método haya convergido lo suficiente.
Direcciones Conjugadas
Metodo de Davidon-Fletcher-Powell
El método de Davidon-Fletcher-Powell ha sido y sigue siendo una técnica
de gradiente ampliamente utilizada. El método tiende a ser robusto; esto es,
típicamente tiende a tener un buen comportamiento en una amplia variedad de
problemas prácticas. La mayor desventaja de este tipo de métodos es su
necesidad de almacenar la matriz A de N × N.
Desde la publicación de la fórmula de Davidon, se han propuesto varios
métodos más que resultan de usar diferentes valores de β, y, z en la ecuación.
Una de las dificultades prácticas comunes de estos métodos es la tendencia
de A(k+1) a estar mal condicionada, lo que causa una mayor dependencia a un
procedimiento de reinicializacion.
Metodo Cuasi-Newton
Los métodos cuasi-Newton son métodos que se utilizan para encontrar
ceros o máximos y mínimos locales de funciones, como una alternativa al método
de Newton. Se pueden usar si el jacobiano o el hessiano no están disponibles o
son demasiado costosos de calcular en cada iteración. El método de Newton
"completo" requiere el jacobiano para buscar ceros, o el hessiano
para encontrar extremos.
Comentarios
Publicar un comentario