Iteración | x | f(x) | Error |
---|
El método de bisección es un algoritmo de búsqueda de raíces que divide repetidamente un intervalo en dos y selecciona el subintervalo donde la función cambia de signo.
Se basa en el Teorema del Valor Intermedio: si una función continua toma valores de signo opuesto en los extremos de un intervalo, debe cortar al eje x al menos una vez en ese intervalo.
La convergencia es lineal, con una razón de ½. El error se reduce aproximadamente a la mitad en cada iteración.
El método de la posición falsa (regula falsi) es una variación del método de bisección que usa interpolación lineal para encontrar una mejor aproximación de la raíz.
Combina el método de bisección con interpolación lineal. El punto c se calcula usando la fórmula:
\[ c = \frac{af(b) - bf(a)}{f(b) - f(a)} \]
La convergencia es superlineal, generalmente más rápida que la bisección, aunque puede ser más lenta en algunos casos.
El método de la secante es una variación del método de Newton que no requiere el cálculo de derivadas.
Aproxima la derivada usando diferencias finitas:
\[ x_{n+1} = x_n - f(x_n)\frac{x_n - x_{n-1}}{f(x_n) - f(x_{n-1})} \]
La convergencia es superlineal, con orden aproximado de 1.618 (número áureo).
El método de Newton-Raphson utiliza la derivada de la función para encontrar mejores aproximaciones a la raíz.
Usa la aproximación lineal de la función en cada punto:
\[ x_{n+1} = x_n - \frac{f(x_n)}{f'(x_n)} \]
La convergencia es cuadrática cuando la aproximación está suficientemente cerca de la raíz.