作为数据科学家和计算机科学家,我们经常在日常生活中处理求根算法,即使我们没有意识到这一点。这些算法被设计成定位特定值、局部/全局最大值或最小值的附近。
我们利用求根算法来搜索特定值、局部/全局最大值或最小值的接近度。
在数学中,求根通常意味着我们试图求解一个像 f(X) = 0
这样的方程组。这将使求根算法也成为非常有效的搜索算法。我们要做的就是定义 g(X) = f(X) - Y
,其中 Y
是搜索目标,而不是像 g(X) = f(X) - Y = 0
那样求解 X
。
这些方法主要分为两个不同的家族:
- 括号逼近(例如二等分算法)
- 迭代方法(例如牛顿法、割线法、斯特芬森法等等) 在下面的教程中,我们将了解 Python 编程语言中一些算法的实现,并将它们相互比较。这些算法如下:
- 二分算法
- 正则-法尔西算法
- 伊利诺伊算法
- 割线算法
- 斯特芬森算法
在我们开始之前,让我们假设我们有一个连续的函数
f
,并且想要搜索一个值y
。因此,我们正在求解方程:f(x) - y = 0
。
理解等分算法
二分算法,也因其离散版本(二分搜索)或树变体(二叉查找树)而闻名,是一种在边界内搜索目标值的有效算法。因此,这种算法也被称为寻找算法根的包围方法。 关键强度:
- 二分算法是一种稳健的算法,保证了对目标值的合理收敛速度。 关键弱点:
- 该算法需要知道根的估计面积。比如
3 ≤ π ≤ 4
。 - 这个算法很好用;估计区域中只有一个根。
假设我们知道
x
在f(p)
和f(q)
之间,这就形成了搜索括号。算法将检查x
是否大于或小于f((p + q) / 2)
,这是括号的中点。 当搜索一个连续函数时,很可能,我们将永远无法定位精确的值(例如,定位 π)。需要一定的误差范围来检查支架的中点。当计算值接近目标值时,我们可以将误差幅度视为提前停止。例如,如果误差幅度为0.001%
,3.141624
是否足够接近 π,约3.1415926...
? 如果计算值足够接近目标值,则搜索完成,否则,如果x
小于f((p + q) / 2)
,则搜索下半部分的值,反之亦然。 现在让我们考虑下面的代码片段,它在 Python 中演示了同样的内容。
示例:
def bisectionAlgorithm(f, p, q, y, margin = .00_001):
''' Bracketed approach of Root-finding with bisection method
Arguments
----------
f: callable, continuous function
p: float, lower bound to be searched
q: float, upper bound to be searched
y: float, target value
margin: float, error margin in absolute term
Return Values
----------
A float r, where f(r) is within the margin of y
'''
if (lower := f(p)) > (upper := f(q)):
p, q = q, p
lower, upper = upper, lower
assert y >= lower, f"y is smaller than the lower bound. {y} < {lower}"
assert y <= upper, f"y is larger than the upper bound. {y} > {upper}"
while 1:
r = (p + q) / 2
if abs((y_r := f(r)) - y) < margin:
# found!
return r
elif y < y_r:
p, upper = r, y_r
else:
q, lower = r, y_r
说明:
在上面的代码片段中,我们将一个函数定义为等分算法,该算法接受一些参数,如 f
, p
, q
, y
和 margin
,其中 f
是一个可调用的连续函数,p
是一个浮点值和要搜索的下限,q
也是一个浮点值和要搜索的上限,y
又是一个浮点值和目标值。然后我们使用 if
条件语句来检查分配给 f(p)
的下界是否大于分配给 f(q)
的上界,对于这种情况,p
和 q
的值等于 q
和 p
并且上下等于上下。然后我们使用 assert
关键字来调试 y
的值。然后我们使用了 while
循环,其中我们定义了 r
的值等于 p
和 q
的平均值。在这个循环中,我们还使用了 if-elif-else
条件语句来检查分配给 f(r) - y
的 y_r
是否小于边距,并返回相同的 r
。
理解虚假位置算法
类似于二等分算法,伪位置算法,也称为雷古拉法西,利用包围方法。但是与二等分算法不同,它并不使用每次迭代都将问题空间分成两半的强力方法。相反,该算法迭代地绘制一条从 f(p)
到 f(q)
的直线,并将截距与目标值进行比较。然而,不能保证搜索效率总是得到提高。例如,下图描述了如何只有下限以降低的速率增加,而上限保持不变。
图 1: 停滞边界减缓收敛 关键强度:
- 这种算法通常比二等分算法收敛得更快。
- Regula Falsi 的好处是,随着括号变小,连续函数将收敛到一条直线。 关键弱点:
- 当算法达到停滞界限时,Regula Falsi 也显示出较慢的收敛速度。
- 该算法需要知道根的近似面积。比如
3 ≤ π ≤ 4
。 Regula Falsi 和平分算法在实现上的显著区别是r
不再是p
和q
的中点;然而,据估计: 让我们考虑下面的代码片段来证明这一点:
示例:
def regulaFalsiAlgorithm(f, p, q, y, margin = .00_001):
''' Bracketed approach of Root-finding with regula-falsi method
Arguments
----------
f: callable, continuous function
p: float, lower bound to be searched
q: float, upper bound to be searched
y: float, target value
margin: float, error margin in absolute term
Return Values
----------
A float r, where f(r) is within the margin of y
'''
assert y >= (lower := f(p)), f"y is smaller than the lower bound. {y} < {lower}"
assert y <= (upper := f(q)), f"y is larger than the upper bound. {y} > {upper}"
while 1:
r = ((p * (upper - y)) - (q * (lower - y))) / (upper - lower)
if abs((y_r := f(r)) - y) < margin:
# found!
return r
elif y < y_r:
q, upper = r, y_r
else:
p, lower = r, y_r
说明:
在上面的代码片段中,我们定义了一个函数为 regulaFalsiAlgorithm
,该函数接受一些参数,如 f
, p
, q
, y
和 margin
,其中 f
是一个可调用的连续函数,p
是一个浮点值和要搜索的下限,q
也是一个浮点值和要搜索的上限,y
又是一个浮点值。然后我们使用 assert
关键字来调试 y
的值。然后我们使用了 while
循环,在该循环中我们定义了 r
的值。在这个循环中,我们还使用了 if-elif-else
条件语句来检查分配给 f(r) - y
的 y_r
是否小于边距,并为其返回 r
。
理解伊利诺伊算法(修正的雷古拉·法西)
为了越过停滞边界,我们可以插入一个条件规则,当一个边界保持停滞两轮。就拿前面的例子来说,由于 q
已经两轮没有移动了,并且 r
还没有靠近根 x
,所以在下一轮的时候,线会画到 f(q) / 2
,而不是 f(q)
。如果下界是停滞界,那么下界也是如此。
图 2: 伊利诺伊算法避免了长时间停滞,收敛速度更快。 关键强度:
- 伊利诺伊算法比二等分算法和雷古拉法西算法收敛更快。
- 我们可以通过将停滞界限与目标值的距离减半来避免停滞界限。 关键弱点:
- 当算法达到停滞界限时,该算法也表现出较慢的收敛。
- 该算法需要知道根的估计面积。比如
3 ≤ π ≤ 4
。
示例:
def illinoisAlgorithm(f, p, q, y, margin = .00_001):
''' Bracketed approach of Root-finding with illinois method
Arguments
----------
f: callable, continuous function
p: float, lower bound to be searched
q: float, upper bound to be searched
y: float, target value
margin: float, error margin in absolute term
Return Values
----------
A float r, where f(r) is within the margin of y
'''
assert y >= (lower := f(p)), f"y is smaller than the lower bound. {y} < {lower}"
assert y <= (upper := f(q)), f"y is larger than the upper bound. {y} > {upper}"
stagnant = 0
while 1:
r = ((p * (upper - y)) - (q * (lower - y))) / (upper - lower)
if abs((y_r := f(r)) - y) < margin:
# found!
return r
elif y < y_r:
q, upper = r, y_r
if stagnant == -1:
# Lower bound is stagnant!
lower += (y - lower) / 2
stagnant = -1
else:
p, lower = r, y_r
if stagnant == 1:
# Upper bound is stagnant!
upper -= (upper - y) / 2
stagnant = 1
说明:
在上面的代码片段中,我们定义了一个函数为 illinoisAlgorithm
,它接受一些参数,如 f
, p
, q
, y
和 margin
,其中 f
是一个可调用的连续函数,p
是一个浮点值和要搜索的下限,q
也是一个浮点值和要搜索的上限,y
又是一个浮点值和目标值。然后我们使用 assert
关键字来调试 y
的值。然后,我们将变量定义为等于零的停滞。然后我们使用了 while
循环,在该循环中我们定义了 r
的值。在这个循环中,我们还使用了 if-elif-else
条件语句来检查分配给 f(r) - y
的 y_r
是否小于边距,并为其返回 r
。
理解割线法(拟牛顿法)
到目前为止,我们一直在实施括号方法。如果我们不知道括号的位置呢?在这种情况下,割线法可能会有所帮助。割线法是一种迭代算法,从两个值开始,并试图向目标值收敛。虽然我们可以在算法收敛的同时获得更好的性能,并且不需要知道粗略的根位置,但是如果两个初始值离真正的根太远,我们可能会遇到发散的风险。 关键强度:
- 割线方法不需要由根组成的括号。
- 这种方法不需要知道根的估计面积。 关键弱点:
- 与所有早期的方法不同,割线法不能保证收敛性。
割线方法从检查两个用户定义的种子开始。假设我们想求
x^2 - math.pi = 0
的根,从x_0 = 4
和x_1 = 5
开始;我们的种子将分别是4
和5
。(注:这个过程类似于像x
一样搜索x^2 = math.pi
)
图 3: 割线基于
x1
和x2
定位x3
的方法 然后,我们通过在f(x_0)
和f(x_1)
之间画一条直线来定位目标值为x_2
的截距,就像我们在 Regula Falsi 算法中所做的那样。如果f(x_2)
没有足够接近目标值,我们必须重复该步骤并定位x_3
。通常,我们可以使用以下公式计算下一个x
: 让我们考虑下面的代码片段来证明这一点:
示例:
def secantAlgorithm(f, x0, x1, y, iterations, margin = .00_001):
''' Iterative approach of Root-finding with secant method
Arguments
----------
f: callable, continuous function
x0: float, initial seed
x1: float, initial seed
y: float, target value
iterations: int, maximum number of iterations to avoid indefinite divergence
margin: float, margin of error in absolute term
Return Values
----------
A float x2, where f(x2) is within the margin of y
'''
assert x0 != x1, "Two different initial seeds are required."
if abs((y0 := f(x0) - y)) < margin:
# found!
return x0
if abs((y1 := f(x1) - y)) < margin:
# found!
return x1
for i in range(iterations):
x2 = x1 - y1 * (x1 - x0) / (y1 - y0)
if abs((y2 := f(x2) - y)) < margin:
# found!
return x2
x0, x1 = x1, x2
y0, y1 = y1, y2
return x2
说明:
在上面的代码片段中,我们将一个函数定义为 secantAlgorithm
,该函数接受一些参数,如 f
, x0
, x1
, y
, iterations
和 margin
,其中 f
是一个可调用的连续函数,x0
和 x1
是浮点值和初始种子,y
又是一个浮点值,目标值,iterations
为整数值,存储最大迭代次数的值,避免不定发散,余量为绝对项误差余量,也是浮点值。然后我们使用 assert
关键字来检查 x0
的值是否不等于 x1
的值。然后,我们使用 if
条件语句检查分配给 f(x0) - y
的 y0
是否小于边距变量,并返回相同的 x0
变量。我们再次使用 if
条件语句检查分配给 f(x1) - y
的 y1
是否小于边距变量,并返回相同的 x1
变量。最后,我们使用 for
循环来迭代存储在 iterations
变量中的值,并定义公式来寻找根。在循环中,我们再次使用了 if
条件语句并返回 x2
。
理解斯特芬森方法
割线法通过消除由根组成的括号的要求,进一步改进了 Regula Falsi 算法。让我们回想一下,直线只是两个 x
值的切线(即导数)的一个天真值(或者在 Regula Falsi 和 Illinois 算法的情况下是上下界)。随着搜索的收敛,这个值将是完美的。在斯特芬森算法中,我们将尝试用更好的导数值来代替直线,以进一步改进割线法。
关键强度:
- Steffensen 的方法不需要包含根的括号。
- 该方法也不需要根的估计面积的知识。
- 如果可能的话,这种方法比割线法收敛得更快。 关键弱点:
- 如果初始种子离真正的根太远,Steffensen 的方法不能保证收敛。
- 连续函数的求值将是割线法的两倍,以便更好地计算导数。
我们可以在斯特芬森算法的帮助下,通过基于用户定义的初始种子
x0
计算以下内容来更好地估计导数。
这相当于下面的式,其中
h = f(x)
: 取h
到0
的极限,我们将得到f'(x)
。 然后,我们将使用广义评估斜率函数,按照与割线法相同的步骤定位下一步: 让我们考虑下面的代码片段来证明这一点:
示例:
def steffensenAlgorithm(f, x, y, iterations, margin = .00_001):
''' Iterative approach of Root-finding with steffensen's method
Arguments
----------
f: callable, continuous function
x: float, initial seed
y: float, target value
iterations: int, maximum number of iterations to avoid indefinite divergence
margin: float, error margin in absolute term
Return Values
----------
A float x2, where f(x2) is within the margin of y
'''
assert x != 0, "Initial seed can't be zero."
if abs((yx := f(x) - y)) < margin:
# found!
return x
for n in range(iterations):
g = (f(x + yx) - y) / yx - 1
if g * x == 0:
# Division by zero, search stops
return x
x -= (f(x) - y) / (g * x)
if abs((yx := f(x) - y)) < margin:
# found!
return x
return x
说明:
在上面的代码片段中,我们定义了一个函数为 steffensenAlgorithm
,它接受一些参数,如 f
, x
, y
, iterations
和 margin
,其中 f
是一个可调用的连续函数,x
是浮点值和初始种子,y
又是一个浮点值,目标值,iterations
为整数值,存储最大迭代次数的值,避免不定发散,余量为绝对项误差余量,也是浮点值。然后我们使用 assert
关键字来检查初始种子是否不等于零。然后我们使用 if
条件语句检查分配给 f(x) - y
的 yx
是否小于边距变量,并返回相同的 x
变量。最后,我们使用 for
循环来迭代存储在 iterations
变量中的值,并定义公式来寻找根。在循环中,我们再次使用了 if
条件语句并返回 x
。
结论
在上面的教程中,我们已经了解了用于搜索根的以下五种算法的优点、缺点和实现。
- 二分算法
- 雷古拉法尔西算法
- 伊利诺伊算法
- 割线算法
- 斯特芬森算法 现在让我们考虑下表,它显示了我们已经实现的算法的比较。 | 算法 | 二分算法 | 雷古拉法尔西算法 | 伊利诺伊算法 | 割线算法 | 斯特芬森算法 | |------|----------|------------------|--------------|-----------|----------------| | 接近 | 支架 | 支架 | 支架 | 迭代 | 迭代 | | 收敛 | 担保 | 担保 | 担保 | 不保证 | 不保证 | | 根部大致位置的知识 | 需要 | 需要 | 需要 | 不需要 | 不需要 | | 初始种子数量 | 2 | 2 | 2 | 2 | 1 | | 缓慢收敛的风险 | 无法使用 | 停滞界限 | 无法使用 | 初始种子离根不够近 | 初始种子离根不够近 | | 减少问题空间的方法 | 暴力减半 | 有限差分近似导数 | 有限差分近似导数 | 有限差分近似导数 | 有限差分近似导数 | | 收敛速度 | 线性的 | 线性的 | 超线性的 | 超线性的 | 二次的 | 一旦我们熟悉了这些算法,本教程就没有涉及到许多其他要探索的寻根算法。其中一些是牛顿-拉夫森法、逆二次插值、布伦特法等等。继续探索,将上述算法添加到工具库中。