scipy.optimize.anderson

scipy.optimize.anderson(F, xin, iter=None, alpha=None, w0=0.01, M=5, verbose=False, maxiter=None, f_tol=None, f_rtol=None, x_tol=None, x_rtol=None, tol_norm=None, line_search='armijo', callback=None, **kw)

使用(扩展的)安德森混合求函数的根。

雅可比矩阵是由在由LAST跨越的空间中形成“最佳”解而形成的 M 矢量。结果,只需要M×M矩阵求逆和M×N乘法。 [Ey]

参数
F函数(X)->f

要查找其根的函数;应获取并返回类似数组的对象。

xinarray_like

对解决方案的初步猜测

alpha浮动,可选

雅可比的初始猜测是(-1/α)。

M浮动,可选

要保留的先前向量的数量。默认为5。

w0浮动,可选

用于数值稳定性的正则化参数。与统一相比,好值为0.01量级。

iter整型,可选

要进行的迭代次数。如果省略(默认),请尽可能多地制造以满足公差。

verbose布尔值,可选

在每次迭代中将状态打印到stdout。

maxiter整型,可选

要进行的最大迭代次数。如果需要更多的资源来满足融合要求, NoConvergence 都被养大了。

f_tol浮动,可选

残差的绝对容差(以最大范数表示)。如果省略,则默认为6E-6。

f_rtol浮动,可选

对残差的相对容差。如果省略,则不使用。

x_tol浮动,可选

绝对最小步长,由雅可比近似确定。如果步长小于此值,则作为成功终止优化。如果省略,则不使用。

x_rtol浮动,可选

相对最小步长。如果省略,则不使用。

tol_norm函数(向量)->标量,可选

用于收敛检查的规范。默认值为最大标准。

line_search{无,‘Armijo’(默认值),‘Wolfe’},可选

使用哪种类型的线搜索来确定由雅可比近似给出的方向上的步长。默认为‘Armijo’。

callback函数,可选

可选的回调函数。它在每次迭代时都被调用为 callback(x, f) 哪里 x 是当前的解决方案,并且 f 相应的残差。

退货
solndarray

数组(与类似的数组类型 x0 )包含最终解决方案。

加薪
NoConvergence

当没有找到解决方案时。

参见

root

多变量函数求根算法的接口。看见 method=='anderson' 尤其是。

参考文献

Ey
  1. 艾尔特·J·康普(Eyert J.Comp.)物理,124,271(1996)。

示例

以下函数定义非线性方程组

>>> def fun(x):
...     return [x[0]  + 0.5 * (x[0] - x[1])**3 - 1.0,
...             0.5 * (x[1] - x[0])**3 + x[1]]

可以得到如下解。

>>> from scipy import optimize
>>> sol = optimize.anderson(fun, [0, 0])
>>> sol
array([0.84116588, 0.15883789])