scipy.optimize.excitingmixing¶
- scipy.optimize.excitingmixing(F, xin, iter=None, alpha=None, alphamax=1.0, verbose=False, maxiter=None, f_tol=None, f_rtol=None, x_tol=None, x_rtol=None, tol_norm=None, line_search='armijo', callback=None, **kw)¶
使用调谐的对角雅可比近似求函数的根。
雅可比矩阵是对角线的,并且在每次迭代时都会进行调整。
警告
此算法可能对特定问题有用,但它是否有效可能在很大程度上取决于问题。
- 参数
- F函数(X)->f
要查找其根的函数;应获取并返回类似数组的对象。
- xinarray_like
对解决方案的初步猜测
- alpha浮动,可选
初始雅可比近似为(-1/α)。
- alphamax浮动,可选
对角线雅可比的条目保持在范围内
[alpha, alphamax]
。- iter整型,可选
要进行的迭代次数。如果省略(默认),请尽可能多地制造以满足公差。
- verbose布尔值,可选
在每次迭代中将状态打印到stdout。
- maxiter整型,可选
要进行的最大迭代次数。如果需要更多的资源来满足融合要求, NoConvergence 都被养大了。
- f_tol浮动,可选
残差的绝对容差(以最大范数表示)。如果省略,则默认为6E-6。
- f_rtol浮动,可选
对残差的相对容差。如果省略,则不使用。
- x_tol浮动,可选
绝对最小步长,由雅可比近似确定。如果步长小于此值,则作为成功终止优化。如果省略,则不使用。
- x_rtol浮动,可选
相对最小步长。如果省略,则不使用。
- tol_norm函数(向量)->标量,可选
用于收敛检查的规范。默认值为最大标准。
- line_search{无,‘Armijo’(默认值),‘Wolfe’},可选
使用哪种类型的线搜索来确定由雅可比近似给出的方向上的步长。默认为‘Armijo’。
- callback函数,可选
可选的回调函数。它在每次迭代时都被调用为
callback(x, f)
哪里 x 是当前的解决方案,并且 f 相应的残差。
- 退货
- solndarray
数组(与类似的数组类型 x0 )包含最终解决方案。
- 加薪
- NoConvergence
当没有找到解决方案时。
参见
root
多变量函数求根算法的接口。看见
method=='excitingmixing'
尤其是。