基础
先来回顾一下高斯牛顿法的几个关键点(可参照非线性优化整理-2.高斯-牛顿法)
高斯牛顿法的迭代公式为
xn+1=xn−[JTfJf]−1JTff(xn) x n + 1 = x n − [ J f T J f ] − 1 J f T f ( x n )
这是根据目标函数 F(x) F ( x ) 按以下二阶近似所得到的:
F(x+h)≈F(x)+∇F(x)h+12hTHFh≈F(x)+JTffh+12hTJTfJfh F ( x + h ) ≈ F ( x ) + ∇ F ( x ) h + 1 2 h T H F h ≈ F ( x ) + J f T f h + 1 2 h T J f T J f h
我们可以定义以该种方式近似 F(x+h) F ( x + h ) 的结果为 L(h) L ( h )
L(h)≡F(x)+JTffh+12hTJTfJfh L ( h ) ≡ F ( x ) + J f T f h + 1 2 h T J f T J f h
LM法
高斯牛顿法具有收敛快速但对初始点位置敏感的特点,梯度下降法则相反。
而LM法,也称作阻尼最小二乘法(Damped Least-squares),则结合了二者的特点,引入了阻尼因子 μ μ 来调节算法的特性。
原始版LM法的迭代公式为
xn+1=xn−[JTfJf+μI]−1JTff(xn)
今天的文章
非线性优化整理-3.Levenberg-Marquardt法(LM法)分享到此就结束了,感谢您的阅读。
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。
如需转载请保留出处:https://bianchenghao.cn/bian-cheng-ji-chu/87903.html