请英语高手翻译一下啦!拜托

来源:百度知道 编辑:UC知道 时间:2024/06/24 14:36:50
Memory gradient and supermemory gradient methods are generalizations of conjugate gradient methods
[8,9,16,20,30]. They all use not only the current iterative information but also the previous iterative informa-
tion to generate a new iterate at each iteration. Moreover, limited-memory quasi-Newton method is also a
useful approach to solve large-scale minimization problems [2,3,11,12,18,25,26,31,39]. It is to find a new
Z.-J. Shi, J. Shen / Applied Mathematics and Computation 183 (2006) 748–760 749iterate by memorizing limited gradients at each iteration. Thus, limited-memory quasi-Newton methods are
also supermemory gradient methods [19,22,27–29].
In fact, some conjugate gradient methods in minimizing non-quadratic objective functions have no global
convergence when some traditional inexact line searches are used. Many supermemory gradient methods have
no global convergence either in some cases. In order to guarantee the global convergence

分太少,用软件翻译的

记忆梯度和超记忆梯度方法概括的共轭梯度法
[ 8,9,16,20,30 ] 。它们都使用不仅当前迭代的信息,而且以往的迭代信息
化,以产生新的迭代在每一次迭代。此外,有限的记忆拟牛顿法也是一个
有用的办法来解决大型最小问题[ 2,3,11,12,18,25,26,31,39 ] 。它是要找到一个新的
Z.-J.施,学者沉/应用数学与计算183 ( 2006 ) 748-760 749iterate的记忆有限,在每一次迭代梯度。因此,有限的记忆拟牛顿方法
还超记忆梯度方法[ 19,22,27-29 ] 。
事实上,一些共轭梯度方法,尽量减少非二次目标函数没有全球
收敛时,一些传统的非精确搜索的使用。许多超记忆梯度方法
没有全局收敛或者在某些情况下。为了保证全局收敛的超梯度
后方的方法和简化计算,一些新的非精确线搜索和曲线搜索规则亲
构成[ 1,34-36 ]在实际计算。
但是,也有一些困难,克服在分析超记忆梯度法不精确
线搜索。例如,全局收敛性和收敛速度在一般情况下是有趣的和
有意义的问题。如何使用信任区域的方式,以保证全局收敛是另一个挑战
lenge在算法设计。事实上,我们希望建设这样一个超记忆梯度方法,有三个
属性:收敛稳定和平均,以解决病态问题,简单的计算,以便
解决大型问题,和自我适应性的参数,自动调整。
在本文中,我们提出了一类新的超记忆梯度法的无约束优化
的问题。信赖域方法中使用新的算法,以保证全局收敛。在每一个
迭代法,新的算法,产生一个合适的信赖域半径自动获得下一个迭代
通过求解一个简单的子。这些算法收敛稳定,平均由于使用更多的迭代
信息,并可以减少到拟牛顿方法迭代时接近最优解。
数值结果表明,这种新的超记忆梯度方法是有效的实际
计算。
其余本文安排如下。第2节中描述的算法,并分析一些SIM卡
样本属性。在第3和第4我们证明它的全局收敛性和收敛速度分别。数值,
iCal的结果公布在第5节。一些结论