您现在的位置:网站首页答辩论文工学论文电子论文

基于LV-SVMs 的UUV NARX动态辨识模型

  • 简介:(毕业论文 页数:7字数:4037)提 要 鉴于水下无人控制机器人(UUV) 的动态控制越来越重要,本文针对当前辨识模型存在的所获参数精确性不足,运用非线性黑箱辨识模型,提出了基于最小二乘支持向量机的UUV NARX 动态辨识模型。将该模型应用于辨识UUV 的两个关键...
    • 请与管理员联系购买资料 QQ:5739126
  • 论文简介
  • 相关论文
  • 论文下载

(毕业论文 页数:7字数:4037)提 要 鉴于水下无人控制机器人(UUV) 的动态控制越来越重要,本文针对当前辨识模型存在的所获参数精确性不足,运用非线性黑箱辨识模型,提出了基于最小二乘支持向量机的UUV NARX 动态辨识模型。将该模型应用于辨识UUV 的两个关键参数偏航角γ和x y 平面内的速度ν , 取得了良好的辨识效果。
 主题词 水下机器人 动态控制 非线性控制 参数识别 数学模型

 

 

目录

1  非线性黑箱辨识模型
2  最小二乘支持向量机
3  UUV 动态辨识模型
4  辨识实例
5  结语

 

水下无人控制机器人( UUV ———UnmannedUnderwater Vehicles) 目前已广泛地运用到商业、科研、军事等领域。但是,面对越来越长时间的工作量和种种未知的工作环境,对UUV 的动态控制也变得越来越复杂。因此,在UUV 中嵌入智能控制系统,以使UUV 能更好地完成复杂的任务。UUV的动态控制系统的输出,若能与参考模型的理想输出一致,则可以获得良好的控制性能,因而参考模型直接影响到动态控制系统能否对UUV 的当前状态作出正确判断。但是,UUV 的水动力学方程异常复杂[ 1 ] ,为此在以往的研究中,都是通过简化方程来获得UUV 的相关系统参数的,如文献[ 6 ]运用最小二乘法,文献[ 7 ]运用卡尔曼滤波法,都取得了不错的辨识效果。但这些简化都存在不同程度的损耗,降低了所获得参数的精确性。为了提高UUV 参数的精确性, 进一步提高UUV 的动态控制性能,本文提出了一种基于最小二乘支持向量机(LVOSVMS) 的非线性黑箱建模(BlackObox modeling) 方法,建立了基于最小二乘支持向量机的UUV NARX 动态辨识模型。
1  非线性黑箱辨识模型
对于输入向量ut = [ u(1) , u(2) , ⋯, u( t) ] 和输出向量yt = [ y (1) , y (2) , ⋯, y ( t) ] , 构造函数如下[4 ] y ( t) = g (ψ( t) ) +ν( t) 。其中g (•) 为对y ( t) 的估计; ν( t) 为误差项; ψ( t)=ψ( ut - 1 , yt- 1 ) 为回归因子。g (•) 是从输入向量ut ,到回归因子和从回归因子到输出向量yt 这两个映
射间的桥梁。
在实际应用中,已经建立了很多实用的非线性模型,常用的有:
(1) NFIR 模型,用u( t - k) 作为回归因子;
(2) NARX 模型,用u( t - k) 和y ( t - k) 作为回归因子;
(3) NOE 模型(也叫自回归输入/ 输出模型或并行模型) ,用u( t - k) 和^y ( t - k) 作为回归因子;
(4) NARMAX 模型,用u( t - k) , ^y ( t - k) 和ε( t - k) 作为回归因子。
 其中NOE 模型和NARMAX 模型对应于循环结构,即回归因子包含非线性模型的估计输出(注意,是非线性模型的输出而不是真实未知系统的输出) ,这种回归容易使系统不稳定。NOE 模型在内部形成反馈,这也可能造成模型的不稳定性。NFIR模型,仅仅用u( t - k) 作为回归因子,对于UUV 这样复杂的系统,回归因子中变量太少。为此,本文采用NARX 模型。
2  最小二乘支持向量机
2. 1  算法
LSOSVMs 是由Suyken J A K提出的一种新型的支持向量机[2 ] ,有别于传统支持向量机采用二次规划方法解决分类和函数估计问题。最小二乘支持向量机是采用多类核的机器学习,即采用核函数,根据Mercer 条件,从原始空间中抽取特征,将原始空间中的样本映射为高维特征空间中的一个向量,以解决原始空间中线性不可分的问题。具体算法推导如下:对于给定的样本数据集( xi , yi ) ( i = 1 ,2 , ⋯,l ; xi ∈Rn ; yi ∈Rn) , 利用高维特征空间中的函数:
y ( x) = ωTφ( x) + b;ω ∈ Rnh , b ∈R来拟合样本集。非线性映射φ( x) 把数据集从输入空间映射到高维特征空间。式中ω为权向量; b为偏置量。根据结构风险最小化原理,回归问题转化为约束优化问题:min J (ω, e) = 12ωTω +C2 Σli = 1e2is. t .  yi = ωTφ( xi ) + b + ei式中C 为可调参数; ei ∈R 为误差变量。建立Lagrange 函数:
L ( ω, b, e;α) = J (ω, e) - Σli = 1αi [ωTφ( xi ) + b + ei - yi ]
根据KKT 条件可得5L5ω = 0 →ω = Σli = 1αiφ( xi )5L5b= 0 → Σli = 1αi = 05L5ei= 0 αi = Cei5L5αi= 0 →ωTφ( xi ) + b + ei - y = 0
消去原始变量ω、ei 可得对偶问题:
0 I TvIv K + 1/ Cbα=0y 式中: Iv = (1 ,1 , ⋯,1) TKij = φ( xi ) Tφ( x j )  i , j = 1 ,2 , ⋯, l
y = ( y1 , y2 , ⋯, yi ) Tα = (α1 ,α2 , ⋯,αi )
通过求解上面的线性方程,求出α和b , 可得最小二乘模型:
y ( x) = Σαi K ( xi , x) + b
其中核函数K( xi , x) 是满足Mercer 条件的任一对称函数。常用的核函数有: (1) 线性核
K( xi , x) = x T x i ;
(2) 径向基核
K( xi , x) = exp ( -‖x - xi ‖22σ2 ) ;
  (3) 多项式核
K( xi , x) = ( x T x i + 1) d , d = 1 ,2 , ⋯, N本文采用径向基核函数。
2. 2  核参数的选择
  由上述算法推导可知,对于采用径向基核的最小二乘支持向量机的主要参数是正则化参数C和径向基核参数σ ,这两个参数在很大程度上决定了最小二乘支持向量机的学习能力和泛化能力。根据文献[5 ]采用多层动态自适应优化方法。具体步骤如
下:
(1) 确定参数C 和σ取值范围,依据最小二乘支持向量机原理,最大取值范围是
C ∈ [0. 1 ,10000 ] ,σ ∈[0. 1 ,100 ] 。
(2) 在最大取值范围内选取参数值,构建参数对( Ci ,σj ) 二维网格平面,其中
i = 1 ,2 , ⋯, m; j = 1 ,2 , ⋯, n 。例如,两个参数各选取10 个数值,则构成10 ×10 网格平面和100 个( Ci ,σj ) 参数对。对于参数选取有两种方法:第一种是,首先确定两个参数的取值范围,再根据所需参数对数进行均匀取值;第二种是,根据学习样本的特征和经验确定参数对值。
(3) 输入每个网格结点的参数对( Ci ,σj ) 到最小二乘支持向量机中,采用学习样本进行学习, 并输出学习误差。取最小误差对应的节点值( Ci ,σj ) Emin 为最优参数对。
(4) 如果学习精度没有达到所需要求, 则以( Ci ,σj ) Emin 为中心,构建新二维网络平面,选取数值相近的参数值进一步学习,从而获得更高精度的学习结果。这个新参数选取过程是自动执行的,经验表明,一般以( Ci ,σj ) Emin 值的0. 01~5 倍为一个扩展网格宽度,构建新参数对( Ci ,σj ) 二维网格平面,其中i = 1 ,2 , ⋯, k ; j = 1 ,2 , ⋯, l 。以此类推,可构造多层参数优化网格平面,不断优化最小二乘支持向量机参数,直到达到需要的学习精度。

查看评论 已有0位网友发表了看法
  • 验证码: