摘 要: 考虑到石油管道的封闭性和复杂性,很难识别环境特征,将基于模糊神经网络的多传感器信息融合用于解决管道中管道机器人的导航问题。采用CCD摄像头和距离传感器来识别管道中的障碍物和弯道,并根据环境信息制定控制决策。建立了机器人物理模型和模糊神经网络拓扑结构,并对神经网络进行了学习训练。最后,对其中一种环境类型进行了仿真验证,证实了算法的有效性。
关键词: 多传感器信息融合;管道机器人;导航;模糊神经网络
油气管道被广泛应用在石油、化工等行业,随着使用时间的增长,问题不断暴露,人为检测既费力又不准确。另外,存在一些无法从管道外部进行检测的在役管道,这就需要管道机器人来完成。为了使管道机器人能较好地完成管道环境识别和在役检测,除了需要高效的移动载体和机载能源,还要有基于多传感器的管道环境识别系统。多传感器的信息融合技术是提高管道机器人智能化的一项关键技术,主要用来解决机器人自主定位、障碍物识别及导航等问题[1]。
在机器人导航中,需要多个传感器来感知外部环境。单目CCD传感器采集虽然速度快、图像处理知识丰富,但不能获得目标的距离信息;而采用双目视觉传感器又具有计算量复杂、实时性差的问题[2]。距离传感器可以弥补视觉传感器的不足,能够提供目标的距离信息。现在已经有许多利用单目视觉和距离传感器等来实现移动机器人自主导航的研究。吉林大学的王荣本等通过单目视觉与激光雷达建立传感器信息融合系统,用于解决机器人前方障碍物探测与三维信息获取的问题,但精度有待提高[3]。南开大学自动化系的刘先恩等人通过声纳传感器和CCD摄像机对环境进行探测,获得环境特征,并采用切线法进行路径规划[4]。Ohya A等人利用车载摄像机和超声波传感器研究了基于视觉导航系统中的避碰问题[5]。上述研究大多在室内或者走廊的环境下进行,很少有将多传感器信息融合用于管道机器人中。本文尝试将多传感器信息融合用于管道机器人的自主导航中。
采用模糊神经网络信息融合算法对CCD摄像机、超声波传感器、红外传感器得到的信息进行融合处理,识别管道环境特征,为管道机器人的自主导航提供决策依据。
1 管道机器人传感器布局
管道机器人主要采用CCD摄像机和距离传感器来实现机器人的环境探测。传感器分布在管道机器人的不同部位,以检测不同方向的信息,识别管道环境。由于管道是封闭的,所以还需要配备相应的照明系统。图1为管道机器人传感器布局示意图,其中,1为触觉传感器,当其他传感器失效时,作为辅助传感器使用,分别安在4个角;2为红外传感器,安装在两侧,检测与管壁的安全距离;3为超声波传感器,用于检测前方的弯道和障碍物;4为CCD摄像头,用于检测障碍物位置和大小;5为管道环境,6为驱动轮。
2 模糊神经网络信息融合算法
2.1 模糊神经网络概述
神经网络学习收敛性差,不适合表达基于规则的知识,而模糊逻辑控制规则过多,缺乏自学习和自适应能力[6]。将两者结合形成模糊神经网络(FNN)可以实现优势互补,能够实现模糊规则的自动获取和隶属函数的自动生成[7]。基于T-S模型的模糊神经网络具有局部逼近的功能,而且具有模糊逻辑和神经网络两者的优点。
2.2 模糊神经网络拓扑结构
将模糊系统表达成神经网络结构,可得到一种模糊神经元网络。这种模糊神经元网络一般分为前层、中层和后层,前层实现模糊化,中层实现模糊推理,后层实现反模糊化[8]。模糊神经网络由一些基本神经元组成,该神经元的输入是与其相连的神经元输出和连接权重作用而得到的,分为五层,模糊神经网络的拓扑结构如图2所示。
A层为输入层,将传感器得到的距离信息和经过处理的图像信息传入下一层神经元,节点函数为:
B层为模糊化层,每个节点代表一个语言值,节点个数为输入量的模糊分割数之和。超声波传感器得到的距离信息,分为近、中、远三类,分别记为Near、Mid、Far。红外传感器得到的信息分为近和远两类,记为N、F。对CCD摄像机采集到的图像进行预处理,分离出障碍物,得到障碍物的边缘信息(为简单起见采用矩形区域表示),根据透镜成像原理的坐标变换关系式,将矩形区域左右边缘的坐标信息转化为世界坐标系下的坐标。分为左边缘距管道轴线的最短距离和右边缘距管道轴线的最短距离两类,记为L、R,数值越小障碍物越靠近中间,说明越危险。模糊化层的作用是用该神经元产生属于各语言变量值的模糊隶属函数,本文采用高斯函数。节点函数为:
2.3 模糊规则的建立
由经验分析可知,影响机器人前进的控制因素主要是左、前、右3个方向的障碍物距离信息、大小和方位,当管道机器人在管内运行时,若遇到障碍物或者弯道就要采取相应的策略,控制速度、避障或者清除障碍。经过分析,将管道的环境分为如图3所示的10种类型。
对于有障碍物的情形,根据模糊分割中的模糊变量,可以得到相应的规则。下面对部分类别进行分析。
(1)当环境类型为图3(b)时,左前方有小障碍物,列出如下主要的模糊规则:
①IF X1=Near AND X2=Y AND X3=Y AND X4=L THEN VL=PS AND VR=PS-50;
②IF X1=Mid AND X2=Y AND X3=Y AND X4=L THEN VL=PS AND VR=PS;
③IF X1=Mid AND X2=Y AND X3=Y AND X4=L THEN VL=PM AND VR=PM;
④IF X1=Far AND X2=Y AND X3=Y AND X4=L THEN VL=PF AND VR=PF;
(2)对于环境类型为图3中(h)的情形,这里简单认为,左边和前方同时存在障碍物,并且右方不存在障碍物,模糊规则如下:
①IF X1=Near AND X2=Y AND X3=N AND X4=LTHEN VL=PS AND VR=PS-50;
②IF X1=Mid AND X2=Y AND X3=N AND X4=L THEN VL=PS AND VR=PS;
③IF X1=Mid AND X2=Y AND X3=N AND X4=LTHEN VL=PM AND VR=PM;
④IF X1=Far AND X2=Y AND X3=Y AND X4=L THEN VL=PF AND VR=NF;
同理可以得到其他环境类型的模糊规则。
权值和隶属度参数,使网络的输出误差达到最小,利用上式的进一步推导可完成神经网络学习算子的调整,直至系统稳定。
3 仿真验证
模糊神经网络的重要组成部分是BP神经网络。训练样本来自模糊规则组成的样本,结合BP算法训练网络,BP训练过程中的样本误差曲线如图4所示,可以看出,训练250次后,网络逐步趋于稳定。
管道机器人通过前方的超声波传感器检测前方的障碍物,通过两侧的红外传感器检测与侧壁的安全距离。若没有发现障碍物和弯道,则沿管道中轴线正常行驶;当检测到有距离较近的障碍物时,则开启CCD摄像机,进行位置和大小的确定,以决定清除障碍物还是避开障碍物;当与侧壁的距离小于安全距离时,则进行必要的位姿调整。
表1为超声波传感器和红外传感器测得的部分距离数据,编号1代表前方的超声波传感器,编号2、编号3分别为左侧和右侧的红外传感器,编号4为CCD摄像机得到的图像信息经处理后的距离值。对表1中数据分析可得,环境类型为管道左前方存在小障碍物。表2为表1中数据送入训练好的神经网络后得到的部分数据的隶属度。图5所示为管道机器人行驶中,左右驱动轮的期望输出速度值与实际输出值。由图5可知,实际输出与期望输出值的误差较小,能够满足实际要求。
图6所示为管道机器人的行走轨迹,黑色区域为障碍物,矩形框为图像信息经处理后得到的矩形区域。当没有检测到障碍物时,沿管道中轴线行驶;当检测到有较近障碍物时,启动避障程序。可见机器人能够较好地避障和通过弯道。
仿真试验结果表明,管道机器人可以探测到障碍物,得到其距离、大小和方位信息,并且能够采取相应的避障措施。
采用模糊神经网络对超声波传感器、红外传感器和CCD摄像机采集到的信息进行融合,可以较为准确地探测到障碍物及弯道,根据障碍物信息进行避障,实现自主行走。实验环境较为简单,采用的前方障碍物探测的超声波传感器精度不是很高,这是今后要改进的方向。
参考文献
[1] HALLD L, LLINAS J. An introduction to multisensor data fusion[J]. Proceeding of the 1998 IEEE International Symposium on Circuits and Systems, 1998(6):537-540.
[2] 项志宇.针对越野自主导航的障碍物检测系统[J].东南大学学报:自然科学版,2005,35(2):71-74.
[3] 赵一兵,王荣本,李琳辉,等.基于多传感器信息的前方障碍物检测[J].计算机工程与应用,2007,43(26):174-178.
[4] 刘先恩,赵学敏.基于多传感器的移动机器人路径规划[J].计算机工程,2008,34(8):213-215.
[5] CHOSET H, NAGATANI Keiji, LAZAR N A. The arc-transversal median algorithm: a geometric approach to increasing ultrasonic sensor azimuth accuracy [J]. IEEE Transactions on Robotics and Automation (S1042-296X), 2003, 19(3): 513-522.
[6] 周中良,于雷,李永华.基于信息融合的改进型模糊神经网络[J].计算机应用,2006,26(6):117-118.
[7] 王檀彬,陈无畏,李进,等.多传感器融合的视觉导航智能车避障仿真研究[J].系统仿真学报,2009,21(4):1015-1019.
[8] BARSHAN B, BASKENT D. Morphological surface profile extraction with multiple range sensors[J]. Pattern Recognition (S0031-3203), 2001, 34(7): 1459-1467.