文献标识码: A
DOI:10.16157/j.issn.0258-7998.173038
中文引用格式: 胡青松,张亮. 人体行为序列化识别算法研究[J].电子技术应用,2018,44(4):122-125,129.
英文引用格式: Hu Qingsong,Zhang Liang. Research on human behavior serialization recognition based on skeleton graph[J]. Application of Electronic Technique,2018,44(4):122-125,129.
随着科学技术的发展,计算机的运算能力大大提升,针对大数据的处理渐渐得以实现。在此基础上发展而来的人体行为姿态识别[1]为人机交互、视频监控和智能家居等方面的应用提供了基础。近些年,研究人员已经在人体行为识别方面做了大量的研究工作,取得了许多重要的成果,但是对于复杂人体行为的识别准确率较低,仍然有待于提高。
基于视觉的人体行为识别方法[2]可以分为两类,一类基于模板匹配[3],一类基于机器学习[4]。基于模板匹配的方法通过计算当前动作与模板库里的模板之间的相似度,把当前模板判定为最相似动作的过程。IBANEZ R和SORIA A等人通过提取人体肢体行为轨迹,分别用动态时间规整(DTW)和隐马尔科夫(HMM)算法,基于模板匹配进行人体行为识别[5]。基于机器学习的方法通过提取样本特征对样本训练,得到一个分类器,此分类器具有预测未知样本的能力。TRIGUEIROS P和RIBEIRO F等人就对比了几种机器学习算法在手势识别上的应用[6]。但是,这些算法都是为某一具体行为动作所设计,当需要检测额外的行为动作时,又需要重新设计方案,拓展性较差。
本文使用从Kinect[7]采集的骨骼图数据(由MSRC-12 Gesture Dataset数据库[8]提供),Kinect提取的骨骼图像能够克服光线强弱等外界因素带来的干扰,具有较强的鲁棒性;提取骨骼特征,并采用机器学习的算法对静态动作分类,最终形成序列;从序列中找出需要识别的动作序列的过程即可表示动态动作识别过程,此过程具有很好的实时性和拓展性。
1 基于骨骼图的特征提取
选取既能够充分表示人体某一动作,又不包含过多的冗余信息的人体特征特征提取对行为识别的研究很有价值。根据人体机械学理论,本文通过提取4个关节点向量、5个关节点角度和4个关节点距离系数表示人体行为姿态。
1.1 关节点向量提取
如图1所示,4个关节点向量分别是左上臂(VSL-EL)、右上臂(VSR-ER)、左大腿(VHL-KL)和右大腿(VHR-KR)。现以左上臂为例,计算左上臂向量。已知左肩膀(ShoulderLeft)关节点坐标为SL(Sx,Sy,Sz),左手肘(ElbowLeft)关节点坐标为EL(Ex,Ey,Ez),则左上臂关节点向量计算方法如式(1)所示。其他关节点向量以此类推。
1.2 关节点角度提取
在原有向量的基础上提取4个关节点角度。联合关节点向量,可以描述人体左小臂、右小臂、左小腿和右小腿的活动状态。图1中θEL、θER、θKL和θKR分别表示左肘关节点角度、右肘关节点角度、左膝关节点角度和右膝关节点角度。θHC表示臀部中心到头部的向量与竖直方向向量之间的夹角,可以表示人体姿态的弯腰程度,描述整体躯干的活动状态。夹角可以通过式(2)计算获得。
其中V1、V2分别表示两个关节点向量,θ表示这两个关节点向量的夹角。
1.3 关节点距离系数提取
为了能够让选取特征对上肢手部活动更加敏感,本文加入4个关节点距离系数。图1中,a为臀部中心到头部的关节向量,b为头部到右手的关节向量,c为头部到左手的关节向量,d为臀部中心到右手的关节向量,e为臀部中心到左手的关节向量。通过式(3)可以获得头部到左右手的相对距离系数d1、d2和臀部中心到左右手的相对距离系数d3、d4。
至此,基于骨骼图的特征可以表示为式(4)所示的特征矩阵,共计4×3+5+4=21维。
2 基于SVM的识别算法流程
2.1 静态动作的SVM识别
支持向量机[9](Support Vector Machines,SVM)是一种用于分类的算法,它能够在多维空间找出完美划分事物的超平面。本文使用SVM进行动作分类,以二分类支持向量机为例,已知训练样本集T:
使用多个二分类器形成多分类器,用丰富的样本训练并识别人体静态姿势。
2.2 动态动作的序列化识别
设定某一采样频率,所提取到每一帧骨骼图都以静态的方式呈现。对每一帧骨骼图进行静态动作识别,可以得到一串长序列。在长序列中寻找待识别序列即为动态动作识别。如图2所示,一组抬起双手举高(Start system)的动作可以分解为G1、G2、G3 3个静态动作,因此只要在长序列中检测到连续的G1、G2、G3 3个静态动作即可判定出现“抬起双手举高”的动态动作。
2.3 分类的纠错过程
为了减小静态姿势识别错误对动态动作识别准确率的影响,本文提出一种基于前后信息的姿态纠正算法。一般情况下,相邻两帧或者多帧的数据描述的都是同一动作。算法流程图如图3所示,其中predict是分类器预测的结果,sequence是最终形成的长序列。首先判断当前预测结果是否与长序列队尾数据相同,如果相同,说明当前动作与上一帧动作相同,把预测结果加入长序列队尾;如果不相同,需要验证当前预测结果是否出错。此算法判断当前动作之后的n(本文选取15)帧预测结果中出现最多的数据是否等于当前动作预测结果,并且其所占比是否大于某一阈值(本文选取0.5),如果是,将当前动作的预测结果加入长序列队尾;如果否,说明当前动作预测结果出错,长序列队尾数据保持不变。
3 实验验证
3.1 训练静态动作
MSRC-12 Gesture Dataset是微软提供的数据库,共包括12组动作。本文选择其中3组动作,分别为Start system、Duck和Push right,如图2、图4和图5所示。
显然,大多数志愿者保持某一静态动作的时间并不一致。为了合理利用资源和方便处理,把姿势划分为进行态和保持态两种状态:
(1)进行态是一组动作的中间状态,即两种静态姿态的过度,可包含运动过程中较大范围的运动姿态,图2(b)的G2和图5(b)中的G5即是进行态。因为进行态不能对决策结果起决定性作用,所以进行态并不需要非常高的识别精确度。
(2)保持态是一组动作中保持时间较长的状态,能够对姿势的识别起决定性作用,因此需要很高的识别准确率。图2(a)中的G1、图2(c)中的G3、图4(b)中的G4以及图5(c)中的G6都属于保持态。实验中,从10人中选取600帧G1姿势,5人中选取550帧G2、G3、G4、G5和G6姿势,共3 350帧数据,用于训练分类器,SVM识别结果见表1。
3.2 静态动作结果分析
采用十折交叉验证法检验分类器的性能,最终得到的平均识别准确度为93.12%。表1为单个姿态的识别准确度。从表1可以看出,位于保持态的姿态识别准确率普遍在90%以上,达到较高的准确率。进行态姿态识别准确率比保持态稍低,但是从前文可知,这对最终的判定结果影响不大。
3.3 序列纠错
采用2.3节所述的方法进行姿态序列纠错。不失一般性,从实验的3 350帧数据中随机选取150帧数据(原序列)为例,见图6(a)。在原序列第30帧左右,姿势2(G2)向姿势3(G3)过度阶段出现了较多错分类现象。图6(b)是采用2.3节方法纠错后序列,可以看出,整个序列变得光滑得多,上述的分类错误得到了抑制,大大方便了后续动作识别。
3.4 态动作识别验证
为便利于分析,将经过纠错处理的数据中连续的n个“1”用一个“1”表示,其他姿态以此类推。以Start system为例,当检测到连续的1,2,3或者1,3则可以判定出现一组Start system动作,当检测到连续的1,2,3,2,1、1,2,3,1、1,3,2,1、1,3,1则判定完成Start system动作并回到站姿(G1)。用MSRC-12 Gesture Dataset数据测试,测试结果见表2。为了对比算法的优劣,表2中同时列出了文献[10]的随机森林算法的识别情况。
由表2明显可以看出,与文献[10]的算法相比,本文提出的算法的识别准确率更高。通过实验得知,Start system、Duck和Push right 3种动作具体的识别准确率分别是71.82%、80%和76.36%。
4 总结
本文算法可以实现实时提取骨骼数据,计算骨骼特征,分类识别并形成序列,具有很好的实时性。序列化的动态动作识别方法可以满足各种动作的任意组合,具有很好的拓展性。实验表明,本文算法具有较高的识别准确率。但是,对采集到的每一帧骨骼图进行分类无疑会增加算法复度。因此,如何降低冗余的分类识别,是下一步研究需要解决的问题。
参考文献
[1] 李瑞峰,王亮亮,王珂.人体动作行为识别研究综述[J].模式识别与人工智能,2014,27(1):35-48.
[2] 胡琼,秦磊,黄庆明.基于视觉的人体动作识别综述[J].计算机学报,2013,36(12):2512-2524.
[3] NIEBLES J C,WANG H,LI F F.Unsupervised learning of human action categories using spatial-temporal words[J].International Journal of Computer Vision,2008,79(3):299-318.
[4] JAGER M,KNOLL C,HAMPRECHT F A.Weakly supervised learning of a classifier for unusual event detection[J].IEEE Transactions on Image Processing A Publication of the IEEE Signal Processing Society,2008,17(9):1700-1708.
[5] IBABEZ R,SORIA A,TEYSEYRE A,et al.Easy gesture recognition for Kinect[J].Advances in Engineering Software,2014,76:171-180.
[6] TRIGUEIROS P,RIBEIRO F,REIS L P.A comparison of machine learning algorithms applied to hand gesture recognition[J].Information Systems & Technologies,2012,52(11):41-46.
[7] ZHANG Z.Microsoft Kinect sensor and its effect[M].IEEE Computer Society Press,2012:4-10.
[8] 刁俊方.基于Kinect的人体动作识别技术研究[D].重庆:重庆大学,2015.
[9] SOTIRIS V A,TSE P W,PECHT M G.Anomaly detection through a Bayesian support vector machine[J].IEEE Transactions on Reliability,2010,59(2):277-286.
[10] FOTHERGILL S,MENTIS H,KOHLI P,et al.Instructing people for training gestural interactive systems[C].Sigchi Conference on Human Factors in Computing Systems,ACM,2012:1737-1746.
作者信息:
胡青松1,2,张 亮1,2
(1.中国矿业大学 物联网(感知矿山)研究中心,江苏 徐州221008;
2.中国矿业大学 信息与控制工程学院,江苏 徐州221008)