《电子技术应用》
您所在的位置:首页 > 人工智能 > 设计应用 > 基于深度学习的视频火焰识别方法
NI-LabVIEW 2025
基于深度学习的视频火焰识别方法
2020年信息技术与网络安全第12期
蔡春兵,吴翠平,徐鲲鹏
中国矿业大学(北京) 化学与环境工程学院,北京100083
摘要: 针对传统视频火灾检测方法依靠人工经验提取火焰特征,误报率高、鲁棒性差的特点,提出一种基于深度学习的视频火焰识别方法。该方法充分利用火焰的运动特征和颜色信息,先使用改进的五帧差法和自适应混合高斯建模法进行运动目标提取;再采用RGB-HSV混合颜色空间模型筛选出图像中可能的火焰像素区域;最后将以上两个步骤结合起来进行疑似火焰区域提取,并将疑似火焰区域图像传入预训练的AlexNet卷积神经网络模型进行火与非火的精确识别。通过对多种场景下火焰视频的测试结果表明,提出的方法具有较高的召回率、准确率和较低的误报率。
中图分类号: TP391.4
文献标识码: A
DOI: 10.19358/j.issn.2096-5133.2020.12.008
引用格式: 蔡春兵,吴翠平,徐鲲鹏. 基于深度学习的视频火焰识别方法[J].信息技术与网络安全,2020,39(12):44-51.
Video flame recognition method based on deep learning
Cai Chunbing,Wu Cuiping,Xu Kunpeng
College of Chemical and Environmental Engineering,China University of Mining and Technology(Beijing), Beijing 100083,China
Abstract: Aiming at the characteristics of traditional video fire detection methods that rely on manual experience to extract flame features, with high false alarm rate and low accuracy, a video flame recognition method based on deep learning is proposed. This method makes full use of the motion characteristics and color information of the flame. Firstly, the improved five-frame subtraction method and the adaptive Gaussian mixture model are used to extract the moving objects. Then, the RGB-HSV mixed color space model is used to filter out the possible flame areas in the image. Finally, the above two steps are combined to extract the suspected flame area, and the extracted image of the suspected flame area is fed into the pre-trained AlexNet convolutional neural network model for accurate recognition. The test results of flame video in many scenarios show that the proposed method has higher recall rate, accuracy rate, and lower false alarm rate.
Key words : flame recognition;computer vision;deep learning;convolution neural network

0 引言

    传统的气体型、感温型、感烟型和感光型等火灾探测器[1],依靠火灾中的CO、CO2、温度、烟雾微粒、热和辐射等物理特征来探测火灾发生。因其通常与火源距离较远,导致可靠性与实时性都不足。视频火灾探测技术无需靠近火源,可实现大视野、远距离监控,广泛应用于大型工厂、森林和煤矿等大空间和室外开放空间的火灾探测。

    火焰具有明显的视觉特征,传统视频火灾探测算法通常根据火焰的颜色、形状和纹理等静态特征,以及闪烁频率、面积增长、形态变化和移动方向等动态特征进行识别。CHEN T H等人[2]结合RGB色彩分割和火焰运动特性进行火焰像素的判定。KO B C[3]等人通过检测运动区域和火焰颜色判断来提取候选火焰区域,并对候选区域提取特征,用于训练支持向量机SVM分类器,实现对火与非火的判定。MEI Z[4]等人通过帧间差分法和火焰颜色模型确定候选着火区域,然后提取火灾候选区域特征组成的特征向量,用于训练BP神经网络模型来识别火灾。候选区域的特征提取对后续分类器性能的好坏起到决定性的作用,传统视频火焰探测需要人工设计复杂的特征提取方法,在识别率和泛化性能上都有一定的局限性。

    深度学习为传统自然语言处理、计算机视觉等领域带来了革命性进步,也必然促进视频火灾探测技术获得突破性进展。深度学习算法可自动提取图像特征,克服了传统视频火灾探测需依靠人工经验提取特征的缺陷。FRIZZI S等人[5]训练了9层网络结构的卷积神经网络,实现了火灾的识别。SON G等人[6]用AlexNet作为基础架构,训练了火灾分类模型。WU H等人[7]分别训练了区域检测网络和区域分类网络,实现对火灾的判定。上述方法都直接在原始图片上使用卷积神经网络进行特征提取,这样大量的无关特征也将被传入全连接网络进行训练,使得分类性能不佳。

    通常,火焰只占据图像的一部分,可首先提取火焰疑似区域,再将疑似区域传入深度学习模型进行特征提取和精确识别。通过结合传统方法和深度学习算法的优点,提出一种基于深度学习的视频火焰识别方法。

    本文的主要工作如下:

    (1)利用改进的五帧差法和自适应混合高斯混合建模法(Adaptive Gaussian Mixture Model,AGMM)进行运动目标提取,并结合RGB-HSV混合颜色空间模型,提取疑似火焰区域。

    (2)制作火与类火数据集,训练AlexNet卷积神经网络模型对疑似火焰区域进行精确识别。

    (3)在实际数据上进行测试,并与文献中其他算法进行对比,以评价算法的召回率、准确率和误报率。




本文详细内容请下载:http://www.chinaaet.com/resource/share/2000003226




作者信息:

蔡春兵,吴翠平,徐鲲鹏

(中国矿业大学(北京) 化学与环境工程学院,北京100083)

此内容为AET网站原创,未经授权禁止转载。