《电子技术应用》
您所在的位置:首页 > 其他 > 设计应用 > 基于达芬奇平台的微光视频处理系统的设计
基于达芬奇平台的微光视频处理系统的设计
电子设计工程
何 娴 江苏海事职业技术学院
摘要: 深入研究和分析微光视频增强技术,为了解决微光视频的实时处理能力,结合迭芬奇平台的技术特性设计基于TMS320DM6446平台的微光视频实时处理系统的图像增强系统,实现微光视频系统的实时采集、实时处理和实时显示模块,最后通过测试处理结果和实时性两方面进行测试表明系统设计满足要求。
Abstract:
Key words :

摘要:深入研究和分析微光视频增强技术,为了解决微光视频的实时处理能力,结合迭芬奇平台的技术特性设计基于TMS320DM6446平台的微光视频实时处理系统的图像增强系统,实现微光视频系统的实时采集、实时处理和实时显示模块,最后通过测试处理结果和实时性两方面进行测试表明系统设计满足要求。
关键词:达芬奇平台;微光视频;数据采集嵌入式

O 引言
    微光视频系统在夜视技术上用途越来越广泛,然而由于目标照度很低、目标和背景反射系数很接近、观察环境不好等恶劣的条件下,得到的微光视频图像总是得不到满意的效果。我国现有的硬件生产能力的条件下,微光像增强器还达不到应用化的效果,但是实时图像处理技术能迅速提高微光系统的图像质量,增加微光视频系统的视距,因此把实时图像处理技术与像增强技术相结合成为缩短国内外微光视频系统差距的一个重要发展方向,本文在达芬奇平台TMS320DM6446上实现了微光视频的实时处理系统,对我国的微光视频系统设计有重要的参考价值。

1 微光视频增强技术
    微光视频最显著的表现特征是在图像画面上叠加有明显的随机闪烁噪声,通过对微光视频的特征和噪声进行分析,可以从增大微光视频的对比度和减少微光视频的噪声两方面来设计微光视频增强系统。由于系统的特点,需要采用简单有效的处理算法。直方图均衡化是增大图像对比度的经典算法,而且算法简单、处理效果较好;高斯平滑算法能有效地去除图像的高频分量而保留低频分量,这两种算法与嵌入式处理平台结合使用,可以获得很好的效果。本文在设计中使用软件的设计方法来达到图象增强技术。

2 基于达芬奇平台的微光视频系统
    微光视频系统的特点是在实时采集和实时显示的基础上,实现微光视频的增强处理和去噪处理,达到实时处理的要求,因此需要较强的实时处理的和数据处理能力,这里选择TI公司具有DSP+ARM双核处理功能的的达芬奇平台(TMS320DM6446)可以满足上述的要求。
    微光视频实时处理系统中,微光视频的采集、处理和显示过程是通过TMS320DM6446平台上的CCD/CMOS摄像头或者是图像解码器,对微光视频实时采集并进行数字化转换后,存储在读缓冲区中,用户可以利用TMS320DM6446的数字媒体处理器完成微光视频的实时处理任务,并将处理后的微光视频通过嵌入式处理平台上的显示设备进行实时显示。微光视频实时处理系统的原理如图1所示。

a.JPG
    在本微光视频实时处理系统中,微光视频实时采集部分由视频采集设备和视频解码芯片完成;微光视频实时处理部分由TI公司的TMS320 DM6446双核处理器完成;微光视频实时输出系统由LCD显示器和视频编码器完成。
2.1 微光视频图像的采集
    论文中模拟视频数字化标准ITU-RBT.656,它是在ITURBT.601(CCIR-601)的基础发展的一种新的视频数字化标准。由于 CCIR656视频数据流采用8根信号线(传统方式需要19根信号线)就可以传输所有的图像信息和行同步、场同步、偶同步信息,因此采用CCIR656方式进行接口设计时,便于实时数字图像处理硬件平台以功能单元为单位进行模块化设计。
b.JPG

    通过CCD/CMOS视频采集设备采集模拟的微光视频,视频为PAL或者NTSC制式,模拟视频通过解码芯片TVP5146与CCD控制器的BT.656接口进行A/D转换,转化为YCrCb格式的视频,同时将采集的微光视频通过外部存储器接口(Extmal Memory Interface,EMIF)缓存在DDRAM或SDR-AM中的读缓冲区中,以便微光视频处理模块对采集的数据进行处理。
2.2 微光视频处理功能的设计
    根据视频格式,然后将该分量从RGB格式转换为YUV格式,再在嵌入式处理平台中对该分量讲行处理,处理完毕后用该分量代替Y分量,将灰度图像转换为彩色图像进行输出等操作。视频处理模块的结构如图3所示。
c.JPG

    采集模块采集完一帧微光视频后,视频处理模块从DDRAM/SDRAM中的读缓冲区(Read Buffer)中获取一帧微光视频,依次对微光视频进行增强和去噪处理,处理后再次缓存在DDRAM或者SDRAM中的写缓冲区(Write Buffer)中,供显示模块使用。
2.3 微光视频显示功能的设计
    在本系统中我们利用了Framebuffer技术和达芬奇的视频处理子系统VPSS技术对图像进行显示。Framebuffer即帧缓冲区,是Linux内核中的一种驱动程序接口,这种接口将显示设备抽象为帧缓冲区。用户可以将它看成是显示内存的一个映像而不必关心物理显存的位置、换页机制等具体细节。因为这些细节都是由Framebuffer设备驱动来完成的。程序员只要将要显示的图像映射到进程地址空间,它便显示在屏幕上。显示模块的结构图如图4所示。
d.JPG

    采集模块采集到的视频经过处理模块进行增强和降噪处理后,利用内存映射的方式,使用FrameBuffer技术进行显示。

3 微光视频实时处理系统软件设计
    由于DM6446集成了ARM和DSP双核,ARM端是主控设备,DSP端用来处理图像处理,这样就极大的提高了系统的处理能力。本系统在软件设计中主要可分为微光视频采集模块、微光视频处理模块和微光视频显示模块三个部分,系统开始由视频采集设备采集微光视频,并且将采集的模拟视频图像通过BT.656标准数字化,将数字化后的微光视频存储在SDRAM/DDBAM的读缓冲区中,供微光视频处理模块使用;微光视频处理模块从读缓冲区中读取微光视频,并对微光视频做预处理,提取需要处理的拟合分量,然后再对该分量进行增强处理和去噪处理,处理后将灰度图像还原为彩色图像,并写入 SDRAMIDDRAM中的写缓冲区中,供显示模块进行显示;微光视频实时处理系统的功能漠块交互如图5。
e.JPG


4 系统测试
    在达芬奇平台TMS320DM6446上对实现部分进行测试,在实现实时采集和实时显示的基础了进行实时处理,系统各模块测试的结果如下。采集的原始微光视频如图6所示。
h.jpg

    图6是经过微光视频系统的原始图像,可以看出图像对比度比较低,并且表面存在颗粒噪声。基于TMS320DM6446平台的视频采集的实时性测试结果如表 1所示,可以看出加入图像处理算法之前时,视频采集达到了25fps,达到了实时性的要求,ARM和DSP中CPU的利用率以及视频比特率如表1所示。
f.JPGg.JPG


    图7是在实时采集的基础上,对微光视频进行实时处理测试。对采集的一帧微光视频采用本文的增强算法处理后的图像。

i.jpg
    图7即为微光视频增强效果,微光视频处理的实时性测试见表2所示,经过采集、处理后视频以24fpe的速度显示,基本满足实时性的要求,此时CPU的利用率和视频比特率如表2所示。
    从图6~7和表1~2中,可以发现系统在图象处理能力和系统CPU利用率方面都比原来的系统得到了增强,达到了微光系统处理的能力。

5 结束语
    达芬奇平台集通用处理器和数字信号处理器双内核于一体,相对以往的单核处理平台来讲,具有性能更高、功耗更低等特点,无论是在运算能力还是在控制功能上都能达到要求。本文给出的微光系统设计方案对相关的视频处理系统的设计具有很重要的参考价值。
 

此内容为AET网站原创,未经授权禁止转载。