基于自适应混合高斯模型的前景目标检测Foreground Detection Based on Adaptive Mixture Gaussian Model
孟晓燕,董增寿,武霞
摘要(Abstract):
在计算机视觉研究中,从视频序列中提取出前景目标是关键步骤之一。而混合高斯背景模型是前景目标检测的一种常用算法。针对传统混合高斯建模过程中分别对每个像素建立固定个数的高斯模型和相同的学习率这一缺陷,本文先对视频帧进行了分块处理,然后自适应的对每个像素块采取不同的高斯分布个数和学习率,并且在建模过程的不同时间段采用不同的学习率,最后对检测结果在空域上进行数学形态学的处理。实验结果表明,与传统检测方法相比,该方法能够更加准确和快速地检测出前景目标。
关键词(KeyWords): 混合高斯背景模型;前景检测;自适应学习率
基金项目(Foundation): 国家自然科学基金(41272374);; 山西省基础研究项目(2012011015-5);; 太原市科技创新项目(201209-283)
作者(Author): 孟晓燕,董增寿,武霞
参考文献(References):
- [1]MEIER T,NGUN K N.Video segmentation for cintent-based coding[J].IEEE Trans on circuits and Systems for Video Technology,1999,9(9):1190-1203.
- [2]杨学超,刘文萍.视频图像序列中的运动目标检测技术[J].计算机应用与软件,2008,25(1):215-218.
- [3]POWER P W,SCHOONERS J A.Understanding background mixture models for foreground segmentation[C]∥Proceedings of Image and Vision Computing.Auckland,New Zealand:Amuck and University Press,2002:267-271.
- [4]RIBARIC S,ADRINEK G,SEGVICS.Real-time Active Visual Tracking System[J].IEEE Melecon,2004,1:231-234.
- [5]BARRON J L,BEAUCHEMIN S S,FLEET D J.On Optional Flow[C]∥6Int Conf on Artificial intelligence and Information Control Systems of Robots.Bratislava,Slovakia,1994:3-14.
- [6]彭可,陈燕红,唐宜清.一种室内环境的运动目标检测混合运算法[J].计算机工程与应用,2008,44(5):239-341.
- [7]陈高华,卓东风,杨铁梅.基于数学形态学的遥感图像边缘检测方法研究[J].太原科技大学学报,2009,30(4):280-282.
- [8]代科学,李国辉,涂丹,等.监控视频运动目标检测减背景技术的研究现状和展望[J].中国图像图形学报,2006,11(7):919-927.
- [9]LO B P L,VELASTIN S A.Automatic Congestion Detection System for Underground Platforms[C]∥Proc of Int'l Symp on Intelligent Multimedia,Video,and Speech Processing.Hong Kong,China,2001.
- [10]RIDDER C,MUNKELT O,KIRCHNER H.Adaptive Background Estimation and Foreground Detection Using Kalman Filtering[C]∥Proc of the Int'l Conf.on Recent Advances in Mechatronics.Istanbul,Turkey,1995.
- [11]COLOMBARI A,FUSIELLO A,MURINO V.Segmentation and Tracking of Multiple Video Objects[J].Pattern Recognition,2007,40(4):1307-1317.
- [12]STAUFFER C,GRIMSON W E L.Learning patterns of activity using real-time trackin[J].IEEE Trans on Pattern Analysis and Machine Intelligence,2000,22(8):747-757.