CN105095906A - 目标特征模型数据库建立的方法、装置及系统 - Google Patents
目标特征模型数据库建立的方法、装置及系统 Download PDFInfo
- Publication number
- CN105095906A CN105095906A CN201410185270.4A CN201410185270A CN105095906A CN 105095906 A CN105095906 A CN 105095906A CN 201410185270 A CN201410185270 A CN 201410185270A CN 105095906 A CN105095906 A CN 105095906A
- Authority
- CN
- China
- Prior art keywords
- target
- model
- video
- modelling
- target piece
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Analysis (AREA)
Abstract
本发明提出了目标特征模型数据库建立的方法,包括:S1.获取具有目标物件的至少一帧视频;S2.从所述的视频前景中分离出目标物件;S3.提取目标物件的行为属性的特征参数,并进行模型化分类;S4.将模型化分类后的目标物件存入数据库。本发明还公开了目标特征模型数据库建立的装置及其系统。本技术方案中的目标特征模型数据库建立的方法,装置及其系统能通过提取目标物件的行为属性的特征参数,建立大量的模型化分类后的目标物件,存入数据库,区分目标类型正确率高,误报率低。
Description
技术领域
本发明涉及数据库建立领域,特别涉及一种目标特征模型数据库建立的方法,装置及系统。
背景技术
在监控区域内,一旦有人物或车辆入侵,以及物体的变化等情况,视频图像的特征都发生变化,此种变化称为异常、或者是具有威胁性。监控人员密切注视监控画面来判别是否具有威胁性。而实验结果表明,当盯着视频画面22分钟之后,人眼将对视频画面里95%的活动信息视而不见。正因为如此,传统的监控系统往往在事故发生的时候,保安人员都无法及时看到,导致事故更进一步的扩大。此时的监控系统就失去了他原有真正的意义,不能够起到一个预警的作用,只能做到当事故发生后,把他当作事故现场的一个证据。
现有的技术不足在于,监控员长期盯着屏幕,监控员会疲劳,注意力不集中,其误差较大,即便有现有的智能网络视觉目标检测分析仪,当发现视频图像发生异常时,马上会发出报警信号,但也经常发生误报扰民事件,原因在于:
1.算法无法正确区分目标类型,在环境相对复杂的场景中无法应用;
2.配置繁锁,伪三维设置,无法根据环境变化自动调整;
3.难以在强光、强风、大雾、黑夜能见度低环境恶劣的情况下进行监控。
发明内容
为了解决以上的问题,本发明提供能正确区分目标类型,误报率低的目标特征模型数据库建立的方法,装置及系统。
本发明的技术方案是这样实现的:
本发明公开了目标特征模型数据库建立的方法,包括:
S1.获取具有目标物件的至少一帧视频;
S2.从所述的视频前景中分离出目标物件;
S3.提取目标物件的行为属性的特征参数,并进行模型化分类;
S4.将模型化分类后的目标物件存入数据库。
作为本发明所述的方法进一步的改进,步骤S1前还具有步骤S0:
建立背景模型,具体是:采用三维立体空间模型、混合高斯背景模型及基于统计的背景模型相结合的方法,将监控现场场景的空间、大小、色度、像素值定义为可供分析、判断的计算机语言,做为智能视觉分析的基础,同时建立了背景进行自动学习模型,在一定时间里对场景再定义,以过滤掉光照、云影、树叶、波浪的变化。
作为本发明所述的方法进一步的改进,所述的行为属性包括:目标人物的走、跑、跳、蹲、卧、屈。
作为本发明所述的方法进一步的改进,所述的模型化分类包括:
A1.建立行为属性的概率模型;
A2.从行为模型中提炼出算法;
A3.将算法植入DSP,成为嵌入式学习软件;
A4.让DSP从视频像素变化中学习行为模式及分类。
作为本发明所述的方法进一步的改进,所述的算法包括:
将目标人物在一帧视频中的像素坐标划分为不同方位的四段,
经过预设时间段,比较四段坐标的变化,获知目标人物的运动方向,行为快慢。
本发明公开了目标特征模型数据库建立的装置,包括:
视频获取单元,用于获取具有目标物件的至少一帧视频;
目标物件分离单元,用于从所述的视频前景中分离出目标物件;
模型化分类单元,用于提取目标物件的行为属性的特征参数,并进行模型化分类;
目标物件存入单元,用于将模型化分类后的目标物件存入数据库。
作为本发明所述的装置进一步改进,在所述的视频获取单元之前还具有背景模型建立单元,用于建立背景模型,具体是:采用三维立体空间模型、混合高斯背景模型及基于统计的背景模型相结合的方法,将监控现场场景的空间、大小、色度、像素值定义为可供分析、判断的计算机语言,做为智能视觉分析的基础,同时建立了背景进行自动学习模型,在一定时间里对场景再定义,以过滤掉光照、云影、树叶、波浪的变化。
作为本发明所述的装置进一步改进,所述的行为属性包括:目标人物的走、跑、跳、蹲、卧、屈,所述的模型化分类包括:
A1.建立行为属性的概率模型;
A2.从行为模型中提炼出算法;
A3.将算法植入DSP,成为嵌入式学习软件;
A4.让DSP从视频像素变化中学习行为模式及分类。
作为本发明所述的装置进一步改进,所述的算法包括:
将目标人物在一帧视频中的像素坐标划分为不同方位的四段,
经过预设时间段,比较四段坐标的变化,获知目标人物的运动方向,行为快慢。
本发明公开了目标特征模型数据库建立的系统,包括视频输入部,与所述的视频输入部相连的控制器,与所述的控制器相连的显示器及存储器,其特征在于,所述的控制器具有上述的目标特征模型数据库建立的装置。
实施本发明的目标特征模型数据库建立的方法、装置及系统,具有以下有益的技术效果:
区别于现有技术中的无法正确区分目标类型,在环境相对复杂的场景中无法应用的不足,本技术方案通过提取目标物件的行为属性的特征参数,建立大量的模型化分类后的目标物件,存入数据库,区分目标类型正确率高,误报率低。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明的目标特征模型数据库建立的方法流程图;
图2是本发明的目标特征模型数据库建立的功能框图;
图3是本发明的目标特征模型数据库建立的功能框图;
图4为本发明的目标特征模型数据库建立的数据库样本示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
请参阅图1,本发明的实施例,一种目标特征模型数据库建立的方法,包括:
S1.获取具有目标物件的至少一帧视频;
本发明中的目标物件,可以是人、车、物;一帧视频中,移动对象的部分,才我们的分析才有意义,纯粹静态变化的物件,如路灯或车灯闪烁,不算是动态对象,对我们没有意义。
S2.从所述的视频前景中分离出目标物件;
运动目标检测是指从序列图像中将变化区域从背景中分割出来,它是对目标跟踪的前提。当监控区域内出现移动的目标,采用BLOB算法、模糊模式识别等多种技术,通过灰度突变把移动目标从背景画面区分出来,并确定其大小、形状、面积及准确位置,根据所述的编号进行累加。
加入了基于HSI颜色空间和边缘信息的阴影去除的算法,从而有效地滤除因天气、光照、影子、树叶摆动、海面上波浪的变化及混乱干扰等的多种因素的影响,并克服目标因型号、外观、装饰、运动等的影响,使系统提取能够更加准确地提取出移动目标,建立目标数据库:包括移动目标的尺寸、位置、形状、轨迹等基本信息。减小了由于阴影存在导致的虚警。
S3.提取目标物件的行为属性的特征参数,并进行模型化分类;
目标的分类、识别和行为判断采用两级视频分析,一级视频分析单元对提取的移动目标图像进行灰度特征的比较,将有变化的区域形成二值化图像,对形成的二值化图像进行图像分割,如果分析出来的结果小于规定值,那么将作为干扰忽略掉,如果分析出来的结果大于规定值,那么立即传送给二级视频分析单元,二级视频分析单元马上对此图像进行二次分析,并与数据库中的数据进行对比,对比内容包括移动图像的大小、形状、运动特征等一系列事先规定的数值。
行为属性包括:目标人物的走、跑、跳、蹲、卧、屈。
模型化分类具体包括:
A1.建立行为属性的概率模型;
A2.从行为模型中提炼出算法;
A3.将算法植入DSP,成为嵌入式学习软件;
A4.让DSP从视频像素变化中学习行为模式及分类。
不断进行A3及A4步骤,反馈然后再改进,直到DSP算法模块化,产品化。
最终经过严格的训练后,建立起庞大的,实用的特征模型数据库。图4即为以人为例的特征数据库及目标运动方向图。
算法包括:
将目标人物在一帧视频中的像素坐标划分为不同方位的四段,例如:Zone1、Zone2、Zone3、Zone4。
经过预设时间段,比较四段坐标的变化,获知目标人物的运动方向,行为快慢。
举例来说:四段可以标识为:Zone1、Zone2、Zone3、Zone4,分别对应于运动物体像素最左边的坐标(X1,X2)、最右边的坐标(X3,X4)、最上边的坐标(X5,X6)、最下边的坐标(X7,X8)。对于直立向右步行,则像素坐标的变化为:Zone2>Zone1及Zone2>Zone3;也可以经过预设时间段时,扫描运动物体像素最左边的坐标或最右边的坐标的变化,判断运动物体的运动方向.如经过30秒,最左边的坐标向左移动了10cm,则可以判断目标物体向左运动。
S4.将模型化分类后的目标物件存入数据库。
保存的目标物件一般包括形状特征、颜色特征、纹理特征。
颜色特征是图像最显著的特征,与其他特征相比,颜色特征计算简单、性质稳定,对于旋转、平移、尺度变化都不敏感,表现出很强的鲁棒性。颜色特征包括颜色直方图、主要颜色、平均亮度等;
二是纹理特征,纹理分析一直是计算机视觉的一个重要研究方向,其方法可以大致分为统计方法和结构方法。统计方法是对图像的颜色强度的空间分布信息进行统计,又可进一步分为传统的基于模型的统计方法和基于频谱分析的方法,如马尔可夫随机场模型、Fourier频谱特性等。结构方法首先假定纹理模式由纹理单元按照一定规则排列组成,因此纹理分析就变为确定这些单元、定量分析它们的空间排列;
三是形状特征,形状分析首先要把对象从背景中分割出来,再使用圆形度、矩形度、矩等各种方法进行形状的相似性比较。形状特征具有对平移、旋转、缩放的不变性,通常形状的表示可以分为基于边界和基于区域2类。基于边界的形状特征用较少的参数可以包含复杂的边界,如Fourier描述子。先在边界上任选定一个初始点,沿边界移动,得到一个复函数,由它便可以求得Fourier描述子。基于区域的形状特征常用矩不变量来描述。
其中,进一步,还包括步骤S0,建立背景模型,具体是:采用三维立体空间模型、混合高斯背景模型及基于统计的背景模型相结合的方法,将监控现场场景的空间、大小、色度、像素值定义为可供分析、判断的计算机语言,做为智能视觉分析的基础,同时建立了背景进行自动学习模型,在一定时间里对场景再定义,以过滤掉光照、云影、树叶、波浪的变化。
请参阅图2,本发明公开了目标特征模型数据库建立的装置1,本装置1是为了实现以上的方法,本装置没有详述的部分,请参阅以上的方法陈述,本装置1包括:
视频获取单元10,用于获取具有目标物件的至少一帧视频;
目标物件分离单元20,用于从所述的视频前景中分离出目标物件;
模型化分类单元30,用于提取目标物件的行为属性的特征参数,并进行模型化分类;
目标物件存入单元40,用于将模型化分类后的目标物件存入数据库。
其中,视频获取单元10之前还具有背景模型建立单元5,用于建立背景模型,具体是:采用三维立体空间模型、混合高斯背景模型及基于统计的背景模型相结合的方法,将监控现场场景的空间、大小、色度、像素值定义为可供分析、判断的计算机语言,做为智能视觉分析的基础,同时建立了背景进行自动学习模型,在一定时间里对场景再定义,以过滤掉光照、云影、树叶、波浪的变化。
行为属性包括:目标人物的走、跑、跳、蹲、卧、屈,所述的模型化分类包括:
A1.建立行为属性的概率模型;
A2.从行为模型中提炼出算法;
A3.将算法植入DSP,成为嵌入式学习软件;
A4.让DSP从视频像素变化中学习行为模式及分类。
算法包括:
将目标人物在一帧视频中的像素坐标划分为不同方位的四段,
经过预设时间段,比较四段坐标的变化,获知目标人物的运动方向,行为快慢。
请参阅图3,本发明公开了目标特征模型数据库建立的系统100,包括视频输入部200,与视频输入部200相连的控制器300,与控制器300相连的显示器400及存储器500,控制器500具有上述的目标特征模型数据库建立的装置1。
视频输入部200可以为摄像机,录像机,找描照片的扫描仪等。
控制器300可以为硬盘,也可以为服务器。
本系统的工作过程为:视频输入部200输入多张视频,控制器200上的目标特征模型数据库建立的装置1实现目标特征模型后存入了存储器500。
实施本发明的目标特征模型数据库建立的方法、装置及系统,具有以下有益的技术效果:
区别于现有技术中的无法正确区分目标类型,在环境相对复杂的场景中无法应用的不足,本技术方案通过提取目标物件的行为属性的特征参数,建立大量的模型化分类后的目标物件,存入数据库,区分目标类型正确率高,误报率低。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种目标特征模型数据库建立的方法,其特征在于,包括:
S1.获取具有目标物件的至少一帧视频;
S2.从所述的视频前景中分离出目标物件;
S3.提取目标物件的行为属性的特征参数,并进行模型化分类;
S4.将模型化分类后的目标物件存入数据库。
2.根据权利要求1所述的方法,其特征在于,步骤S1前还具有步骤S0:建立背景模型,具体是:采用三维立体空间模型、混合高斯背景模型及基于统计的背景模型相结合的方法,将监控现场场景的空间、大小、色度、像素值定义为可供分析、判断的计算机语言,做为智能视觉分析的基础,同时建立了背景进行自动学习模型,在一定时间里对场景再定义,以过滤掉光照、云影、树叶、波浪的变化。
3.根据权利要求1所述的方法,其特征在于,所述的行为属性包括:目标人物的走、跑、跳、蹲、卧、屈。
4.根据权利要求3所述的方法,其特征在于,所述的模型化分类包括:
A1.建立行为属性的概率模型;
A2.从行为模型中提炼出算法;
A3.将算法植入DSP,成为嵌入式学习软件;
A4.让DSP从视频像素变化中学习行为模式及分类。
5.根据权利要求4所述的方法,其特征在于,所述的算法包括:
将目标人物在一帧视频中的像素坐标划分为不同方位的四段,
经过预设时间段,比较四段坐标的变化,获知目标人物的运动方向、行为快慢。
6.一种目标特征模型数据库建立的装置,其特征在于,包括:
视频获取单元,用于获取具有目标物件的至少一帧视频;
目标物件分离单元,用于从所述的视频前景中分离出目标物件;
模型化分类单元,用于提取目标物件的行为属性的特征参数,并进行模型化分类;
目标物件存入单元,用于将模型化分类后的目标物件存入数据库。
7.根据权利要求6所述的装置,其特征在于,在所述的视频获取单元之前还具有背景模型建立单元,用于建立背景模型,具体是:采用三维立体空间模型、混合高斯背景模型及基于统计的背景模型相结合的方法,将监控现场场景的空间、大小、色度、像素值定义为可供分析、判断的计算机语言,做为智能视觉分析的基础,同时建立了背景进行自动学习模型,在一定时间里对场景再定义,以过滤掉光照、云影、树叶、波浪的变化。
8.根据权利要求6所述的装置,其特征在于,所述的行为属性包括:目标人物的走、跑、跳、蹲、卧、屈,所述的模型化分类包括:
A1.建立行为属性的概率模型;
A2.从行为模型中提炼出算法;
A3.将算法植入DSP,成为嵌入式学习软件;
A4.让DSP从视频像素变化中学习行为模式及分类。
9.根据权利要求8所述的装置,其特征在于,所述的算法包括:
将目标人物在一帧视频中的像素坐标划分为不同方位的四段,
经过预设时间段,比较四段坐标的变化,获知目标人物的运动方向,行为快慢。
10.一种目标特征模型数据库建立的系统,包括视频输入部,与所述的视频输入部相连的控制器,与所述的控制器相连的显示器及存储器,其特征在于,所述的控制器具有权利要求6至9任一项所述的装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410185270.4A CN105095906A (zh) | 2014-05-04 | 2014-05-04 | 目标特征模型数据库建立的方法、装置及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410185270.4A CN105095906A (zh) | 2014-05-04 | 2014-05-04 | 目标特征模型数据库建立的方法、装置及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN105095906A true CN105095906A (zh) | 2015-11-25 |
Family
ID=54576291
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410185270.4A Pending CN105095906A (zh) | 2014-05-04 | 2014-05-04 | 目标特征模型数据库建立的方法、装置及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105095906A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107220602A (zh) * | 2017-05-18 | 2017-09-29 | 浪潮金融信息技术有限公司 | 一种快速捕获视频流中新增运动区域的方法 |
CN107909081A (zh) * | 2017-10-27 | 2018-04-13 | 东南大学 | 一种深度学习中图像数据集的快速获取和快速标定方法 |
CN109241811A (zh) * | 2017-07-10 | 2019-01-18 | 南京原觉信息科技有限公司 | 基于图像螺旋线的场景分析方法及使用该方法的场景目标监控系统 |
CN111191498A (zh) * | 2019-11-07 | 2020-05-22 | 腾讯科技(深圳)有限公司 | 行为识别方法和相关产品 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101389004A (zh) * | 2007-09-13 | 2009-03-18 | 中国科学院自动化研究所 | 一种基于在线学习的运动目标分类方法 |
CN101719216A (zh) * | 2009-12-21 | 2010-06-02 | 西安电子科技大学 | 基于模板匹配的运动人体异常行为识别方法 |
CN102289686A (zh) * | 2011-08-09 | 2011-12-21 | 北京航空航天大学 | 一种基于迁移学习的运动目标分类识别方法 |
CN103679156A (zh) * | 2013-12-31 | 2014-03-26 | 武汉理工大学 | 一种多类运动目标自动识别与跟踪的方法 |
-
2014
- 2014-05-04 CN CN201410185270.4A patent/CN105095906A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101389004A (zh) * | 2007-09-13 | 2009-03-18 | 中国科学院自动化研究所 | 一种基于在线学习的运动目标分类方法 |
CN101719216A (zh) * | 2009-12-21 | 2010-06-02 | 西安电子科技大学 | 基于模板匹配的运动人体异常行为识别方法 |
CN102289686A (zh) * | 2011-08-09 | 2011-12-21 | 北京航空航天大学 | 一种基于迁移学习的运动目标分类识别方法 |
CN103679156A (zh) * | 2013-12-31 | 2014-03-26 | 武汉理工大学 | 一种多类运动目标自动识别与跟踪的方法 |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107220602A (zh) * | 2017-05-18 | 2017-09-29 | 浪潮金融信息技术有限公司 | 一种快速捕获视频流中新增运动区域的方法 |
CN109241811A (zh) * | 2017-07-10 | 2019-01-18 | 南京原觉信息科技有限公司 | 基于图像螺旋线的场景分析方法及使用该方法的场景目标监控系统 |
CN109241811B (zh) * | 2017-07-10 | 2021-04-09 | 南京原觉信息科技有限公司 | 基于图像螺旋线的场景分析方法及使用该方法的场景目标监控系统 |
CN107909081A (zh) * | 2017-10-27 | 2018-04-13 | 东南大学 | 一种深度学习中图像数据集的快速获取和快速标定方法 |
CN111191498A (zh) * | 2019-11-07 | 2020-05-22 | 腾讯科技(深圳)有限公司 | 行为识别方法和相关产品 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106951867B (zh) | 基于卷积神经网络的人脸识别方法、装置、系统及设备 | |
Cuevas et al. | Labeled dataset for integral evaluation of moving object detection algorithms: LASIESTA | |
CN110188807B (zh) | 基于级联超分辨率网络与改进Faster R-CNN的隧道行人目标检测方法 | |
CN106203274B (zh) | 一种视频监控中行人实时检测系统及方法 | |
Zhao et al. | SVM based forest fire detection using static and dynamic features | |
CN104378582B (zh) | 一种基于ptz摄像机巡航的智能视频分析系统及方法 | |
CN106682635B (zh) | 一种基于随机森林特征选择的烟雾检测方法 | |
CN107145851A (zh) | 建筑作业区危险源智能识别系统 | |
JP2021502639A (ja) | 深層学習における回転可変物体検出 | |
CN106204640A (zh) | 一种运动目标检测系统及方法 | |
CN104123544A (zh) | 基于视频分析的异常行为检测方法及系统 | |
CN104408745A (zh) | 一种基于视频图像的实时烟雾场景检测方法 | |
CN106296677A (zh) | 一种基于双背景模型的双掩膜背景更新的遗留物检测方法 | |
CN111523397B (zh) | 一种智慧灯杆视觉识别装置、方法及其系统和电子设备 | |
CN103617426A (zh) | 一种自然环境干扰和有遮挡时的行人目标检测方法 | |
CN114202646A (zh) | 一种基于深度学习的红外图像吸烟检测方法与系统 | |
CN106570490A (zh) | 一种基于快速聚类的行人实时跟踪方法 | |
CN112270331A (zh) | 一种基于yolov5改进的广告牌检测方法 | |
CN110781806A (zh) | 一种基于yolo的行人检测追踪方法 | |
CN109960988A (zh) | 图像分析方法、装置、电子设备及可读存储介质 | |
CN105095906A (zh) | 目标特征模型数据库建立的方法、装置及系统 | |
Cai et al. | Intelligent video analysis-based forest fires smoke detection algorithms | |
Zhang et al. | Application research of YOLO v2 combined with color identification | |
CN103218604A (zh) | 交通场景中基于路面提取的行人检测方法 | |
CN109241847A (zh) | 基于视觉图像的油田作业区安全监控系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20151125 |
|
RJ01 | Rejection of invention patent application after publication |