CN102073863B - 基于深度指纹获取远距离视频监控目标特征尺寸的方法 - Google Patents

基于深度指纹获取远距离视频监控目标特征尺寸的方法 Download PDF

Info

Publication number
CN102073863B
CN102073863B CN2010105645809A CN201010564580A CN102073863B CN 102073863 B CN102073863 B CN 102073863B CN 2010105645809 A CN2010105645809 A CN 2010105645809A CN 201010564580 A CN201010564580 A CN 201010564580A CN 102073863 B CN102073863 B CN 102073863B
Authority
CN
China
Prior art keywords
target
fingerprint
image
monitoring
depth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN2010105645809A
Other languages
English (en)
Other versions
CN102073863A (zh
Inventor
王新伟
周燕
范松涛
刘育梁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Institute of Semiconductors of CAS
Original Assignee
Institute of Semiconductors of CAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institute of Semiconductors of CAS filed Critical Institute of Semiconductors of CAS
Priority to CN2010105645809A priority Critical patent/CN102073863B/zh
Publication of CN102073863A publication Critical patent/CN102073863A/zh
Application granted granted Critical
Publication of CN102073863B publication Critical patent/CN102073863B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Collating Specific Patterns (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

本发明公开了一种基于深度指纹获取远距离视频监控目标特征尺寸的方法,通过距离选通成像技术获取目标视频监控系统的监控场景感兴趣区的多个切片图像,将该多个切片图像进行叠加获得感兴趣区的深度指纹,并将该深度指纹植入目标视频监控系统中;当监控目标出现在感兴趣区时,将监控目标从背景中提取出来,与所述深度指纹进行匹配,确定监控目标足部特征线所隶属的指纹纹线,该指纹纹线的空间距离信息为目标的距离信息;获得目标距离信息之后,依据透视投影模型下的三维空间与二维像平面间的映射关系,从监控图像中以像素为单位的待测目标特征线段长度反演出目标的特征尺寸信息。本发明解决了传统远距离视频监控系统获取目标特征尺寸信息难的问题。

Description

基于深度指纹获取远距离视频监控目标特征尺寸的方法
技术领域
本发明涉及视频监控技术领域中的视频深度指纹技术,尤其涉及一种基于深度指纹获取远距离视频监控目标特征尺寸的方法。
背景技术
视频监控在当今社会已广泛使用,但是,目前主要为室内或小区内的近距离视频监控。随着技术的发展和进步,远距离视频监控技术也逐渐成熟,并被应用于海上资源管理、海上缉毒反走私、海事搜救、边海防监控、交通监控、核电站及石油仓储基地等重要场所的监控,尤其是恶劣天气环境下。我国许多城市正在积极推进“平安城市”项目,国家正在大范围试点的“3111”工程。“3111”工程是公安部组织的旨在全国范围内全面推动城市报警与监控建设的重大工程项目,主要目的是要在重要的城市设置各种视频监控点,让城市“无死角”,让生活在这个城市的人们没有安全之忧。视频监控点越来越多,已呈现有网络化的特点。随着监控网络规模的不断扩大和监控视频应用的不断深入,视频数据海量增长,传统的视频监控系统缺乏智能化,图像监看和调阅需要占用很大的人力资源,成为制约充分发挥监控网络效能的瓶颈,因此,视频监控智能化成为视频监控技术发展的必然趋势。
在智能视频监控中,目标的特征尺寸信息在目标分类以及非接触式身份识别应用中具有重要意义。以人的身份识别应用为例,传统的视频监控系统主要是基于人脸的特征来进行人员身份识别,该方面的研究较为深入,已经有较为成熟的专用人脸识别产品,但该方法主要适用于近距离监控目标,且人脸的被动识别受光线、分辨率、姿态等对识别率的影响较大。针对此,人们提出了基于目标步态的身份识别。步态与人脸是被认为具有可感知与非接触等优点的生物特征,是目前被认为可以用于视觉监控系统中的身份识别的两个主要生物特征,而步态识别则需要获得目标的身高信息。因此,目标的身高信息在远距离智能视频监控中的身份别中具有重要意义。但是,传统的视频监控系统很难获取监控目标的特征尺寸信息,主要是由于三维空间信息投影为二维影像,损失了大量三维空间信息,尤其是空间深度信息的丢失,使得无法获取目标的距离,从而很难从传统视频监控系统输出的图像中获得目标的特征尺寸(如高度和宽度)。
为获取目标的特征尺寸信息,人们提出了基于聚焦或离焦的单目视觉技术和双目视觉技术,以及利用特征参考物或摄像机标定并结合图像处理技术获取目标特征尺寸的方法。单目视觉技术只采用一个摄像机,结构简单,但聚焦或离焦的方法获取目标距离信息,导致操作性不强,不适于目前已广泛架设的监控网络系统;双目视觉检测方法原理类似人的双眼,利用双目立体不一致性,用两台性能相同的摄像机,获取同一景物的两幅图像,计算同一空间点在两幅图像中的立体视差(空间被测点在两台摄像机像平面上成像点位置的差异),便可得该点的深度信息,但由于存在图像立体匹配的问题,过于复杂,因此,其应用也受到了局限,且该两种技术都需要对现有监控网络进行重新布设,增加了成本。
而其他的图像处理技术,则需要在监控场景中存在参考物(AntonioCriminisi et al.,A new approach to botain height measurements from video,Proc.SPIE,Vol.3576,227-238(1999)),或通过对监控场景设置参考点标定摄像机后然后通过图像处理获取目标的特征尺寸(Joong Lee et al.,Effectiveheight measurement method of surveillance camera image,Forensic ScienceInternational,Vol.177,17-23(2007)),对于无参考物的场景或者复杂场景都无法有效工作。
鉴于此,本发明提出了获取目标特征尺寸信息的视频深度指纹技术,该技术通过对传统视频监控系统赋予深度指纹来获取目标的特征尺寸信息,可在不增加现有视频监控设备的硬件投入的前提下提高现有视频监控系统的智能性。
发明内容
(一)要解决的技术问题
针对上述现有技术存在的不足之处,本发明的主要目的在于提出一种基于深度指纹获取远距离视频监控目标特征尺寸的方法,以达到远距离目标特征尺寸信息提取智能化的目的。
(二)技术方案
为达到上述目的,本发明提供的技术方案如下:
一种基于深度指纹获取远距离视频监控目标特征尺寸的方法,该方法通过距离选通成像技术获取目标视频监控系统的监控场景感兴趣区的多个切片图像,将该多个切片图像进行叠加获得感兴趣区的深度指纹,并将该深度指纹植入目标视频监控系统中;当监控目标出现在感兴趣区时,将监控目标从背景中提取出来,然后与所述深度指纹进行匹配,确定监控目标足部特征线所隶属的指纹纹线,该指纹纹线的空间距离信息为目标的距离信息;获得目标距离信息之后,依据透视投影模型下的三维空间与二维像平面间的映射关系,从监控图像中以像素为单位的待测目标特征线段长度反演出目标的特征尺寸信息。
上述方案中,所述目标视频监控系统是欲植入深度指纹的待架设或已架设的具有固定监控场景的传统视频监控系统。
上述方案中,所述监控场景感兴趣区是指相对整个监控场景而言,人们感兴趣的重点监控区域。在实际应用中,人们往往仅对监控场景的某局部区域感兴趣而非整个监控场景,尤其是大视场监控。对于固定架设的视频监控系统,其监控区域通常是固定的,即输出图像具有固定的场景。感兴趣区可以是监控区域的整体或者局部,仅当目标出现在该感兴趣区域时,对其进行信息的提取。
上述方案中,所述距离选通成像技术是利用脉冲激光器作为照明光源,采用具有选通门的面阵探测器作为成像器件,通过控制选通门和激光脉冲之间的时序,实现对观察区的切片成像;切片的位置R由成像器件选通门脉冲和激光脉冲间的延时τ确定
R = τ · c 2 - - - ( 1 )
其中,c为光速,当激光脉宽tL远小于选通门宽tg时,图像切片的空间厚度可根据测量要求,由选通门宽tg确定,其大小为
D = c · t g 2 - - - ( 2 )
公式(2)中给出了图像的空间切片厚度,相应地,在获取图像切片时,步进延时的步长大小等于选通门宽tg
上述方案中,所述深度指纹是将通过距离选通成像技术获取的感兴趣区的多个切片图像以不同灰度标示不同距离后进行图像叠加,进而获得类似人手指纹的监控场景感兴趣区的深度指纹,相应地,每个图像切片对应一条深度指纹的纹线,该指纹纹线的距离信息r可由公式(1)和公式(2)给出
r = R + D 2 - - - ( 3 )
不同作用距离下,成像像元对应的空间分辨率是不同的,因此,每条指纹纹线具有不同的空间分辨率,深度指纹图像实际为多分辨图像的集合。
上述方案中,所述目标足部特征线是监控图像中目标足部所对应的由像素集构成的线段,该线段通过目标的外接矩形确定;对于视频监控而言,所感兴趣的目标主要是动态目标人或可移动物品,而非固定的环境背景,这些目标的特点是它们均与环境背景接触,即目标的足部均与地面接触;因此,可以将足部特征线作为匹配基元,采用局部匹配的方式匹配,通过分析目标足部特征线所在的指纹纹线,确定目标所隶属的纹线;由于每条视频指纹纹线为像素集,因此,纹线匹配的目的就是确定目标足部匹配基元所隶属的纹线像素集。
上述方案中,所述三维空间与二维像平面间的映射关系是指依据透视投影模型,以摄像机的光心为坐标原点,以光轴为Z轴,建立摄像机坐标系,相应地在像面上建立图像坐标系,其原点为摄像机光轴与成像平面的交点,x与y轴分别平行于摄像机坐标系的X与Y轴,是平面直角坐标系,则可获得空间点与图像点之间的对应的映射关系
X Y = Z f x y - - - ( 4 )
公式(4)中X,Y和Z为目标的三维空间坐标,x和y为目标在二维像平面图像物理坐标,f为成像器件的焦距;公式(4)表明,X向和Y向的距离精度依赖于Z向的距离精度;由于观察景深距系统较远,对于(X,Y,Z)处目标到系统的距离r=(X2+Y2+Z2)1/2≈Z,因此,可认为同一Z平面上的各点到系统的距离相等,Z向距离由公式(3)确定;为了便于计算机处理,在像平面建立计算机坐标系u-v,其坐标(u,v)是以像素为单位像面内的坐标,计算机坐标系与图像坐标系的关系为
x y = i 0 0 j u - u 0 v - v 0 - - - ( 5 )
公式(5)中,i和j分别为成像器件的x和y向的像元分辨率,(u0,v0)为图像坐标系原点在计算机坐标系中的坐标。
上述方案中,所述目标特征尺寸信息的反演是指监控图像中的目标从背景中提取出来之后,通过目标足部特征线与深度指纹匹配确定目标所隶属的指纹纹线,隶属纹线的距离信息即为目标的距离信息,然后获取监控图像中目标的特征线段的特征向量由公式(4)和(5)可得出与目标特征线段对应的目标特征尺寸L为
L = Z f { [ ( u L - u R ) i ] 2 + [ ( v L - v R ) j ] 2 } 1 / 2 - - - ( 6 )
公式(6)中,(uL,vL)和(uR,vR)分别为计算机坐标系中目标特征线段左端点和右端端点的坐标;相应地特征尺寸最大误差为
L Max , AE = D 2 f { [ ( u L - u R ) i ] 2 + [ ( v L - v R ) j ] 2 } 1 / 2 - - - ( 7 )
因此,在针对目标监控系统获取感兴趣区的深度指纹时,能够根据测量要求由公式(7)确定图像切片厚度,即确定选通门宽tg
(三)有益效果
从上述技术方案可以看出,本发明具有以下有益效果:
1、利用本发明,由于距离选通成像技术具有切片成像的特点,可直接获取与监控系统等距离的空间切片,进而获得目标视频监控系统的深度指纹,即可快速完成目标视频监控系统的标定,所以,与传统的监控系统标定相比,该发明可实现非接触式的简洁而准确的标定,尤其是对于复杂的监控环境背景。
2、利用本发明,由于距离选通成像技术下的成像系统仅是获取目标视频监控系统深度指纹的工具,并不增加现有传统视频监控系统的硬件成本,所以,该发明无需增加硬件成本,可直接服务于现有监控系统,提高其智能性。
3、利用本发明,由于视频深度指纹植入了目标视频监控系统,当目标出现时,仅需通过图像处理将目标提取出来,然后与深度指纹匹配,即可反演获得目标的特征尺寸,所以,该发明无需复杂的图像处理和匹配算法,降低了系统对硬件的要求。
4、利用本发明,现有的视频监控系统植入深度指纹后,可以分析监控目标的特征尺寸,以及获得目标的距离信息,所以,该发明可用于智能视频监控,可服务于远距离监控目标的非接触式身份识别等。
附图说明
图1监控场景感兴趣区深度指纹的获取:(a)目标视频监控系统监控场景,(b)监控场景感兴趣区,(c)距离选通成像系统获取深度指纹,(d)感兴趣的深度指纹图;
图2目标特征尺寸信息的获取:(a)各坐标系的建立,(b)监控场景中的监控目标,(c)提取后的目标,(d)指纹匹配;
图3监控目标的特征尺寸信息:(a)深度指纹图,(b)目标的身高及距离。
图中主要元件符号说明:
1距离选通成像系统,2环境背景,3感兴趣区,4指纹纹线,5像平面,6空间切片,7目标,8外接矩形,9足部特征线,10目标特征线段,11隶属纹线。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明进一步详细说明。
本发明提供的基于深度指纹获取远距离监控目标特征尺寸信息的方法,其原理是:通过距离选通成像技术获取目标视频监控系统的监控场景感兴趣区3的切片图像,经过切片图像的叠加后获得感兴趣区3的深度指纹,并将该指纹植入目标视频监控系统,当监控目标7出现在感兴趣区3时,可通过背景差或帧间差等图像处理将目标7从背景中提取出来,然后与指纹图匹配,确定目标足部特征线9所隶属的指纹纹线4,隶属纹线11的空间距离信息即为目标7的距离信息,获得目标7距离信息之后,便可依据透视投影模型下的三维空间与二维像平面5间的映射关系,从监控图像中待测目标特征线段10长度(以像素为单位)反演出目标7的特征尺寸信息。
对于固定架设的目标视频监控系统,其监控区域通常是固定的,即输出图像具有固定的场景,如图1(a)所示。在实际应用中,人们往往仅对监控场景的某局部区域感兴趣,尤其是大场景监控。仅当目标7出现在该区域,对其进行信息的提取和行为分析。需指明的是,感兴趣区可以是局部也可以是整个监控画面。在图1(b)中,用高亮度区标注了感兴趣观察区。我们利用距离选通成像技术可切片成像的特点,对该感兴趣区3域进行切片成像,其工作原理如图1(c)所示。切片的位置由成像器件选通门脉冲和激光脉冲间的延时τ确定
Figure BSA00000365011900071
其中,c为光速,切片厚度D则根据测量要求,由激光脉宽tL和选通门宽tg确定,当tL<<tg时,
Figure BSA00000365011900072
将各切片合成后便可获得感兴趣区3的深度图,如图1(d)所示,不同距离的切片以不同的灰度标示,如同人手指纹一样,我们称图1(d)为图1(b)感兴趣区3的深度指纹图,每个图像切片对应一条视频指纹的指纹纹线4。该指纹纹线4的距离信息r可由公式(1)给出
r = R + D 2 - - - ( 1 )
需注意的是,不同作用距离下,成像像元对应的空间分辨率是不同的,因此,每条指纹纹线具有不同的空间分辨率,视频指纹图像实际为多分辨图像的集合。这样我们便获得了图1(a)感兴趣区3的深度指纹。当目标7出现在感兴趣区3时,可通过背景差或帧间差将目标7提取出来。由于距离选通成像可获得空间的距离信息,因此,视频指纹的每条纹线含有空间距离信息。这样,可通过目标7的特征匹配,确定目标7隶属纹线11,进而反演出目标7的三维空间信息。
对于视频监控而言,所感兴趣的目标7主要是人和可移动物品等动目标而非相对固定的环境背景。这些目标的特点是它们均与环境背景2接触,如图2(b)所示,图像中的人与箱子的足部均与地面接触。因此,可以将足部特征线9作为匹配基元,采用局部匹配的方式匹配,通过分析目标足部特征线9所在的指纹纹线4,确定目标7的隶属纹线11。指纹纹线4实际是像素集合,纹线匹配的目的就是确定目标足部匹配基元所隶属的纹线像素集。
为获取目标7的特征尺寸信息,需建立感兴趣区3三维空间与二维平面像的映射关系。如图2(a)所示,采用透视投影模型,以摄像机的光心为坐标原点,以光轴为Z轴,建立摄像机坐标系,该坐标系为笛卡尔坐标系。在像面上建立图像坐标系,其原点为摄像机光轴与像平面5的焦点,x与y轴分别平行于摄像机坐标系的X与Y轴,是平面直角坐标系,单位为m。在透视投影模型中,通过成像中心的每一条光线在像面上的成像点是唯一的,易获得空间点与图像点之间的对应的映射关系(矩阵形式)
X Y = Z f x y - - - ( 2 )
公式(2)中X,Y和Z为目标7的三维空间坐标,x和y为目标7在二维像平面5图像物理坐标,f为成像器件的焦距。公式(2)表明,X向和Y向的距离精度依赖于Z向的距离精度。由于观察景深距系统较远,对于(X,Y,Z)处目标7到系统的距离r=(X2+Y2+Z2)1/2≈Z,因此,我们可认为同一Z平面上的各点到系统的距离相等,其大小由公式(1)给出。为了便于计算机图像处理,在像平面5建立计算机坐标系u-v,其坐标(u,v)是以像素为单位像面内的坐标。计算机坐标系与图像坐标系的关系为
x y = i 0 0 j u - u 0 v - v 0 - - - ( 5 )
公式(5)中,i和j分别为成像器件的x和y向的像元分辨率,(u0,v0)为图像坐标系原点在计算机坐标系中的坐标。
目标特征尺寸信息的反演是指监控图像中的目标7从背景中提取出来之后,通过目标足部特征线9与深度指纹匹配可确定目标7所隶属的指纹纹线4,隶属纹线11的距离信息即为目标的距离信息,然后获取监控图像中目标的特征线段的特征向量
Figure BSA00000365011900092
则与目标特征线段10对应的目标特征尺寸L为
L = Z f { [ ( u L - u R ) i ] 2 + [ ( v L - v R ) j ] 2 } 1 / 2 - - - ( 3 )
公式(3)中(uL,vL)和(uR,vR)分别为计算机坐标系下目标特征线段10左端点和右端端点的坐标。相应地特征尺寸最大误差为
L Max , AE = D 2 f { [ ( u L - u R ) i ] 2 + [ ( v L - v R ) j ] 2 } 1 / 2 - - - ( 4 )
以获取人的特征尺寸为例,将人从环境背景2中提取出来,如图2(c)所示,可获取人的外接矩形8,通过外接矩形8可获取目标7的足部特征线9,与对应的深度指纹图匹配可判断出人的隶属纹线11,见图2(d)。如图2(a)所示,深度指纹纹线4实际为某空间切片6投影到二维平面获得,这种投影实质上也丢失了空间切片6的深度信息,但是,可通过控制切片的厚度,使测量误差满足系统测量精度要求,这样,我们便可忽略此信息的丢失,即认为该指纹纹线4所对应的空间切片6中的每一点到成像系统的距离均相等。以获得人的身高为例,当从背景中提取目标7后,获取目标7的外接矩形8,并提取特征向量
Figure BSA00000365011900095
如图2(c)所示,则目标7的身高H为
H = Z · i f | u L - u R | - - - ( 5 )
相应地特征尺寸最大误差为
H Max , AE = D · i 2 f | u L - u R | - - - ( 6 )
注意在获取感兴趣区3的深度指纹时,应依据系统所要求的测量精度确定切片厚度,即确定选通门宽tg,该值也正是获取图像切片步进延时的步长大小。
依照本发明实施例提供的这种基于深度指纹获取远距离视频监控目标特征尺寸的方法,具体步骤如下:
(1)确定目标视频监控系统的空间位置(架设高度、俯仰角)及视场参数,即确定其监控场景,图1(a)。
(2)分析目标视频监控系统的监控场景,选定其感兴趣观察区,图1(b)中以高亮度标示。
(3)设置距离选通成像系统1的参数(架设高度,俯仰角,视场角),使其与目标视频监控系统具有一致的监控场景。
(4)根据系统测量精度要求及感兴趣区3的位置设置距离选通成像系统1的延迟时间、选通门宽及延时步长,并获取感兴趣区3的切片图像,如图1(c)所示。
(5)以不同灰度级标示感兴趣区3不同距离的图像切片,对图像切片进行叠加后,获得感兴趣区3的深度指纹,如图1(d)所示。
(6)将感兴趣的深度指纹赋予目标视频监控系统。
(7)当目标7出现在感兴趣区3时,通过图像处理将目标7提取出来,获取目标7的足部特征线9,并与深度指纹图进行匹配,确定目标7的隶属纹线11,进而获得目标7的距离信息。
(8)获得目标7的距离信息后,提取监控图像中目标特征线段10的特征向量,通过三维空间与二维像面的对应关系反演出目标7的特征尺寸。
图3是在本实施例下针对图1(a)监控场景的实验结果。图1(a)场景的感兴趣观察区距离向区间设定为(64.5,124.5)m。为获取其空间指纹,图像切片厚度为12m,对应的选通门的门宽为80ns,步进距离步长为12m,扫描后获取的感兴趣区3的空间指纹如图3(a)所示。从实验结果可以得出:人到系统的相对距离为82.5m,人的身高为1.78m。人的实际身高为1.73m。测量获得人的身高与实际身高的误差主要是两方面造成的:物体表面和投影图像平面5不平行时,任意形状的物体在向图像坐标系平面投影时,物体形状会发生畸变;获取目标的外接矩形算法引入的误差。实际应用中,可通过改善外接矩形获取算法和畸变矫正来减小误差达到系统的测量要求。
以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施例而已,并不用于限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (3)

1.一种基于深度指纹获取远距离视频监控目标特征尺寸的方法,其特征在于,该方法通过距离选通成像技术获取目标视频监控系统的监控场景感兴趣区的多个切片图像,将该多个切片图像进行叠加获得感兴趣区的深度指纹,并将该深度指纹植入目标视频监控系统中;当监控目标出现在感兴趣区时,将监控目标从背景中提取出来,然后与所述深度指纹进行匹配,确定监控目标足部特征线所隶属的指纹纹线,该指纹纹线的空间距离信息为目标的距离信息;获得目标距离信息之后,依据透视投影模型下的三维空间与二维像平面间的映射关系,从监控图像中以像素为单位的待测目标特征线段长度反演出目标的特征尺寸信息;
所述距离选通成像技术是利用脉冲激光器作为照明光源,采用具有选通门的面阵探测器作为成像器件,通过控制选通门和激光脉冲之间的时序,实现对观察区的切片成像;切片的位置R由成像器件选通门脉冲和激光脉冲间的延时τ确定
R = τ · c 2 - - - ( 1 )
其中,c为光速,当激光脉宽tL远小于选通门宽tg时,图像切片的空间厚度可根据测量要求,由选通门宽tg确定,其大小为
D = c · t g 2 - - - ( 2 )
公式(2)中给出了图像的空间切片厚度D,相应地,在获取图像切片时,步进延时的步长大小等于选通门宽tg
所述深度指纹是将通过距离选通成像技术获取的感兴趣区的多个切片图像以不同灰度标示不同距离后进行图像叠加,进而获得类似人手指纹的监控场景感兴趣区的深度指纹,相应地,每个图像切片对应一条深度指纹的纹线,该指纹纹线的距离信息r可由公式(1)和公式(2)给出
r = R + D 2 - - - ( 3 )
不同作用距离下,成像像元对应的空间分辨率是不同的,因此,每条指纹纹线具有不同的空间分辨率,深度指纹图像实际为多分辨图像的集合;
所述目标足部特征线是监控图像中目标足部所对应的由像素集构成的线段,该线段通过目标的外接矩形确定;对于视频监控而言,所感兴趣的目标主要是动态目标人或可移动物品,而非固定的环境背景,这些目标的特点是它们均与环境背景接触,即目标的足部均与地面接触;因此,可以将足部特征线作为匹配基元,采用局部匹配的方式匹配,通过分析目标足部特征线所在的指纹纹线,确定目标所隶属的纹线;由于每条视频指纹纹线为像素集,因此,纹线匹配的目的就是确定目标足部匹配基元所隶属的纹线像素集;
所述三维空间与二维像平面间的映射关系是指依据透视投影模型,以摄像机的光心为坐标原点,以光轴为Z轴,建立摄像机坐标系,相应地在像面上建立图像坐标系,其原点为摄像机光轴与成像平面的交点,x与y轴分别平行于摄像机坐标系的X与Y轴,是平面直角坐标系,则可获得空间点与图像点之间的对应的映射关系
X Y = Z f x y - - - ( 4 )
公式(4)中X,Y和Z为目标的三维空间坐标,x和y为目标在二维像平面图像物理坐标,f为成像器件的焦距;公式(4)表明,X向和Y向的距离精度依赖于Z向的距离精度;由于观察景深距系统较远,对于(X,Y,Z)处目标到系统的距离r=(X2+Y2+Z2)1/2≈Z,因此,可认为同一Z平面上的各点到系统的距离相等,Z向距离由公式(3)确定;为了便于计算机处理,在像平面建立计算机坐标系u-v,其坐标(u,v)是以像素为单位像面内的坐标,计算机坐标系与图像坐标系的关系为
x y = i 0 0 j u - u 0 v - v 0 - - - ( 5 )
公式(5)中,i和j分别为成像器件的x和y向的像元分辨率,(u0,v0)为图像坐标系原点在计算机坐标系中的坐标;
所述目标特征尺寸信息的反演是指监控图像中的目标从背景中提取出来之后,通过目标足部特征线与深度指纹匹配确定目标所隶属的指纹纹线,隶属纹线的距离信息即为目标的距离信息,然后获取监控图像中目标的特征线段的特征向量
Figure FSB00000798683500031
由公式(4)和(5)可得出与目标特征
线段对应的目标特征尺寸L为
L = Z f { [ ( u L - u R ) i ] 2 + [ ( v L - v R ) j ] 2 } 1 / 2 - - - ( 6 )
公式(6)中,(uL,vL)和(uR,vR)分别为计算机坐标系中目标特征线段左端点和右端端点的坐标;相应地特征尺寸最大误差为
L Max , AE = D 2 f { [ ( u L - u R ) i ] 2 + [ ( v L - v R ) j ] 2 } 1 / 2 - - - ( 7 )
因此,在针对目标监控系统获取感兴趣区的深度指纹时,能够根据测量要求由公式(7)确定图像切片厚度,即确定选通门宽tg
2.根据权利要求1所述的基于深度指纹获取远距离视频监控目标特征尺寸的方法,其特征在于,所述目标视频监控系统是欲植入深度指纹的待架设或已架设的具有固定监控场景的传统视频监控系统。
3.根据权利要求1所述的基于深度指纹获取远距离视频监控目标特征尺寸的方法,其特征在于,所述监控场景感兴趣区是相对整个监控场景而言,人们感兴趣的重点监控区域,是监控区域的整体或者局部,仅当目标出现在该感兴趣区域时,对其进行信息的提取。
CN2010105645809A 2010-11-24 2010-11-24 基于深度指纹获取远距离视频监控目标特征尺寸的方法 Active CN102073863B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN2010105645809A CN102073863B (zh) 2010-11-24 2010-11-24 基于深度指纹获取远距离视频监控目标特征尺寸的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN2010105645809A CN102073863B (zh) 2010-11-24 2010-11-24 基于深度指纹获取远距离视频监控目标特征尺寸的方法

Publications (2)

Publication Number Publication Date
CN102073863A CN102073863A (zh) 2011-05-25
CN102073863B true CN102073863B (zh) 2012-08-15

Family

ID=44032397

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2010105645809A Active CN102073863B (zh) 2010-11-24 2010-11-24 基于深度指纹获取远距离视频监控目标特征尺寸的方法

Country Status (1)

Country Link
CN (1) CN102073863B (zh)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103096026A (zh) * 2011-10-31 2013-05-08 鸿富锦精密工业(深圳)有限公司 安全监控系统及安全监控方法
WO2013114512A1 (ja) * 2012-02-03 2013-08-08 Necソフト株式会社 作業支援システム、作業支援装置、作業支援方法、及びプログラム
CN102927972B (zh) * 2012-11-01 2014-10-15 中国科学院半导体研究所 一种距离选通超分辨率三维成像装置及方法
CN102982558A (zh) * 2012-11-28 2013-03-20 无锡港湾网络科技有限公司 运动目标检测方法及装置
CN104424470B (zh) * 2013-09-03 2018-04-27 联想(北京)有限公司 一种手势识别方法及装置
CN104036280A (zh) * 2014-06-23 2014-09-10 国家广播电影电视总局广播科学研究院 基于感兴趣区域和聚类相结合的视频指纹方法
CN104330038B (zh) * 2014-11-26 2017-02-22 厦门优策信息科技有限公司 一种尺寸测量的方法
CN105486235B (zh) * 2015-12-07 2018-04-20 高新兴科技集团股份有限公司 一种球机视频画面中的目标度量方法
CN108234927B (zh) * 2016-12-20 2021-02-19 腾讯科技(深圳)有限公司 视频追踪方法和系统
CN107608392A (zh) * 2017-09-19 2018-01-19 浙江大华技术股份有限公司 一种目标跟随的方法及设备
CN109308719B (zh) * 2018-08-31 2022-03-15 电子科技大学 一种基于三维卷积的双目视差估计方法
CN109657571B (zh) * 2018-12-04 2020-09-29 京东数字科技控股有限公司 一种分娩监控方法和装置
CN114216409B (zh) * 2021-08-30 2023-01-24 北京航空航天大学 一种基于切片并行单像素成像的平行轴三维测量方法
CN116106928B (zh) * 2023-04-11 2023-08-04 中国人民解放军海军工程大学 一种水下自适应全选通成像方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7751651B2 (en) * 2004-04-02 2010-07-06 The Boeing Company Processing architecture for automatic image registration
CN1842169A (zh) * 2005-09-27 2006-10-04 复旦大学 一种立体视觉智能控制方法
CN101581575B (zh) * 2009-06-19 2010-11-03 南昌航空大学 基于激光和摄像机数据融合的三维重建方法

Also Published As

Publication number Publication date
CN102073863A (zh) 2011-05-25

Similar Documents

Publication Publication Date Title
CN102073863B (zh) 基于深度指纹获取远距离视频监控目标特征尺寸的方法
CN109215063A (zh) 一种事件触发相机与三维激光雷达的配准方法
Remondino et al. 3D Ichnology—recovering digital 3D models of dinosaur footprints
Wen et al. Spatial-related traffic sign inspection for inventory purposes using mobile laser scanning data
CN105700525B (zh) 基于Kinect传感器深度图机器人工作环境不确定性地图构建法
CN108731587A (zh) 一种基于视觉的无人机动态目标跟踪与定位方法
CN107560592B (zh) 一种用于光电跟踪仪联动目标的精确测距方法
Toschi et al. Combining airborne oblique camera and LiDAR sensors: Investigation and new perspectives
Barazzetti et al. 3D scanning and imaging for quick documentation of crime and accident scenes
JP2011123060A (ja) 三次元画像を形成するための識別専用オプトロニックシステムおよび方法
JP6524529B2 (ja) 建築限界判定装置
Li et al. Laser scanning based three dimensional measurement of vegetation canopy structure
CN101271590A (zh) 一种获取凸轮廓物体形状的方法
Sun et al. Large-scale building height estimation from single VHR SAR image using fully convolutional network and GIS building footprints
Özdemir et al. A multi-purpose benchmark for photogrammetric urban 3D reconstruction in a controlled environment
CN116071424A (zh) 基于单目视觉的果实空间坐标定位方法
Le et al. System to measure three-dimensional movements in physical models
Parmehr et al. Automatic registration of optical imagery with 3d lidar data using local combined mutual information
Xin et al. Landslide surface horizontal displacement monitoring based on image recognition technology and computer vision
CN117710588A (zh) 一种基于视觉测距先验信息的三维目标检测方法
Karagianni Terrestrial laser scanning and satellite data in cultural heritage building documentation
Fritsch et al. Photogrammetric point cloud collection with multi-camera systems
Dias et al. Thermographic and visible spectrum camera calibration for marine robotic target detection
Zeng et al. Urban land-use classification using integrated airborne laser scanning data and high resolution multi-spectral satellite imagery
Lkebir et al. Anza palaeoichnological site, Late Cretaceous, Morocco. Part III: Comparison between traditional and photogrammetric records

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant