CN101833791A - 一种单摄像机下的场景建模方法及系统 - Google Patents

一种单摄像机下的场景建模方法及系统 Download PDF

Info

Publication number
CN101833791A
CN101833791A CN 201010172916 CN201010172916A CN101833791A CN 101833791 A CN101833791 A CN 101833791A CN 201010172916 CN201010172916 CN 201010172916 CN 201010172916 A CN201010172916 A CN 201010172916A CN 101833791 A CN101833791 A CN 101833791A
Authority
CN
China
Prior art keywords
target
point
sigma
coordinate
calibration
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN 201010172916
Other languages
English (en)
Other versions
CN101833791B (zh
Inventor
蒋敏
谭颖
潘巧海
谭骁彧
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chengdu Digital China Sobey Technology Co., Ltd.
Original Assignee
Chengdu Sobey Digital Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chengdu Sobey Digital Technology Co Ltd filed Critical Chengdu Sobey Digital Technology Co Ltd
Priority to CN2010101729167A priority Critical patent/CN101833791B/zh
Publication of CN101833791A publication Critical patent/CN101833791A/zh
Application granted granted Critical
Publication of CN101833791B publication Critical patent/CN101833791B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

一种单摄像机下的场景建模方法及系统;方法包括:根据视频帧图像检测出运动目标;对每个被检测到的运动目标进行跟踪,得到所述运动目标的运动轨迹;从所有运动目标的运动轨迹中筛选出标定物目标,从所筛选出的标定物目标的运动轨迹中选取至少三个位置作为标定点位置,提取所述标定物目标成像的最高点和最低点在这些标定点位置上的图像坐标,由这些坐标计算出当前场景下垂直消失点和水平消失线的位置,以及摄像机的安装高度,建立高度模型。本发明无须人工辅助标定,可自动建模,能自适应场景的变化,可同时处理不同场景的多段视频。

Description

一种单摄像机下的场景建模方法及系统
技术领域
本发明涉及场景建模领域,尤其涉及一种单摄像机下的场景建模方法及系统。
背景技术
为了从二维图像中获取三维空间信息,场景建模是必不可少的步骤,它被广泛用于三维重建、导航、视觉监控等领域。由非标定图像序列重建物体真实尺寸是一项非常有意义的技术,具有广泛的应用前景。例如,机器人的自动导航任务中,机器人通过观察获得环境的二维图像,然后通过计算得到环境的三维信息来确定行走的方向、距离、视场中目标的高度等;又如在视频监控中,通过场景建模,可以计算出场景中运动目标的尺寸,运动速度等信息,便于及时对异常速度等事件进行监控和报警。
目前,基于单摄像机的场景建模的方法都是需要人工干预的,实现起来比较麻烦,不够灵活。在单摄像机拍摄环境下,最具代表性且被广泛应用于实际中的方法就是张正友的基于平面模板的摄像机标定法,具体的实施办法是:绘制一个具有精确定位点阵的模板(形状类似于棋盘),将之贴在一个平板上构成一个标定板,然后让标定板在两个以上不同的方位被拍摄,分别记录标定板上所有的点在各个方位处的图像坐标,最后通过确定图像坐标和标定板上的点的匹配关系,计算出图像和标定板之间的转换矩阵,并利用该矩阵线性解出摄像机内参数,从而建立起场景模型。显然,这种做法主要是依赖于人工干预的方法,存在如下一些缺点:
(1)需要人拿着标定板进入场景中,在有些应用环境中可能是不方便或者不能实现的。
(2)需要人工辅助选取标定板上所有的点在每个方位下的成像点,以确定这些点的图像坐标,操作麻烦,易出错。
(3)选取的图像坐标不能达到最佳。特别是当标定板较小时,板上的点阵成像更不明显,会严重影响图像坐标的定位。
(4)不能自适应场景的变化。一旦模型建立成功就要求摄像头不能再变化,当摄像头发生变化导致拍摄场景发生了变化时(如:摄像头的位置发生偏移,或焦距发生变化等),必须重新建立模型,否则会严重影响计算的结果。
(5)不能同时处理不同场景的多段视频。在某些事后视频分析中,可能需要在同一个监视器画面上不停的切换多个不同拍摄场景的摄像头,是不可能每切换一次就进行一次人工干预下的场景建模的。
通过以上五点可以看出,目前的场景建模技术是不灵活的,甚至在有些场合中是不能实施的,这给监控等视频应用带来了巨大的困难。
发明内容
本发明要解决的技术问题是提供一种单摄像机下的场景建模方法及系统,无须人工辅助标定,可自动建模,能自适应场景的变化,可同时处理不同场景的多段视频。
为了解决上述问题,本发明提供了一种单摄像机下的场景自动建模系统,包括:
运动目标检测子系统,用于从视频帧中检测出运动目标;
运动目标跟踪子系统,用于对检测到的运动目标进行跟踪,得到所述运动目标的运动轨迹;
确定标定物目标子系统,用于从所有运动目标的运动轨迹中筛选出满足以下条件的运动目标作为标定物目标:所述运动目标的特征值与预设的特征值匹配、该运动目标的运动轨迹中包括至少三个位置点,且这些位置点不共线、无重合而且两两之间的距离大于一个预设的距离阈值;筛选成功则启动所述场景建模子系统,不成功则指示所述运动目标检测子系统读入下一视频帧;
场景建模子系统,用于从所筛选出的标定物目标的运动轨迹中选取至少三个位置作为标定点位置,提取所述标定物目标成像的最高点和最低点在这些标定点位置上的图像坐标,由这些坐标计算出垂直消失点和水平消失线的位置,以及摄像机的安装高度,建立高度模型。
进一步地,所述场景建模子系统包括:
选取模块,用于从所述标定物目标的运动轨迹中,选出满足以下条件的至少三个标定点:标定点两两之间的位置距离均大于所述距离阈值、标定物目标在被选出来的标定点位置处的成像面积与上一帧相比没有发生突变、标定点不在一条直线上;
定位模块,用于分别根据各所述标定点的图像坐标,定位在该标定点位置上的标定物目标的最高点和最低点的图像坐标;
建立矩阵模块,用于根据各所述最高点和最低点的图像坐标计算垂直消失点位置、水平消失线位置和摄像机的安装高度三个信息,根据这三个信息建立投影矩阵作为高度模型。
进一步地,所述建立矩阵模块根据各所述最高点和最低点的图像坐标计算垂直消失点位置是指根据下式获得垂直消失点VY
V Y = arg min v Σ i = 1 N ( | w i T h i - b i | ( w i T Σ h i w i ) 1 / 2 + | w i T f i - b i | ( w i T Σ f i w i ) 1 / 2 )
其中N为标定点个数;hi为最高点坐标,fi为最低点坐标,
Figure GSA00000104755900033
是最高点和最低点的协方差矩阵,(wi,bi)是经过mi和VY的直线,且||wi||=1,mi是hi和fi的中点;i=1,2,…,N。
进一步地,所述建立矩阵模块根据各所述最高点和最低点的图像坐标计算水平消失线位置是指根据下式获得水平消失线:
( W V L , b V L ) = arg min ( w , b ) Σ i = 1 N ( | w T x i - b i | ( w T Σ i w ) 1 / 2 )
其中
Figure GSA00000104755900036
Figure GSA00000104755900037
是由2对最高点和最低点(hj,fj)和(hk,fk)所组成的线段hjhk和fjfk相交而成;i=1,2,…,N,j≠k;的协方差矩阵由下式计算得到:
Σ i = J · diag ( Σ h j , Σ h k , Σ f j , Σ f k ) · J T ,
其中 J = ∂ x i ∂ [ h j T , h k T , f j T , f k T ] T .
进一步地,所述建立矩阵模块根据各所述最高点和最低点的图像坐标计算摄像机的安装高度是指根据下式获得摄像机的安装高度:
Z Z C = 1 - d ( x ′ , c ) · d ( x , v ) d ( x , c ) · d ( x ′ , v )
其中,x是标定物目标的最低点坐标、x’是标定物的最高点坐标,c是所述垂直消失点与所述最低点或最高点的连线,和所述水平消失线之间的交点的坐标;若所述垂直消失点与所述最低点之间的连线、所述垂直消失点与所述最高点之间的连线分别与水平消失线交于不同的两个点,则取这两个点的中点的坐标作为c,Zc是摄像机的安装高度,Z是预定的标定物目标的高度,d(x,y)是图像上任意两点x和y之间的图像距离。
本发明还提供了一种单摄像机下的场景自动建模方法,包括:
A、根据视频帧图像检测出运动目标;
B、对每个被检测到的运动目标进行跟踪,得到所述运动目标的运动轨迹;
C、从所有运动目标的运动轨迹中筛选出满足以下条件的运动目标作为标定物目标,所述运动目标的特征值与预设的特征值匹配,且该运动目标的运动轨迹中包括至少三个位置点,这些位置点不共线,无重合且两两之间的距离大于一个预设的距离阈值;
筛选成功则进行步骤D,如果筛选不成功,则读取下一帧的视频帧,然后返回步骤A;
D、从所筛选出的标定物目标的运动轨迹中选取至少三个位置作为标定点位置,提取所述标定物目标成像的最高点和最低点在这些标定点位置上的图像坐标,由这些坐标计算出当前场景下垂直消失点和水平消失线的位置,以及摄像机的安装高度,建立高度模型。
进一步地,所述步骤D包括:
D1、用于从所述标定物目标的运动轨迹中,选出满足以下条件的至少三个标定点:标定点两两之间的位置距离均大于所述距离阈值、标定物目标在被选出来的标定点位置处的成像面积与上一帧相比没有发生突变、标定点不在一条直线上;
D2、定位出所述标定物目标在这些标定点位置处的最高点和最低点的图像坐标;
D3、使用所述最高点和最低点的图像坐标计算得到垂直消失点位置、水平消失线位置和摄像机的安装高度,建立投影矩阵作为高度模型。
进一步地,步骤D3中,根据下式获得垂直消失点VY位置:
V Y = arg min v Σ i = 1 N ( | w i T h i - b i | ( w i T Σ h i w i ) 1 / 2 + | w i T f i - b i | ( w i T Σ f i w i ) 1 / 2 )
其中N为标定点个数;hi为最高点坐标,fi为最低点坐标,
Figure GSA00000104755900052
是最高点和最低点的协方差矩阵,(wi,bi)是经过mi和VY的直线,且||wi||=1,mi是hi和fi的中点;i=1,2,…,N。
进一步地,步骤D3中,根据下式获得水平消失线位置:
( W V L , b V L ) = arg min ( w , b ) Σ i = 1 N ( | w T x i - b i | ( w T Σ i w ) 1 / 2 )
其中
Figure GSA00000104755900055
Figure GSA00000104755900056
Figure GSA00000104755900057
是由2对最高点和最低点(hj,fj)和(hk,fk)所组成的线段hjhk和fjfk相交而成;i=1,2,…,N,j≠k;
Figure GSA00000104755900058
的协方差矩阵由下式计算得到:
Σ i = J · diag ( Σ h j , Σ h k , Σ f j , Σ f k ) · J T ,
其中 J = ∂ x i ∂ [ h j T , h k T , f j T , f k T ] T .
进一步地,步骤D3中,根据下式获得摄像机的安装高度:
Z Z C = 1 - d ( x ′ , c ) · d ( x , v ) d ( x , c ) · d ( x ′ , v )
其中,x是标定物目标的最低点坐标、x’是标定物的最高点坐标,c是所述垂直消失点与所述最低点或最高点的连线,和所述水平消失线之间的交点的坐标;若所述垂直消失点与所述最低点之间的连线、所述垂直消失点与所述最高点之间的连线分别与水平消失线交于不同的两个点,则取这两个点的中点的坐标作为c,Zc是摄像机的安装高度,Z是预定的标定物目标的高度,d(x,y)是图像上任意两点x和y之间的图像距离。
本发明的技术方案利用场景的视频帧的2D信息,提取出有用的特征,通过一系列几何学和投影变换,自动建立对应的3D模型,从而达到对该场景中任意位置上的任意目标计算其真实高度的目的;本发明计算准确,原理简单,且不需要计算出摄像机的内外参数;能够很好的满足视频监控、重建等的要求,同时无需标定板,整个过程无人工干预,能自适应场景的变化,可同时处理不同场景的多段视频,更智能地适应了现场实时操作的需要,克服了传统的手动场景建模中一些固有的缺点,更好的满足了实际应用的要求。
附图说明
图1是实施例一的单摄像机下的场景自动建模系统的示意框图;
图2是实施例一中例子里身体各部分占身高的比例;
图3是实施例一中例子里消失点和消失线的示意图;
图4是实施例一中例子里交比法计算摄像机安装高度的原理图;
图5是实施例二的单摄像机下的场景自动建模方法的流程示意图;
图6是实施例二中运动目标检测步骤的流程示意图;
图7是实施例二的运动目标跟踪步骤的流程示意图;
图8是实施例二的场景自动建模子系统的示意框图;
图9是实施例二中单摄像机下的场景自动建模方法应用流程的框图。
具体实施方式
下面将结合附图及实施例对本发明的技术方案进行更详细的说明。
需要说明的是,如果不冲突,本发明实施例以及实施例中的各个特征可以相互结合,均在本发明的保护范围之内。另外,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
若无特殊说明,本文中所说的建模都是对目标的3D高度进行的建模。因为运动目标的形状等特征是难于精确描述的,因此,本文中“运动目标”是用视频帧图像中的运动目标区域来描述的,即本文中的运动目标就是运动目标的外接矩形,当然也可以采用其他的描述方式来描述运动目标。
实施例一,一种单摄像机下的场景自动建模系统,如图1所示,包括:
运动目标检测子系统,用于从当前场景下拍摄的视频帧图像中检测出运动目标;
运动目标跟踪子系统,用于对检测到的运动目标进行跟踪,得到所述运动目标的运动轨迹;
确定标定物目标子系统,用于从所有运动目标的运动轨迹中筛选出标定物目标,筛选成功则启动所述场景建模子系统;筛选出的标定物目标是指满足以下条件的运动目标:所述运动目标的特征值与预设的特征值匹配,且该运动目标的运动轨迹中包括至少三个位置点,这些位置点不共线,无重合且两两之间的距离大于一个预设的距离阈值;
场景建模子系统,用于从所筛选出的标定物目标的运动轨迹中选取至少三个位置作为标定点位置,提取在这些标定点位置上所述标定物目标的图像坐标,由这些图像坐标计算出当前场景下垂直消失点和水平消失线的位置,以及此时摄像机的安装高度,从而得到全部的高度模型信息,建立高度模型。
其中,如果确定标定物目标子系统未能成功筛选出标定物目标,则指示运动目标检测子系统读入新的视频帧,继续检测运动目标,并对运动轨迹进行更新,然后重新进行筛选,直到成功。
本实施例中,所述确定标定物目标子系统筛选出标定物目标时所用的预设的特征值根据该标定物的特征设置;考虑到监控场景中,直立单人是频繁出现的运动目标,因此本实施例中选择了单人作为标定物目标;单人与非单人(这里的非单人主要是指人群和机动车)之间有着一些明显的特征,可以很好的将之区别开。
根据实验经验,满足下面条件的标定物目标可以让重建的结果更准确:在真实世界中,该标定物目标在场景中各个标定点位置都是相互平行或近似平行的,且多个不同标定物目标之间的真实高度差异不会过大。
本实施例中,所述确定标定物目标子系统所用的预设的特征值可以是单一特征也可以是组合特征。本实施例中采用了组合特征并预设了苛刻的阈值,具体包括:高宽比特征及头肩特征;两种特征均为选用,选用的依据是:单人有明显高于人群和机动车的高宽比特征,且具有明显的头肩特征;而且这两个特征计算较简单,能比较好的描述出单人与非单人之间的区别。
另外,如果标定物目标选择了除单人外的其他运动目标,则标定物的特征的选择和提取根据该标定物目标特点的不同而不同。
本实施例中,所述运动目标检测子系统可以是通过对输入的每个视频帧进行学习,建立一个背景模型,可以但不限于为GMM(混合高斯分布)模型,当学习时间到达预定的时间阈值Tt后,用背景差分法得到当前帧中包含运动目标的区域(即大致的运动目标),对这些区域进行去噪和连通处理,最终检测出当前帧中的运动目标,包括运动目标的个数、每个运动目标的图像数据信息、外接矩形的中心点坐标、长、宽等特征信息。
本实施例中,所述运动目标检测子系统具体可以包括:
学习模块、更新模块、获取模块以及后处理模块;
所述学习模块用于通过对输入的每帧视频进行学习,建立一个GMM背景模型;当学习时间到达预定的时间阈值Tt后启动所述更新模块;
本实施例中,设用来描述每个像素点Zuv的颜色的高斯分布共K个,则该像素点的概率表示为:
P ( z uv ) = Σ j = 1 K ω j , uv N ( z u , v μ j , uv , Σ j , uv ) - - - ( 1.1 )
N ( z uv , μ uv , Σ ) = 1 ( 2 π ) n 2 | Σ | 1 2 exp { - 1 2 ( z uv - μ uv ) T Σ - 1 ( z uv - μ uv ) } - - - ( 1.2 )
其中,K是混合模型中描述像素颜色特征的高斯分布的模型个数,K值越大,则计算量越大,一般K取值3到5;ωj,uv是第j个高斯分布的权值,K个高斯模型的权重和为1;μj,uv,∑j,uv分别为第j个高斯分布的均值和协方差矩阵;N为高斯概率密度函数;n是特征向量的维数。本实施例中,取K=4。
实际应用时也可以用其他背景模型建立算法代替。
所述更新模块用于将所述学习模块所建立的背景模型作为背景帧输出;
所述获取模块用于将当前帧与背景帧差分,获得当前帧中包含运动目标的区域;这里获得的包含运动目标的区域是一个可能的区域,不一定是运动目标,即使是运动目标也可能不是精确的运动目标;
所述后处理模块用于将当前帧中的所有运动目标,通过多次的膨胀和腐蚀,滤掉小面积区域,连通断开的大面积区域,并对得到的运动目标区域进行标注,最终得到当前帧中可能的运动目标个数,以及每个运动目标,发送给所述运动目标跟踪子系统;每个运动目标以图像数据、外接矩形的中心点坐标和长、宽等特征值描述。
实际应用时可以用其他运动目标检测算法代替本运动目标检测子系统中涉及到的全部模块的算法。
本实施例中,所述运动目标跟踪子系统具体可以包括:
匹配模块、分类模块、定位更新模块以及预测模块;
所述匹配模块用于使用预测模块输入的运动目标的特征值,与当前帧中检测到的运动目标的特征值两两进行匹配,建立各运动目标的特征匹配矩阵;由该特征匹配矩阵的值找到上一帧运动目标在当前帧的匹配目标;可以但不限于按照匹配时取值“1”、不匹配时取值“0”设置所述特征匹配矩阵中各元素的值;也可以用具体的匹配值作为所述特征匹配矩阵中各元素的值;具体匹配的实现不限于以上例子;
所述分类模块用于根据所述特征匹配矩阵的值判断各运动目标的状态;所述运动目标状态包括正常、产生、消失、分裂、融合;
所述定位更新模块用于分别根据各运动目标在当前帧的状态进行该运动目标的主色等特征数据及运动轨迹的更新,输出各运动目标的运动轨迹,以及当前的运动状态,如正常,产生、融合、消失、分裂等状态;
所述预测模块用于根据当前运动目标的特征值预测出该运动目标在下一帧的运动轨迹,根据预测的运动轨迹获取该运动目标在下一帧的某些特征值如外接矩形的坐标等,输入给所述匹配模块;
本实施例中,所述匹配模块当两个运动目标同时满足以下两个条件时判断其匹配,否则判断其不匹配:
(1)两个运动目标重叠的面积超过一预定的面积阈值;
(2)两个运动目标的主色相同或两主色的像素值之差的绝对值小于一预定的色差阈值;所述主色是指:将运动目标的颜色值进行量化后,量化值像素点足够多的那些颜色。
本实施例中,所述分类模块根据特征匹配矩阵的值判断运动目标的运动状态具体可以是指:
设所述特征匹配矩阵Match第i行的和为rowN(i),第j列的和为colN(j),所述分类模块当rowN(i)=1且colN(j)=1且Matchij=1时判断运动目标的运动状态为a类;rowN(j)=0时判断运动目标的运动状态为b类;colN(i)=0时判断运动目标的运动状态为c类;colN(i)>1时判断运动目标的运动状态为d类;rowN(j)>1时判断运动目标的运动状态为e类;
所述a类是指运动目标持续在场景内运动且未与任何其它目标相互干扰(正常);所述b类是指产生的新目标(产生);所述c类是指运动目标消失(消失,比如被遮挡,或运动目标出了场景);所述d类是指运动目标发生分裂(分裂);所述e类是指运动目标发生融合(融合)。
本实施例中所述预测模块可以但不限于通过Kalman滤波器来进行运动状态的预测。Kalman滤波器利用反馈控制的原理实现对运动状态的估计。滤波器估计每一时刻的运动状态,且以观测的方式获得相应的反馈值,对估计的运动状态进行修正,更新状态参数,并被反馈到滤波器的下一步迭代中;在进入下一次迭代之前,执行预测和参数修正。
滤波器主要依赖两个方程:一个是关于状态过程的状态方程,一个是关于观测过程的观测方程,分别如下:
状态方程: X k = A X ^ k - 1 + W k - 1 - - - ( 2.1 )
观测方程:Zk=HXk+Vk    (2.2)
本实施例中令状态矢量Xk=[x(k),y(k),vx(k),vy(k)]T,观测矢量Zk=[x(k),y(k)]T,(x(k),y(k))对应运动目标外接矩形的中心点坐标,(vx(k),vy(k))对应该中心点在x方向和y方向上的速度分量。A和H分别是状态转移矩阵和观测矩阵,表达式如下:
A = 1 0 Δt 0 0 1 0 Δt 0 0 1 0 0 0 0 1 - - - ( 2.3 )
H = 1 0 0 0 0 1 0 0 - - - ( 2.4 )
这里Δt是指连续两帧的时间间隔。
Wk、Vk分别是状态噪声和观测噪声,为简化处理,通常假设它们是常量,本实施例中设定Q=I1,R=I2,I1为4×4的单位矩阵,I2为2×2的单位矩阵。
实际应用中也可用其他滤波器和运动状态预测算法替代,而且可以用其他运动目标跟踪算法代替本运动目标跟踪子系统涉及到的全部算法。
本实施例中,所述场景建模子系统具体可以包括:
选取模块、定位模块以及建立矩阵模块;
所述选取模块用于选取标定点,通过分析标定物目标的运动轨迹,从中选出几个标定点(通常是3个以上);所述标定点要满足以下条件:(1)标定点两两之间的位置距离均大于预先设置的距离阈值;(2)与上一帧相比,标定物目标在被选出来的标定点位置处成像面积没有发生突变;(3)所有被选出来的标定点位置不在一条直线上;本实施例中选取4个标定点。
所述位置阈值可以根据仿真或实验选取,比如使用能使最后结果尽量接近实际情况时所采用的位置阈值。
所述定位模块用于分别根据各所述标定点的图像坐标,定位在该标定点位置上的标定物目标的最高点和最低点的图像坐标;比如对于直立单人的标定物目标,最高点和最低点分别就是人的头顶点和脚底点。
所述建立矩阵模块用于根据各所述最高点和最低点的图像坐标建立投影矩阵作为最终得到的高度模型;该投影矩阵主要包括了垂直消失点位置、水平消失线位置和摄像机的安装高度三个关键信息。实际应用时也可用其他方法建立投影矩阵。
本实施例中,满足上述标定点条件的标定点可能会有一到多组,此时,可以选择两两标定点之间的位置距离(或总距离)最大的一组,或者是标定点分布最广的一组,也可以选择多组,然后得到多个计算结果,加权平均得到最终的结果,权值可以根据实验或仿真确定。
下面用一个具体的例子说明所述建立矩阵模块如何根据各所述最高点和最低点计算垂直消失点位置、水平消失线位置和摄像机的安装高度;该例子中以直立单人作为标定物目标作为说明,但实际应用时用其它标定物目标也可以按照下列算式计算:
通常,人身体的各部分占身高的比例是一定的,如图2所示,头颈部约占身体的上部18%的部分,膝盖以下(即小腿和脚)约占下部30%的部分,根据这一比例再结合实际实验的结果,对标定物目标对应的灰度图做竖直加权投影直方图。本实施例假设该目标区域就是标定物目标的外接矩形区域。
具体的做法为:对标定物目标的上0.18和下0.3区域分别做竖直加权投影直方图,选出直方图中大于阈值T的点对应的横坐标,取均值,即得到头顶点和脚底点的横坐标,纵坐标直接取标定物外接矩形上下边的纵坐标即可;可以但不限于取加权投影直方图的均值作为阈值T。直方图的加权系数是结合了标定物目标的形状而确定的。若选取了其他类型的目标作为标定物目标,需要根据该目标类型的形状特点,改变定位对象“最高点和最低点”的方法。实际应用时也可以用其它方式定位最高点和最低点的图像坐标。
图3所示是单人在摄像机视场中站立的任意3个不共线的位置(即三个标定点的位置),线段的两个端点分别表示作为标定物目标的单人的脚底点和头顶点。某个方向的消失点就是该方向两条以上的平行线在无穷远处的交点于成像平面的像点,或者可以理解为该方向平行线的像在成像平面的交点。这样,垂直方向的消失点就是标定物目标的各对最高点(头顶点)和最低点(脚底点)连线的交点。在实际应用中,由于噪声的影响,垂直消失点往往都不会交于一点。对于这种情况,本实施例中采用非线性最小二乘法来拟合垂直消失点位置,具体方法如下:
假设共有N个标定点,则有N对最高点和最低点,每对最高点和最低点之间有一连线,共得到N条垂直方向上的参考线段,其最高点(头顶点)和最低点(脚底点)坐标分别为hi和fi(i=1,...,N),
Figure GSA00000104755900131
Figure GSA00000104755900132
是最高点(头顶点)和最低点(脚底点)的协方差矩阵,一般情况下最高点(头顶点)和最低点(脚底点)的噪声是独立同分布的,因此可以认为
Figure GSA00000104755900133
Figure GSA00000104755900134
相等;(wi,bi)是经过mi和VY的直线,且||wi||=1,mi是hi和fi的中点,VY是垂直消失点。使下式最小的点,即为所求的垂直消失点的位置。
V Y = arg min v Σ i = 1 N ( | w i T h i - b i | ( w i T Σ h i w i ) 1 / 2 + | w i T f i - b i | ( w i T Σ f i w i ) 1 / 2 )
实际应用时也可用其他拟合方法替代。
如图3所示,最高点(头顶点)之间的连线和最低点(脚底点)之间的连线相交可以确定一个水平方向消失点。当存在2个以上的水平方向消失点时,就可以确定水平消失线。在实际应用中往往会得到2个以上的水平消失点,且由于噪声的影响,这些点并不共线。对于这种情况,本实施例中采用了非线性最小二乘法来拟合水平消失线的位置,具体方法如下:
假设
Figure GSA00000104755900136
(i=1,...,N),是由2对最高点(头顶点)和最低点(脚底点)(hj,fj)和(hk,fk)所组成的线段hjhk和fjfk相交而成,j≠k。
Figure GSA00000104755900137
的协方差矩阵由下式计算得到:
Σ i = J · diag ( Σ h j , Σ h k Σ f j , Σ f k ) · J T , - - - ( 3.2 )
其中 J = ∂ x i ∂ [ h j T , h k T , f j T , f k T ] T .
那么水平消失线的位置可以通过使下式最小得到:
( W V L , b V L ) = arg min ( w , b ) Σ i = 1 N ( | w T x i - b i | ( w T Σ i w ) 1 / 2 ) - - - ( 3.3 )
其中 W V L T x = b V L , | | W V L | | = 1 .
实际应用时也可用其他拟合方法替代。
本实施例中由交比法计算出摄像机的安装高度。原理如图4所示,用下式表示:
Z Z C = 1 - d ( x ′ , c ) · d ( x , v ) d ( x , c ) · d ( x ′ , v ) - - - ( 3.4 )
其中,x是标定物目标的最低点(脚底点)的坐标、x’是标定物的最高点(头顶点)的坐标,v是垂直消失点的坐标,c是所述垂直消失点与所述最低点及最高点的连线,和所述水平消失线之间的交点的坐标;若所述垂直消失点与所述最低点之间的连线,与所述垂直消失点与所述最高点之间的连线分别与水平消失线交于不同的两个点,则取这两个点的中点的坐标作为c,大多数实际场景的计算都是属于这种情况;Zc是摄像机的安装高度,Z是预定的标定物目标的高度,可根据该标定物目标的真实的平均高度或一般高度等来设定;d(x,y)是图像上任意两点x和y之间的图像距离。该式不用考虑x、x’、c和v之间的顺序问题。在本例子中,令Z为一个定值170cm,该值约等于成年亚洲人的平均身高。
实际应用时,可以采用其它拟合方法;选择交比法的原因在于:交比法是一个重要的射影定理,原理简单,计算结果准确,不需要任何摄像机的参数信息就可以计算出场景图像上任意位置处目标的真实高度。
实施例二,一种单摄像机下的场景自动建模方法,包括:
首先对进入场景中的运动目标进行检测和跟踪,记录下它们在场景中的运动轨迹;对这些运动轨迹进行分析,筛选出满足条件的最佳目标作为标定物,若选择标定物不成功,则继续处理下一帧,否则进入建模阶段;建模时,需确定出标定物轨迹中分布最均匀的几个位置,提取出标定物在这些位置上的头脚点图像坐标,结合投影学和几何学的知识便可以建立场景建模了。
所述方法如图5所示,具体包括以下步骤:
A、根据当前场景中拍摄的视频帧图像,检测出运动目标;
B、对每个被检测到的运动目标进行跟踪,得到所述运动目标的运动轨迹;
C、从所有运动目标的运动轨迹中筛选出标定物目标,筛选成功则进行步骤D,如果筛选不成功,则读取下一帧的视频帧,然后返回步骤A,以更新运动目标检测结果和运动轨迹;筛选出的标定物目标是指满足以下条件的运动目标:所述运动目标的特征值与预设的特征值匹配,且该运动目标的运动轨迹中包括至少三个位置点,这些位置点不共线,无重合且两两之间的距离大于一个预设的距离阈值;
D、从所筛选出的标定物目标的运动轨迹中选取至少三个位置作为标定点位置,提取所述标定物目标在这些标定点位置上成像的最高点和最低点的图像坐标,由这些坐标计算出当前场景下垂直消失点和水平消失线的位置,以及摄像机的安装高度,从而得到全部的高度模型信息,建立高度模型。
本实施例中,所述步骤A如图6所示,具体可以包括:
A1、读入视频图像;通过对输入的视频图像进行学习,建立一个GMM背景模型;
A2、更新当前时刻的背景帧;
A3、通过判断当前时刻与开始学习的时刻之间的时间间隔是否到达时间阈值Tt,来判断是否超过学习时间;没有则返回步骤A1继续处理下一帧,否则进行步骤A4;
A4、将当前视频帧与背景帧做差分,得到当前帧中包含运动目标的区域;
A5、进行连通性分析,对当前帧中包含运动目标的区域做形态学变化,滤掉面积小的噪声区域,连通距离较近的目标区域,最终得到当前帧中运动目标的信息,包括运动目标的个数、每个运动目标的图像数据信息、外接矩形的中心点坐标、长、宽等特征信息。
本实施例中,所述步骤B如图7所示,具体可以包括:
B1、用预测得到的所有运动目标的特征值,和当前帧中所有运动目标的特征值进行匹配,建立一个特征匹配矩阵,由该特征匹配矩阵的值找到上一帧运动目标在当前帧的匹配目标;
B2、根据步骤A的结果,得到各个运动目标在当前时刻的轨迹点(在本实施例中为外接矩形);并判断出各个运动目标的运动状态;所述运动目标状态包括正常、产生、消失、分裂、融合;判断方式可同实施例一;将所有轨迹点连接起来便可输出各个运动目标在视频中的运动轨迹;
B3、分别根据各运动目标的状态进行该运动目标的主色等特征数据及运动轨迹的更新;
B4、根据此刻这些运动目标的特征值,对运动目标在下一帧的运动状态进行预测。
本实施例中,所述步骤D如图8所示,具体可以包括:
D1、首先从标定物目标的运动轨迹中选出分布均匀的多个位置(3个或3个以上)作为标定点;选择方式同实施例一;
D2、然后定位出标定物目标在这些标定点位置处的最高点和最低点的图像坐标;
D3、使用所述最高点和最低点的图像坐标,根据实施例一中的3.1~3.4式计算得到垂直消失点位置、水平消失线位置和摄像机的安装高度,建立投影矩阵作为高度模型。
其它实现细节可同实施例一中的一致。
模型建立成功后,马上就可以应用于当前视频场景下的高度重建计算了。
场景模型建立成功后,立即被保存,一旦有需要就被运用到实际的实时视频监控中了。实际视频监控中的应用如图9所示,工作流程为:用相位相关法判断当前的视频场景是否发生了改变,若无改变,则用已有模型对场景中的目标进行高度重建,高度重建同样采用交比法,见等式(3.4)。否则,场景发生变化,系统按照上述步骤自动重建新的场景模型。实际应用中也可用其它方法来判断当前视频场景是否发生了改变。本实施例中采用了相位相关法,该方法计算快速准确,灵敏度高。
另外,需说明的是,为了适应鱼眼镜等有较大畸变的摄像机的拍摄场景,在摄像机开始监控工作之前可以先做一个畸变判断,若视频发生了严重畸变则需要对以后的每帧视频先进行一个矫正。由于畸变因子是由摄像机的工艺等造成的,只与焦距有关,对焦距固定的摄像机来说是一个恒定值,只需计算一次,因此,最方便的办法是在实验室环境下计算得到一个比较准确的值后再架设使用,当然也可以在架设完成后再计算畸变因子。当系统自动检测到焦距发生明显变化时,重新计算。利用得到的畸变因子就可以对任意畸变场景进行畸变矫正了。
本发明采用拍摄的素材进行测试,素材包括了不同场景,不同拍摄角度,不同身高和不同走路姿势的人,为了对比结果,截取了同一场景在两个不同拍摄角度下的重建结果,第一个角度下被测试对象的真实身高是157cm,计算值是155.88cm;第二个角度下被测试对象的真实身高是164cm,计算值是163.69cm。可见,本发明的结果是比较准确且适合实际应用的。
显然,本领域的技术人员应该明白,上述的本发明的各模块或各步骤可以用通用的计算装置来实现,它们可以集中在单个的计算装置上,或者分布在多个计算装置所组成的网络上,可选地,它们可以用计算装置可执行的程序代码来实现,从而,可以将它们存储在存储装置中由计算装置来执行,或者将它们分别制作成各个集成电路模块,或者将它们中的多个模块或步骤制作成单个集成电路模块来实现。这样,本发明不限制于任何特定的硬件和软件结合。
当然,本发明还可有其他多种实施例,在不背离本发明精神及其实质的情况下,熟悉本领域的技术人员当可根据本发明作出各种相应的改变和变形,但这些相应的改变和变形都应属于本发明的权利要求的保护范围。

Claims (10)

1.一种单摄像机下的场景自动建模系统,其特征在于,包括:
运动目标检测子系统,用于从视频帧中检测出运动目标;
运动目标跟踪子系统,用于对检测到的运动目标进行跟踪,得到所述运动目标的运动轨迹;
确定标定物目标子系统,用于从所有运动目标的运动轨迹中筛选出满足以下条件的运动目标作为标定物目标:所述运动目标的特征值与预设的特征值匹配、该运动目标的运动轨迹中包括至少三个位置点,且这些位置点不共线、无重合而且两两之间的距离大于一个预设的距离阈值;筛选成功则启动所述场景建模子系统,不成功则指示所述运动目标检测子系统读入下一视频帧;
场景建模子系统,用于从所筛选出的标定物目标的运动轨迹中选取至少三个位置作为标定点位置,提取所述标定物目标成像的最高点和最低点在这些标定点位置上的图像坐标,由这些坐标计算出垂直消失点和水平消失线的位置,以及摄像机的安装高度,建立高度模型。
2.如权利要求1所述的系统,其特征在于,所述场景建模子系统包括:
选取模块,用于从所述标定物目标的运动轨迹中,选出满足以下条件的至少三个标定点:标定点两两之间的位置距离均大于所述距离阈值、标定物目标在被选出来的标定点位置处的成像面积与上一帧相比没有发生突变、标定点不在一条直线上;
定位模块,用于分别根据各所述标定点的图像坐标,定位在该标定点位置上的标定物目标的最高点和最低点的图像坐标;
建立矩阵模块,用于根据各所述最高点和最低点的图像坐标计算垂直消失点位置、水平消失线位置和摄像机的安装高度三个信息,根据这三个信息建立投影矩阵作为高度模型。
3.如权利要求2所述的系统,其特征在于:
所述建立矩阵模块根据各所述最高点和最低点的图像坐标计算垂直消失点位置是指根据下式获得垂直消失点VY
V Y = arg min v Σ i = 1 N ( | w i T h i - b i | ( w i T Σ h i w i ) 1 / 2 + | w i T f i - b i | ( w i T Σ f i w i ) 1 / 2 )
其中N为标定点个数;hi为最高点坐标,fi为最低点坐标,
Figure FSA00000104755800022
Figure FSA00000104755800023
是最高点和最低点的协方差矩阵,(wi,bi)是经过mi和VY的直线,且||wi||=1,mi是hi和fi的中点;i=1,2,…,N。
4.如权利要求3所述的系统,其特征在于:
所述建立矩阵模块根据各所述最高点和最低点的图像坐标计算水平消失线位置是指根据下式获得水平消失线:
( W V L , b V L ) = arg min ( w , b ) Σ i = 1 N ( | w T x i - b i | ( w T Σ i w ) 1 / 2 )
其中
Figure FSA00000104755800025
Figure FSA00000104755800026
Figure FSA00000104755800027
是由2对最高点和最低点(hj,fj)和(hk,fk)所组成的线段hjhk和fjfk相交而成;i=1,2,…,N,j≠k;
Figure FSA00000104755800028
的协方差矩阵由下式计算得到:
Σ i = J · diag ( Σ h j , Σ h k , Σ f j , Σ f k ) · J T ,
其中 J = ∂ x i ∂ [ h j T , h k T , f j T , f k T ] T .
5.如权利要求2到4中任一项所述的系统,其特征在于:
所述建立矩阵模块根据各所述最高点和最低点的图像坐标计算摄像机的安装高度是指根据下式获得摄像机的安装高度:
Z Z C = 1 - d ( x ′ , c ) · d ( x , v ) d ( x , c ) · d ( x ′ , v )
其中,x是标定物目标的最低点坐标、x’是标定物的最高点坐标,c是所述垂直消失点与所述最低点或最高点的连线,和所述水平消失线之间的交点的坐标;若所述垂直消失点与所述最低点之间的连线、所述垂直消失点与所述最高点之间的连线分别与水平消失线交于不同的两个点,则取这两个点的中点的坐标作为c,Zc是摄像机的安装高度,Z是预定的标定物目标的高度,d(x,y)是图像上任意两点x和y之间的图像距离。
6.一种单摄像机下的场景自动建模方法,包括:
A、根据视频帧图像检测出运动目标;
B、对每个被检测到的运动目标进行跟踪,得到所述运动目标的运动轨迹;
C、从所有运动目标的运动轨迹中筛选出满足以下条件的运动目标作为标定物目标,所述运动目标的特征值与预设的特征值匹配,且该运动目标的运动轨迹中包括至少三个位置点,这些位置点不共线,无重合且两两之间的距离大于一个预设的距离阈值;
筛选成功则进行步骤D,如果筛选不成功,则读取下一帧的视频帧,然后返回步骤A;
D、从所筛选出的标定物目标的运动轨迹中选取至少三个位置作为标定点位置,提取所述标定物目标成像的最高点和最低点在这些标定点位置上的图像坐标,由这些坐标计算出当前场景下垂直消失点和水平消失线的位置,以及摄像机的安装高度,建立高度模型。
7.如权利要求6所述的方法,其特征在于,所述步骤D包括:
D1、用于从所述标定物目标的运动轨迹中,选出满足以下条件的至少三个标定点:标定点两两之间的位置距离均大于所述距离阈值、标定物目标在被选出来的标定点位置处的成像面积与上一帧相比没有发生突变、标定点不在一条直线上;
D2、定位出所述标定物目标在这些标定点位置处的最高点和最低点的图像坐标;
D3、使用所述最高点和最低点的图像坐标计算得到垂直消失点位置、水平消失线位置和摄像机的安装高度,建立投影矩阵作为高度模型。
8.如权利要求7所述的方法,其特征在于,步骤D3中,根据下式获得垂直消失点VY位置:
V Y = arg min v Σ i = 1 N ( | w i T h i - b i | ( w i T Σ h i w i ) 1 / 2 + | w i T f i - b i | ( w i T Σ f i w i ) 1 / 2 )
其中N为标定点个数;hi为最高点坐标,fi为最低点坐标,
Figure FSA00000104755800032
是最高点和最低点的协方差矩阵,(wi,bi)是经过mi和VY的直线,且||wi||=1,mi是hi和fi的中点;i=1,2,…,N。
9.如权利要求8所述的方法,其特征在于,步骤D3中,根据下式获得水平消失线位置:
( W V L , b V L ) = arg min ( w , b ) Σ i = 1 N ( | w T x i - b i | ( w T Σ i w ) 1 / 2 )
其中
Figure FSA00000104755800042
Figure FSA00000104755800043
是由2对最高点和最低点(hj,fj)和(hk,fk)所组成的线段hjhk和fjfk相交而成;i=1,2,…,N,j≠k;的协方差矩阵由下式计算得到:
Σ i = J · diag ( Σ h j , Σ h k , Σ f j , Σ f k ) · J T ,
其中 J = ∂ x i ∂ [ h j T , h k T , f j T , f k T ] T .
10.如权利要求7到9中任一项所述的系统,其特征在于,步骤D3中,根据下式获得摄像机的安装高度:
Z Z C = 1 - d ( x ′ , c ) · d ( x , v ) d ( x , c ) · d ( x ′ , v )
其中,x是标定物目标的最低点坐标、x’是标定物的最高点坐标,c是所述垂直消失点与所述最低点或最高点的连线,和所述水平消失线之间的交点的坐标;若所述垂直消失点与所述最低点之间的连线、所述垂直消失点与所述最高点之间的连线分别与水平消失线交于不同的两个点,则取这两个点的中点的坐标作为c,Zc是摄像机的安装高度,Z是预定的标定物目标的高度,d(x,y)是图像上任意两点x和y之间的图像距离。
CN2010101729167A 2010-05-11 2010-05-11 一种单摄像机下的场景建模方法及系统 Expired - Fee Related CN101833791B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN2010101729167A CN101833791B (zh) 2010-05-11 2010-05-11 一种单摄像机下的场景建模方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN2010101729167A CN101833791B (zh) 2010-05-11 2010-05-11 一种单摄像机下的场景建模方法及系统

Publications (2)

Publication Number Publication Date
CN101833791A true CN101833791A (zh) 2010-09-15
CN101833791B CN101833791B (zh) 2012-04-18

Family

ID=42717852

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2010101729167A Expired - Fee Related CN101833791B (zh) 2010-05-11 2010-05-11 一种单摄像机下的场景建模方法及系统

Country Status (1)

Country Link
CN (1) CN101833791B (zh)

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103065153A (zh) * 2012-12-17 2013-04-24 西南科技大学 一种基于色彩量化和聚类的视频关键帧提取方法
CN103400381A (zh) * 2013-07-25 2013-11-20 河海大学 一种基于光学成像的水下目标跟踪方法
CN103778639A (zh) * 2014-02-19 2014-05-07 重庆科技学院 用于智能视频监控的快速标定方法
CN103795933A (zh) * 2014-03-03 2014-05-14 联想(北京)有限公司 一种图像处理方法及电子设备
CN103988226A (zh) * 2011-08-31 2014-08-13 Metaio有限公司 用于估计摄像机运动以及用于确定实境三维模型的方法
CN104392450A (zh) * 2014-11-27 2015-03-04 苏州科达科技股份有限公司 确定相机焦距与旋转角度的方法、相机标定方法及系统
CN104504694A (zh) * 2014-12-16 2015-04-08 成都体育学院 一种获取运动球体三维信息的方法
CN104766292A (zh) * 2014-01-02 2015-07-08 株式会社理光 多台立体相机标定方法和系统
US9481087B2 (en) 2014-12-26 2016-11-01 National Chiao Tung University Robot and control method thereof
CN106600642A (zh) * 2016-10-31 2017-04-26 纵目科技(上海)股份有限公司 图像处理装置、图像校正、标定点查找方法及系统
CN108464634A (zh) * 2018-02-06 2018-08-31 翟星光 一种新型专用自动调节坐姿矫正桌椅及其调节方法
CN110458866A (zh) * 2019-08-13 2019-11-15 北京积加科技有限公司 目标追踪方法及系统
CN110996080A (zh) * 2014-04-22 2020-04-10 日本电信电话株式会社 视频呈现装置、视频呈现方法、数据结构以及程序
WO2020082866A1 (zh) * 2018-10-25 2020-04-30 中兴通讯股份有限公司 运动轨迹合成方法及电子设备
CN111200723A (zh) * 2020-01-07 2020-05-26 苏州恒志汇智能科技有限公司 一种级进模拱料监测方法、装置、设备及存储介质
CN111489398A (zh) * 2019-12-19 2020-08-04 阿里巴巴集团控股有限公司 一种成像设备标定方法以及装置
CN111625297A (zh) * 2020-05-28 2020-09-04 Oppo广东移动通信有限公司 一种应用程序的显示方法、终端和计算机可读存储介质
CN111696160A (zh) * 2020-06-22 2020-09-22 深圳市中天安驰有限责任公司 车载摄像头自动标定方法、设备及可读存储介质
CN112651998A (zh) * 2021-01-18 2021-04-13 沈阳航空航天大学 基于注意力机制和双流多域卷积神经网络的人体跟踪算法
CN112818748A (zh) * 2020-12-31 2021-05-18 北京字节跳动网络技术有限公司 确定视频中的平面的方法和装置、存储介质和电子设备
CN113168694A (zh) * 2018-12-26 2021-07-23 欧姆龙株式会社 人检测装置以及人检测方法
CN113327291A (zh) * 2020-03-16 2021-08-31 天目爱视(北京)科技有限公司 一种基于连续拍摄对远距离目标物3d建模的标定方法
CN113421307A (zh) * 2021-06-22 2021-09-21 恒睿(重庆)人工智能技术研究院有限公司 一种目标定位方法、装置、计算机设备和存储介质
CN113689491A (zh) * 2021-09-02 2021-11-23 广州市奥威亚电子科技有限公司 目标定位方法、多目标跟踪方法及装置
CN115321322A (zh) * 2022-08-22 2022-11-11 日立楼宇技术(广州)有限公司 一种电梯轿厢门的控制方法、装置、设备及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001084375A (ja) * 1999-09-13 2001-03-30 Atr Media Integration & Communications Res Lab 動作検証システムおよび非接触マニピュレーションシステム
US20040179008A1 (en) * 2003-03-13 2004-09-16 Sony Corporation System and method for capturing facial and body motion
US6950104B1 (en) * 2000-08-30 2005-09-27 Microsoft Corporation Methods and systems for animating facial features, and methods and systems for expression transformation
US7012637B1 (en) * 2001-07-27 2006-03-14 Be Here Corporation Capture structure for alignment of multi-camera capture systems
US7573480B2 (en) * 2003-05-01 2009-08-11 Sony Corporation System and method for capturing facial and body motion

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001084375A (ja) * 1999-09-13 2001-03-30 Atr Media Integration & Communications Res Lab 動作検証システムおよび非接触マニピュレーションシステム
US6950104B1 (en) * 2000-08-30 2005-09-27 Microsoft Corporation Methods and systems for animating facial features, and methods and systems for expression transformation
US7012637B1 (en) * 2001-07-27 2006-03-14 Be Here Corporation Capture structure for alignment of multi-camera capture systems
US20040179008A1 (en) * 2003-03-13 2004-09-16 Sony Corporation System and method for capturing facial and body motion
US7573480B2 (en) * 2003-05-01 2009-08-11 Sony Corporation System and method for capturing facial and body motion

Cited By (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103988226A (zh) * 2011-08-31 2014-08-13 Metaio有限公司 用于估计摄像机运动以及用于确定实境三维模型的方法
US9525862B2 (en) 2011-08-31 2016-12-20 Metaio Gmbh Method for estimating a camera motion and for determining a three-dimensional model of a real environment
CN103065153A (zh) * 2012-12-17 2013-04-24 西南科技大学 一种基于色彩量化和聚类的视频关键帧提取方法
CN103400381B (zh) * 2013-07-25 2015-12-09 河海大学 一种基于光学成像的水下目标跟踪方法
CN103400381A (zh) * 2013-07-25 2013-11-20 河海大学 一种基于光学成像的水下目标跟踪方法
CN104766292A (zh) * 2014-01-02 2015-07-08 株式会社理光 多台立体相机标定方法和系统
CN104766292B (zh) * 2014-01-02 2017-10-20 株式会社理光 多台立体相机标定方法和系统
CN103778639A (zh) * 2014-02-19 2014-05-07 重庆科技学院 用于智能视频监控的快速标定方法
CN103795933A (zh) * 2014-03-03 2014-05-14 联想(北京)有限公司 一种图像处理方法及电子设备
CN103795933B (zh) * 2014-03-03 2018-02-23 联想(北京)有限公司 一种图像处理方法及电子设备
CN110996080B (zh) * 2014-04-22 2021-10-08 日本电信电话株式会社 视频呈现装置、视频呈现方法、以及记录介质
CN110996080A (zh) * 2014-04-22 2020-04-10 日本电信电话株式会社 视频呈现装置、视频呈现方法、数据结构以及程序
CN104392450A (zh) * 2014-11-27 2015-03-04 苏州科达科技股份有限公司 确定相机焦距与旋转角度的方法、相机标定方法及系统
CN104504694A (zh) * 2014-12-16 2015-04-08 成都体育学院 一种获取运动球体三维信息的方法
CN104504694B (zh) * 2014-12-16 2017-07-18 成都体育学院 一种获取运动球体三维信息的方法
US9481087B2 (en) 2014-12-26 2016-11-01 National Chiao Tung University Robot and control method thereof
CN106600642A (zh) * 2016-10-31 2017-04-26 纵目科技(上海)股份有限公司 图像处理装置、图像校正、标定点查找方法及系统
CN108464634A (zh) * 2018-02-06 2018-08-31 翟星光 一种新型专用自动调节坐姿矫正桌椅及其调节方法
WO2020082866A1 (zh) * 2018-10-25 2020-04-30 中兴通讯股份有限公司 运动轨迹合成方法及电子设备
CN113168694A (zh) * 2018-12-26 2021-07-23 欧姆龙株式会社 人检测装置以及人检测方法
CN113168694B (zh) * 2018-12-26 2024-04-30 欧姆龙株式会社 人检测装置以及人检测方法
US11983951B2 (en) 2018-12-26 2024-05-14 Omron Corporation Human detection device and human detection method
CN110458866A (zh) * 2019-08-13 2019-11-15 北京积加科技有限公司 目标追踪方法及系统
CN111489398A (zh) * 2019-12-19 2020-08-04 阿里巴巴集团控股有限公司 一种成像设备标定方法以及装置
CN111489398B (zh) * 2019-12-19 2023-06-20 阿里巴巴集团控股有限公司 一种成像设备标定方法以及装置
CN111200723A (zh) * 2020-01-07 2020-05-26 苏州恒志汇智能科技有限公司 一种级进模拱料监测方法、装置、设备及存储介质
CN113327291A (zh) * 2020-03-16 2021-08-31 天目爱视(北京)科技有限公司 一种基于连续拍摄对远距离目标物3d建模的标定方法
CN113327291B (zh) * 2020-03-16 2024-03-22 天目爱视(北京)科技有限公司 一种基于连续拍摄对远距离目标物3d建模的标定方法
CN111625297A (zh) * 2020-05-28 2020-09-04 Oppo广东移动通信有限公司 一种应用程序的显示方法、终端和计算机可读存储介质
CN111696160A (zh) * 2020-06-22 2020-09-22 深圳市中天安驰有限责任公司 车载摄像头自动标定方法、设备及可读存储介质
CN111696160B (zh) * 2020-06-22 2023-08-18 江苏中天安驰科技有限公司 车载摄像头自动标定方法、设备及可读存储介质
CN112818748A (zh) * 2020-12-31 2021-05-18 北京字节跳动网络技术有限公司 确定视频中的平面的方法和装置、存储介质和电子设备
CN112651998A (zh) * 2021-01-18 2021-04-13 沈阳航空航天大学 基于注意力机制和双流多域卷积神经网络的人体跟踪算法
CN112651998B (zh) * 2021-01-18 2023-10-31 沈阳航空航天大学 基于注意力机制和双流多域卷积神经网络的人体跟踪算法
CN113421307A (zh) * 2021-06-22 2021-09-21 恒睿(重庆)人工智能技术研究院有限公司 一种目标定位方法、装置、计算机设备和存储介质
CN113689491B (zh) * 2021-09-02 2023-12-01 广州市奥威亚电子科技有限公司 目标定位方法、多目标跟踪方法及装置
CN113689491A (zh) * 2021-09-02 2021-11-23 广州市奥威亚电子科技有限公司 目标定位方法、多目标跟踪方法及装置
CN115321322A (zh) * 2022-08-22 2022-11-11 日立楼宇技术(广州)有限公司 一种电梯轿厢门的控制方法、装置、设备及存储介质

Also Published As

Publication number Publication date
CN101833791B (zh) 2012-04-18

Similar Documents

Publication Publication Date Title
CN101833791B (zh) 一种单摄像机下的场景建模方法及系统
CN104282020B (zh) 一种基于目标运动轨迹的车辆速度检测方法
CN102542289B (zh) 一种基于多高斯计数模型的人流量统计方法
CN111856963B (zh) 一种基于车载环视系统的泊车仿真方法及装置
CN110246159A (zh) 基于视觉和雷达信息融合的3d目标运动分析方法
CN103699908B (zh) 基于联合推理的视频多目标跟踪方法
CN110175576A (zh) 一种结合激光点云数据的行驶车辆视觉检测方法
CN108875911A (zh) 一种泊车位检测方法
CN105760846B (zh) 基于深度数据的目标检测与定位方法及系统
CN111191629B (zh) 一种基于多目标的图像能见度检测方法
CN106874894A (zh) 一种基于区域全卷积神经网络的人体目标检测方法
CN102447835A (zh) 无盲区多目标协同跟踪方法及系统
CN106361345A (zh) 基于摄像头标定的视频图像中人体身高测量的系统及方法
CN104378582A (zh) 一种基于ptz摄像机巡航的智能视频分析系统及方法
CN105069843A (zh) 一种面向城市三维建模的密集点云的快速提取方法
CN103164858A (zh) 基于超像素和图模型的粘连人群分割与跟踪方法
CN112798811B (zh) 速度测量方法、装置和设备
CN110400352A (zh) 利用特征识别的摄像机校准
CN104062973A (zh) 一种基于图像标志物识别的移动机器人slam方法
CN103735269B (zh) 一种基于视频多目标跟踪的高度测量方法
CN102915446A (zh) 基于svm机器学习的植物病虫害检测方法
CN109711322A (zh) 一种基于rfcn的人车分离方法
CN104781848A (zh) 用于估计单体的倾斜度的图像监测装置及其方法
CN104537689B (zh) 基于局部对比显著性联合特征的目标跟踪方法
CN103747240A (zh) 融合颜色和运动信息的视觉显著性滤波方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
ASS Succession or assignment of patent right

Owner name: CHENGDU DIGITAL CHINA SOBEY TECHNOLOGY CO., LTD.

Free format text: FORMER OWNER: CHENGDU SUOBEI NUMERAL SCIENCE + TECHNOLOGY CO., LTD.

Effective date: 20130911

C41 Transfer of patent application or patent right or utility model
COR Change of bibliographic data

Free format text: CORRECT: ADDRESS; FROM: 610000 CHENGDU, SICHUAN PROVINCE TO: 610041 CHENGDU, SICHUAN PROVINCE

TR01 Transfer of patent right

Effective date of registration: 20130911

Address after: 610041 Sichuan province high tech Zone in Chengdu Singapore Industrial Park, Singapore two Avenue South Road No. 2

Patentee after: Chengdu Digital China Sobey Technology Co., Ltd.

Address before: No. two Xinyuan Avenue South Chengdu 610000 Sichuan province No. 2 Sobey building Intellectual Property Office

Patentee before: Chengdu Sobey Digital Technology Co., Ltd.

CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20120418

Termination date: 20200511

CF01 Termination of patent right due to non-payment of annual fee