CN107403436A - 一种基于深度图像的人物轮廓快速检测与跟踪方法 - Google Patents
一种基于深度图像的人物轮廓快速检测与跟踪方法 Download PDFInfo
- Publication number
- CN107403436A CN107403436A CN201710496491.7A CN201710496491A CN107403436A CN 107403436 A CN107403436 A CN 107403436A CN 201710496491 A CN201710496491 A CN 201710496491A CN 107403436 A CN107403436 A CN 107403436A
- Authority
- CN
- China
- Prior art keywords
- character contour
- mask
- depth image
- region
- background
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 33
- 230000011218 segmentation Effects 0.000 claims abstract description 20
- 238000000034 method Methods 0.000 claims description 21
- 230000033001 locomotion Effects 0.000 claims description 14
- 238000000926 separation method Methods 0.000 claims description 4
- 238000005192 partition Methods 0.000 claims description 3
- 230000008859 change Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 230000035772 mutation Effects 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000000877 morphologic effect Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000035807 sensation Effects 0.000 description 2
- 230000000392 somatic effect Effects 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/12—Edge-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/149—Segmentation; Edge detection involving deformable models, e.g. active contour models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及深度图像的实时人物轮廓检测与跟踪的技术领域,更具体地,涉及一种基于深度图像的人物轮廓快速检测与跟踪方法。一种基于深度图像的人物轮廓快速检测与跟踪方法,其特征在于,包括人物轮廓快速检测和人物轮廓掩模实时跟踪步骤,所述的人物轮廓快速检测步骤如下:S1. 通过人物运动确定背景区域;S2. 背景模型更新策略依据背景区域深度图像像素值变化的大小与方向进行更新;S3. 通过背景减除得到人物轮廓区域,并依赖其区域再次进行背景更新;所述的人物轮廓掩模实时跟踪步骤如下:S4. 基于深度信息对人物轮廓掩模区域进快速分割;S5. 对分割后轮廓进行基于轮廓掩模重叠性跟踪;S6. 重检测策略。
Description
技术领域
本发明涉及深度图像的实时人物轮廓检测与跟踪的技术领域,更具体地,涉及一种基于深度图像的人物轮廓快速检测与跟踪方法。
背景技术
如今,人机交互技术正在迅猛发展,其中人体的姿态分析是人机交互中领域中不可或缺的部分。而在深度图像中提取人体轮廓对姿态分析有重要的意义,通过深度图像的人物轮廓信息有利于对人体骨骼点的分析,进而进行进行体感游戏、虚拟试衣等应用的二次开发。目前,在这一领域的商用的算法有微软公司开发KinectV2 SDK与Primesense公司开发的NITE2算法,二者能够在深度图像中提取人物轮廓并计算出人物骨骼点位置,算法运行时间为30fps。但是,二者在场景复杂的情况下均有不足,KinectV2 SDK在人物距离深度摄像机较近时(<1.5m)时提取的人体掩模容易出现噪声,人物在场景中触碰物体,如椅子、桌子等,容易出现掩模突变缺失或增长现象,进行人物间交换位置时,人物ID信息容易错乱等问题。并且KinectV2 SDK对计算资源要求过高,要求支持DirectX 11.0以后的GPU,像笔记本这种没有装载NVIDIA GeForce和AMD Radeon外置GPU的情况下,很多笔记本无法运行。NITE2算法对于复杂场景中人物靠近或者触碰物体也存在掩模突变缺失或增长现象,会对人体骨骼点识别造成影响。
发明内容
本发明为克服上述现有技术所述的至少一种缺陷,提供一种基于深度图像的人物轮廓快速检测与跟踪方法,本方法通过人物简单运动,形成稳定的背景模型,进行背景减除得到人物轮廓,并且不容易收到场景物体干扰。而后,通过对轮廓分割,以对轮廓掩模进行实时跟踪,对人物之间交换位置有良好的效果。
本发明的技术方案是:一种基于深度图像的人物轮廓快速检测与跟踪方法,其中,包括人物轮廓快速检测和人物轮廓掩模实时跟踪步骤,所述的人物轮廓快速检测步骤如下:
S1.通过人物运动确定背景区域;
S2.背景模型更新策略依据背景区域深度图像像素值变化的大小与方向进行更新;
S3.通过背景减除得到人物轮廓区域,并依赖其区域再次进行背景更新;
所述的人物轮廓掩模实时跟踪步骤如下:
S4.基于深度信息对人物轮廓掩模区域进快速分割;
S5.对分割后轮廓进行基于轮廓掩模重叠性跟踪;
S6.重检测策略。
本发明中,本方法对动态场景进行建模,解决人物间与场景中物体触碰时掩模突变的问题,提高人物间交换位置时,ID信息的准确性,本方法在KinectV2与Xtion等主流深度图传感器上有良好的适应性,并在计算资源为corei5 CPU的电脑笔记本上平均速率大于30fps,无须使用GPU。
进一步的,所述的步骤S1中,背景区域确定的方法为:首先通过帧间差找出人物运动区域,再通过填充确定完整人物区域,从而反向确定背景区域。
所述的步骤S2中,背景更新方法为:当得到上述的运动人物区域后,可以对此之外的区域进行背景更新。
所述的步骤S3中,利用人体掩模进行背景更新的方法为:当得到人体的掩模和运动掩模后,对此的的区域进行或操作,得到了人物的大致区域,对其剩余的区域,认为是背景,对其应用上述的背景更新方法进行背景更新。
所述的步骤S4中,基于深度信息对人物轮廓掩模区域进快速分割方法为:对于尺度比较大的掩模,进行逐行扫描,对扫描到的掩模上的选取一个像素点,对其四邻域进行检测,如果四邻域中,存在至少一个像素点对应的深度值域对于选取的像素点的差比较大,可以认为这个像素点是一个分界点,视为一个边缘点,作为分割。
本发明利用深度摄像机获取深度图像,通过人物简单运动,形成稳定的背景模型,进行背景减除得到人物轮廓。而后,通过对轮廓分割,以对轮廓掩模进行实时跟踪。本发明利用深度图像距离特性与人物运动特性对动态场景背景进行快速建模,利用前景掩模二维重叠性进行跟踪,提出了一种在深度图像中能够达到实时的,稳定的,抗干扰的人物轮廓快速检测与跟踪的解决方案。
与现有技术相比,有益效果是:本发明通过人物简单运动,得到稳定的背景模型,并能区分场景中运动的人物与突变的物体,对背景模型进行实时更新,适应动态背景建模。本发明提出了深度图像中人物掩模的分割算法,能够快速找到人物间的边界,可满足实时性要求。本发明提出基于深度图像检测的人体掩模的实时跟踪算法,算法利用深度图像中人物轮廓在视频序列中的重叠区域,实现实时人物轮廓跟踪,并且该算法对于人物间的交互有良好的适应性。
附图说明
图1为本发明深度图像中动态背景建模的流程图;
图2为本发明人物运动帧间差图;
图3为本发明运动中的完整人物图;
图4为本发明场景背景图。
图5为本发明人物掩模图。
图6为本发明基于深度图像的人物轮廓掩模实时跟踪算法流程图。
图7为本发明基于深度图像的掩模分割效果图。
图8为本发明基于掩模重叠跟踪法示意图1。
图9为本发明基于掩模重叠跟踪法示意图2。
图10为本发明基于掩模重叠跟踪法示意图3。
图11为本发明双人接触效果图。
图12为本发明基于掩模重叠跟踪法示意图4。
图13为本发明基于掩模重叠跟踪法示意图5。
具体实施方式
附图仅用于示例性说明,不能理解为对本专利的限制;为了更好说明本实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;对于本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。附图中描述位置关系仅用于示例性说明,不能理解为对本专利的限制。
一种基于深度图像的人物轮廓快速检测,流程图如图1所示,其中,包括:
1)通过人物运动确定背景区域;
2)背景模型更新策略依据背景区域深度图像像素值变化的大小与方向进行更新;
3)通过背景减除得到人物轮廓区域,并依赖其区域再次进行背景更新;
所述的步骤1)中背景区域确定的方法为:
首先通过帧间差找出人物运动区域,再通过填充确定完整人物区域,从而反向确定背景区域。详细步骤如下:
定义两个示性数与求解运动像素图Pmove和定义 Imove(x,y)∈Pmove,提出公式:
Im(x,y)=abs(Ii(x,y)-Ii-1(x,y)) (3)
上式中公式(1)的JMove()示性函数用于判断通过帧差法公式(3)计算得到运动像素的差值是否大于阈值d1,如果大于阈值d1,我们则认为这是运动像素,否则不是。公式(2)的JBg()示性函数用于判断通过差值法公式(4)计算得到的该像素值是否大于阈值d2,如果大于阈值d2,就认为这个点不是背景点。公式(5)通过两个示性函数值的与运算并乘上Iw=255,得到一个二值化的运动像素图Pmove(如图2所示),该Pmove图将用于建模的初级阶段,而得到的二值化的运动图的目的是指示运动的情况,并且应用二值化图像的特性,有利于往后进行降噪的操作,并有降维的效果。为了得到运动人物所在的完整区Pmoving_people图(如图3所示),即运动人物图,人物图以外的黑色区域即背景区域。我们可以进行以下操作:
Region(Pmove)=BoundingBox(FindContour(Pmove)) (8)
Pmoving_people(x,y)={(x,y)|(x,y)∈Region(Pmove)} (9)
其中我们定义u为滤波器,u对图像Pmove的数字图像中里的形态学的开运算,即公式(7),也就是先用滤波器对其进行腐蚀,再对其进行膨胀。FindContour()是OpenCV一个函数,用于计算出连通分离轮廓,我们利用公式(8)得到其区域。BoundingBox()是OpenCV里的函数,可以用对轮廓找到其矩形区域,Region就是矩形域的集合。利用公式(9)得到完整的人物图。形态学的开运算可以用来消除移动的小物体,例如噪声,一些移动的物体,并且可以在平滑较大物体边界同时部明显改变其面积。
所述的步骤2)中背景更新方法为:
当得到上述的运动人物区域后,我们可以对此之外的区域进行背景更新。背景的像素值通常不容易发生变化,时间比较长都为一个较为稳定的值。这里我们将引入一个背景分数图Pbg_score去衡量这种变化,这个分数图对应于背景图Pbg,指示对应位置背景图像素的分数。分数高则说明在背景图对应位置上的像素值命中率高,分数高使得背景图就不容易发生改变,认为是一个坚固的背景。而分数低的值,对于背景图相对位置的像素点容易被改变,相对没那么坚固。而我们对于背景模型的像素值的更新依赖于这个分数图,对于某个像素值的更新,我们使用如下的公式(10)进行更新:
type∈{bg,move,bg_score},其中MAXScore是分数的最大值,I为像素值,Ii为当前帧Pi的像素值。有背景更新的公式可以看出,分数越高背景像素的就越难改变,分数越低,背景像素点就越容易朝着新的像素值方向去改变。这里我们定义一个背景命中图Pbg_init,其实定义为公式(12)(13),分数的更新公式(11)如下:
Ibg_score=Ibg_score+Ibg_hit·C (11)
其中,C是一个常数,d是一个判断是否是背景像素值的一个阈值。分数更新的原理是,让分数变长地增长。当某一帧的某个像素位置的值和背景模型该位置的值相差不大,我们给予一个基本的奖励分,当一系列帧的某个位置像素值都与背景图像该位置的像素值相差不大,我们可以认为这几帧连续命中,给予梯度式的奖励,奖励分数越来越多。图4展示了算法通过人物运动计算得到的背景模型。
所述的步骤3)中利用人体掩模进行背景更新的方法为:
当我们得到人体的掩模和运动掩模后,我们对此的的区域进行或操作,得到了人物的大致区域,对其剩余的区域,我们认为是背景,对其应用上述的背景更新方法进行背景更新。图5为人物掩模,通过掩模能够在深度图像出的到人体的轮廓。
一种基于深度图像的人物轮廓掩模实时跟踪算法,流程图如图6所示,其中,包括:
1)基于深度信息对人物轮廓掩模区域进快速分割;
2)对分割后轮廓进行基于轮廓掩模重叠性跟踪;
3)重检测策略
所述的步骤1)中基于深度信息对人物轮廓掩模区域进快速分割方法为:
对于尺度比较大的掩模,进行逐行扫描,对扫描到的掩模上的选取一个像素点,对其四邻域进行检测,如果四邻域中,存在至少一个像素点对应的深度值域对于选取的像素点的差比较大,我们可以认为这个像素点是一个分界点,视为一个边缘点,作为分割。公式(14)为分割公式,我们令其中Pi为当前帧,Ii为当前帧像素值,Pmask为掩模。Ii(u,v)是像素Ii的四邻域。ζ是一个经验值,建议取值30,现实意义代表30mm。
图7(a)为人体分割前的混合掩模,图7(b)为分割后的掩模图,从图中,我们可以看到分割后,人物间出现了一条黑线,这是人物间的边界线。
所述的步骤2)中对分割后轮廓进行基于轮廓掩模重叠性跟踪方法为:
当我们得到上述检测掩模后,若对其给予一个颜色标签,当是检测摄像机前出现了N个掩模,对应就有N个颜色标签。当下一帧出现时,若也检测到N个掩模,我们需要对去做匹配。匹配的方案的就利用掩模间的重叠面积进行区分,若一个掩模A在上一帧被标注的颜色为红色,而当前帧,出现一个掩模B与上一帧A掩模有像素重叠,并且有一定数量像素的重叠,以去除噪声的影响。这时我们可以认为当前帧的掩模B应该被标注为红色。图8为当前掩模B匹配上一帧的掩模A,所以当前B的标签也给予红色。
若一个掩模A在上一帧被标注的颜色为红色,一个掩模B在上一帧被标注成蓝色。在当前帧中,出现一个掩模C,这个掩模与掩模A与掩模B均有重叠,此时,有可能出现以下3种情况。
①掩模C占据掩模A的面积远大于掩模B,这时给予掩模C标注红色,由于人物的运动基本上是连续的,当摄像机帧数达到30帧每秒时,摄像机对于人物运动捕捉足够快,对于同一个人物,他们有重叠较多的掩模区域的可能性时十分大的。对应掩模C占据掩模B的面积远大与掩模A,这时给予掩模C标注蓝色,即图9所示。
②掩模C占据掩模A与掩模B的面积相当,并且掩模C的面积为掩模A与掩模B的和,这时我们认为掩模C中存在两个人物,需要对掩模C进行分割,同理可推两人以上的情况。这种情况的出现一般由于人物在深度图像中连通起来,形成一个连通体,像素区域发生突变,形成一个包含上一帧两个人的一个联合区域。如图10所示,图11为真实情况下,人物掩模的分割效果。
③掩模C没有占据上一帧任何一个有颜色标签的掩模,或者占据的上一帧某个掩模极其小的部分,我们可以为这一个掩模C需要赋予一个新的掩模标签,如图11所示。
所述的步骤3)中重检测策略实现方法为:
人物重检测指人物被物体或者他人完全遮挡或者几乎完全遮挡,而暂时丢失,但人物并为离开摄像机可视范围,这时需要对人物进行重检测。一个重要应用场景就是人物互相交换位置,处于被遮挡的人物会消失在画面中而再出现,这种情况在体感游戏中常发生,我们需要对此重检测。我们将人物轮廓状态分为3种,“0”代表“在线”状态,是人物被跟踪到,“1”代表“遮挡”状态,遮挡状态下,人物A被人物B遮挡住,仍然是一种激活的状态,激活状态下,再此被识别的权重会有所增加,“2”代表“离开”状态。人物掩模无法找到上帧“在线”的人物掩模匹配,触发重检测机制,对于还处于生存期的人物模型,即“遮挡”和“离开”状态下的人物模型,对其进行匹配,匹配原则是考虑点云平均深度与形心位置的加权值小于某个阈值,我们可以认为这是同一个人物。
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。
Claims (5)
1.一种基于深度图像的人物轮廓快速检测与跟踪方法,其特征在于,包括人物轮廓快速检测和人物轮廓掩模实时跟踪步骤,所述的人物轮廓快速检测步骤如下:
S1. 通过人物运动确定背景区域;
S2. 背景模型更新策略依据背景区域深度图像像素值变化的大小与方向进行更新;
S3. 通过背景减除得到人物轮廓区域,并依赖其区域再次进行背景更新;
所述的人物轮廓掩模实时跟踪步骤如下:
S4. 基于深度信息对人物轮廓掩模区域进快速分割;
S5. 对分割后轮廓进行基于轮廓掩模重叠性跟踪;
S6. 重检测策略。
2.根据权利要求1所述的一种基于深度图像的人物轮廓快速检测与跟踪方法,其特征在于:所述的步骤S1中,背景区域确定的方法为:首先通过帧间差找出人物运动区域,再通过填充确定完整人物区域,从而反向确定背景区域。
3.根据权利要求1所述的一种基于深度图像的人物轮廓快速检测与跟踪方法,其特征在于:所述的步骤S2中,背景更新方法为:当得到上述的运动人物区域后,可以对此之外的区域进行背景更新。
4.根据权利要求1所述的一种基于深度图像的人物轮廓快速检测与跟踪方法,其特征在于:所述的步骤S3中,利用人体掩模进行背景更新的方法为:当得到人体的掩模和运动掩模后,对此的的区域进行或操作,得到了人物的大致区域,对其剩余的区域,认为是背景,对其应用上述的背景更新方法进行背景更新。
5.根据权利要求1所述的一种基于深度图像的人物轮廓快速检测与跟踪方法,其特征在于:所述的步骤S4中,基于深度信息对人物轮廓掩模区域进快速分割方法为:对于尺度比较大的掩模,进行逐行扫描,对扫描到的掩模上的选取一个像素点,对其四邻域进行检测,如果四邻域中,存在至少一个像素点对应的深度值域对于选取的像素点的差比较大,可以认为这个像素点是一个分界点,视为一个边缘点,作为分割。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710496491.7A CN107403436B (zh) | 2017-06-26 | 2017-06-26 | 一种基于深度图像的人物轮廓快速检测与跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710496491.7A CN107403436B (zh) | 2017-06-26 | 2017-06-26 | 一种基于深度图像的人物轮廓快速检测与跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107403436A true CN107403436A (zh) | 2017-11-28 |
CN107403436B CN107403436B (zh) | 2021-03-23 |
Family
ID=60404405
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710496491.7A Active CN107403436B (zh) | 2017-06-26 | 2017-06-26 | 一种基于深度图像的人物轮廓快速检测与跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107403436B (zh) |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108171141A (zh) * | 2017-12-25 | 2018-06-15 | 淮阴工学院 | 基于注意力模型的级联多模式融合的视频目标跟踪方法 |
CN108335260A (zh) * | 2018-02-02 | 2018-07-27 | 网易(杭州)网络有限公司 | 一种游戏场景图像处理方法、装置、存储介质及电子装置 |
CN108510594A (zh) * | 2018-02-27 | 2018-09-07 | 吉林省行氏动漫科技有限公司 | 虚拟试衣方法、装置及终端设备 |
CN108734112A (zh) * | 2018-04-26 | 2018-11-02 | 深圳市深晓科技有限公司 | 一种交互行为实时检测方法及装置 |
CN109272513A (zh) * | 2018-09-30 | 2019-01-25 | 清华大学 | 基于深度相机的手与物体交互分割方法及装置 |
CN109345558A (zh) * | 2018-10-29 | 2019-02-15 | 网易(杭州)网络有限公司 | 图像处理方法、装置、介质和电子设备 |
CN110070548A (zh) * | 2019-04-22 | 2019-07-30 | 杨勇 | 一种深度学习训练样本优化方法 |
CN111242852A (zh) * | 2018-11-29 | 2020-06-05 | 奥多比公司 | 边界感知对象移除和内容填充 |
CN111432900A (zh) * | 2017-12-06 | 2020-07-17 | 环球城市电影有限责任公司 | 交互式视频游戏系统 |
CN111931654A (zh) * | 2020-08-11 | 2020-11-13 | 精英数智科技股份有限公司 | 一种人员跟踪智能监测方法、系统和装置 |
CN112041884A (zh) * | 2018-04-20 | 2020-12-04 | 索尼公司 | 通过背景图像和背景深度校正在彩色图像帧序列中进行对象分割 |
CN112085002A (zh) * | 2020-09-23 | 2020-12-15 | 苏州臻迪智能科技有限公司 | 人像分割方法、装置、存储介质及电子设备 |
CN113313690A (zh) * | 2021-05-31 | 2021-08-27 | 齐鲁工业大学 | 一种皮革纤维mct序列切片图像的同根区域智能检测方法 |
CN116109828A (zh) * | 2023-03-23 | 2023-05-12 | 荣耀终端有限公司 | 图像处理方法和电子设备 |
CN117173639A (zh) * | 2023-11-01 | 2023-12-05 | 伊特拉姆成都能源科技有限公司 | 基于多源设备的行为分析及安全预警方法及系统 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102819952A (zh) * | 2012-06-29 | 2012-12-12 | 浙江大学 | 一种基于视频检测技术的车辆违法变道检测方法 |
WO2013125768A1 (ko) * | 2012-02-21 | 2013-08-29 | 중앙대학교 산학협력단 | 다중 컬러 필터 조리개를 구비한 촬상 장치에 의해 촬영된 영상의 자동 객체 검출 및 깊이 정보 추정장치 및 방법 |
CN104331905A (zh) * | 2014-10-31 | 2015-02-04 | 浙江大学 | 一种基于运动物体检测的监控视频摘要提取方法 |
CN105225217A (zh) * | 2014-06-23 | 2016-01-06 | 株式会社理光 | 基于深度的背景模型更新方法和系统 |
CN105374030A (zh) * | 2015-10-12 | 2016-03-02 | 北京深视科技有限公司 | 一种背景模型和运动物体检测方法及系统 |
CN105427281A (zh) * | 2015-11-04 | 2016-03-23 | 北京格灵深瞳信息技术有限公司 | 一种变化区域检测方法及装置 |
WO2016069902A2 (en) * | 2014-10-29 | 2016-05-06 | Behavioral Recognition Systems, Inc. | Background foreground model with dynamic absorbtion window and incremental update for background model thresholds |
CN106157332A (zh) * | 2016-07-07 | 2016-11-23 | 合肥工业大学 | 一种基于ViBe算法的运动检测优化方法 |
-
2017
- 2017-06-26 CN CN201710496491.7A patent/CN107403436B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013125768A1 (ko) * | 2012-02-21 | 2013-08-29 | 중앙대학교 산학협력단 | 다중 컬러 필터 조리개를 구비한 촬상 장치에 의해 촬영된 영상의 자동 객체 검출 및 깊이 정보 추정장치 및 방법 |
CN102819952A (zh) * | 2012-06-29 | 2012-12-12 | 浙江大学 | 一种基于视频检测技术的车辆违法变道检测方法 |
CN105225217A (zh) * | 2014-06-23 | 2016-01-06 | 株式会社理光 | 基于深度的背景模型更新方法和系统 |
WO2016069902A2 (en) * | 2014-10-29 | 2016-05-06 | Behavioral Recognition Systems, Inc. | Background foreground model with dynamic absorbtion window and incremental update for background model thresholds |
CN104331905A (zh) * | 2014-10-31 | 2015-02-04 | 浙江大学 | 一种基于运动物体检测的监控视频摘要提取方法 |
CN105374030A (zh) * | 2015-10-12 | 2016-03-02 | 北京深视科技有限公司 | 一种背景模型和运动物体检测方法及系统 |
CN105427281A (zh) * | 2015-11-04 | 2016-03-23 | 北京格灵深瞳信息技术有限公司 | 一种变化区域检测方法及装置 |
CN106157332A (zh) * | 2016-07-07 | 2016-11-23 | 合肥工业大学 | 一种基于ViBe算法的运动检测优化方法 |
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111432900A (zh) * | 2017-12-06 | 2020-07-17 | 环球城市电影有限责任公司 | 交互式视频游戏系统 |
CN108171141B (zh) * | 2017-12-25 | 2020-07-14 | 淮阴工学院 | 基于注意力模型的级联多模式融合的视频目标跟踪方法 |
CN108171141A (zh) * | 2017-12-25 | 2018-06-15 | 淮阴工学院 | 基于注意力模型的级联多模式融合的视频目标跟踪方法 |
CN108335260A (zh) * | 2018-02-02 | 2018-07-27 | 网易(杭州)网络有限公司 | 一种游戏场景图像处理方法、装置、存储介质及电子装置 |
CN108510594A (zh) * | 2018-02-27 | 2018-09-07 | 吉林省行氏动漫科技有限公司 | 虚拟试衣方法、装置及终端设备 |
CN112041884B (zh) * | 2018-04-20 | 2024-05-28 | 索尼公司 | 通过背景图像和背景深度校正在彩色图像帧序列中进行对象分割 |
CN112041884A (zh) * | 2018-04-20 | 2020-12-04 | 索尼公司 | 通过背景图像和背景深度校正在彩色图像帧序列中进行对象分割 |
CN108734112A (zh) * | 2018-04-26 | 2018-11-02 | 深圳市深晓科技有限公司 | 一种交互行为实时检测方法及装置 |
CN109272513A (zh) * | 2018-09-30 | 2019-01-25 | 清华大学 | 基于深度相机的手与物体交互分割方法及装置 |
CN109272513B (zh) * | 2018-09-30 | 2021-05-11 | 清华大学 | 基于深度相机的手与物体交互分割方法及装置 |
CN109345558A (zh) * | 2018-10-29 | 2019-02-15 | 网易(杭州)网络有限公司 | 图像处理方法、装置、介质和电子设备 |
CN111242852A (zh) * | 2018-11-29 | 2020-06-05 | 奥多比公司 | 边界感知对象移除和内容填充 |
CN110070548A (zh) * | 2019-04-22 | 2019-07-30 | 杨勇 | 一种深度学习训练样本优化方法 |
CN111931654A (zh) * | 2020-08-11 | 2020-11-13 | 精英数智科技股份有限公司 | 一种人员跟踪智能监测方法、系统和装置 |
CN112085002A (zh) * | 2020-09-23 | 2020-12-15 | 苏州臻迪智能科技有限公司 | 人像分割方法、装置、存储介质及电子设备 |
CN113313690A (zh) * | 2021-05-31 | 2021-08-27 | 齐鲁工业大学 | 一种皮革纤维mct序列切片图像的同根区域智能检测方法 |
CN113313690B (zh) * | 2021-05-31 | 2022-08-09 | 齐鲁工业大学 | 一种皮革纤维mct序列切片图像的同根区域智能检测方法 |
CN116109828A (zh) * | 2023-03-23 | 2023-05-12 | 荣耀终端有限公司 | 图像处理方法和电子设备 |
CN116109828B (zh) * | 2023-03-23 | 2023-08-18 | 荣耀终端有限公司 | 图像处理方法和电子设备 |
CN117173639A (zh) * | 2023-11-01 | 2023-12-05 | 伊特拉姆成都能源科技有限公司 | 基于多源设备的行为分析及安全预警方法及系统 |
CN117173639B (zh) * | 2023-11-01 | 2024-02-06 | 伊特拉姆成都能源科技有限公司 | 基于多源设备的行为分析及安全预警方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN107403436B (zh) | 2021-03-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107403436A (zh) | 一种基于深度图像的人物轮廓快速检测与跟踪方法 | |
JP7178396B2 (ja) | 入力映像に含まれた客体の3次元ポーズの推定のためのデータを生成する方法およびコンピュータシステム | |
Huang et al. | Arch: Animatable reconstruction of clothed humans | |
WO2021129064A1 (zh) | 姿态获取方法、关键点坐标定位模型的训练方法和装置 | |
Hassan et al. | Resolving 3D human pose ambiguities with 3D scene constraints | |
CN109003325B (zh) | 一种三维重建的方法、介质、装置和计算设备 | |
Ren et al. | Depth camera based hand gesture recognition and its applications in human-computer-interaction | |
CN102262725B (zh) | 三维场景的分析 | |
CN103778635B (zh) | 用于处理数据的方法和装置 | |
Ma et al. | Kinect Sensor‐Based Long‐Distance Hand Gesture Recognition and Fingertip Detection with Depth Information | |
Aggarwal et al. | Human activity recognition from 3d data: A review | |
Hackenberg et al. | Lightweight palm and finger tracking for real-time 3D gesture control | |
CN100407798C (zh) | 三维几何建模系统和方法 | |
CN102902355B (zh) | 移动设备的空间交互方法 | |
JP2009536731A5 (zh) | ||
CN112102342B (zh) | 平面轮廓识别方法、装置、计算机设备和存储介质 | |
Thalhammer et al. | SyDPose: Object detection and pose estimation in cluttered real-world depth images trained using only synthetic data | |
CN104573612A (zh) | 估计深度图像中重叠的多个人体对象的姿态的设备和方法 | |
Alexiadis et al. | Fast deformable model-based human performance capture and FVV using consumer-grade RGB-D sensors | |
Leroy et al. | Volume sweeping: Learning photoconsistency for multi-view shape reconstruction | |
KR101350387B1 (ko) | 깊이 정보를 이용한 손 검출 방법 및 그 장치 | |
CN103810480B (zh) | 基于rgb‑d图像的手势检测方法 | |
Zhan et al. | Real-time 3D face modeling based on 3D face imaging | |
Iwasawa et al. | Human body postures from trinocular camera images | |
JPWO2020026677A1 (ja) | 検出装置、処理装置、検出方法、及び処理プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |