CN103971116A - 基于Kinect的感兴趣区域检测方法 - Google Patents

基于Kinect的感兴趣区域检测方法 Download PDF

Info

Publication number
CN103971116A
CN103971116A CN201410166147.8A CN201410166147A CN103971116A CN 103971116 A CN103971116 A CN 103971116A CN 201410166147 A CN201410166147 A CN 201410166147A CN 103971116 A CN103971116 A CN 103971116A
Authority
CN
China
Prior art keywords
sigma
interest
area
feature
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201410166147.8A
Other languages
English (en)
Inventor
彭先霖
夏召强
冯晓毅
彭进业
王珺
毛晓菲
崔明辉
胡旭涛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xi'an Yun Wang Electronic Science And Technology Co Ltd
Northwestern Polytechnical University
Original Assignee
Xi'an Yun Wang Electronic Science And Technology Co Ltd
Northwestern Polytechnical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xi'an Yun Wang Electronic Science And Technology Co Ltd, Northwestern Polytechnical University filed Critical Xi'an Yun Wang Electronic Science And Technology Co Ltd
Priority to CN201410166147.8A priority Critical patent/CN103971116A/zh
Publication of CN103971116A publication Critical patent/CN103971116A/zh
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种基于Kinect的感兴趣区域检测方法,用于解决现有基于改进显著图模型的感兴趣区域检测方法准确度差的技术问题。技术方案是利用Kinect3D摄像头获取二维RGB图像和深度信息;在此基础上,利用RGB图像提取多种视觉特征并构建多尺度视觉特征图;然后,将特征图与深度图进行融合生成显著图,并利用胜者全取策略生成二值显著图;最后,对二值显著图进行膨胀处理,检测出最终的感兴趣区域。本发明利用Kinect摄像头生成的RGB-D格式的3D图像即可检测出与人眼感知结果一致的感兴趣区域。在相同条件下利用本发明方法自动检测出感兴趣区域的吻合率由背景技术的82.5%提高到91.2%,提高了8.7%。

Description

基于Kinect的感兴趣区域检测方法
技术领域
本发明涉及一种感兴趣区域检测方法,特别是涉及一种基于Kinect的感兴趣区域检测方法。
背景技术
基于人眼视觉特征的感兴趣区域检测方法引起国内外研究者的关注。
文献“基于边缘与深度特征的感兴趣区域检测技术.夏召强,冯晓毅,彭进业.计算机仿真,2009,(7);248-251”公开了一种基于改进显著图(Saliency Map)模型的感兴趣区域检测方法。该方法首先从二维RGB图像中提取的灰度、颜色、方向与边缘等视觉特征生成二维显著图,然后利用该显著图检测出与人眼检测结果相一致的感兴趣区域。该方法通过采集100幅图片,然后让5个用户标定出图片中的感兴趣区域。对于每幅图片,取5个用户标定的区域的并集作为参考的感兴趣区域。自动检测出感兴趣区域,并与参考的感兴趣区域进行比较,吻合率为82.5%。
基于文献的二维显著图模型的感兴趣区域检测方法存在两个问题:一是该方法采用的深度信息来自对二维图像的估计;二是该方法在融合各视觉特征生成二维显著图时,没要考虑到不同特征对感兴趣区域检测的作用大小不同。因此,该方法检测的感兴趣区域的位置和大小与人眼的感知仍有较大差异。
发明内容
为了克服现有基于改进显著图模型的感兴趣区域检测方法准确度差的不足,本发明提供一种基于Kinect的感兴趣区域检测方法。该方法利用Kinect3D摄像头获取二维RGB图像和深度信息;在此基础上,利用RGB图像提取多种视觉特征并构建多尺度视觉特征图;然后,将特征图与深度图进行融合生成显著图,并利用胜者全取策略生成二值显著图;最后,对二值显著图进行膨胀处理,检测出最终的感兴趣区域。本发明无需复杂的3D图像获取装置,利用Kinect摄像头生成的RGB-D格式的3D图像即可检测出与人眼感知结果一致的感兴趣区域。
本发明解决其技术问题所采用的技术方案是:一种基于Kinect的感兴趣区域检测方法,其特点是包括以下步骤:
步骤一、利用Kinect3D摄像头和微软提供的应用程序接口,获取RGB-D格式的3D图像。
步骤二、多尺度特征图的计算。包括多尺度图像的生成、灰度特征图的提取、颜色特征图的提取、方向特征图的提取和边缘特征图的提取。
多尺度图像的生成:对二维RGB图像中的R、G和B三个通道,在水平方向与垂直方向上分别进行隔行采样,依此形成多尺度R通道图MR(σ)、多尺度G通道图MG(σ)和多尺度B通道图MB(σ),σ为尺度水平。
灰度特征图提取:由某尺度上图像的三个颜色通道的平均值来表征图像在该尺度的灰度特征图:
F i ( σ ) = M R ( σ ) + M G ( σ ) + M B ( σ ) 3 - - - ( 1 )
颜色特征图提取:在某个尺度图像上的颜色特征采用红绿颜色变化值(RG)和蓝黄颜色变化(BY)度量:
F cRG ( σ ) = M R ( σ ) - M G ( σ ) max ( M R ( σ ) , M G ( σ ) , M B ( σ ) ) , F cBY ( σ ) = M B ( σ ) - min ( M R ( σ ) , M G ( σ ) ) max ( M B ( σ ) , M R ( σ ) , M G ( σ ) ) - - - ( 2 )
其中,max算子表示图像三个通道中的最大值,min算子表示图像三个通道中的最小值。
方向特征图提取:对某个尺度上的灰度特征图进行Gabor滤波,在此基础上得到该尺度图像在不同方向上的纹理:
F dr ( σ ) = | | I ( σ ) * G 0 ( θ ) | | + | | I ( σ ) * G π / 2 ( θ ) | | , G ψ ( x , y , θ ) = exp ( - x ′ 2 + γ 2 y ′ 2 2 σ 2 ) cos ( 2 π x ′ λ + ψ ) x ′ = x cos ( θ ) + y sin ( θ ) , y ′ = - x sin ( θ ) + y cos ( θ ) - - - ( 3 )
其中,“*”表示卷积运算,G(θ)为Gabor算子,(x,y)表示图像像素的空间坐标,θ表示不同滤波方向的参数,ψ为相位,γ为适应比率,λ为波长。
边缘特征提取:对某个尺度上的灰度特征图,用DOG算子检测梯度方向上的变化,以此表示该尺度上的边缘特征图:
Feg(σ)=I(σ)*DOG(v1,v2)
DOG ( v 1 , v 2 ) = 1 2 π v 1 exp [ - x 2 + y 2 2 v 1 2 ] - 1 2 π v 2 exp [ - x 2 + y 2 2 v 2 2 ] - - - ( 4 )
其中,v1、v2是决定DOG响应曲线坡度的方差,取值越小,则波形变化越剧烈。
步骤三、将不同的视觉特征进行归一化并生成二维特征图,然后将视觉特征图与深度图进行融合得到显著图。
视觉特征归一化:在融合特征图与深度图之前,将各个特征归一化到范围(a,b):
F t ← F t - min ( F t ) max ( F t ) × ( b - a ) + a - - - ( 5 )
其中,符号“←”表示替换运算。
二维视觉特征图的生成:
U t = Σ c 1 = 3 5 Σ c 2 = c 1 + 3 c 1 + 4 | F t ( c 1 ) - F t ( c 2 ) | , F t ∈ { F i , F cRG , F cBY , F dr , F eg } - - - ( 6 )
其中,c1为精细尺度,c2为粗糙尺度。不同的Ut表示灰度、颜色、方向与边缘特征在不同尺度上的差异。
深度图的生成:通过Kinect得到的深度信息是空间各点到摄像头所在平面的距离,物理单位为毫米,采用如下方式进行归一化得深度图:
D(x,y)=Dk(x,y)×255/4095 (7)
其中,Dk是从Kinect获取的深度信息。
显著图由二维视觉特征图Ut与深度图D采用线性相加的方式融合得到:
S = Σ t = 1 T α t U t + β · D max ( D ) - - - ( 8 )
其中,T为特征差异图的个数,αt和β是权重因子,S为融合生成的显著图。
步骤四、首先在显著图S中找到全局最大值的空间位置(xm,ym),并利用胜者全取策略得到初步的感兴趣区域:
其中,τ是阈值,取值在[0,1]之间。为了防止同一前景目标被分为多个较小的感兴趣区域,对上述感兴趣区域作膨胀运算:
Βd(x,y)=Β(x,y)⊕Bdil,Bdil为结构元素 (10)
其中,“⊕”表示图像形态学运算中的膨胀运算。利用公式(10),得到最终的感兴趣区域。在Bd(x,y)中取值为1的区域为最终的感兴趣区域。
本发明的有益效果是:该方法利用Kinect3D摄像头获取二维RGB图像和深度信息;在此基础上,利用RGB图像提取多种视觉特征并构建多尺度视觉特征图;然后,将特征图与深度图进行融合生成显著图,并利用胜者全取策略生成二值显著图;最后,对二值显著图进行膨胀处理,检测出最终的感兴趣区域。本发明无需复杂的3D图像获取装置,利用Kinect摄像头生成的RGB-D格式的3D图像即可检测出与人眼感知结果一致的感兴趣区域。本发明利用Kinect摄像头采集了100幅图片,然后让5个用户标定出图片中的感兴趣区域。对于每幅图片,取5个用户标定的区域的并集作为参考的感兴趣区域。利用本发明方法自动检测出感兴趣区域,并与参考的感兴趣区域进行比较,吻合率由背景技术的82.5%提高到91.2%,提高了8.7%。
下面结合附图和实施例对本发明作详细说明。
附图说明
图1是本发明基于Kinect的感兴趣区域检测方法的流程图。
具体实施方式
参照图1。本发明基于Kinect的感兴趣区域检测方法具体步骤如下:
(1)RGB-D格式图像的获取。
利用Kinect3D摄像头和微软提供的应用程序接口,获取RGB-D格式的3D图像。
将Kinect摄像头通过USB接口连接到计算机上,运行微软提供的应用程序接口即可获取RGB-D格式的3D图像。其中,RGB图像表示R、G和B三个通道的图像数据;D为深度数据,表示空间中某点到摄像头平面的距离。
(2)多尺度特征图的计算。
包括多尺度图像的生成、灰度特征图的提取、颜色特征图的提取、方向特征图的提取和边缘特征图的提取。
多尺度图像的生成:对二维RGB图像中的R、G和B三个通道,在水平方向与垂直方向上分别进行隔行采样,依此形成多尺度R通道图MR(σ)、多尺度G通道图MG(σ)和多尺度B通道图MB(σ),σ为尺度水平。
分别对R、G和B三个通道的二维图像数据进行隔行采样,形成9个尺度的R通道图MR(σ)、G通道图MG(σ)、B通道图MB(σ),σ取值为1~9。
灰度特征图提取:由某尺度上图像的三个颜色通道的平均值来表征图像在该尺度的灰度特征图:
F i ( σ ) = M R ( σ ) + M G ( σ ) + M B ( σ ) 3 - - - ( 1 )
根据公式(1)在9个尺度的RGB图像上提取灰度特征图,σ取值为1~9。
颜色特征图提取:在某个尺度图像上的颜色特征采用红绿颜色变化值(RG)和蓝黄颜色变化(BY)度量:
F cRG ( σ ) = M R ( σ ) - M G ( σ ) max ( M R ( σ ) , M G ( σ ) , M B ( σ ) ) , F cBY ( σ ) = M B ( σ ) - min ( M R ( σ ) , M G ( σ ) ) max ( M B ( σ ) , M R ( σ ) , M G ( σ ) ) - - - ( 2 )
根据公式(2)在9个尺度的RGB图像上分别提取2种颜色特征图,σ取值为1~9。
其中,max算子表示图像三个通道中的最大值,min算子表示图像三个通道中的最小值。
方向特征图提取:对某个尺度上的灰度特征图进行Gabor滤波,在此基础上得到该尺度图像在不同方向上的纹理:
F dr ( σ ) = | | I ( σ ) * G 0 ( θ ) | | + | | I ( σ ) * G π / 2 ( θ ) | | , G ψ ( x , y , θ ) = exp ( - x ′ 2 + γ 2 y ′ 2 2 σ 2 ) cos ( 2 π x ′ λ + ψ ) x ′ = x cos ( θ ) + y sin ( θ ) , y ′ = - x sin ( θ ) + y cos ( θ ) - - - ( 3 )
其中,“*”表示卷积运算,G(θ)为Gabor算子,(x,y)表示图像像素的空间坐标,θ表示不同滤波方向的参数,ψ为相位,γ为适应比率,λ为波长。
根据公式(3)在9个尺度的灰度特征图上分别提取4个方向的方向特征图,即θ=(00,450,900,1350),相位ψ取值为0和π/2,适应比率γ取为1,波长λ取为3。
边缘特征提取:对某个尺度上的灰度特征图,用DOG算子检测梯度方向上的变化,以此表示该尺度上的边缘特征图:
Feg(σ)=I(σ)*DOG(v1,v2)
DOG ( v 1 , v 2 ) = 1 2 π v 1 exp [ - x 2 + y 2 2 v 1 2 ] - 1 2 π v 2 exp [ - x 2 + y 2 2 v 2 2 ] - - - ( 4 )
其中,v1、v2是决定DOG响应曲线坡度的方差,取值越小,则波形变化越剧烈。
根据公式(4)在9个尺度的灰度图像上提取边缘特征图,其中DOG算子中的σ1、σ2分别取值1.5和4.5。
(3)显著图的生成。
将不同的视觉特征进行归一化并生成二维特征图,然后将视觉特征图与深度图进行融合得到显著图。
视觉特征归一化:在融合特征图与深度图之前,将各个特征归一化到范围(a,b):
F t ← F t - min ( F t ) max ( F t ) × ( b - a ) + a - - - ( 5 )
其中,符号“←”表示替换运算。
利用公式(5)将上述多尺度的视觉特征图归一化到(0,1)之间,其中a=0,b=1。
二维视觉特征图的生成:为了度量不同尺度间特征的变化,本发明定义了精细和粗糙两类尺度集合:c1={σ|σ=3,4,5}为精细尺度集,粗糙尺度集c2比对应的精细尺度大3或4个尺度。二维视觉特征图反映了不同尺度间的视觉特征的差异:
U t = Σ c 1 = 3 5 Σ c 2 = c 1 + 3 c 1 + 4 | F t ( c 1 ) - F t ( c 2 ) | , F t ∈ { F i , F cRG , F cBY , F dr , F eg } - - - ( 6 )
其中,c1为精细尺度,c2为粗糙尺度。不同的Ut表示灰度、颜色、方向与边缘特征在不同尺度上的差异。
根据公式(6)将不同尺度特征图间的差异进行累积计算,得到T=8个二维特征差异图(其中包含1个灰度特征差异图,2个颜色特征差异图,4个方向特征差异图和1个边缘特征差异图)。这里精细水平c对应的尺度σ={3,4,5},粗糙水平s=c+δ,δ={3,4}。
深度图的生成:通过Kinect得到的深度信息是空间各点到摄像头所在平面的距离,物理单位为毫米,采用如下方式进行归一化得深度图:
D(x,y)=Dk(x,y)×255/4095 (7)
其中,Dk从Kinect获取的深度信息。
根据公式(7)将Kinect返回的深度信息转换为深度图,其中Dk中每个点取Kinect返回的两个字节数据中的3~15位。
显著图由二维视觉特征图Ut与深度图D采用线性相加的方式融合得到:
S = Σ t = 1 T α t U t + β · D max ( D ) - - - ( 8 )
其中,T为特征差异图的个数,αt和β是权重因子,S为融合生成的显著图。
利用公式(8)合并不同的特征差异图与深度图,其中T=8,以此得到最初的显著图。这里合并使用的权重因子αi取值为0.1、0.15,、0.15、0.025、0.025、0.025、0.025、0.2,β取值为0.3。
(4)感兴趣区域的检测。
利用显著图进一步计算得到二值显著图,再通过膨胀处理得到最终的感兴趣区域。
首先在显著图S中找到全局最大值的空间位置(xm,ym),并利用胜者全取策略得到初步的感兴趣区域:
其中,τ是阈值,取值在[0,1]之间。
根据公式(9)计算二值显著图,取τ=0.1。
为了防止同一前景目标被分为多个较小的感兴趣区域,对上述感兴趣区域作膨胀运算:
Βd(x,y)=Β(x,y)⊕Bdil,Bdil为结构元素 (10)
其中,“⊕”表示图像形态学运算中的膨胀运算。利用公式(10),得到最终的感兴趣区域。在Bd(x,y)中取值为1的区域为最终的感兴趣区域。
根据公式(10)对上一步计算出的二值显著图进行膨胀处理,得到最终的感兴趣区域,这里Bdil取为大小为3×3的圆形结构元素。

Claims (1)

1.一种基于Kinect的感兴趣区域检测方法,其特征在于包括以下步骤:
步骤一、利用Kinect3D摄像头和微软提供的应用程序接口,获取RGB-D格式的3D图像;
步骤二、多尺度特征图的计算;包括多尺度图像的生成、灰度特征图的提取、颜色特征图的提取、方向特征图的提取和边缘特征图的提取;
多尺度图像的生成:对二维RGB图像中的R、G和B三个通道,在水平方向与垂直方向上分别进行隔行采样,依此形成多尺度R通道图MR(σ)、多尺度G通道图MG(σ)和多尺度B通道图MB(σ),σ为尺度水平;
灰度特征图提取:由某尺度上图像的三个颜色通道的平均值来表征图像在该尺度的灰度特征图:
F i ( σ ) = M R ( σ ) + M G ( σ ) + M B ( σ ) 3 - - - ( 1 )
颜色特征图提取:在某个尺度图像上的颜色特征采用红绿颜色变化值(RG)和蓝黄颜色变化(BY)度量:
F cRG ( σ ) = M R ( σ ) - M G ( σ ) max ( M R ( σ ) , M G ( σ ) , M B ( σ ) ) , F cBY ( σ ) = M B ( σ ) - min ( M R ( σ ) , M G ( σ ) ) max ( M B ( σ ) , M R ( σ ) , M G ( σ ) ) - - - ( 2 )
其中,max算子表示图像三个通道中的最大值,min算子表示图像三个通道中的最小值;
方向特征图提取:对某个尺度上的灰度特征图进行Gabor滤波,在此基础上得到该尺度图像在不同方向上的纹理:
F dr ( σ ) = | | I ( σ ) * G 0 ( θ ) | | + | | I ( σ ) * G π / 2 ( θ ) | | , G ψ ( x , y , θ ) = exp ( - x ′ 2 + γ 2 y ′ 2 2 σ 2 ) cos ( 2 π x ′ λ + ψ ) x ′ = x cos ( θ ) + y sin ( θ ) , y ′ = - x sin ( θ ) + y cos ( θ ) - - - ( 3 )
其中,“*”表示卷积运算,G(θ)为Gabor算子,(x,y)表示图像像素的空间坐标,θ表示不同滤波方向的参数,ψ为相位,γ为适应比率,λ为波长;
边缘特征提取:对某个尺度上的灰度特征图,用DOG算子检测梯度方向上的变化,以此表示该尺度上的边缘特征图:
Feg(σ)=I(σ)*DOG(v1,v2)
DOG ( v 1 , v 2 ) = 1 2 π v 1 exp [ - x 2 + y 2 2 v 1 2 ] - 1 2 π v 2 exp [ - x 2 + y 2 2 v 2 2 ] - - - ( 4 )
其中,v1、v2是决定DOG响应曲线坡度的方差,取值越小,则波形变化越剧烈;
步骤三、将不同的视觉特征进行归一化并生成二维特征图,然后将视觉特征图与深度图进行融合得到显著图;
视觉特征归一化:在融合特征图与深度图之前,将各个特征归一化到范围(a,b):
F t ← F t - min ( F t ) max ( F t ) × ( b - a ) + a - - - ( 5 )
其中,符号“←”表示替换运算;
二维视觉特征图的生成:
U t = Σ c 1 = 3 5 Σ c 2 = c 1 + 3 c 1 + 4 | F t ( c 1 ) - F t ( c 2 ) | , F t ∈ { F i , F cRG , F cBY , F dr , F eg } - - - ( 6 )
其中,c1为精细尺度,c2为粗糙尺度;不同的Ut表示灰度、颜色、方向与边缘特征在不同尺度上的差异;
深度图的生成:通过Kinect得到的深度信息是空间各点到摄像头所在平面的距离,物理单位为毫米,采用如下方式进行归一化得深度图:
D(x,y)=Dk(x,y)×255/4095 (7)
其中,Dk是从Kinect获取的深度信息;
显著图由二维视觉特征图Ut与深度图D采用线性相加的方式融合得到:
S = Σ t = 1 T α t U t + β · D max ( D ) - - - ( 8 ) 其中,T为特征差异图的个数,αt和β是权重因子,S为融合生成的显著图;
步骤四、首先在显著图S中找到全局最大值的空间位置(xm,ym),并利用胜者全取策略得到初步的感兴趣区域:
其中,τ是阈值,取值在[0,1]之间;为了防止同一前景目标被分为多个较小的感兴趣区域,对上述感兴趣区域作膨胀运算:
Βd(x,y)=Β(x,y)⊕Bdil,Bdil为结构元素 (10)
其中,“⊕”表示图像形态学运算中的膨胀运算;
在Bd(x,y)中取值为1的区域为最终的感兴趣区域。
CN201410166147.8A 2014-04-24 2014-04-24 基于Kinect的感兴趣区域检测方法 Pending CN103971116A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410166147.8A CN103971116A (zh) 2014-04-24 2014-04-24 基于Kinect的感兴趣区域检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410166147.8A CN103971116A (zh) 2014-04-24 2014-04-24 基于Kinect的感兴趣区域检测方法

Publications (1)

Publication Number Publication Date
CN103971116A true CN103971116A (zh) 2014-08-06

Family

ID=51240587

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410166147.8A Pending CN103971116A (zh) 2014-04-24 2014-04-24 基于Kinect的感兴趣区域检测方法

Country Status (1)

Country Link
CN (1) CN103971116A (zh)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104504856A (zh) * 2014-12-30 2015-04-08 天津大学 基于Kinect及人脸识别的疲劳驾驶检测方法
CN104589356A (zh) * 2014-11-27 2015-05-06 北京工业大学 基于Kinect人手运动捕捉的灵巧手遥操作控制方法
CN104899869A (zh) * 2015-05-14 2015-09-09 浙江大学 基于rgb-d相机和姿态传感器的平面和障碍检测方法
CN104966286A (zh) * 2015-06-04 2015-10-07 电子科技大学 一种3d视频显著性检测方法
CN105139407A (zh) * 2015-09-08 2015-12-09 江苏大学 一种基于Kinect传感器的颜色深度匹配植株识别方法
CN105657580A (zh) * 2015-12-30 2016-06-08 北京工业大学 一种胶囊内镜视频摘要生成方法
CN106373162A (zh) * 2015-07-22 2017-02-01 南京大学 一种基于显著性融合与传播的显著物体检测方法
CN106951870A (zh) * 2017-02-15 2017-07-14 重庆警察学院 主动视觉注意的监控视频显著事件智能检测预警方法
CN107368810A (zh) * 2017-07-20 2017-11-21 北京小米移动软件有限公司 人脸检测方法及装置
CN107944354A (zh) * 2017-11-10 2018-04-20 南京航空航天大学 一种基于深度学习的车辆检测方法
CN107977650A (zh) * 2017-12-21 2018-05-01 北京华捷艾米科技有限公司 人脸检测方法及装置
CN107977661A (zh) * 2017-10-13 2018-05-01 天津工业大学 基于全卷积神经网络与低秩稀疏分解的感兴趣区域检测方法
CN109598268A (zh) * 2018-11-23 2019-04-09 安徽大学 一种基于单流深度网络的rgb-d显著目标检测方法
CN109636814A (zh) * 2018-12-18 2019-04-16 联想(北京)有限公司 一种图像处理方法及电子设备
CN111191662A (zh) * 2019-12-31 2020-05-22 网易(杭州)网络有限公司 图像特征提取方法、装置、设备、介质及对象匹配方法
CN111242138A (zh) * 2020-01-11 2020-06-05 杭州电子科技大学 一种基于多尺度特征融合的rgbd显著性检测方法
CN112927262A (zh) * 2021-03-22 2021-06-08 瓴盛科技有限公司 一种基于视频的相机镜头遮挡检测方法及系统
CN115311338A (zh) * 2022-08-11 2022-11-08 浙江盛发纺织印染有限公司 军用帐篷内衬面料智能化生产系统及其方法

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102521595A (zh) * 2011-12-07 2012-06-27 中南大学 一种基于眼动数据和底层特征的图像感兴趣区域提取方法
CN102737235A (zh) * 2012-06-28 2012-10-17 中国科学院自动化研究所 基于深度信息和彩色图像的头部姿势估计方法
CN102801924A (zh) * 2012-07-20 2012-11-28 合肥工业大学 一种基于Kinect的电视节目主持互动系统
CN102830798A (zh) * 2012-07-31 2012-12-19 华南理工大学 单臂机器人基于Kinect的无标记人手跟踪方法
CN103150559A (zh) * 2013-03-01 2013-06-12 南京理工大学 基于Kinect三维深度图像的头部识别与跟踪方法
CN103266552A (zh) * 2013-05-09 2013-08-28 江苏科技大学 一种基于深度图像的路面检测系统
CN103295241A (zh) * 2013-06-26 2013-09-11 中国科学院光电技术研究所 一种基于Gabor小波的频域显著性目标检测方法
CN103400129A (zh) * 2013-07-22 2013-11-20 中国科学院光电技术研究所 一种基于频域显著性的目标跟踪方法
CN103530619A (zh) * 2013-10-29 2014-01-22 北京交通大学 基于rgb-d数据构成的少量训练样本的手势识别方法
CN103714548A (zh) * 2013-12-27 2014-04-09 西安电子科技大学 基于视觉注意的红外图像与可见光图像配准方法

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102521595A (zh) * 2011-12-07 2012-06-27 中南大学 一种基于眼动数据和底层特征的图像感兴趣区域提取方法
CN102737235A (zh) * 2012-06-28 2012-10-17 中国科学院自动化研究所 基于深度信息和彩色图像的头部姿势估计方法
CN102801924A (zh) * 2012-07-20 2012-11-28 合肥工业大学 一种基于Kinect的电视节目主持互动系统
CN102830798A (zh) * 2012-07-31 2012-12-19 华南理工大学 单臂机器人基于Kinect的无标记人手跟踪方法
CN103150559A (zh) * 2013-03-01 2013-06-12 南京理工大学 基于Kinect三维深度图像的头部识别与跟踪方法
CN103266552A (zh) * 2013-05-09 2013-08-28 江苏科技大学 一种基于深度图像的路面检测系统
CN103295241A (zh) * 2013-06-26 2013-09-11 中国科学院光电技术研究所 一种基于Gabor小波的频域显著性目标检测方法
CN103400129A (zh) * 2013-07-22 2013-11-20 中国科学院光电技术研究所 一种基于频域显著性的目标跟踪方法
CN103530619A (zh) * 2013-10-29 2014-01-22 北京交通大学 基于rgb-d数据构成的少量训练样本的手势识别方法
CN103714548A (zh) * 2013-12-27 2014-04-09 西安电子科技大学 基于视觉注意的红外图像与可见光图像配准方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
夏召强: "基于边缘与深度特征的感兴趣区域检测技术", 《计算机仿真》 *

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104589356A (zh) * 2014-11-27 2015-05-06 北京工业大学 基于Kinect人手运动捕捉的灵巧手遥操作控制方法
CN104504856A (zh) * 2014-12-30 2015-04-08 天津大学 基于Kinect及人脸识别的疲劳驾驶检测方法
CN104899869A (zh) * 2015-05-14 2015-09-09 浙江大学 基于rgb-d相机和姿态传感器的平面和障碍检测方法
CN104899869B (zh) * 2015-05-14 2017-09-01 浙江大学 基于rgb‑d相机和姿态传感器的平面和障碍检测方法
CN104966286A (zh) * 2015-06-04 2015-10-07 电子科技大学 一种3d视频显著性检测方法
CN104966286B (zh) * 2015-06-04 2018-01-09 电子科技大学 一种3d视频显著性检测方法
CN106373162A (zh) * 2015-07-22 2017-02-01 南京大学 一种基于显著性融合与传播的显著物体检测方法
CN105139407B (zh) * 2015-09-08 2018-08-21 江苏大学 一种基于Kinect传感器的颜色深度匹配植株识别方法
CN105139407A (zh) * 2015-09-08 2015-12-09 江苏大学 一种基于Kinect传感器的颜色深度匹配植株识别方法
CN105657580A (zh) * 2015-12-30 2016-06-08 北京工业大学 一种胶囊内镜视频摘要生成方法
CN105657580B (zh) * 2015-12-30 2018-11-13 北京工业大学 一种胶囊内镜视频摘要生成方法
CN106951870A (zh) * 2017-02-15 2017-07-14 重庆警察学院 主动视觉注意的监控视频显著事件智能检测预警方法
CN106951870B (zh) * 2017-02-15 2020-07-17 重庆警察学院 主动视觉注意的监控视频显著事件智能检测预警方法
CN107368810A (zh) * 2017-07-20 2017-11-21 北京小米移动软件有限公司 人脸检测方法及装置
CN107977661B (zh) * 2017-10-13 2022-05-03 天津工业大学 基于fcn与低秩稀疏分解的感兴趣区域检测方法
CN107977661A (zh) * 2017-10-13 2018-05-01 天津工业大学 基于全卷积神经网络与低秩稀疏分解的感兴趣区域检测方法
CN107944354B (zh) * 2017-11-10 2021-09-17 南京航空航天大学 一种基于深度学习的车辆检测方法
CN107944354A (zh) * 2017-11-10 2018-04-20 南京航空航天大学 一种基于深度学习的车辆检测方法
CN107977650A (zh) * 2017-12-21 2018-05-01 北京华捷艾米科技有限公司 人脸检测方法及装置
CN109598268A (zh) * 2018-11-23 2019-04-09 安徽大学 一种基于单流深度网络的rgb-d显著目标检测方法
CN109636814A (zh) * 2018-12-18 2019-04-16 联想(北京)有限公司 一种图像处理方法及电子设备
CN111191662A (zh) * 2019-12-31 2020-05-22 网易(杭州)网络有限公司 图像特征提取方法、装置、设备、介质及对象匹配方法
CN111191662B (zh) * 2019-12-31 2023-06-30 网易(杭州)网络有限公司 图像特征提取方法、装置、设备、介质及对象匹配方法
CN111242138B (zh) * 2020-01-11 2022-04-01 杭州电子科技大学 一种基于多尺度特征融合的rgbd显著性检测方法
CN111242138A (zh) * 2020-01-11 2020-06-05 杭州电子科技大学 一种基于多尺度特征融合的rgbd显著性检测方法
CN112927262A (zh) * 2021-03-22 2021-06-08 瓴盛科技有限公司 一种基于视频的相机镜头遮挡检测方法及系统
CN112927262B (zh) * 2021-03-22 2023-06-20 瓴盛科技有限公司 一种基于视频的相机镜头遮挡检测方法及系统
CN115311338A (zh) * 2022-08-11 2022-11-08 浙江盛发纺织印染有限公司 军用帐篷内衬面料智能化生产系统及其方法

Similar Documents

Publication Publication Date Title
CN103971116A (zh) 基于Kinect的感兴趣区域检测方法
US10198623B2 (en) Three-dimensional facial recognition method and system
CN104574375B (zh) 结合彩色和深度信息的图像显著性检测方法
EP2811423B1 (en) Method and apparatus for detecting target
CN101945295B (zh) 生成深度图的方法和设备
CN102708370B (zh) 一种多视角图像前景目标提取方法及装置
CN103248906B (zh) 一种双目立体视频序列的深度图获取方法与系统
CN105740775A (zh) 一种三维人脸活体识别方法及其装置
CN104778721A (zh) 一种双目图像中显著性目标的距离测量方法
EP2779025A2 (en) Method and system for detecting road edge
CN112801074B (zh) 一种基于交通摄像头的深度图估计方法
CN107292923B (zh) 基于深度图挖掘的后向传播图像视觉显著性检测方法
Scharwächter et al. Low-level fusion of color, texture and depth for robust road scene understanding
CN108154066B (zh) 一种基于曲率特征递归神经网络的三维目标识别方法
CN102136136A (zh) 基于自适应Census变换的光度不敏感立体匹配方法
CN104200453B (zh) 基于图像分割和可信度的视差图像校正方法
CN102542541B (zh) 深度图像后处理的方法
CN110189347B (zh) 一种测量物体体积的方法及终端
CN108010075B (zh) 一种基于多特征联合的局部立体匹配方法
CN103996185A (zh) 一种基于注意力td-bu机制的图像分割方法
CN110945537A (zh) 训练装置、识别装置、训练方法、识别方法和程序
CN105809673A (zh) 基于surf算法和合并最大相似区域的视频前景分割方法
CN103700082B (zh) 基于对偶四元数相对定向的图像拼接方法
CN113724329A (zh) 融合平面与立体信息的目标姿态估计方法、系统和介质
KR102270009B1 (ko) 다채널 영상 인공지능 알고리즘 기반 이동 물체 탐지 및 거리 추정 방법

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20140806

WD01 Invention patent application deemed withdrawn after publication