CN103578113A - 前景图像提取方法 - Google Patents

前景图像提取方法 Download PDF

Info

Publication number
CN103578113A
CN103578113A CN201310586613.3A CN201310586613A CN103578113A CN 103578113 A CN103578113 A CN 103578113A CN 201310586613 A CN201310586613 A CN 201310586613A CN 103578113 A CN103578113 A CN 103578113A
Authority
CN
China
Prior art keywords
image
foreground
foreground image
images
cutting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201310586613.3A
Other languages
English (en)
Inventor
庄礼鸿
吴明霓
邹丰懋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shantou University
Original Assignee
Shantou University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shantou University filed Critical Shantou University
Priority to CN201310586613.3A priority Critical patent/CN103578113A/zh
Publication of CN103578113A publication Critical patent/CN103578113A/zh
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种前景图像提取方法,包括图像景深分类及色彩信息切割,图像景深分类采用Kinect设备找出前景图像的景深区域、背景图像的景深区域以及未侦测到景深的判断区域,所述色彩信息切割的方法包括:S1.将图像由RGB颜色空间转为L*a*b*颜色空间;S2.对图像进行sobel边缘检测;S3.对S2取得的边缘梯度值进行分水岭切割;S4.将L*、a*、b*色彩信息分别对应到分水岭切割后的区块中进行平均值与标准差的计算;S5.将前景图像区域的特征值与判断区域的特征值做比较,相似的区域加入前景图像区域中,不相近似的加入背景图像中。本发明采用结合图像的色彩特征对Kinect分类区域进行补充修正,改善了Kinect提取前景图像的准确率,同时缩短了提取的运算时间,提高计算效率。

Description

前景图像提取方法
技术领域
本发明涉及一种图像获取及处理领域,尤其涉及一种对获取的图像进行前景提取的方法。
背景技术
在近年来流行的智慧型装置中,非常强调人机互动,让人与机器之间能以简单、正确、迅速的方式进行沟通,为让人机互动形式更丰富、细腻,可以增加人脸识别、手势识别及体感识别等功能,其中,体感识别目前经常应用与商业及娱乐中,是一种较为热门的技术。这项技术的关键在于图像处理,在图像处理的技术领域中,对于任意场景环境中有效的对前景图像进行切割是个复杂的问题,尽管有许多学者提出各种方式来解决,如针对低景深图像进行显著物件的切割、图像颜色特征使用粒子群演算法来分类物体群、透过光度立体技术来达到基于形状的图像切割以及利用三角测量的方式找出图像中人的肢体进行切割等方式,这些方式都需要图像特征符合指定的条件才能进行,因此具有很大的挑战性。
在一个场景的图像中大致可以分为前景和背景,而显著物体大多会位于前景之中,而当一个场景图像结合了3D的深度信息,借由物体所对应的深度位置,就可以快速的分类出前景和背景的物体区域,也能在任意的场景环境中进行动态人像的切割。Microsoft推出的Kinect体感设备可以取得图像的色彩信息、景深信息、提供人像辨识和人体骨架等丰富的信息。其是使用红外线投影的方式计算图像景深,由于红外线在整个投影的过程中可能被光滑物体所折射或者被较黑的物体所吸收,会造成无法接收到信息的问题,让深度的信息流失,最后造成前景图像切割在边缘产生不规则的锯齿状或破洞的结果。
发明内容
本发明所要解决的技术问题在于,提供一种前景图像提取方法,包括图像景深分类及色彩信息切割,其中图像景深分类采用Kinect设备追踪校准找出前景图像的景深区域、背景图像的景深区域以及未侦测到景深的判断区域,为了让不确定的区域能产生在前景图像的周围,在对图像景深分类时对前景图像的区域进行扩张。
所述色彩信息切割的方法包括:
S1将图像由RGB颜色空间转为L*a*b*颜色空间,在色彩信息切割的时候,由于L*a*b*的设计较为接近人类的视觉,因此选择这种色彩空间进行处理。
S2对对图像L*值进行sobel边缘检测。
进一步地,步骤S2进行边缘检测之前针对L*进行平滑滤波去除杂讯。
S3对S2取得的边缘梯度值进行分水岭切割。
分水岭算法的分割概念是假设图像中像素点的值代表高度,而当一个局部区域中找到最低点,该点所影响到的范围就成为蓄水盆,在多个蓄水盆之间的所交接的边界就称为分水岭。
进一步地,由于Sobel的梯度图中有些微弱的梯度值用来表示人眼难以察觉的边缘特征,这些值会影响分水岭算法的判断,从而造成图像的过度切割,因此在进行分水岭切割前还对S2检测到的边缘梯度值进行削弱,让一些区块能够合并起来,排除过度切割的问题。
在本发明中,特征值是指在一个区块内特征数值化所代表的值,我们使用区块的平均值表示该区块整体的数值倾向,使用区块的标准差表示区块中数值的浮动程度,在步骤S4中,将L*、a*、b*色彩信息分别对应到分水岭切割后的区块中进行平均值与标准差的计算。
S5将前景图像区域的特征值与判断区域的特征值做比较,相似的区域加入前景图像区域中,不相近似的加入背景图像中。
进一步地,步骤S5中对与所述判断区域距离为D以内的前景区域进行特征值进行比较。
需要说明的是,在前景图像为人像的图像中,所述距离D为人像头部骨架点到颈部骨架点之间的半颗头骨架的距离。
进一步地,在距离所述判断区域为D以内的前景区域选取3个区块进行特征值比较。
实施本发明,具有如下有益效果:
本发明采用结合图像的色彩特征对Kinect分类区域进行补充修正,改善了Kinect提取前景图像的准确率,同时缩短了提取的运算时间,提高计算效率。
附图说明
图1是本发明流程示意图;
图2是采用Kinect设备对图像进行图像景深分类示意图;
图3是本发明判断区域产生过程的示意图;
图4是本发明分水岭切割的示意图;
图5是Sobel边缘检测示意图;
图6是分水岭过度切割的示意图;
图7是本发明分水岭切割的示意图;
图8是本发明寻找比较区块的示意图;
图9是本发明实验数据与结果示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明作进一步地详细描述。
如图1所示,本发明的识别方法的步骤包括
采用Kinect设备追踪校准找出前景图像的景深区域、背景图像的景深区域以及未侦测到景深的判断区域;
采用色彩信息切割的方法在判断区域中进行切割区块的筛选;
去除为连接的区块从而形成新的前景图像。
色彩信息切割方法包括以下步骤:
S1将图像由RGB颜色空间转为L*a*b*颜色空间;
S2对图像进行sobel边缘检测;
S3对S2取得的边缘梯度值进行分水岭切割;
S4将L*、a*、b*色彩信息分别对应到分水岭切割后的区块中进行平均值与标准差的计算;
S5将前景图像区域的特征值与判断区域的特征值做比较,相似的区域加入前景图像区域中,不相近似的加入背景图像中。
采用Kinect找出的图像景深分类参照图2所示,其中图2(a)为实验采用的图像,图2(b)为图像的色彩信息,图2(c)为图像的景深分类,图2(d)为通过对图像的景深分类后提取的前景图像。
Kinect进行追踪校准时对图像景深的分类如图2(c)所示,其中区域Ⅰ为背景图像的景深区域,Ⅱ为前景图像的景深区域,图2(c)中空白的区域Ⅲ为判断区域。
本发明实施例的目的在于找出判断区域Ⅲ中所流失的前景图像区域。
图3是本发明判断区域产生过程的示意图,在实际操作中发现,由现有的Kinect设备实现的图像景深分类,不但有未检测到的前景图像区域的流失,还有一部分背景图像的区域被误归到前景图像的区域中。
图中图3(a)和图3(b)分别是经过分类后所产生的前景图像区域和背景图像区域,图3(c)为图3(a)侵蚀之后的结果,除去了部分背景图像被归类为前景的问题,图3(d)是图3(b)扩张后的结果,为一个包含完整人像的区域,图3(e)为人像的范围去掉背景图像区域所产生的可能区域,图3(f)则为图3(b)侵蚀后的结果,去掉前景图像中所掺杂到背景图像的问题,图3(g)是图3(e)可能区域去掉确定的人像区域后产生的判断区域,是本发明用来判断前景图像区域和背景图像区域的重要区域,图3(h)为判断区域对应到色彩信息的结果,从图中可以看出,判断区域能同时包含前景图像和背景图像。
在本实施例中,要生成判断区域,首先以[5×5]的圆侵蚀背景图像区域和前景图像区域,用来消除被错误分类到背景图像区域的前景图像,接着为了让判断区域能产生在前景图像区域附近,因此对前景图像区域进行[odd(D)×odd(D)]的圆进行扩张。
其中odd表示让数值无条件进位为奇数,D则表示在平面图像上人体头部的骨架点到颈部骨架点之间的欧几里得距离,这个参数可以直接从设备上获得,用骨架是因为在前景区域人像所失去的信息中以头部最为严重,有时候会严重到失去半个头,所以D用来作为扩张范围,让扩张的结果能保住整个人像,针对人像的可能区域转换公式如(1)所示:
Hupossible(i)=max(Fgexpansion(i)-Bgerosion(i),0)        (1)
其中i为当前的像素点,max()为取最大值,而取出的最小值为0,Fgexpansion代表扩张后的前景图像区域,Bgerosion代表侵蚀后的背景图像区域,Hupossible代表人像的可能区域。为了进一步缩小可能区域的范围,需要减去信息没有分类错误的前景图像区域来形成判断区域,转换公式如(2)所示:
Judgearea(i)=max(Hupossible(i)-Huidentified(i),0)     (2)
Huidentified代表侵蚀后的前景图像区域,这个区域也代表在本实施例中不会变动的已确定的人像区域,Judgearea代表判断区域,作为用来选取加入人像区域的重要区域。
如图4所示是本发明分水岭切割的示意图,分水岭算法的分割概念是假设图像中像素点的值代表高度,而当一个局部区域中找到最低点,该点所影响到的范围就成为蓄水盆,在多个蓄水盆之间的所交接的边界就称为分水岭。
如图所示,假设图4(a)为Gradient梯度图的梯度值,在图4(b)中梯度剪头的指向将由像素点周围8个方位的梯度值所决定,箭头指向较小的值也就是较低的点,而当周围的梯度值都大于目前像素点的梯度值时,就产生了这个区域的最低点,最后在影响范围内划分出区块,进而形成分水岭的切割。
优选地,由于Sobel的梯度图中有些微弱的梯度值用来表示人眼难以察觉的边缘特征,这些值会影响分水岭算法的判断,从而造成图像的过度切割,因此在进行分水岭切割前还对S2检测到的边缘梯度值进行削弱,让一些区块能够合并起来,排除过度切割的问题。对微弱梯度值削弱的公式如(3)(4)(5)所示:
e=(max(Gradient)-min(Gradient))×t+min(Gradient)      (3)
NewGradient(i)=max(Gradient(i)-e,0)         (4)
S=watershed(NewGradient)            (5)
在公式(3)中max()表示为取最大值,min()为取最小值,t表示在最大梯度值和最小的梯度值之间要削弱的程度范围,而e代表阈值,i为目前的像素位置,在公式(4)里,Gradient为sobel所产生的梯度图,NewGradient表示为被削弱过后的梯度图,过程中表示当像素中梯度值小于e时,则新的梯度值设为0,watershed()为进行分水岭的切割,最后公式(5)的D代表NewGradient经由分水岭切割后的切割图。以上过程的结果如图5~图7所示,图5为经过Sobel边缘检测后所产生的梯度图,图6为分水岭切割后,由于微小梯度的干扰太多造成的过度切割,图7是经过本发明方法将梯度图削弱后经过分水岭切割后的呈现的物体的区块示意图。
在本发明中,特征值是指在一个区块内特征数值化所代表的值,我们使用区块的平均值表示该区块整体的数值倾向,使用区块的标准差表示区块中数值的浮动程度,在计算的过程4中,将L*、a*、b*色彩信息分别对应到分水岭切割后的区块中进行平均值与标准差的计算。以j代表目前在S的区块位置,Sj代表分水岭切割后的区块,而L(Sj)、a(Sj)、b(Sj)代表区块Sj所对应色彩信息的平均值特征,Lσ(Sj)、aσ(Sj)、bσ(Sj)即为区块Sj所对应色彩信息的标准差特征。
图8是本发明寻找比较区块的示意图,其中Ⅳ为已确定前景图像区域,Ⅴ为前景图像边缘区域,Ⅵ为判断区域,Ⅶ为以确定的背景图像区域。本发明方法是利用在前景图像边界区块中特征值与判断区域里区块的特征值做比较。首先需找到在人像边缘的区域后,对映到S的边缘区块Ⅷ,称之为前景边界区块,对映到S的判断区域,则称之为判断区块,其公式表达如(6)(7)(8)所示:
FB = - 1 - 1 - 1 - 1 8 - 1 - 1 - 1 - 1
Huboundry=filter(Huidentified,FB)     (6)
HB m region = S j , if ( Hu i boundry ∈ S j p ) - - - ( 7 )
Judge n region = S j , if ( Judge i area ∈ S j p ) - - - ( 8 )
FB代表边缘检测的遮罩,在公式(6)中filter()代表滤波器,代表已确定前景区域Huidentified的边缘;在公式(7)中代表边缘经过切割图S中的区块,称为前景图像边界区块;而公式(8)里的代表判断区域
Figure BDA0000417734510000077
所涉及到切割图S中的区块,称为判断区块;而m,n则代表各自独立的区块位置。
接着让判断区块跟人像边界区块进行不相似的比较,而找出符合比较条件区域的规则如公式(9)所示:
Judge n region , HB m eregion &OverBar; < D - - - ( 9 )
其中
Figure BDA0000417734510000079
表示各个区块间最短的欧几里得距离;D为头部骨架点到颈部骨架点之间半颗头骨架的距离。该方法主要是以判断区域
Figure BDA00004177345100000710
为中心,然后找出前景图像边界区块群
Figure BDA00004177345100000711
中两区块距离在D范围内的区块,在这些被选中的区块里,优选最近的3个区块作为比较区块,而只要其中一段的区块有符合比较条件,
Figure BDA00004177345100000712
这个区块则进一步成为所需要的结果,在这里是一对多的关系,而这3段距离还必须要符合小于D的限制,以达到缩小判断的搜寻范围,才不会让在不可能位置上的区块因近似而被加入进来。
通过上述方式取得待比较的区块,再通过区块间的差异性,将找到的前景图像边界区域减去判断区域的特征值,而表示两区块间的平均值的差值;则表示两区块间的标准差的差值,其中k表示由最短距离选中3个区块中的其中一个区块的位置,这3个区块之后都将独自进行各自的运算。最后利用整体区块间的平均值的差减去整体区块间标准差的差,可以计算出各区块间的不相似程度,值越大表示切割品值越好,因此参考这个特性来比较两区块间的不相似程度,所设计方法的公式如(10)(11)所示
L n , k Not _ similar = abs ( L &OverBar; n , k different - L &sigma; n , k different ) ,
a n , k Not _ similar = abs ( a &OverBar; n , k different - a &sigma; n , k different ) , - - - ( 10 )
b n , k Not _ similar = abs ( b &OverBar; n , k different - b &sigma; n , k different )
pass j = S j if ( S j &Element; Hu i identified )
orif L n , k Not _ similar < T 1 and a n , k Not _ similar < T 2 and b n , k Not _ similar < T 2 and Judge n region &Element; S j - - - ( 11 )
在公式(10)中abs()代表取绝对值,使用的原因是因为a*、b*的信息中含有负值,而在(11)中
Figure BDA0000417734510000084
代表计算出来的不相似程度;T1、T2则表示入选的阈值,由于L*属于亮度信息,a*、b*则为色彩信息,因此采用2个阈值。在passj的部分是用来统计结合有被通过的前景图像区块。首先,以确定的前景图像所涉及的区块通过passj,接着经由k的变化最多进行3次不相似运算,若其中一次结果符合条件,则把这个区块所对映到的Sj加进到passj中。当pass结果出来时会有一些小区块因特征相似而被选进来,但却没有和前景图像相连接起来,所以,本实施例的优选方案中,在计算时比较区域间的面积,选择较大的面积而将小的区块排除。
图9是本发明实验数据与结果示意图,实验在光线充足的环境下进行,采取5组不同的图像数据,分别以不同的衣服、姿势、背景来做实验,将梯度的阈值e设定为0.01,亮度阈值T1为25,色彩阈值T2为15,实验结果如图所示。
本实验采用统计切割错误率的方法来测量实验的结果,其方法的公式如(12)所示:
error ( M seg , M gt ) = &Sigma; ( x , y ) Mseg ( x , y ) &CircleTimes; Mgt ( x , y ) &Sigma; ( x , y ) Mgt ( x , y ) - - - ( 12 )
其中,error为结果的错误率,Mseg则代表输入Kinect的切割结果或本发明方法的切割结果,Mgt表示为手动切割的图,
Figure BDA0000417734510000088
为XOR布林运算,所以输入的切割资料离手动切割的差距越大,错误率越高,表1为根据图9所示的5张实验数据所计算出的错误率和运算时间。
在错误率方面,从Kinect分割结果中可以发现,人像的头部有很大的信息流失,而人脸是人像最为重要的地方。从表中数据可以看出本发明方法可以把人像头部更为完整地呈现出来。
在运算时间方面,本文方法使用MATLAB来进行单张图像处理,运算时间大约为0.35秒,由于Carlo Dal Mutto等人所提出方法所花的0.5秒。
整体的实验结果表明本发明方法可以把人像较为完整的提取出来,而错误率基本控制在10%以内,改善了Kinect的切割。
错误率和运算时间
编号 Kinect错误率 本文方法错误率 运算时间(秒)
(a) 24.47% 9.39% 0.354476
(b) 14.26% 8.53% 0.347745
(c) 14.05% 7.79% 0.343879
(d) 16.28% 6.12% 0.342203
(e) 13.05% 7.09% 0.345199
以上所述是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也视为本发明的保护范围。

Claims (8)

1.一种前景图像提取方法,包括图像景深分类及色彩信息切割,其中图像景深分类采用Kinect设备追踪校准找出前景图像的景深区域、背景图像的景深区域以及未侦测到景深的判断区域,其特征在于,所述色彩信息切割的方法包括:
S1将图像由RGB颜色空间转为L*a*b*颜色空间;
S2对图像进行sobel边缘检测;
S3对S2取得的边缘梯度值进行分水岭切割;
S4将L*、a*、b*色彩信息分别对应到分水岭切割后的区块中进行平均值与标准差的计算;
S5将前景图像区域的特征值与判断区域的特征值做比较,相似的区域加入前景图像区域中,不相近似的加入背景图像中。
2.根据权利要求1所述的前景图像提取方法,其特征在于,在对图像景深分类时对前景图像的区域进行扩张。
3.根据权利要求1所述的前景图像提取方法,其特征在于,步骤S2中对L*值进行边缘检测。
4.根据权利要求3所述的识别方法,其特征在于,步骤S2进行边缘检测之前针对L*进行平滑滤波去除杂讯。
5.根据权利要求1所述的前景图像提取方法,其特征在于,步骤S3进行分水岭切割S2检测到的边缘梯度值进行削弱。
6.根据权利要求1所述的前景图像提取方法,其特征在于,步骤S5中对与所述判断区域距离为D以内的前景区域进行特征值进行比较。
7.根据权利要求6所述的前景图像提取方法,其特征在于,在距离所述判断区域为D以内的前景区域选取3个区块进行特征值比较。
8.根据权利要求1~7任意一项所述的前景图像提取方法,其特征在于,所述前景图像为人像。
CN201310586613.3A 2013-11-19 2013-11-19 前景图像提取方法 Pending CN103578113A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201310586613.3A CN103578113A (zh) 2013-11-19 2013-11-19 前景图像提取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310586613.3A CN103578113A (zh) 2013-11-19 2013-11-19 前景图像提取方法

Publications (1)

Publication Number Publication Date
CN103578113A true CN103578113A (zh) 2014-02-12

Family

ID=50049836

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310586613.3A Pending CN103578113A (zh) 2013-11-19 2013-11-19 前景图像提取方法

Country Status (1)

Country Link
CN (1) CN103578113A (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103871050A (zh) * 2014-02-19 2014-06-18 小米科技有限责任公司 图标分割方法、装置和终端
CN104599231A (zh) * 2015-01-16 2015-05-06 汕头大学 一种基于Kinect和网络摄像机的动态人像合成方法
CN105335960A (zh) * 2014-08-13 2016-02-17 温州大学 结合边缘检测和分水岭算法的图像分割方法
CN107134194A (zh) * 2017-05-18 2017-09-05 河北中科恒运软件科技股份有限公司 沉浸式车辆模拟器
CN107534762A (zh) * 2015-11-18 2018-01-02 韩国网络软件公司 不需要背景幕布的色键影像合成方法
TWI634872B (zh) * 2017-03-29 2018-09-11 佳世達科技股份有限公司 超音波影像之品質改善方法
CN108600500A (zh) * 2018-03-02 2018-09-28 广东欧珀移动通信有限公司 图片显示方法、装置、移动终端及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040109585A1 (en) * 2002-12-09 2004-06-10 Hai Tao Dynamic depth recovery from multiple synchronized video streams
CN102831582A (zh) * 2012-07-27 2012-12-19 湖南大学 一种微软体感装置深度图像增强方法
CN102903110A (zh) * 2012-09-29 2013-01-30 宁波大学 对具有深度图像信息的图像的分割方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040109585A1 (en) * 2002-12-09 2004-06-10 Hai Tao Dynamic depth recovery from multiple synchronized video streams
CN102831582A (zh) * 2012-07-27 2012-12-19 湖南大学 一种微软体感装置深度图像增强方法
CN102903110A (zh) * 2012-09-29 2013-01-30 宁波大学 对具有深度图像信息的图像的分割方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
2976951541: "融合色彩和深度资讯的动态人像切割", 《HTTP://WWW.DOCIN.COM/P-725151130.HTML》 *
CARLO DAL MUTTO 等: "Fusion of Geometry and Color Information for Scene Segmentation", 《IEEE JOURNAL OF SELECTED TOPICS IN SIGNAL PROCESSING》 *
吴明霓,邹丰懋: "融合色彩和深度資訊的動態人像切割", 《2013年第七届资讯科技国际研讨会》 *
王奎 等: "Kinect深度图像快速修复算法", 《上海大学学报自然科学版》 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103871050A (zh) * 2014-02-19 2014-06-18 小米科技有限责任公司 图标分割方法、装置和终端
CN103871050B (zh) * 2014-02-19 2017-12-29 小米科技有限责任公司 图标分割方法、装置和终端
CN105335960A (zh) * 2014-08-13 2016-02-17 温州大学 结合边缘检测和分水岭算法的图像分割方法
CN105335960B (zh) * 2014-08-13 2019-04-26 温州大学 结合边缘检测和分水岭算法的图像分割方法
CN104599231A (zh) * 2015-01-16 2015-05-06 汕头大学 一种基于Kinect和网络摄像机的动态人像合成方法
CN104599231B (zh) * 2015-01-16 2017-10-27 汕头大学 一种基于Kinect和网络摄像机的动态人像合成方法
CN107534762A (zh) * 2015-11-18 2018-01-02 韩国网络软件公司 不需要背景幕布的色键影像合成方法
TWI634872B (zh) * 2017-03-29 2018-09-11 佳世達科技股份有限公司 超音波影像之品質改善方法
CN107134194A (zh) * 2017-05-18 2017-09-05 河北中科恒运软件科技股份有限公司 沉浸式车辆模拟器
CN108600500A (zh) * 2018-03-02 2018-09-28 广东欧珀移动通信有限公司 图片显示方法、装置、移动终端及存储介质

Similar Documents

Publication Publication Date Title
CN103578113A (zh) 前景图像提取方法
CN103337072B (zh) 一种基于纹理与几何属性联合模型的室内对象解析方法
US9025875B2 (en) People counting device, people counting method and people counting program
CN103049906B (zh) 一种图像深度提取方法
CN103248906B (zh) 一种双目立体视频序列的深度图获取方法与系统
CN104091157A (zh) 一种基于特征融合的行人检测方法
CN103927717A (zh) 基于改进型双边滤波的深度图像恢复方法
CN104463870A (zh) 一种图像显著区域检测方法
CN105488758A (zh) 一种基于内容感知的图像缩放方法
CN105740945A (zh) 一种基于视频分析的人群计数方法
CN102592128B (zh) 一种动态图像检测处理方法、装置及显示终端
CN102663700B (zh) 粘连颗粒二值图像的分割方法
CN103985128B (zh) 一种基于颜色内相关和自适应支撑权重的立体匹配方法
CN107369158A (zh) 基于rgb‑d图像的室内场景布局估计及目标区域提取方法
CN103400386A (zh) 一种用于视频中的交互式图像处理方法
CN103914820A (zh) 一种基于图像分层增强的图像去雾方法及系统
CN103208115A (zh) 基于测地线距离的图像显著性区域检测方法
CN101625761A (zh) 一种基于全局和局部算法的计算机双目视觉匹配方法
CN105719275A (zh) 一种并行组合的图像缺陷分割方法
CN101556697B (zh) 一种基于快速特征点的运动目标跟踪方法与系统
CN104392458A (zh) 基于空间限制邻域混合模型的图像分割方法
CN105023264A (zh) 一种结合对象性和背景性的红外图像显著特征检测方法
CN103514610A (zh) 一种背景静止的运动目标分割方法
CN102509308A (zh) 基于混合动态纹理空时显著性检测的运动分割方法
CN102013101A (zh) 一种经过模糊后处理的置换篡改图像盲检测方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20140212