CN102761767A - 深度图产生方法 - Google Patents

深度图产生方法 Download PDF

Info

Publication number
CN102761767A
CN102761767A CN2012101270263A CN201210127026A CN102761767A CN 102761767 A CN102761767 A CN 102761767A CN 2012101270263 A CN2012101270263 A CN 2012101270263A CN 201210127026 A CN201210127026 A CN 201210127026A CN 102761767 A CN102761767 A CN 102761767A
Authority
CN
China
Prior art keywords
image
block
value
depth map
depth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2012101270263A
Other languages
English (en)
Other versions
CN102761767B (zh
Inventor
李国君
林和源
王明俊
陈均富
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huixin Technology Co., Ltd.
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Publication of CN102761767A publication Critical patent/CN102761767A/zh
Application granted granted Critical
Publication of CN102761767B publication Critical patent/CN102761767B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明公开了一种可产生一对应至一影像信号的深度图的深度图产生方法,以便提供给一用于将2维平面影像信号转换为3维立体影像信号的影像转换系统使用。其中,在本发明的深度图产生方法所产生的深度图中,每一影像区块分别被赋予一深度值。而且,通过将一深度图与另一前一时间点的深度图互相比较的方式,本发明的深度图产生方法可产生一调整后的深度图,以更精准地赋予一影像信号的每一影像区块一调整后的深度值,有效地提升一用于将2维平面影像信号转换为3维立体影像信号的影像转换系统的转换效率。

Description

深度图产生方法
技术领域
本发明有关于一种深度图产生方法,尤其指一种可产生一对应至一影像信号的深度图的深度图产生方法,以便提供给一用于将2维平面影像信号转换为3维立体影像信号的影像转换系统使用。
背景技术
在通过显示单元呈现一立体影像的过程中,每一影像信号所包含的每一个影像区块所分别具有的深度数值是非常重要的。因为,一旦深度数值有误差,所呈现的立体影像便会严重失真,造成无法让观众观赏的后果。而且,对于人类视觉而言,要得到立体视觉,必须先通过如双眼视差、动态视差等深度感知线索,得出在肉眼所看到的影像中各对象的前后相对位置关系,如此才能让大脑“看到”立体的影像。
其中,在这些深度感知线索中,又以动态视差(motion parallax)影响最大,动态视差的成因主要是由于物体的移动量与其距离观察者的距离关系成正比,举例来说,以同样速度行走的两部车子,在观察者看来,距离较远的车子其移动较距离近的慢,因此观察者可以通过此一现象判别出两部车的相对距离。此外,除了动态视差之外,其他重要的深度感知线索如线性透视(linear perspective,平行的铁轨看起来在远处相交)、大气透视(atmospheric perspective,因空气中微小粒子的影响使得远处的物体看起来较模糊)、纹理梯度(texture gradient,相同的纹理的物体,在远处的物体纹理看起来较密集)、相对高度(elevation,物体的高度较高的感觉起来较远)、重迭(overlapping,经由物体间相互遮蔽的关系可以推论出其相对位置)以及相对大小(同样的物体,在远处的物体看起来较小,近处的物体看起来较大)。而这些深度感知线索均已被转换成算法,而应用于各类型的2维转3维的影像及影像流转换系统(2D to 3D image/video transformation system)。
然而,这些基于前述的各深度感知线索所转换出的算法(algorithm)均有其缺点,有些算法只基于影像区块的外型,另一些算法只基于影像区块的大小,更有一些算法只基于影像区块的色彩特征,造成所得出的深度图并无法符合实际需求。更有甚者,这些算法并无法针对位于观赏者感兴趣部分内的各影像区块精确地赋予深度数值,造成观赏者无法对其感兴趣部分清楚的看到立体影像,减少其观赏的乐趣。
因此,业界需要一种可产生一对应至一影像信号的深度图的深度图产生方法,以便提供给一用于将2维平面影像信号转换为3维立体影像信号的影像转换系统使用。
发明内容
本发明的目的在于提供一种深度图产生方法,其能依据一影像信号中的一感兴趣区块的分布,以及此影像信号中各影像区块分别具有的宽长比数值,产生一对应至此影像信号的深度图。
为达成上述目的,本发明的深度图产生方法,用于产生一对应至一影像信号的深度图,此影像信号包含多个影像区块,且每一此多个影像区块于此深度图中分别被赋予一深度值,包括下列步骤:(A)接收一包含多个影像区块的影像区块分布图及一包含一感兴趣区块的感兴趣区块分布图;(B)对每一此多个影像区块进行一宽长比检测及一感兴趣区块重合比率计算;以及(C)依据此宽长比检测的结果及此感兴趣区块重合比率计算的结果,分别赋予每一此多个影像区块一深度值,以产生此深度图;其中,此多个影像区块具有多个影像元素,此宽长比检测用于计算出每一此多个影像区块的宽长比数值,且当其中的一此多个影像区块的宽长比数值低于一宽长比门限值时,此影像区块所被赋予的深度值与垂直邻近的另一影像区块所被赋予的深度值相同;此感兴趣区块重合比率计算则用于计算出每一此多个影像区块分别与此感兴趣区块的一重合比率,而互相邻近并分别具有一高于一重合比率门限值的重合比率的此多个影像区块则均被赋予相同的深度值。
因此,本发明的深度图产生方法能依据一影像信号中的一感兴趣区块的分布,以及此影像信号中各影像区块分别具有的宽长比数值,产生一对应至此影像信号的深度图。此外,本发明的深度图产生方法亦能依据一对应至一影像信号的深度图,以及另一亦对应至此影像信号的前一时间点的深度图,产生一调整后的深度图,以更精准地赋予一影像信号的每一影像区块一调整后的深度值,有效地提升一用于将2维平面影像信号转换为3维立体影像信号的影像转换系统的转换效率。
附图说明
图1是本发明一实施例的深度图产生方法的流程示意图。
图2是一包含多个影像区块的影像区块分布图的示意图。
图3A是本发明一实施例的深度图产生方法所使用的宽长比提取方法的流程示意图。
图3B是一显示使得一矩形框将此影像区块包围于其中,且使此矩形框与此影像区块的周边边缘切齐的状态的示意图。
图3C是在调整此矩形框于此影像信号中的大小及位置后,使得调整后的此矩形框将此影像区块的70%的面积包围于其中的状态的示意图。
图4A是显示本发明一实施例的深度图产生方法所使用的感兴趣区块分布图的产生方法的流程示意图。
图4B是显示一影像信号所具有的9个基准影像元素于此影像信号上的分布情况的示意图。
图4C是显示计算出多个影像元素及多个基准影像元素所具有的动态特征值的各计算步骤的示意图。
图4D是显示5个影像区块及1个感兴趣区块于一影像信号中的分布情况的示意图。
图4E是显示在图4D的5个影像区块中,其中4个影像区块被赋予相同深度值的分布情况的示意图。
图5A是显示赋予多个影像元素一相同深度值的情况的示意图。
图5B是显示赋予多个影像元素一线性分布的深度值的情况的示意图。
图5C是显示一用于赋予一待指定深度值的影像元素的深度值所使用的线性关系的示意图。
图6是显示本发明一实施例的深度图产生方法所使用的影像区块合并方法的流程示意图。
图7是本发明另一实施例的深度图产生方法的流程示意图。
图8是显示本发明另一实施例的深度图产生方法的步骤(D)所包含的各子步骤的流程示意图。
图9是显示产生前一时间点的深度图所依据的一向前移动向量及一向后移动向量之间关系的示意图。
【主要组件符号说明】
21、42第一影像区块        22、43第二影像区块
23、44第三影像区块        24、45第四影像区块
25、46第五影像区块        31影像区块
32具有70%面积的影像区块  41基准影像元素
47感兴趣区块
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明进一步详细说明。
请参阅图1,其为本发明一实施例的深度图产生方法的流程示意图。其中,本发明一实施例的深度图产生方法用于产生一对应至一影像信号的深度图,此影像信号包含多个影像区块,且每一此多个影像区块于此深度图中分别被赋予一深度值。而如图1所示,本发明一实施例的深度图产生方法包括下列步骤:
(A)接收一包含多个影像区块的影像区块分布图及一包含一感兴趣区块的感兴趣区块分布图;
(B)对每一此多个影像区块进行一宽长比检测及一感兴趣区块重合比率计算;以及
(C)依据此宽长比检测的结果及此感兴趣区块重合比率计算的结果,分别赋予每一此多个影像区块一深度值,以产生此深度图。
其中,在所述的影像信号中,这些影像区块具有多个影像元素。此外,在此影像信号中,所谓的“感兴趣区块”(region of interesting,ROI)是指整个影像信号中,特别需要被关注的部分,例如对应至一移动物体的影像区块部分。除此之外,在本发明一实施例的深度图产生方法的步骤(B)中所被执行的宽长比检测用于计算出每一个影像区块的宽长比数值(aspect ratiovalue),而另一被执行的感兴趣区块重合比率计算则用于计算出每一个影像区块分别与一感兴趣区块的一重合比率(overlapping percentage)。
接着,于本发明一实施例的深度图产生方法的步骤(C)中则依据于步骤(B)执行宽长比检测后所得的结果,如一影像区块的宽长比数值,以及执行感兴趣区块重合比率计算后所得的结果,如一影像区块与一感兴趣区块重合的部分的面积数值除以此影像区块的面积数值所得出的比率,分别赋予每一个影像区块一深度值。如此,便可产生一对应至此影像信号的深度图。
以下,将结合一个例子,详细描述本发明一实施例的深度图产生方法:
首先,请参阅图2,其为一包含多个影像区块的影像区块分布图的示意图。其中,此影像区块分布图包含5个影像区块,分别为对应至人物头部的第一影像区块21、对应至人物头发的第二影像区块22、对应至人物手指部分的第三影像区块23、对应至人物身体部分的第四影像区块24及对应至背景部分的第五影像区块25。
接着,如本发明一实施例的深度图产生方法的步骤(B)所述,分别对这5个影像区块进行一宽长比检测及一感兴趣区块重合比率计算。在本实施例中,所述的宽长比检测是指对一影像区块执行一宽长比提取方法。而如图3A所示,此宽长比提取方法包括下列步骤:
从此影像信号中提取出此影像区块,且计算出此影像区块的面积数值;
以一矩形框将此影像区块包围于其中,且使此矩形框与此影像区块的周边边缘切齐;
调整此矩形框于此影像信号中的大小及位置,使得调整后的此矩形框将此影像区块的70%的面积包围于其中;以及
计算出调整后的此矩形框的宽长比数值,且将此调整后的此矩形框的宽长比数值设定为此影像区块的宽长比数值。
其中,如图3B所示,其显示使得一矩形框将此影像区块31包围于其中,并使此矩形框与此影像区块31的周边边缘切齐的状态的示意图。接着,调整此矩形框于此影像信号中的大小及位置,使得调整后的此矩形框将此影像区块的70%的面积32包围于其中,如图3C所示。
在此例子中,先对第一影像区块21(对应至人物头部)执行所述的宽长比提取方法,得出第一影像区块21的宽长比数值为0.45(45/99),接着,此宽长比数值与一宽长比门限值(aspect ratio threshold)互相比较。在本实施例中,此宽长比门限值介于1.1至1.3之间,较佳为1.1765或1.25。
如前所述,由于第一影像区块21的宽长比数值(0.45)低于所述的宽长比门限值,故第一影像区块21所被赋予的深度值便与垂直邻近的另一影像区块(如对应至人物身体部分的第四影像区块24)所被赋予的深度值相同。至于要执行所述的宽长比检测的原因在于要判断出一影像区块是否对应于一站立物体,例如一个人或一棵树等。而如果某些影像区块经过执行所述的宽长比检测后,被判断出对应至一个站立物体,例如所述的对应至人物头部的第一影像区块21、对应至人物头发的第二影像区块22、对应至人物手指部分的第三影像区块23及对应至人物身体部分的第四影像区块24均被判断出对应至一个人物,这些影像区块便可合理地被赋予相同的深度值(因相对于身后的背景,同属于一个人物的这些影像区块的深度值几乎可视作完全相同)。
另一方面,在本实施例中,所述的感兴趣区块重合比率计算用于计算出每一个影像区块分别与一感兴趣区块的一重合比率。其中,此重合比率是指每一影像区块与此感兴趣区块重合的部分的面积数值除以每一此多个影像区块的面积数值所得出的比率。至于如何得出一包含一感兴趣区块的感兴趣区块,描述如下:
在本实施例中,所述的感兴趣区块分布图为执行一感兴趣区块分布图产生方法后得到。而如图4A所示,此感兴趣区块分布图产生方法包括下列步骤:
接收此影像信号,此影像信号具有多个影像元素及多个基准影像元素;
计算出此多个影像元素及此多个基准影像元素所分别具有的一动态特征值;
依据每一此多个影像元素的此动态特征值及每一此多个基准影像元素的此动态特征值,将每一此多个影像元素及每一此多个基准影像元素分类至多个类别;以及
依据此多个基准影像元素所被分类至此多个类别的结果,从此多个类别中提取出一构成一感兴趣区块的类别,且将被分类至此类别的此多个影像元素及此多个基准影像元素设定为此影像信号的此感兴趣区块。
其中,在本实施例中,所述所应用的多个基准影像元素41的数目为9个,且它们均等地位于一影像信号中,如图4B所示。
此外,如图4C所示,此多个影像元素及此多个基准影像元素所分别具有的一动态特征值(motion feature value)以下列步骤计算得到:
接收此影像信号,此影像信号具有此多个影像元素及此多个基准影像元素;
计算出此多个影像元素及此多个基准影像元素所分别具有的一动态参数;
依据此多个基准影像元素的此动态参数,计算出此影像信号的一广域动态参数,且依据此多个影像元素的此动态参数,计算出每一此多个影像元素的一元素动态参数;以及
依据将每一此多个影像元素的此元素动态参数与此影像信号的此广域动态参数相互比较的结果,分别计算出每一此多个影像元素的动态特征值,且依据将每一此多个基准影像元素的此元素动态参数与此影像信号的此广域动态参数比较的结果,分别计算出每一此多个基准影像元素的动态特征值。
其中,此多个影像元素及此多个基准影像元素所分别具有的一动态参数先通过比较这些影像元素(基准影像元素)在此影像信号中与前一影像信号中的位置差异的方式,得出一移动向量(motion vector)的X轴分量MVx与此移动向量的Y轴分量MVy。接着,再经过一数值计算(magnitudeoperation)后,以得出所述的动态参数(motion parameter)。
另一方面,在得出所述的9个基准影像元素41所分别具有的动态参数后,便经过一中位数程序,以提取出这9个动态参数的一中位数值。之后,便将此中位数值设定为此影像信号的广域动态参数(GMP)。此外,此多个影像元素的此动态参数便设定为出每一此多个影像元素的一元素动态参数(PMP)。
除此之外,所述的“依据将每一此多个影像元素的此元素动态参数与此影像信号的此广域动态参数相互比较的结果,分别计算出每一此多个影像元素的动态特征值”是指提取一影像元素的“元素动态参数”(PMP)与此影像信号的“广域动态参数”(GMP)两者中,数值较大者为此影像元素的“动态特征值”。同理,所述的“依据将每一此多个基准影像元素的此元素动态参数与此影像信号的此广域动态参数相互比较的结果,分别计算出每一此多个基准影像元素的动态特征值”是指提取一基准影像元素的“元素动态参数”(PMP)与此影像信号的“广域动态参数”(GMP)两者中,数值较大者为此基准影像元素的“动态特征值”。
如此,便可得出此影像信号中,所有影像元素及所有基准影像元素所分别具有的“动态特征值”。
请再参阅图4A,当得出此影像信号中,所有影像元素及所有基准影像元素所分别具有的“动态特征值”后,便依据每一影像元素的此动态特征值及每一基准影像元素的此动态特征值,将每一影像元素及每一基准影像元素分类至多个类别。一般而言,此分类可使用K-means分群算法、CRLA(constraint run length algorithm)分群算法或SBKM(Symmetry distanceBased K-means algorithm)分群算法等。但在本实施例中,较佳使用K-means分群算法。
随后,依据这些基准影像元素所被分类至此多个类别的结果,即这9个基准影像元素被分类至多个类别的结果,从这些类别中提取出一构成一感兴趣区块的类别。在本实施例中,这9个基准影像元素被分类至2个类别,即一包含动态特征值等于一动态特征值最低门限值的多个基准影像元素的类别及另一包含动态特征值高于此动态特征值最低门限值的多个基准影像元素的类别。在本实施例中,所述的动态特征值最低门限值为4。
此时,除了所述的9个基准影像元素外,此影像信号所具有的多个影像元素亦被分类至所述的2个类别。即一包含动态特征值等于此动态特征值最低门限值的多个影像元素的类别及另一包含动态特征值高于此动态特征值最低门限值的多个影像元素的类别。
之后,依据各类别所包含的基准影像元素的数目,提取包含较少数目的基准影像元素的类别为一构成一感兴趣区块的类别。意即,构成此感兴趣区块的类别所具有的基准影像元素的数目低于其余未构成此感兴趣区块的类别所具有的基准影像元素的数目。
最后,此被提取为一构成一感兴趣区块的类别所包含的多个影像元素及多个基准影像元素,即被分类至此感兴趣区块的类别的多个影像元素及多个基准影像元素,便被设定为此影像信号的此感兴趣区块(ROI)。
如此,便可得出本发明一实施例的深度图产生方法的步骤(A)所接收的包含一感兴趣区块的感兴趣区块分布图,如图4D所示。其中,一共有5个影像区块位于图4D中,它们分别为第一影像区块42、第二影像区块43、第三影像区块44、第四影像区块45及第五影像区块46。此外,虚线所包围的范围为感兴趣区块47。
接着,便执行所述的感兴趣区块重合比率计算流程,以分别计算出每一个影像区块的重合比率。而经过计算之后,除了第三影像区块44之外,其余4个影像区块(即第一影像区块42、第二影像区块43、第四影像区块45及第五影像区块46)的重合比率均高于一重合比率门限值。一般而言,此重合比率门限值介于50%至80%之间。但是,在本实施例中,此重合比率门限值为60%。
所以,如图4E所示,由于所述的4个影像区块(即被阴影区覆盖的部分)互相邻近且分别具有一高于一重合比率门限值的重合比率,故它们均被赋予相同的深度值。
而如前所述,经过执行本发明一实施例的深度图产生方法的步骤(B)后,每一个影像区块的宽长比数值及重合比率均已经被计算出来。而依据每一个影像区块的宽长比数值与一宽长比门限值之间的数值关系,以及重合比率与一重合比率门限值之间的数值关系,分别赋予每一个影像区块一深度值。如此,便可产生一对应至此影像信号的深度图。
以下,将分别描述在不同数值关系情况下,本发明一实施例的深度图产生方法如何赋予一影像区块一深度值。
首先,当此影像区块的宽长比数值低于此宽长比门限值,或此影像区块的重合比率高于此重合比率门限值时,此影像区块所被赋予的深度值D由下列公式计算得到:
D = 1 - VLP h ; - - - ( 1 )
其中,VLP为在此影像区块、垂直邻近此影像区块的另一影像区块及与此影像区块互相邻近的多个影像区块中,于此影像信号中的最低影像元素的位置,h则为此影像信号的高度数值。而所述的影像区块于此影像信号中的分布状态,则如图5A所示。
而如前所述,由于此影像区块的宽长比数值低于此宽长比门限值,或此影像区块的重合比率高于此重合比率门限值,故此影像区块、垂直邻近此影像区块的另一影像区块及与此影像区块互相邻近的多个影像区块所被赋予的深度值均为D。
其次,当此影像区块的宽长比数值不低于此宽长比门限值,且此影像区块的重合比率不高于此重合比率门限值时,此影像区块所被赋予的深度值D由下列公式计算得到:
D = D min + ( D max - D min ) × ( VCP - VLP ) ( VHP - VLP ) ; - - - ( 2 )
其中,VHP为在此影像区块、垂直邻近此影像区块的另一影像区块及与此影像区块互相邻近的多个影像区块中,于此影像信号中的最高影像元素的位置;VLP为在此影像区块、垂直邻近此影像区块的另一影像区块及与此影像区块互相邻近的多个影像区块中,于此影像信号中的最低影像元素的位置;VCP为在此影像区块、垂直邻近此影像区块的另一影像区块及与此影像区块互相邻近的多个影像区块中,于此影像信号中的一待指定深度值的影像元素的位置;h为此影像信号的高度,Dmin为最小深度值,其数值为
Figure BDA0000157576830000103
Dmax则为最大深度值,其数值为
Figure BDA0000157576830000104
而所述的影像区块于此影像信号中的分布状态,则如图5B所示。
而由式2的公式可看出,在本实施例中,此影像区块的一待指定深度值的影像元素的深度值,以线性关系对应至此影像元素于此影像信号中的位置,而此关系则如图5C所示。然而,在某些应用情况中,所述的线性关系亦可更改其他不同类型的关系,如二阶关系或三阶关系等。
在本发明一实施例的深度图产生方法中,其步骤(A)所接收的影像区块分布图为执行一影像区块合并方法后得到。而如图6所示,此影像区块合并方法包括下列步骤:
(A)接收此影像信号;
(B)提取每一此多个影像区块所分别具有的面积数值及周长数值,以计算出每一此多个影像区块所具有的紧致度数值;
(C)依据每一此多个影像区块所具有的紧致度数值,将此多个影像区块以一由面积数值大的影像区块依序排列至面积数值小的影像区块的顺序排序;
(D)依据此由面积数值大的影像区块依序排列至面积数值小的影像区块的顺序,对每一此多个影像区块进行一合并测试,以形成一暂存影像合并区块,此暂存影像合并区块包含其中的一此多个影像区块与相邻的另一此多个影像区块,且提取出此暂存影像合并区块的面积数值及周长数值,以计算出此暂存影像合并区块的紧致度数值;以及
(E)将此暂存影像合并区块的紧致度数值与其中的一此多个影像区块的紧致度数值互相比较,且当此暂存影像合并区块的紧致度数值高于其中的一此多个影像区块的紧致度数值时,将此暂存影像合并区块设定为此影像合并区块。
由于应用各种参数,如影像区块的色彩特征、影像区块的纹理特征或影像区块的紧致度数值以作为判断相邻影像区块是否应合并的算法已经广为业界所使用,故所述的基于一影像区块的紧致度数值而将多个影像区块合并为一影像合并区块的影像区块合并方法的详细步骤,在此便不再赘述。
因此,本发明一实施例的深度图产生方法确实能依据一影像信号中的一感兴趣区块的分布,以及此影像信号中各影像区块分别具有的宽长比数值,产生一对应至此影像信号的深度图。
请参阅图7,其为本发明另一实施例的深度图产生方法的流程示意图。其中,本发明另一实施例的深度图产生方法用于产生对应至一影像信号的一调整后的深度图,此影像信号包含多个影像区块,且每一此多个影像区块于此调整后的深度图中分别被赋予一深度值。而如图7所示,本发明另一实施例的深度图产生方法包括下列步骤:
(A)接收一包含多个影像区块的影像区块分布图及一包含一感兴趣区块的感兴趣区块分布图;
(B)对每一此多个影像区块进行一宽长比检测及一感兴趣区块重合比率计算;
(C)依据此宽长比检测的结果及此感兴趣区块重合比率计算的结果,分别赋予每一此多个影像区块一深度值,以产生此深度图;以及
(D)依据此深度图及一前一时间点的深度图,产生一调整后的深度图。
其中,此多个影像区块具有多个影像元素,此宽长比检测用于计算出每一此多个影像区块的宽长比数值,且当其中的一此多个影像区块的宽长比数值低于一宽长比门限值时,此影像区块所被赋予的深度值与垂直邻近的另一影像区块所被赋予的深度值相同;此感兴趣区块重合比率计算则用于计算出每一此多个影像区块分别与此感兴趣区块的一重合比率,而互相邻近并分别具有一高于一重合比率门限值的重合比率的此多个影像区块则均被赋予相同的深度值。
而由于在本发明另一实施例的深度图产生方法中,步骤(A)至步骤(C)即为本发明一实施例的深度图产生方法所包含的步骤(A)至步骤(C),故关于本发明另一实施例的深度图产生方法中,步骤(A)至步骤(C)的详细运作程序及各种可能的形式,在此便不再赘述。
但关于本发明另一实施例的深度图产生方法的步骤(D)的详细运作程序,描述于下:
如图8所示,其为显示本发明另一实施例的深度图产生方法的步骤(D)所包含的各子步骤的流程图。其中,本发明另一实施例的深度图产生方法的步骤(D)包含:
(D1)接收此深度图及此前一时间点的深度图;
(D2)将每一此多个影像区块于此深度图中所分别被赋予的深度值与每一此多个影像区块于此前一时间点的深度图中所分别被赋予的深度值互相比较;以及
(D3)依据比较所得的结果,分别赋予每一此多个影像区块一调整后的深度值,以产生此调整后的深度图。
除此之外,在本发明另一实施例的深度图产生方法中,步骤(D)所依据的前一时间点的深度图为应用一前一时间点的深度图计算公式,依据一向前移动向量及一向后移动向量,而从此深度图计算得到。其中,所述的前一时间点的深度图计算公式为:
DVT(x,y,t)=DVT(x′,y′,t-1);(3)
其中,
x ′ = x - ( FW _ MV x - BW _ MV x ) 2 ; - - - ( 4 )
y ′ = y - ( FW _ MV y - BW _ MV y ) 2 . - - - ( 5 )
而在式3、式4及式5中,DVT(x,y,t)为在此影像信号中,此影像区块于此深度图中的位置,DVT(x′,y′,t-1)则为此影像区块于此前一时间点的深度图中的位置,FW_MVx为此向前移动向量(forward motion vector)的X轴分量,FW_MVy为此向前移动向量的Y轴分量,BW_MVx为此向后移动向量(backward motion vector)的X轴分量,BW_MVy则为此向后移动向量的Y轴分量。除此之外,在所述的式3、式4及式5中所出现的各参数之间的关系,则可由图9看出。
请再参阅图8,在步骤(D2)中,每一个影像区块于此深度图中所分别被赋予的深度值与同一个影像区块于此前一时间点的深度图中所被赋予的深度值互相比较。之后,在步骤(D3)中,便依据步骤(D2)中所比较出来的结果,分别赋予每一个影像区块一调整后的深度值。如此,便可产生此调整后的深度图。而依据一存在于每一个影像区块于此深度图中所分别被赋予的深度值与同一个影像区块于此前一时间点的深度图中所被赋予的深度值之间的数值关系,本发明另一实施例的深度图产生方法依据不同的设定,分别赋予每一个影像区块一调整后的深度值。
首先,第1种情况:当(1)一当一介于此影像区块于此前一时间点的深度图中所被赋予的深度值(DVT)与同一个影像区块于此深度图中所被赋予的深度值(DVS)之间的差值低于一调整门限值(ΔE),即DVT-DVS<ΔE;以及(2)当此影像区块于此前一时间点的深度图中所被赋予的深度值(DVT)低于1减去此调整门限值(ΔE)所得的数值,即DVT<1-ΔE时,此影像区块于此调整后的深度图中所被赋予的深度值D被设定为:
此影像区块于此前一时间点的深度图中所被赋予的深度值(DVT)加上此调整门限值(ΔE)。意即,D=DVT+ΔE。
其次,第2种情况:当(1)一当一介于此影像区块于此前一时间点的深度图中所被赋予的深度值(DVT)与同一个影像区块于此深度图中所被赋予的深度值(DVS)之间的差值高于一调整门限值(ΔE),即DVT-DVS>ΔE;以及(2)当此影像区块于此前一时间点的深度图中所被赋予的深度值(DVT)高于此调整门限值(ΔE),即DVT>ΔE时,此影像区块于此调整后的深度图中所被赋予的深度值D被设定为:
此影像区块于此前一时间点的深度图中所被赋予的深度值(DVT)减去此调整门限值(ΔE)。意即,D=DVT-ΔE。
最后,若前述的两种情况均未发生时,此影像区块于此调整后的深度图中所被赋予的深度值D被设定为:
此影像区块于此前一时间点的深度图中所被赋予的深度值(DVT)。意即,D=DVT。
因此,本发明另一实施例的深度图产生方法确实能通过将一深度图与另一前一时间点的深度图互相比较的方式,本发明的深度图产生方法可产生一调整后的深度图,以更精准地赋予一影像信号的每一影像区块一调整后的深度值,有效地提升一用于将2维平面影像信号转换为3维立体影像信号的影像转换系统的转换效率。
以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施例而已,并不用于限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (14)

1.一种深度图产生方法,用于产生一对应至一影像信号的深度图,其特征在于,该影像信号包含多个影像区块,且每一该多个影像区块于该深度图中分别被赋予一深度值,包括下列步骤:
(A)接收一包含多个影像区块的影像区块分布图及一包含一感兴趣区块的感兴趣区块分布图;
(B)对每一该多个影像区块进行宽长比检测及感兴趣区块重合比率计算;以及
(C)依据该宽长比检测的结果及该感兴趣区块重合比率计算的结果,分别赋予每一该多个影像区块一深度值,以产生该深度图;
其中,该多个影像区块具有多个影像元素,该宽长比检测用于计算出每一该多个影像区块的宽长比数值,且当其中的一该多个影像区块的宽长比数值低于一宽长比门限值时,该影像区块所被赋予的深度值与垂直邻近的另一影像区块所被赋予的深度值相同;该感兴趣区块重合比率计算则用于计算出每一该多个影像区块分别与该感兴趣区块的一重合比率,而互相邻近并分别具有一高于一重合比率门限值的重合比率的该多个影像区块则均被赋予相同的深度值。
2.如权利要求1所述的深度图产生方法,其特征在于,其中在步骤(C)中,当其中的一该多个影像区块的宽长比数值低于该宽长比门限值,或其中的一该多个影像区块的重合比率高于该重合比率门限值时,其中的一该多个影像区块所被赋予的深度值D由下列公式计算:
D = 1 - VLP h ;
其中,VLP为在其中的一该多个影像区块、垂直邻近的另一影像区块及互相邻近的该多个影像区块中,于该影像信号中的最低影像元素的位置,h则为该影像信号的高度数值。
3.如权利要求1所述的深度图产生方法,其特征在于,其中在步骤(C)中,当其中的一该多个影像区块的宽长比数值不低于该宽长比门限值,且其中的一该多个影像区块的重合比率不高于该重合比率门限值时,其中的一该多个影像区块所被赋予的深度值D由下列公式计算:
D = D min + ( D max - D min ) × ( VCP - VLP ) ( VHP - VLP ) ;
其中,VHP为其中的一该多个影像区块、垂直邻近的另一影像区块及互相邻近的该多个影像区块中,于该影像信号中的最高像素元素的位置,VLP为其中的一该多个影像区块、垂直邻近的另一影像区块及互相邻近的该多个影像区块中,于该影像信号中的最低像素元素的位置,VCP为其中的一该多个影像区块、垂直邻近的另一影像区块及互相邻近的该多个影像区块中,于该影像信号中的一待指定深度值的影像元素的位置,h为该影像信号的高度,Dmin
Figure FDA0000157576820000022
Dmax则为
Figure FDA0000157576820000023
4.如权利要求1所述的深度图产生方法,其特征在于,其中该影像区块分布图为进行一影像区块合并方法后得到,且该影像区块合并方法包括下列步骤:
(A)接收该影像信号;
(B)提取每一该多个影像区块所分别具有的面积数值及周长数值,以计算出每一该多个影像区块所具有的紧致度数值;
(C)依据每一该多个影像区块所具有的紧致度数值,将该多个影像区块以一由面积数值大的影像区块依序排列至面积数值小的影像区块的顺序排序;
(D)依据该由面积数值大的影像区块依序排列至面积数值小的影像区块的顺序,对每一该多个影像区块进行合并测试,以形成一暂存影像合并区块,该暂存影像合并区块包含其中的一该多个影像区块与相邻的另一该多个影像区块,且提取出该暂存影像合并区块的面积数值及周长数值,以计算出该暂存影像合并区块的紧致度数值;以及
(E)将该暂存影像合并区块的紧致度数值与其中的一该多个影像区块的紧致度数值互相比较,且当该暂存影像合并区块的紧致度数值高于其中的一该多个影像区块的紧致度数值时,将该暂存影像合并区块设定为该影像合并区块。
5.如权利要求1所述的深度图产生方法,其特征在于,其中该宽长比门限值介于1.1至1.3之间,该重合比率指每一该多个影像区块与该感兴趣区块重合的部分的面积数值除以每一该多个影像区块的面积数值所得到的比率,且该重合比率门限值则介于50%至80%之间。
6.如权利要求1所述的深度图产生方法,其特征在于,其中在步骤(B)中,其中的一该多个影像区块的宽长比数值为执行一宽长比提取方法而得到,且该宽长比提取方法包括下列步骤:
从该影像信号中提取出该影像区块,且计算出该影像区块的面积数值;
以一矩形框将该影像区块包围于其中,且使该矩形框与该影像区块的周边边缘切齐;
调整该矩形框于该影像信号中的大小及位置,使得调整后的该矩形框将该影像区块的70%的面积包围于其中;以及
计算出调整后的该矩形框的宽长比数值,且将该调整后的该矩形框的宽长比数值设定为该影像区块的宽长比数值。
7.如权利要求1所述的深度图产生方法,其特征在于,其中该感兴趣区块分布图执行一感兴趣区块分布图产生方法后得到,且该感兴趣区块分布图产生方法包括下列步骤:
接收该影像信号,该影像信号具有多个影像元素及多个基准影像元素;
计算出该多个影像元素及该多个基准影像元素所分别具有的一动态特征值;
依据每一该多个影像元素的该动态特征值及每一该多个基准影像元素的该动态特征值,将每一该多个影像元素及每一该多个基准影像元素分类至多个类别;以及
依据该多个基准影像元素所被分类至该多个类别的结果,从该多个类别中提取出一构成一感兴趣区块的类别,且将被分类至该类别的该多个影像元素及该多个基准影像元素设定为该影像信号的该感兴趣区块。
8.如权利要求7所述的深度图产生方法,其特征在于,其中构成该感兴趣区块的类别所具有的该多个基准影像元素的数目低于其余未构成该感兴趣区块的类别所具有的该多个基准影像元素的数目。
9.如权利要求7所述的深度图产生方法,其特征在于,其中该多个影像元素及该多个基准影像元素所分别具有的该动态特征值以下列步骤计算得到:
接收该影像信号,该影像信号具有该多个影像元素及该多个基准影像元素;
计算出该多个影像元素及该多个基准影像元素所分别具有的一动态参数;
依据该多个基准影像元素的该动态参数,计算出该影像信号的一广域动态参数,且依据该多个影像元素的该动态参数,计算出每一该多个影像元素的一元素动态参数;以及
依据将每一该多个影像元素的该元素动态参数与该影像信号的该广域动态参数相互比较的结果,分别计算出每一该多个影像元素的动态特征值。
10.如权利要求1所述的深度图产生方法,其特征在于,更包括一步骤(D),依据该深度图及一前一时间点的深度图,产生一调整后的深度图,其中该步骤包括:
(D1)接收该深度图及该前一时间点的深度图;
(D2)将每一该多个影像区块于该深度图中所分别被赋予的深度值与每一该多个影像区块于该前一时间点的深度图中所分别被赋予的深度值互相比较;以及
(D3)依据比较所得的结果,分别赋予每一该多个影像区块一调整后的深度值,以产生该调整后的深度图。
11.如权利要求10所述的深度图产生方法,其特征在于,其中该前一时间点的深度图为应用一前一时间点的深度图计算公式,依据一向前移动向量及一向后移动向量,而从该深度图计算得到;
其中,该前一时间点的深度图的计算公式为:
DVT(x,y,t)=DVT(x′,y′,t-1);
x ′ = x - ( FW _ MV x - BW _ MV x ) 2 ;
y ′ = y - ( FW _ MV y - BW _ MV y ) 2 ;
其中,DVT(x,y,t)为在该影像信号中,该影像区块于该深度图中的位置,DVT(x′,y′,t-1)则为该影像区块于该前一时间点的深度图中的位置,FW_MVx为该向前移动向量的X轴分量,FW_MVy为该向前移动向量的Y轴分量,BW_MVx为该向后移动向量的X轴分量,BW_MVy则为该向后移动向量的Y轴分量。
12.如权利要求10所述的深度图产生方法,其特征在于,其中在步骤(D3)中,当一介于其中的一该多个影像区块于该前一时间点的深度图中所被赋予的深度值与其中的一该多个影像区块于该深度图中所被赋予的深度值之间的差值低于一调整门限值,且其中的一该多个影像区块于该前一时间点的深度图中所被赋予的深度值低于1减去该调整门限值所得的数值时,其中的一该多个影像区块于该调整后的深度图中所被赋予的深度值被设定为其中的一该多个影像区块于该前一时间点的深度图中所被赋予的深度值加上该调整门限值。
13.如权利要求12所述的深度图产生方法,其特征在于,其中在步骤(D3)中,当一介于其中的一该多个影像区块于该前一时间点的深度图中所被赋予的深度值与其中的一该多个影像区块于该深度图中所被赋予的深度值之间的差值高于该调整门限值,且其中的一该多个影像区块于该前一时间点的深度图中所被赋予的深度值高于该调整门限值时,其中的一该多个影像区块于该调整后的深度图中所被赋予的深度值被设定为其中的一该多个影像区块于该前一时间点的深度图中所被赋予的深度值减去该调整门限值。
14.如权利要求13所述的深度图产生方法,其特征在于,其中在步骤(D3)中,其中的一该多个影像区块于该调整后的深度图中所被赋予的深度值被设定为其中的一该多个影像区块于该前一时间点的深度图中所被赋予的深度值。
CN201210127026.3A 2011-04-26 2012-04-26 深度图产生方法 Active CN102761767B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201161478965P 2011-04-26 2011-04-26
US61/478,965 2011-04-26

Publications (2)

Publication Number Publication Date
CN102761767A true CN102761767A (zh) 2012-10-31
CN102761767B CN102761767B (zh) 2014-12-10

Family

ID=47054745

Family Applications (5)

Application Number Title Priority Date Filing Date
CN201210127026.3A Active CN102761767B (zh) 2011-04-26 2012-04-26 深度图产生方法
CN201210127085.0A Active CN102843497B (zh) 2011-04-26 2012-04-26 影像区块合并方法
CN201210126427.7A Active CN102761766B (zh) 2011-04-26 2012-04-26 色彩特征撷取方法
CN201210127030XA Pending CN102760292A (zh) 2011-04-26 2012-04-26 利用纹理特征的影像分割法
CN201210127035.2A Active CN102802005B (zh) 2011-04-26 2012-04-26 三维视频内容产生方法

Family Applications After (4)

Application Number Title Priority Date Filing Date
CN201210127085.0A Active CN102843497B (zh) 2011-04-26 2012-04-26 影像区块合并方法
CN201210126427.7A Active CN102761766B (zh) 2011-04-26 2012-04-26 色彩特征撷取方法
CN201210127030XA Pending CN102760292A (zh) 2011-04-26 2012-04-26 利用纹理特征的影像分割法
CN201210127035.2A Active CN102802005B (zh) 2011-04-26 2012-04-26 三维视频内容产生方法

Country Status (3)

Country Link
US (5) US8774502B2 (zh)
CN (5) CN102761767B (zh)
TW (5) TWI467516B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108280851A (zh) * 2017-01-05 2018-07-13 钰立微电子股份有限公司 深度图产生装置
CN109429560A (zh) * 2017-06-21 2019-03-05 深圳配天智能技术研究院有限公司 一种图像处理方法、装置、系统及计算机存储介质

Families Citing this family (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8498480B2 (en) 2009-02-25 2013-07-30 The United States Of America, As Represented By The Secretary Of The Navy Computationally efficient method for image segmentation with intensity and texture discrimination
US8922628B2 (en) * 2009-09-01 2014-12-30 Prime Focus Vfx Services Ii Inc. System and process for transforming two-dimensional images into three-dimensional images
US8718356B2 (en) * 2010-08-23 2014-05-06 Texas Instruments Incorporated Method and apparatus for 2D to 3D conversion using scene classification and face detection
US8983121B2 (en) * 2010-10-27 2015-03-17 Samsung Techwin Co., Ltd. Image processing apparatus and method thereof
US9483836B2 (en) * 2011-02-28 2016-11-01 Sony Corporation Method and apparatus for real-time conversion of 2-dimensional content to 3-dimensional content
TWI467516B (zh) * 2011-04-26 2015-01-01 Univ Nat Cheng Kung 色彩特徵擷取方法
JP5884966B2 (ja) * 2011-09-09 2016-03-15 富士ゼロックス株式会社 画像処理装置および画像処理プログラム
US9041773B2 (en) * 2011-11-22 2015-05-26 Corel Corporation Conversion of 2-dimensional image data into 3-dimensional image data
US9299127B2 (en) * 2012-09-21 2016-03-29 ImmerVision Splitting of elliptical images
GB201217721D0 (en) * 2012-10-03 2012-11-14 Holition Ltd Video image processing
EP2747028B1 (en) 2012-12-18 2015-08-19 Universitat Pompeu Fabra Method for recovering a relative depth map from a single image or a sequence of still images
US9262690B2 (en) * 2013-08-27 2016-02-16 Htc Corporation Method and device for detecting glare pixels of image
CN103530882B (zh) * 2013-10-17 2017-02-08 南京大学 一种改进的基于图和色彩纹理特征的图像分割方法
KR20150100113A (ko) * 2014-02-24 2015-09-02 삼성전자주식회사 영상 처리 장치 및 이의 영상 처리 방법
US10021366B2 (en) * 2014-05-02 2018-07-10 Eys3D Microelectronics, Co. Image process apparatus
CN103957402B (zh) * 2014-05-07 2015-10-21 四川虹微技术有限公司 一种实时全高清2d转3d系统行读写时序设计方法
CN104268535B (zh) * 2014-10-10 2017-12-19 上海海事大学 一种二维图像的特征提取方法
CN104318232B (zh) * 2014-10-16 2018-03-30 中国人民解放军第三军医大学第三附属医院 基于图像处理的椎间盘自动定位方法
US9292926B1 (en) 2014-11-24 2016-03-22 Adobe Systems Incorporated Depth map generation
GB2533450B (en) * 2014-12-19 2019-07-24 Adobe Inc Settings of a digital camera for depth map refinement
CN104616341A (zh) * 2015-02-06 2015-05-13 浪潮集团有限公司 一种图像处理方法
TWI623889B (zh) * 2015-03-17 2018-05-11 國立高雄應用科技大學 三維手勢影像辨識方法及其系統
TWI616763B (zh) * 2015-09-25 2018-03-01 財團法人工業技術研究院 視訊索引建立方法及應用其之裝置
US10264238B2 (en) * 2015-11-12 2019-04-16 Bitanimate, Inc. Stereoscopic mapping
TWI588777B (zh) * 2015-12-29 2017-06-21 Method of Fuzzy Clustering Automated Contrast Change
CN106934846B (zh) * 2015-12-29 2020-05-22 深圳先进技术研究院 一种布料图像处理方法及系统
CN105678285B (zh) * 2016-02-18 2018-10-19 北京大学深圳研究生院 一种自适应的道路鸟瞰图变换方法和道路车道检测方法
CN105678341B (zh) * 2016-02-19 2018-11-13 天纺标检测认证股份有限公司 一种基于Gabor小波分析的羊毛羊绒识别算法
CN106600676A (zh) * 2016-12-20 2017-04-26 飞狐信息技术(天津)有限公司 在三维虚拟场景中使用曲面播放3d视频的方法、装置及手机
CN107507206B (zh) * 2017-06-09 2021-08-20 合肥工业大学 一种基于显著性检测的深度图提取方法
CN107610118B (zh) * 2017-09-25 2020-12-08 中国科学院遥感与数字地球研究所 一种基于dM的图像分割质量评价方法
CN109214322A (zh) * 2018-08-27 2019-01-15 厦门哲林软件科技有限公司 一种文档图像视觉效果的优化方法及系统
CN109840914B (zh) * 2019-02-28 2022-12-16 华南理工大学 一种基于用户交互式的纹理分割方法
US11276250B2 (en) * 2019-10-23 2022-03-15 International Business Machines Corporation Recognition for overlapped patterns
CN110992320B (zh) * 2019-11-22 2023-03-21 电子科技大学 一种基于双重交错的医学图像分割网络
US11636683B2 (en) 2021-09-14 2023-04-25 Black Sesame Technologies Inc. Precise object segmentation with multi-modal input for realtime video application
CN116205788B (zh) * 2023-04-27 2023-08-11 粤港澳大湾区数字经济研究院(福田) 一种三维特征图的获取方法、图像处理方法及相关装置
CN116188786B (zh) * 2023-05-04 2023-08-01 潍坊医学院附属医院 一种肝胆管及胆道结石的图像分割系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100014781A1 (en) * 2008-07-18 2010-01-21 Industrial Technology Research Institute Example-Based Two-Dimensional to Three-Dimensional Image Conversion Method, Computer Readable Medium Therefor, and System
US20100328432A1 (en) * 2009-06-26 2010-12-30 Canon Kabushiki Kaisha Image reproducing apparatus, image capturing apparatus, and control method therefor
CN102023045A (zh) * 2010-10-18 2011-04-20 中国矿业大学(北京) 一种非接触式煤仓煤位光电测量方法与装置

Family Cites Families (54)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5671294A (en) * 1994-09-15 1997-09-23 The United States Of America As Represented By The Secretary Of The Navy System and method for incorporating segmentation boundaries into the calculation of fractal dimension features for texture discrimination
CN1258909C (zh) * 1998-07-30 2006-06-07 松下电器产业株式会社 动图象合成装置
US6721454B1 (en) * 1998-10-09 2004-04-13 Sharp Laboratories Of America, Inc. Method for automatic extraction of semantically significant events from video
US6169817B1 (en) * 1998-11-04 2001-01-02 University Of Rochester System and method for 4D reconstruction and visualization
US6192150B1 (en) * 1998-11-16 2001-02-20 National University Of Singapore Invariant texture matching method for image retrieval
US6625308B1 (en) * 1999-09-10 2003-09-23 Intel Corporation Fuzzy distinction based thresholding technique for image segmentation
US6658399B1 (en) * 1999-09-10 2003-12-02 Intel Corporation Fuzzy based thresholding technique for image segmentation
US6850644B1 (en) * 1999-10-01 2005-02-01 Samsung Electronics Co., Ltd. Method for analyzing texture of digital image
US6628827B1 (en) * 1999-12-14 2003-09-30 Intel Corporation Method of upscaling a color image
US7158178B1 (en) * 1999-12-14 2007-01-02 Intel Corporation Method of converting a sub-sampled color image
US6700999B1 (en) * 2000-06-30 2004-03-02 Intel Corporation System, method, and apparatus for multiple face tracking
US6571228B1 (en) * 2000-08-09 2003-05-27 Po-Tong Wang Hybrid neural networks for color identification
KR100378351B1 (ko) * 2000-11-13 2003-03-29 삼성전자주식회사 색-텍스추어 거리 측정 방법 및 장치와 이를 이용한영상의 영역 구분 방법 및 장치
US6801573B2 (en) * 2000-12-21 2004-10-05 The Ohio State University Method for dynamic 3D wavelet transform for video compression
KR100450793B1 (ko) * 2001-01-20 2004-10-01 삼성전자주식회사 영역 분할된 영상의 영역 특징치 정합에 기초한객체추출장치 및 그 방법
US6885765B2 (en) * 2001-04-04 2005-04-26 Mitsubishi Electric Research Laboratories, Inc. Method for determining compactness ratios of multiple data and signal sets
US20040259144A1 (en) 2003-05-27 2004-12-23 Nagabhushana Prabhu Method for diagnosing and treating breast cancer
US7496228B2 (en) 2003-06-13 2009-02-24 Landwehr Val R Method and system for detecting and classifying objects in images, such as insects and other arthropods
JP4080386B2 (ja) * 2003-07-01 2008-04-23 日本電信電話株式会社 奥行き情報の再生成方法、奥行き情報の再生成装置、プログラム、および記録媒体
JP2005122351A (ja) * 2003-10-15 2005-05-12 Seiko Epson Corp 顔画像候補領域検索方法及び検索システム並びに検索プログラム
TWI229556B (en) * 2003-12-22 2005-03-11 Sunplus Technology Co Ltd Method of motion detection for 3D comb filter video decoder
US7359555B2 (en) * 2004-10-08 2008-04-15 Mitsubishi Electric Research Laboratories, Inc. Detecting roads in aerial images using feature-based classifiers
US20060127881A1 (en) * 2004-10-25 2006-06-15 Brigham And Women's Hospital Automated segmentation, classification, and tracking of cell nuclei in time-lapse microscopy
CN100412681C (zh) * 2005-03-14 2008-08-20 佛山市顺德区顺达电脑厂有限公司 影像的补光方法
US8384763B2 (en) * 2005-07-26 2013-02-26 Her Majesty the Queen in right of Canada as represented by the Minster of Industry, Through the Communications Research Centre Canada Generating a depth map from a two-dimensional source image for stereoscopic and multiview imaging
TWI309136B (en) * 2005-12-01 2009-04-21 Novatek Microelectronics Corp Apparatus for adjusting specific color attributes and method thereof
US20070160266A1 (en) * 2006-01-11 2007-07-12 Jones Michael J Method for extracting features of irises in images using difference of sum filters
US8233712B2 (en) * 2006-07-28 2012-07-31 University Of New Brunswick Methods of segmenting a digital image
US8170293B2 (en) * 2006-09-15 2012-05-01 Identix Incorporated Multimodal ocular biometric system and methods
US8165407B1 (en) * 2006-10-06 2012-04-24 Hrl Laboratories, Llc Visual attention and object recognition system
CN101207829B (zh) 2006-12-18 2011-03-23 友达光电股份有限公司 用于显示器补偿色彩饱和度的方法及其相关装置
JP4845715B2 (ja) * 2006-12-22 2011-12-28 キヤノン株式会社 画像処理方法、画像処理装置、プログラム、及び記憶媒体
US8594180B2 (en) * 2007-02-21 2013-11-26 Qualcomm Incorporated 3D video encoding
US7826676B2 (en) * 2007-03-08 2010-11-02 Mitsubishi Electric Research Laboraties, Inc. Method for filtering data with arbitrary kernel filters
CA2627999C (en) * 2007-04-03 2011-11-15 Her Majesty The Queen In Right Of Canada, As Represented By The Minister Of Industry Through The Communications Research Centre Canada Generation of a depth map from a monoscopic color image for rendering stereoscopic still and video images
CN101489142B (zh) * 2008-01-15 2010-09-22 华晶科技股份有限公司 数字影像的彩色插补方法
US8487991B2 (en) * 2008-04-24 2013-07-16 GM Global Technology Operations LLC Clear path detection using a vanishing point
US8442355B2 (en) * 2008-05-23 2013-05-14 Samsung Electronics Co., Ltd. System and method for generating a multi-dimensional image
US8363913B2 (en) * 2008-09-05 2013-01-29 Purdue Research Foundation Dietary assessment system and method
CN101719361B (zh) * 2008-10-09 2012-04-11 华硕电脑股份有限公司 饱和度调整法与饱和度调整模块
EP2351377A1 (en) * 2008-10-21 2011-08-03 Koninklijke Philips Electronics N.V. Method and system for processing an input three dimensional video signal
CN102257825B (zh) * 2008-12-19 2016-11-16 皇家飞利浦电子股份有限公司 用于在3d视频上覆盖3d图形的方法和设备
CN101833772B (zh) 2009-03-09 2012-07-04 奇景光电股份有限公司 感知特征集的撷取方法及系统
US8963949B2 (en) * 2009-04-22 2015-02-24 Qualcomm Incorporated Image selection and combination method and device
US9124874B2 (en) * 2009-06-05 2015-09-01 Qualcomm Incorporated Encoding of three-dimensional conversion information with two-dimensional video sequence
KR20100135032A (ko) * 2009-06-16 2010-12-24 삼성전자주식회사 2차원 영상의 3차원 영상 변환 장치 및 방법
CN101930593B (zh) * 2009-06-26 2012-11-21 鸿富锦精密工业(深圳)有限公司 单一物体影像萃取系统及方法
JP2011049740A (ja) * 2009-08-26 2011-03-10 Sony Corp 画像処理装置および方法
JP5402504B2 (ja) * 2009-10-15 2014-01-29 株式会社Jvcケンウッド 擬似立体画像作成装置及び擬似立体画像表示システム
CN101720047B (zh) * 2009-11-03 2011-12-21 上海大学 基于颜色分割的多目摄像立体匹配获取深度图像的方法
CN101742349B (zh) * 2010-01-05 2011-07-20 浙江大学 一种对三维场景的表达方法及其电视系统
CN101908141B (zh) * 2010-08-04 2014-05-07 丁天 一种基于混合高斯模型和形态特征的视频烟雾检测方法
TWI467516B (zh) * 2011-04-26 2015-01-01 Univ Nat Cheng Kung 色彩特徵擷取方法
US8369595B1 (en) * 2012-08-10 2013-02-05 EyeVerify LLC Texture features for biometric authentication

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100014781A1 (en) * 2008-07-18 2010-01-21 Industrial Technology Research Institute Example-Based Two-Dimensional to Three-Dimensional Image Conversion Method, Computer Readable Medium Therefor, and System
US20100328432A1 (en) * 2009-06-26 2010-12-30 Canon Kabushiki Kaisha Image reproducing apparatus, image capturing apparatus, and control method therefor
JP2011010128A (ja) * 2009-06-26 2011-01-13 Canon Inc 再生装置、撮像装置、及びその制御方法
CN102023045A (zh) * 2010-10-18 2011-04-20 中国矿业大学(北京) 一种非接触式煤仓煤位光电测量方法与装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108280851A (zh) * 2017-01-05 2018-07-13 钰立微电子股份有限公司 深度图产生装置
CN108280851B (zh) * 2017-01-05 2024-04-19 钰立微电子股份有限公司 深度图产生装置
CN109429560A (zh) * 2017-06-21 2019-03-05 深圳配天智能技术研究院有限公司 一种图像处理方法、装置、系统及计算机存储介质
CN109429560B (zh) * 2017-06-21 2020-11-27 深圳配天智能技术研究院有限公司 一种图像处理方法、装置、系统及计算机存储介质

Also Published As

Publication number Publication date
CN102843497B (zh) 2015-06-10
CN102761766B (zh) 2015-01-28
TWI469086B (zh) 2015-01-11
CN102802005A (zh) 2012-11-28
US20120294521A1 (en) 2012-11-22
US8774502B2 (en) 2014-07-08
CN102761767B (zh) 2014-12-10
TW201243772A (en) 2012-11-01
TW201243769A (en) 2012-11-01
TWI543116B (zh) 2016-07-21
TWI467516B (zh) 2015-01-01
US20120301018A1 (en) 2012-11-29
CN102761766A (zh) 2012-10-31
US20120294516A1 (en) 2012-11-22
TWI469087B (zh) 2015-01-11
US8774503B2 (en) 2014-07-08
TW201243763A (en) 2012-11-01
CN102843497A (zh) 2012-12-26
US20120293499A1 (en) 2012-11-22
US20120301019A1 (en) 2012-11-29
TW201243768A (en) 2012-11-01
TWI455062B (zh) 2014-10-01
CN102760292A (zh) 2012-10-31
US8761501B2 (en) 2014-06-24
US9030468B2 (en) 2015-05-12
TW201243771A (en) 2012-11-01
CN102802005B (zh) 2014-11-05
US8948510B2 (en) 2015-02-03

Similar Documents

Publication Publication Date Title
CN102761767A (zh) 深度图产生方法
CN109934848B (zh) 一种基于深度学习的运动物体精准定位的方法
CN101651772B (zh) 一种基于视觉注意的视频感兴趣区域的提取方法
CN101937578B (zh) 一种虚拟视点彩色图像绘制方法
CN101853523B (zh) 一种采用草图创建三维人脸模型的方法
CN101282492B (zh) 三维影像显示深度调整方法
US9053575B2 (en) Image processing apparatus for generating an image for three-dimensional display
CN103198508A (zh) 人脸表情动画生成方法
CN105279789B (zh) 一种基于图像序列的三维重建方法
CN106530282B (zh) 基于空域特征的无参考立体图像质量客观评价方法
CN106162137A (zh) 虚拟视点合成方法及装置
CN101765022A (zh) 一种基于光流与图像分割的深度表示方法
CN103473743B (zh) 一种获取图像深度信息的方法
CN104077808A (zh) 一种用于计算机图形图像处理的、基于深度信息的实时三维人脸建模方法
CN102831584A (zh) 一种数据驱动的物体图像修复系统及方法
CN102271262A (zh) 用于3d显示的基于多线索的视频处理方法
CN103384343A (zh) 一种填补图像空洞的方法及其装置
CN104820981B (zh) 一种基于视差分层分割的图像立体表示方法及系统
CN104301706B (zh) 一种增强裸眼立体显示效果的合成方法
CN104318606A (zh) 3d脸型变化方法及系统
CN106683072B (zh) 一种基于pup图的3d图像舒适度质量评价方法及系统
CN105163104B (zh) 一种不产生空洞的中间视图合成方法
KR101121979B1 (ko) 입체 영상 변환 방법 및 입체 영상 변환 장치
CN102831603A (zh) 基于深度图后向映射的图像渲染方法和图像渲染装置
CN104616287A (zh) 一种用于3d图像采集与3d打印的移动终端及方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20220816

Address after: No. 20, Lane 182, Yude 2nd Road, North District, Tainan, Taiwan

Patentee after: Huixin Technology Co., Ltd.

Address before: Taiwan, Tainan, China

Patentee before: Li Guojun