CN104284192B - 图像处理设备和图像处理方法 - Google Patents

图像处理设备和图像处理方法 Download PDF

Info

Publication number
CN104284192B
CN104284192B CN201410315682.5A CN201410315682A CN104284192B CN 104284192 B CN104284192 B CN 104284192B CN 201410315682 A CN201410315682 A CN 201410315682A CN 104284192 B CN104284192 B CN 104284192B
Authority
CN
China
Prior art keywords
image
depth
pixel
unit
present frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201410315682.5A
Other languages
English (en)
Other versions
CN104284192A (zh
Inventor
森浩典
井藤功久
早坂健吾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of CN104284192A publication Critical patent/CN104284192A/zh
Application granted granted Critical
Publication of CN104284192B publication Critical patent/CN104284192B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Analysis (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Abstract

提供一种图像处理设备,包括深度生成单元,被配置为:基于当前帧的图像以及所述当前帧的先前帧的图像来生成指示所述先前帧的图像中的深度方向上的被摄体的位置的深度图像作为所述当前帧的深度图像。

Description

图像处理设备和图像处理方法
相关申请的交叉引用
该申请要求于2013年7月10日提交的日本优先权专利申请JP2013-144504的利益,其完整内容通过引用合并到此。
技术领域
本公开涉及图像处理设备和图像处理方法,更具体地说,涉及能够使用先前帧的深度图像来快速地生成深度图像的图像处理设备和图像处理方法。
背景技术
已经提出了用于使用指示在使用具有高精度的多个视点的图像所生成的图像中在深度方向上的被摄体的位置的深度图像,并且使用运动作为各种应用的用户接口,通过图像识别来检测人类的臂、手、手指等的运动的技术。
在这些技术中,由于具有高精度的深度图像是必需的,因此期望以比像素单位更小的子像素为单位来检测深度方向上的位置。作为以子像素为单位检测深度方向上的位置的方法,例如,存在这样的方法:通过线性内插等以伪方式来增加多个视点的图像的分辨率,并且在增加分辨率之后使用所述多个视点的图像来检测深度方向上的位置。
还存在这样的方法:基于指示在深度方向上以像素为单位检测到的位置的函数以子像素为单位来内插深度方向上的位置。还存在这样的方法:通过相位限制校正方法来以子像素为单位检测深度方向上的位置(例如,见JP2013-19801A)。
然而,当以子像素为单位检测深度方向上的位置时,计算量增加得比当以像素为单位检测深度方向上的位置时更多。因此,当对整个屏幕执行以子像素为单位检测深度方向上的位置时,检测时间可能增加,并且可能不以高帧速率生成深度图像。因此,在上述技术中,难以充分地使用人类的臂、手、手指等的运动作为用户接口。
另一方面,已经提出了通过使用运动矢量而将具有大运动矢量的区域中的深度方向上的被摄体的位置设置为前位置并且将具有小运动矢量的区域中的深度方向上的被摄体的位置设置为后位置来容易地生成深度图像的方法(例如,JP2000-261828A和JP2012-109788A)。
公开内容
如上所述,当对整个屏幕执行以子像素为单位检测深度方向上的位置时,检测时间可能增加。因此,期望通过在一部分屏幕中至少不执行深度方向上的位置的检测来快速地生成深度图像。
期望提供一种用于使用先前帧的深度图像来快速地生成深度图像的技术。
根据本公开的实施例,提供一种图像处理设备,包括:深度生成单元,被配置为:基于当前帧的图像以及所述当前帧的先前帧的图像来生成指示所述先前帧的图像中的深度方向上的被摄体的位置的深度图像作为所述当前帧的深度图像。
根据本公开的实施例的图像处理方法与根据本公开的实施例的图像处理设备对应。
根据本公开的实施例,基于当前帧的图像和所述当前帧的先前帧的图像来生成指示在所述先前帧的图像中的深度方向上的被摄体的位置的深度图像作为所述当前帧的深度图像。
可以通过使得计算机执行程序来实现根据本公开的实施例的图像处理设备。
为了实现根据本公开的实施例的图像处理设备,计算机使得执行的程序可以经由传输介质而发送或记录在待提供的记录介质上。
根据本公开的实施例,可以使用先前帧的深度图像来快速地生成深度图像。
附图说明
图1是示出应用本公开的第一实施例的图像处理设备的配置的示例的框图;
图2是用于描述预测生成单元生成预测深度图像的示图;
图3是用于描述图1中的图像处理设备的深度图像生成处理的流程图;
图4是用于描述图3的生成处理的细节的流程图;
图5是示出应用本公开的第二实施例的图像处理设备的配置的示例的框图;
图6是用于描述图5中的深度生成单元所设置的搜索范围的示图;
图7是用于描述图5中的深度生成单元的生成处理的流程图;
图8是示出应用本公开的第三实施例的图像处理设备的配置的示例的框图;
图9是用于描述图8中的深度生成单元81的生成处理的流程图;
图10是示出运动量与搜索范围的尺寸之间的关系的示例的示图;
图11是示出应用本公开的第四实施例的图像处理设备的配置的示例的框图;
图12是示出先前帧和当前帧的各标准视点之间的图像的差异的示例的示图;
图13是示出深度值的生成频率的示例的示图;
图14是用于描述图11中的图像处理设备的深度图像生成处理的流程图;
图15是用于描述图14的生成处理的细节的流程图;
图16是示出第一实施例至第四实施例的处理的总结表的示图;
图17是示出应用本公开的实施例的编码设备的配置的示例的框图;
图18是示出实施例的解码设备的配置的示例的框图;以及
图19是示出计算机的硬件配置的示例的框图。
具体实施方式
下文中,将参照附图详细描述本公开的优选实施例。注意,在该说明书和附图中,以相同的附图标记来表示具有基本上相同功能和结构的结构要素,并且省略这些结构要素的重复解释。
<第一实施例>
(应用本公开的第一实施例的图像处理设备的配置的示例)
图1是示出应用本公开的第一实施例的图像处理设备的配置的示例的框图。
图1中的图像处理设备10包括标准图像获取单元11、邻近图像获取单元12、检测单元13、帧存储器14、预测生成单元15和深度生成单元16。图像处理设备10使用多个视点的图像来生成作为在各视点当中充当标准的一个视点的以子像素为单位的标准视点的深度图像。
具体地说,图像处理设备10的标准图像获取单元11获取当前帧的标准视点的图像。标准图像获取单元11将当前帧的标准视点的图像提供给检测单元13和深度生成单元16。
邻近图像获取单元12获取作为除了当前帧的标准视点之外的视点的邻近视点的图像。在本公开中,为了有助于描述,邻近视点的数量假设为1,但可以是多个。邻近图像获取单元12将当前帧的邻近视点的图像提供给深度生成单元16。
检测单元13保存从标准图像获取单元11提供的当前帧的标准视点的图像。检测单元13基于先前帧(其为当前帧紧接的前一帧)的标准视点的图像和当前帧的标准视点的图像来检测运动矢量作为指示各帧之间的改变的信息。具体地说,检测单元13通过块匹配方法而基于先前帧的标准视点的图像和当前帧的标准视点的图像来检测当前帧的标准视点的所保存的图像的每个像素的运动矢量。检测单元13将运动矢量提供给预测生成单元15。
帧存储器14通过一帧来保存从深度生成单元16提供的以子像素为单位的标准视点的深度图像。帧存储器14读取所保存的以子像素为单位的先前帧的深度图像,并且将深度图像提供给预测生成单元15。
基于从检测单元13提供的运动矢量,预测生成单元15将通过移动从帧存储器14提供的先前帧的深度图像的每个子像素的像素值所获得的值设置为当前帧的标准视点的深度图像的每个子像素的像素值的预测值。因此,通过当前帧的标准视点的深度图像的每个子像素的像素值的预测值来生成预测深度图像。
在以此方式所生成的预测深度图像中,出现在当前帧的标准视点的图像中但不出现在先前帧的标准视点的图像中的遮挡区域产生。在预测深度图像的遮挡区域中,不存在像素值。预测生成单元15将预测深度图像和运动矢量提供给深度生成单元16。
深度生成单元16基于来自标准图像获取单元11的标准视点的图像和来自邻近图像获取单元12的邻近视点的图像而以像素为单位来生成指示预测深度图像中不存在像素值的遮挡区域中的深度方向上的被摄体的位置的深度值。
具体地说,深度生成单元16将以像素为中心的邻近视点的图像的预定范围设置为关于标准视点的图像的遮挡区域的每个像素的搜索范围。作为深度值,深度生成单元16通过将遮挡区域的每个像素与搜索范围内的像素进行匹配来生成遮挡区域的每个像素与搜索范围内与遮挡区域的像素最相似的像素之间的距离。
深度生成单元16基于从预测生成单元15提供的运动矢量来将除了标准视点的图像的遮挡区域之外的区域划分为具有运动的区域和没有运动的区域。深度生成单元16从预测深度图像提取以子像素为单位的没有运动的区域的像素值,并且将该像素值设置为以子像素为单位的没有运动的区域的深度值。
深度生成单元16从预测深度图像提取以子像素为单位的具有运动的区域的像素值,并且基于该像素值而生成以像素为单位的具有运动的区域的深度值。深度生成单元16基于以像素为单位的具有运动的区域和遮挡区域的深度值,通过内插等而生成以子像素为单位的深度值。
深度生成单元16生成通过上述方式所获得的以子像素为单位的没有运动的区域、遮挡区域以及具有运动的区域的深度值设置为子像素的像素值的深度图像,作为当前帧的标准视点的深度图像。深度生成单元16输出当前帧的标准视点的深度图像,并且将该深度图像提供给帧存储器14。
(生成预测深度图像)
图2是用于描述图1中的预测生成单元15生成预测深度图像的示图。
在图2的示例中,标准视点的图像是字母作为背景而篮球作为前景的图像。篮球在先前帧中出现在屏幕的右上侧,而在当前帧中出现在屏幕的中间。也就是说,在先前帧与当前帧之间,篮球移动到左下侧。
在此情况下,篮球区域中的当前帧的标准视点的每个像素的运动矢量是在图2的中间如箭头指示的每一个自身像素(self-pixel)从右上定向到左下的矢量,并且在除了篮球区域之外的区域中是0。
因此,预测生成单元15基于运动矢量来将先前帧的深度图像的篮球区域中的子像素31的像素值移动到左下。然后,预测生成单元15将子像素31的像素值设置为定位到位于当前帧的预测深度图像的子像素31的相同位置处的子像素41的左下的子像素42的像素值。同样的操作也应用于篮球区域中的其它子像素。
预测生成单元15将除了先前帧的深度图像的篮球区域之外的区域中的子像素32的深度值设置为位于与当前帧的预测深度图像的子像素32相同的位置处的子像素43的像素值。同样的操作也应用于除了篮球区域之外的区域中的其它子像素。
结果,并非在作为除了当前帧中的篮球区域之外的区域的遮挡区域44而是在先前帧中的篮球区域中生成预测深度图像的像素值。
(图像处理设备的处理的描述)
图3是用于描述图1中的图像处理设备10的深度图像生成处理的流程图。
在图3的步骤S11中,图像处理设备10的标准图像获取单元11获取当前帧的标准视点的图像,邻近图像获取单元12获取当前帧的邻近视点的图像。标准图像获取单元11将当前帧的标准视点的图像提供给检测单元13而且保存标准视点的图像,并且将当前帧的标准视点的图像提供给深度生成单元16。邻近图像获取单元12将当前帧的邻近视点的图像提供给深度生成单元16。
在步骤S12中,检测单元13对所保存的先前帧的标准视点的图像与来自标准图像获取单元11的当前帧的标准视点的图像进行比较,并且检测当前帧的标准视点的图像的每个像素的运动矢量。检测单元13将运动矢量提供给预测生成单元15。
在步骤S13中,帧存储器14读取所保存的以子像素为单位的先前帧的标准视点的深度图像,并且将该深度图像提供给预测生成单元15。
在步骤S14中,预测生成单元15基于从检测单元13提供的运动矢量和从帧存储器14提供的先前帧的深度图像来生成当前帧的标准视点的预测深度图像,如参照图2所描述的那样。预测生成单元15将预测深度图像和运动矢量提供给深度生成单元16。
在步骤S15中,深度生成单元16基于预测深度图像来执行生成当前帧的标准视点的深度图像的生成处理。将参照以下将描述的图4来描述生成处理的细节。
在步骤S16中,深度生成单元16输出通过生成处理所生成的当前帧的标准视点的深度图像,并且将该深度图像提供给帧存储器14而且保存该深度图像。然后,处理结束。
图4是用于描述图3的步骤S15的生成处理的细节的流程图。通过将当前帧的标准视点的图像的每个像素设置为处理目标像素来执行生成处理。
在图4的步骤S31中,深度生成单元16确定处理目标像素的像素值是否出现在从预测生成单元15提供的预测深度图像中。当在步骤S31中确定像素值出现,也就是说,处理目标像素出现在遮挡区域的外部时,处理进入步骤S32。
在步骤S32中,深度生成单元16确定从预测生成单元15提供的处理目标像素的运动矢量的运动量是否大于第一阈值(例如0)。
当深度生成单元16在步骤S32中确定运动量大于第一阈值时,深度生成单元16确定处理目标像素是具有运动的区域中的像素。然后,在步骤S33中,深度生成单元16从预测深度图像提取以子像素为单位的处理目标像素的像素值,并且基于该像素值来生成以像素为单位的处理目标像素的深度值。然后,处理进入步骤S35。
反之,当在步骤S31中确定该值没有出现,也就是说,处理目标像素出现在遮挡区域中时,处理进入步骤S34。
在步骤S34中,深度生成单元16基于来自标准图像获取单元11的标准视点的图像和来自邻近图像获取单元12的邻近视点的图像来生成以像素为单位的处理目标像素的深度值。然后,处理进入步骤S35。
在步骤S35中,深度生成单元16基于在步骤S33或步骤S34中所生成的以像素为单位的深度值,通过内插等而生成以子像素为单位的深度值。然后,处理返回到图3的步骤S15,并且处理进入到步骤S16。
反之,当深度生成单元16在步骤S32中确定运动量等于或小于第一阈值时,深度生成单元16确定处理目标像素是没有运动的区域的像素。然后,在步骤S36中,深度生成单元16从预测深度图像提取以子像素为单位的处理目标像素的像素值,并且将该像素值设置为以子像素为单位的处理目标像素的深度值。然后,处理返回到图3的步骤S15,并且处理进入到步骤S16。
如上所述,图像处理设备10基于当前帧的图像和先前帧的图像来生成没有运动的区域中的先前帧的深度值作为当前帧的深度值。因此,无需在没有运动的区域中生成深度值,并且可以快速地生成深度图像。
图像处理设备10基于具有运动的区域中的先前帧的深度值来生成以像素为单位的当前帧的深度值。因此,无需检测具有运动的区域中的以像素为单位的深度值,并且可以更快速地生成深度图像。
<第二实施例>
(应用本公开的第二实施例的图像处理设备的配置的示例)
图5是示出应用本技术的第二实施例的图像处理设备的配置的示例的框图。
对于与图1中相同的图5所示的构成要素给出相同的附图标记。将适当地省略重复的描述。
图5中的图像处理设备60的配置与图1中的图像处理设备10的配置不同在于,提供深度生成单元61,而不是深度生成单元16。图像处理设备60并不根据先前帧的深度值来生成具有运动的区域中的以像素为单位的当前帧的深度值,而是基于先前帧的深度值来限定搜索范围。
具体地说,如在深度生成单元16中那样,图像处理设备60的深度生成单元61基于标准视点的图像和邻近视点的图像来生成以像素为单位的遮挡区域的深度值。如在深度生成单元16中那样,深度生成单元61基于运动矢量来将除了标准视点的图像的遮挡区域之外的区域划分为具有运动的区域和没有运动的区域。
深度生成单元61从预测深度图像提取以子像素为单位的具有运动的区域的像素值。作为关于具有运动的区域的每个像素的搜索范围,深度生成单元61基于像素的预测值来设置具有关于遮挡区域比正常尺寸(其为邻近视点的图像的搜索范围的尺寸)更小的尺寸的范围。作为深度值,深度生成单元61通过将具有运动的区域的每个像素与搜索范围内的像素进行匹配来生成具有运动的区域的每个像素与搜索范围内与具有运动的区域的像素最相似的像素之间的距离。
深度生成单元61基于以像素为单位的具有运动的区域和遮挡区域的深度值,通过内插等而生成以子像素为单位的深度值。如在深度生成单元16中那样,深度生成单元61从预测深度图像提取以子像素为单位的没有运动的区域的像素值,并且将该像素值设置为以子像素为单位的没有运动的区域的深度值。
深度生成单元61生成通过上述方式所获得的以子像素为单位的没有运动的区域、遮挡区域以及具有运动的区域的深度值设置为子像素的像素值的深度图像,作为当前帧的标准视点的深度图像。深度生成单元61输出当前帧的标准视点的深度图像,并且将该深度图像提供给帧存储器14。
(搜索范围的描述)
图6是用于描述图5中的深度生成单元61所设置的搜索范围的示图。
在图6的示例中,标准视点和邻近视点的图像是字母作为背景而篮球作为前景的图像。篮球在先前帧中出现在屏幕的右上侧,而在当前帧中出现在屏幕的中间。也就是说,在先前帧与当前帧之间,篮球移动到左下侧。
在此情况下,当前帧的图像中的篮球的区域是具有运动的区域。作为具有运动的区域内的像素71的搜索范围,并不设置具有以像素71为中心的邻近视点的图像的正常尺寸的范围75,而设置基于像素71的像素值的具有比正常尺寸更小的尺寸的范围76。范围76是例如在水平方向上与像素71分离开了与像素71的预测值对应的距离的、以像素71的位置为中心的、具有比正常尺寸更小的尺寸的范围。
作为除了当前帧中的篮球的区域之外的区域以及作为先前帧中的篮球的区域的区域是遮挡区域72。遮挡区域72的像素73的搜索范围是以像素73为中心的邻近视点的图像的具有正常尺寸的范围77。
由于像素74的运动矢量是0,因此并不设置作为除了当前帧和先前帧二者的篮球区域之外的区域的区域内的像素74的搜索范围,而且不生成像素74的深度值。像素74的深度值被看作是位于与当前帧的预测深度图像的像素74相同的位置处的子像素的像素值。
(图像处理设备的处理的描述)
除了步骤S15的生成处理之外,图5中的图像处理设备60的深度图像生成处理与图3中的深度图像生成处理相同。因此,以下将仅描述生成处理。
图7是用于描述图像处理设备60的深度生成单元61(图5)的生成处理的流程图。通过将当前帧的标准视点的图像的每个像素设置为处理目标像素来执行生成处理。
由于图7的步骤S51和步骤S52的处理与图4的步骤S31和步骤S32的处理相同,因此将省略其描述。
在步骤S53中,深度生成单元61在具有处理目标像素的邻近视点的图像中基于预测深度图像中以子像素为单位的处理目标像素的像素值来匹配具有比正常尺寸更小的尺寸的搜索范围内的像素。然后,深度生成单元61生成距搜索范围内与处理目标像素最相似的像素的距离作为深度值,然后,处理进入步骤S55。
反之,当在步骤S51中确定像素值没有出现,也就是说,处理目标像素出现在遮挡区域内时,处理进入步骤S54。在步骤S54中,深度生成单元61对具有正常尺寸的搜索范围内的邻近视点的图像的像素与处理目标像素进行匹配。然后,深度生成单元61生成距搜索范围内与处理目标像素最相似的像素的距离作为深度值,然后,处理进入步骤S55。
当深度生成单元61在步骤S52中确定运动量等于或小于第一阈值时,深度生成单元61确定处理目标像素是没有运动的区域的像素。然后,处理进入步骤S56。
由于步骤S55和步骤S56的处理与图4的步骤S35和步骤S36的处理相同,因此将省略其描述。
如上所述,图像处理设备60基于预测值来将在生成具有运动的区域中以像素为单位的当前帧的深度值时的搜索范围限定为具有比正常尺寸更小的尺寸的范围。因此,在生成具有运动的区域中以像素为单位的深度值时的计算量减少,因此可以更快速地生成深度图像。
<第三实施例>
(应用本公开的第三实施例的图像处理设备的配置的示例)
图8是示出应用本公开的第三实施例的图像处理设备的配置的示例的框图。
对于与图1中相同的图8所示的构成要素给出相同的附图标记。将适当地省略重复的描述。
图8中的图像处理设备80的配置与图1中的图像处理设备10的配置不同在于,提供深度生成单元81,而不是深度生成单元16。图像处理设备80仅在具有小运动的区域中基于先前帧的深度值来限定搜索范围。
具体地说,如在深度生成单元16中那样,图像处理设备80的深度生成单元81基于运动矢量来将除了标准视点的图像的遮挡区域之外的区域划分为具有运动的区域和没有运动的区域。深度生成单元81基于运动矢量进一步将具有运动的区域划分为具有小运动的区域和具有大运动的区域。
深度生成单元81通过使用标准视点的图像和邻近视点的图像而在遮挡区域和具有大运动的区域中的具有正常尺寸的搜索范围中执行匹配来生成以像素为单位的深度值。
深度生成单元81从预测深度图像提取以子像素为单位的具有小运动的区域的像素值。作为具有小运动的区域的每个像素的搜索范围,深度生成单元81基于像素的预测值来设置具有比邻近视点的图像的正常尺寸更小的尺寸的范围。作为深度值,深度生成单元81通过执行具有小运动的区域的每个像素与搜索范围内的像素的匹配来生成具有小运动的区域的每个像素与搜索范围内与具有小运动的区域的像素最相似的像素之间的距离。
深度生成单元81基于以像素为单位的遮挡区域、具有大运动的区域和具有小运动的区域的深度值而通过内插等来生成以子像素为单位的深度值。如在深度生成单元16中那样,深度生成单元81从预测深度图像提取以子像素为单位的没有运动的区域的像素值,并且将该像素值设置为以子像素为单位的没有运动的区域的深度值。
深度生成单元81生成以上述方式所获得的以子像素为单位的没有运动的区域、遮挡区域、具有大运动的区域和具有小运动的区域的深度值设置为子像素的像素值的深度图像,作为当前帧的标准视点的深度图像。深度生成单元81输出当前帧的标准视点的深度图像,并且将该深度图像提供给帧存储器14。
(图像处理设备的处理的描述)
除了步骤S15的生成处理之外,图8中的图像处理设备80的深度图像生成处理与图3中的深度图像生成处理相同。因此,以下将仅描述生成处理。
图9是用于描述图像处理设备80的深度生成单元81(图8)的生成处理的流程图。通过将当前帧的标准视点的图像的每个像素设置为处理目标像素来执行生成处理。
由于图9的步骤S71和步骤S72的处理与图4的步骤S31和步骤S32的处理相同,因此将省略其描述。
当深度生成单元81在步骤S72确定运动量大于第一阈值时,深度生成单元81在步骤S73确定处理目标像素的运动矢量的运动量是否小于或等于比第一阈值更大的第二阈值。当深度生成单元81在步骤S73中确定运动量小于或等于第二阈值,也就是说,运动量大于第一阈值并且等于或小于第二阈值时,深度生成单元81确定处理目标像素是具有小运动的区域中的像素。然后,处理进入步骤S74。
反之,当深度生成单元81在步骤S73中确定运动量并非等于或小于第二阈值,也就是说,运动量大于第二阈值时,深度生成单元81确定处理目标像素是具有大运动的区域的像素。然后,处理进入步骤S75。
由于步骤S74和步骤S77的处理与图7的步骤S53和步骤S56的处理相同,因此将省略其描述。
如上所述,图像处理设备80仅在具有小运动的区域中基于预测值并且以在具有运动的各区域之间的预测值的高可靠性来将搜索范围限定为具有比正常尺寸更小的尺寸的范围。因此,可以比在图像处理设备60中更多地改进深度图像的精度。
(搜索范围的尺寸的另一示例)
第二实施例和第三实施例中的所限定的搜索范围的尺寸可以是固定的,或可以是可变的。当所限定的搜索范围的尺寸是可变的时,根据例如运动量来设置尺寸。
图10是示出在此情况下的运动量与搜索范围的尺寸之间的关系的示例的示图。
在图10中,图表的水平轴表示运动量,而垂直轴表示当搜索范围的中心设置为0时在搜索范围的水平方向和垂直方向上的位置。
在图10的示例中,当运动量等于或大于0并且小于B时,在水平方向和垂直方向上的搜索范围的长度是2DB。此外,当运动量等于或大于B并且小于A时,在水平方向和垂直方向上的搜索范围的长度与运动量成比例而变为大于2DB。当运动量是A时,搜索范围的长度是2DA。当运动量大于A时,在水平方向和垂直方向上的搜索范围的长度是2DA。
<第四实施例>
(应用本公开的第四实施例的图像处理设备的配置的示例)
图11是示出应用本公开的第四实施例的图像处理设备的配置的示例的框图。
对于与图1中相同的图11所示的构成要素给出相同的附图标记。将适当地省略重复的描述。
图11中的图像处理设备100的配置与图1中的图像处理设备10的配置不同在于,提供检测单元101、预测生成单元102和深度生成单元103,而不是检测单元13、预测生成单元15和深度生成单元16。图像处理设备100基于作为指示各帧之间的标准视点的图像的改变的信息的差来确定深度值的生成频率。
具体地说,检测单元101保存从标准图像获取单元11提供的当前帧的标准视点的图像。检测单元101以像素为单位检测所保存的先前帧的标准视点的图像与当前帧的标准视点的图像之间的差异,并且将该差异提供给预测生成单元102。
基于从检测单元101提供的差异,预测生成单元102对于标准视点的图像的每个像素,将指示更新(生成)深度值的更新标记设置为正或负。预测生成单元102将作为预测深度图像的从帧存储器14提供的先前帧的深度图像提供给深度生成单元103,并且将每个像素的更新标记提供给深度生成单元103。
基于从预测生成单元102提供的更新标记,深度生成单元103对每个像素的更新标记连续为负的次数进行计数。深度生成单元103基于来自标准图像获取单元11的标准视点的图像和来自邻近图像获取单元12的邻近视点的图像来生成以像素为单位的更新标记为正的像素的深度值。
深度生成单元103基于标准视点的图像和邻近视点的图像来生成以像素为单位的更新标记为负并且更新标记连续为负的次数是预定次数(在此,10次)的像素的深度值。深度生成单元103基于所生成的以像素为单位的深度值而通过内插等来生成以子像素为单位的深度值。
深度生成单元103将以子像素为单位的预测深度图像的像素值设置为以子像素为单位的更新标记为负并且更新标记连续为负的次数不是预定次数的像素的深度值。
深度生成单元103生成通过上述方式所获得的以子像素为单位的标准视点的图像的每个像素的深度值设置为每个子像素的像素值的深度图像作为当前帧的标准视点的深度图像。深度生成单元103输出当前帧的标准视点的深度图像,并且将该深度图像提供给帧存储器14。
(差的示例)
图12是示出先前帧和当前帧的标准视点的各图像之间的差的示例的示图。
在图12的示例中,标准视点的图像是字母作为背景而篮球作为前景的图像。篮球在先前帧中出现在屏幕的右上侧,而在当前帧中出现在屏幕的中间。也就是说,在先前帧与当前帧之间,篮球移动到左下侧。
在此情况下,先前帧和当前帧的标准视点的各图像之间的差异增加到图12中的对角线所指示的先前帧和当前帧的篮球的区域111。此外,图12的右侧上的小矩形指示像素。
(深度值的生成频率的示例)
图13是示出深度值的生成频率的示例的示图。
在图13中,图表的水平轴表示先前帧和当前帧的标准视点的各图像之间的差,垂直轴表示当一帧的频率为1时的深度值的生成频率。
在图13的示例中,当差等于或大于0并且等于或小于阈值Th时,深度值的生成频率是1/10。当差大于阈值Th时,深度值的生成频率是1。也就是说,当差等于或大于0并且等于或小于阈值Th时,先前帧的深度值被看作是9倍到10倍的比例的当前帧的深度值。当差大于阈值Th时,在每个帧中不使用先前帧的深度值。
(图像处理设备的处理的描述)
图14是用于描述图11中的图像处理设备100的深度图像生成处理的流程图。
在图14的步骤S91中,图像处理设备100的标准图像获取单元11获取当前帧的标准视点的图像,邻近图像获取单元12获取当前帧的邻近视点的图像。标准图像获取单元11将当前帧的标准视点的图像提供给检测单元101而且保存标准视点的图像,并且将当前帧的标准视点的图像提供给深度生成单元103。邻近图像获取单元12将当前帧的邻近视点的图像提供给深度生成单元103。
在步骤S92中,检测单元101以像素为单位检测所保存的先前帧的标准视点的图像与当前帧的标准视点的图像之间的差异,并且将该差异提供给预测生成单元102。
在步骤S93中,帧存储器14读取所保存的以子像素为单位的先前帧的标准视点的深度图像,并且将该深度图像提供给预测生成单元192。
在步骤S94中,预测生成单元102将从检测单元101提供的差等于或大于0并且等于或小于阈值Th的像素的更新标记设置为负,并且将差大于阈值Th的像素的更新标记设置为正。
在步骤S95中,预测生成单元102将作为预测深度图像的从帧存储器14提供的先前帧的深度图像提供给深度生成单元103,并且将每个像素的更新标记提供给深度生成单元103。
在步骤S96中,深度生成单元103基于预测深度图像来执行生成当前帧的标准视点的深度图像的生成处理。将参照以下待描述的图15来描述生成处理的细节。
在步骤S97中,深度生成单元103输出通过生成处理所生成的当前帧的标准视点的深度图像,并且将该深度图像提供给帧存储器14而且保存该深度图像。然后,处理结束。
图15是用于描述图14的步骤S96的生成处理的细节的流程图。通过将当前帧的标准视点的图像的每个像素设置为处理目标像素来执行生成处理。
在图15的步骤S111中,深度生成单元103确定处理目标像素的更新标记是否为正。当在步骤S111中确定更新标记不为正,也就是说,更新标记为负时,处理进入到步骤S112。
在步骤S112中,深度生成单元103将更新标记的次数连续为负的计数值仅增加1。计数值的初始值是0。
在步骤S113中,深度生成单元103确定计数值是否为10。当在步骤S113中确定计数值不为10,也就是说,确定更新标记并非连续为负10次时,处理进入到步骤S114。
在步骤S114中,深度生成单元103从提供自预测生成单元102的预测深度图像提取以子像素为单位的处理目标像素的像素值,并且将该像素值设置为深度值。然后,处理返回到图14的步骤S96,并且处理进入到步骤S97。
反之,当在步骤S111中确定更新标记为正或在步骤S113中确定计数值为10时,深度生成单元103在步骤S115中将计数值改变为0。
在步骤S116中,深度生成单元103基于来自标准图像获取单元11的标准视点的图像和来自邻近图像获取单元12的邻近视点的图像来生成以像素为单位的处理目标像素的深度值。然后,深度生成单元103基于以像素为单位的处理目标像素的深度值来生成以子像素为单位的深度值。然后,处理返回到图14的步骤S96,并且处理进入到步骤S97。
如上所述,图像处理设备100基于当前帧的图像和先前帧的图像来生成差很小的区域中的先前帧的深度值作为当前帧的深度值。因此,无需在差很小的区域中生成深度值,并且可以快速地生成深度图像。
由于图像处理设备100甚至在差很小的区域中以比差很大的区域的频率更小的频率来生成深度值,因此可以改进深度图像的精度。
如上所述,差很小的区域的深度值的生成频率不限于每10帧1次。此外,如上所述,差很大的深度值的生成频率不限于每个帧。
<第一实施例至第四实施例的总结>
图16是示出第一实施例至第四实施例的处理的总结表的示图。
如图16所示,在第一实施例至第三实施例中,处理在遮挡区域与除了遮挡区域之外的区域之间是不同的。此外,在除了遮挡区域之外的区域中,处理在没有运动的区域与具有运动的区域之间是不同的。在第三实施例中,在具有运动的区域中,处理在具有小运动的区域与具有大运动的区域之间是不同的。
具体地说,在第一实施例中,在除了遮挡区域之外的区域中的没有运动的区域中,以子像素为单位的先前帧的深度值用作以子像素为单位的当前帧的深度值。另一方面,在具有运动的区域中,根据以子像素为单位的先前帧的深度值生成以像素为单位的当前帧的深度值,并且基于以像素为单位的深度值来生成以子像素为单位的深度值。
在遮挡区域中,通过匹配来生成以像素为单位的当前帧的深度值,并且基于以像素为单位的深度值来生成以子像素为单位的深度值。
在第二实施例中,在除了遮挡区域之外的区域中的没有运动的区域中,如在第一实施例中那样,以子像素为单位的先前帧的深度值用作以子像素为单位的当前帧的深度值。另一方面,在具有运动的区域中,基于以子像素为单位的先前帧的深度值来设置具有比正常尺寸更小的尺寸的搜索范围,并且在搜索范围中执行匹配。然后,基于作为匹配结果而获得的以像素为单位的深度值来生成以子像素为单位的深度值。
在遮挡区域中,通过在具有正常尺寸的搜索范围中执行匹配来生成以像素为单位的当前帧的深度值,并且基于以像素为单位的深度值来生成以子像素为单位的深度值。
在第三实施例中,在除了遮挡区域之外的区域中的没有运动的区域中,如在第一实施例中那样,以子像素为单位的先前帧的深度值用作以子像素为单位的当前帧的深度值。另一方面,在作为具有运动的区域和具有小运动的区域的区域中,如第二实施例的具有运动的区域的情况下那样,在具有比正常尺寸更小的尺寸的搜索范围中生成以子像素为单位的深度值。
在作为具有运动的区域和作为具有大运动的区域的区域以及遮挡区域中,如第二实施例的遮挡区域的情况下那样,在具有正常尺寸的搜索范围中生成以子像素为单位的深度值。
在第四实施例中,处理在先前帧和当前帧的标准视点的各图像之间的差很大以及很小的区域中是不同的。
具体地说,在差很大的区域中,按每个帧生成以子像素为单位的深度值。另一方面,在差很小的区域中,每10帧一次生成以子像素为单位的深度值。
<第五实施例>
(应用本公开的实施例的编码设备的配置的示例)
图17是示出应用本公开的实施例的编码设备的配置的示例的框图。
图17中的编码设备120包括标准图像获取单元121、邻近图像获取单元122、深度图像生成单元123和编码单元124。编码设备120对标准视点的图像、邻近视点的图像以及标准视点的深度图像进行编码。
编码设备120的标准图像获取单元121获取外部成像设备(未示出)所捕获的标准视点的图像,并且将标准视点的图像提供给深度图像生成单元123和编码单元124。
邻近图像获取单元122获取外部成像设备(未示出)所捕获的邻近视点的图像,并且将邻近视点的图像提供给深度图像生成单元123和编码单元124。
深度图像生成单元123由根据第一实施例至第四实施例的上述图像处理设备配置。深度图像生成单元123基于来自标准图像获取单元121的标准视点的图像和来自邻近图像获取单元122的邻近视点的图像来生成标准视点的深度图像,并且将标准视点的深度图像提供给编码单元124。
编码单元124对来自标准图像获取单元121的标准视点的图像、来自邻近图像获取单元122的邻近视点的图像和来自深度图像生成单元123的深度图像进行编码。作为对深度图像进行编码的方案,可以使用高级视频编码(AVC)方案、多视角视频编码(MVC)方案、高效视频编码(HEVC)方案等。编码单元124发送作为编码结果所获得的编码流。
(根据实施例的解码设备的配置的示例)
图18是示出根据实施例的对图17中的编码设备120所生成的编码流进行解码的解码设备的配置的示例的框图。
图18中的解码设备140包括解码单元141、标准图像输出单元142、邻近图像输出单元143和深度图像输出单元144。
解码设备140的解码单元141获取从编码设备120发送的编码流。解码单元141根据与编码设备120的编码方案对应的方案来对编码流进行解码,以生成标准视点的图像、邻近视点的图像和标准视点的深度图像。解码单元141将标准视点的图像提供给标准图像输出单元142,将邻近视点的图像提供给邻近图像输出单元143,并且将标准视点的深度图像提供给深度图像输出单元144。
标准图像输出单元142输出从解码单元141提供的标准视点的图像。邻近图像输出单元143输出从解码单元141提供的邻近视点的图像。深度图像输出单元144输出从解码单元141提供的深度图像。
<第六实施例>
(应用本公开的计算机的配置示例)
上述一系列处理可以由硬件执行,而且也可以由软件执行。当一系列处理由软件执行时,构成该软件的程序安装到计算机。在此,表述“计算机”包括当安装各种程序时能够执行各种功能的含有专用硬件的计算机以及通用个人计算机等。
图19是示出根据程序来执行上述一系列处理的计算机的硬件的示例配置的框图。
在计算机中,中央处理单元(CPU)201、只读存储器(ROM)202和随机存取存储器(RAM)203由总线204彼此连接。
输入/输出接口205也连接到总线204。输入单元206、输出单元207、存储单元208、通信单元209和驱动器210连接到输入/输出接口205。
从键盘、鼠标、麦克风等配置输入单元206。从显示器、扬声器等配置输出单元207。从硬盘、非易失性存储器等配置存储单元208。从网络接口等配置通信单元209。驱动器210驱动可拆卸介质211(例如磁盘、光盘、磁光盘、半导体存储器等)。
在如上所述而配置的计算机中,CPU201经由输入/输出接口205和总线204将存储在例如存储单元208中的程序加载到RAM203上,并且执行该程序。因此,上述处理序列得以执行。
待由计算机(CPU201)执行的程序被提供为记录在可拆卸介质211(其为包封介质等)中。此外,可以经由有线传输介质或无线传输介质(例如局域网、因特网或数字卫星广播)来提供程序。
在计算机中,通过将可拆卸介质211加载到驱动器210,程序可以经由输入/输出接口205安装到存储单元416中。也可以使用通信单元209从有线传输介质或无线传输介质接收程序,并且将程序安装到存储单元416中。作为另一替选,可以预先将程序安装到ROM202或存储单元416中。
应注意,计算机所执行的程序可以是根据本公开所描述的顺序按时间序列处理的程序或以并行方式或按必要时序(例如在调用时)处理的程序。
本公开实施例不限于上述实施例,在不脱离本公开的范围的情况下,可以进行各种改变和修改。
例如,在第二实施例至第四实施例中,可以不以子像素为单位而以像素为单位来生成深度值。
在第一实施例至第三实施例中,深度生成单元16(61和81)执行基于运动矢量来划分区域,但预测生成单元15可以执行划分区域。
在此情况下,预测生成单元15向深度生成单元16和61提供指示是否生成对于每个像素所设置的深度值的标记(即指示区域是否为具有运动的区域的标记)。此外,预测生成单元15向深度生成单元81提供指示是否生成对于每个像素所设置的深度值并且指示是否限定搜索范围的标记。也就是说,深度生成单元81向预测生成单元15提供指示在没有运动的区域、具有大运动的区域和具有小运动的区域当中像素出现的区域的标记。
在第一实施例至第三实施例中,基于当前帧的运动矢量来划分区域,但可以基于运动矢量的历史来划分区域。
例如,本公开可以采用云计算的配置,其通过网络通过多个装置分配并且连接一个功能来进行处理。
此外,可以由一个装置或通过分配多个装置来执行上述流程图所描述的每个步骤。
此外,在一个步骤中包括多个处理的情况下,这一个步骤中所包括的多个处理可以由一个装置或通过分配多个装置来执行。
本领域技术人员应理解,只要各种修改、组合、部分组合和改动在所附权利要求及其等同物的范围内,它们就可以取决于设计需求和其它因素产生。
此外,也可以如下配置本公开。
(1)一种图像处理设备,包括:
深度生成单元,被配置为:基于当前帧的图像以及所述当前帧的先前帧的图像来生成指示所述先前帧的图像中的深度方向上的被摄体的位置的深度图像作为所述当前帧的深度图像。
(2)如(1)所述的图像处理设备,其中,所述深度生成单元基于所述当前帧的图像与所述先前帧的图像之间改变来生成所述深度图像。
(3)如(2)所述的图像处理设备,还包括:
检测单元,被配置为:基于所述当前帧的图像和所述先前帧的图像来检测所述当前帧的图像的运动矢量,
其中,所述深度生成单元基于所述检测单元检测到的所述运动矢量来生成所述先前帧的深度图像作为所述当前帧的深度图像。
(4)如(3)所述的图像处理设备,其中,当所述运动矢量的运动量等于或小于第一阈值时,所述深度生成单元生成所述先前帧的深度图像作为所述当前帧的深度图像。
(5)如(4)所述的图像处理设备,其中,当所述运动矢量的运动量大于所述第一阈值时,所述深度生成单元基于所述先前帧的深度图像来生成所述当前帧的深度图像。
(6)如(5)所述的图像处理设备,其中,当所述运动矢量的运动量大于所述第一阈值时,所述深度生成单元基于以子像素为单位的所述先前帧的深度图像来生成以像素为单位的所述当前帧的深度图像,并且基于以像素为单位的所述当前帧的深度图像来生成以子像素为单位的所述当前帧的深度图像。
(7)如(5)所述的图像处理设备,其中,当所述运动矢量的运动量大于所述第一阈值时,所述深度生成单元基于所述先前帧的深度图像,通过在所限定的搜索范围中执行匹配来生成所述当前帧的深度图像。
(8)如(7)所述的图像处理设备,其中,当所述运动矢量的运动量大于所述第一阈值并且等于或小于第二阈值时,所述深度生成单元基于所述先前帧的深度图像,通过在所限定的搜索范围中执行匹配来生成所述当前帧的深度图像。
(9)如(7)或(8)所述的图像处理设备,其中,所述搜索范围的尺寸是根据所述运动量的尺寸。
(10)如(1)或(2)所述的图像处理设备,还包括:
检测单元,被配置为:检测所述当前帧的图像与所述先前帧的图像之间的差异,
其中,当所述检测单元检测到的差异等于或小于一阈值时,所述深度生成单元根据生成所述先前帧的图像的深度图像作为所述当前帧的深度图像的频率来生成所述当前帧的深度图像。
(11)如(10)所述的图像处理设备,其中,当所述检测单元检测到的差异大于所述阈值时,所述深度生成单元根据比生成所述先前帧的图像的深度图像作为所述当前帧的深度图像的频率更小的频率来生成所述当前帧的深度图像。
(12)如(1)至(11)中的任一项所述的图像处理设备,还包括:
编码单元,被配置为:对所述深度生成单元所生成的深度图像进行编码。
(13)一种图像处理方法,包括,通过图像处理设备:
基于当前帧的图像和所述当前帧的先前帧的图像来生成指示在所述先前帧的图像中的深度方向上的被摄体的位置的深度图像作为所述当前帧的深度图像。

Claims (12)

1.一种图像处理设备,包括:
深度生成单元,被配置为:基于当前帧的图像以及所述当前帧的先前帧的图像来生成指示所述先前帧的图像中的深度方向上的被摄体的位置的深度图像作为所述当前帧的深度图像,
差异检测单元,被配置为:检测所述当前帧的图像与所述先前帧的图像之间的差异,
其中,当所述差异检测单元检测到的差异等于或小于一阈值时,所述深度生成单元根据生成所述先前帧的图像的深度图像作为所述当前帧的深度图像的频率来生成所述当前帧的深度图像。
2.如权利要求1所述的图像处理设备,其中,所述深度生成单元基于所述当前帧的图像与所述先前帧的图像之间改变来生成所述深度图像。
3.如权利要求2所述的图像处理设备,还包括:
运动矢量检测单元,被配置为:基于所述当前帧的图像和所述先前帧的图像来检测所述当前帧的图像的运动矢量,
其中,所述深度生成单元基于所述运动矢量检测单元检测到的所述运动矢量来生成所述先前帧的深度图像作为所述当前帧的深度图像。
4.如权利要求3所述的图像处理设备,其中,当所述运动矢量的运动量等于或小于第一阈值时,所述深度生成单元生成所述先前帧的深度图像作为所述当前帧的深度图像。
5.如权利要求4所述的图像处理设备,其中,当所述运动矢量的运动量大于所述第一阈值时,所述深度生成单元基于所述先前帧的深度图像来生成所述当前帧的深度图像。
6.如权利要求5所述的图像处理设备,其中,当所述运动矢量的运动量大于所述第一阈值时,所述深度生成单元基于以子像素为单位的所述先前帧的深度图像来生成以像素为单位的所述当前帧的深度图像,并且基于以像素为单位的所述当前帧的深度图像来生成以子像素为单位的所述当前帧的深度图像。
7.如权利要求5所述的图像处理设备,其中,当所述运动矢量的运动量大于所述第一阈值时,所述深度生成单元基于所述先前帧的深度图像,通过在所限定的搜索范围中执行匹配来生成所述当前帧的深度图像。
8.如权利要求7所述的图像处理设备,其中,当所述运动矢量的运动量大于所述第一阈值并且等于或小于第二阈值时,所述深度生成单元基于所述先前帧的深度图像,通过在所限定的搜索范围中执行匹配来生成所述当前帧的深度图像。
9.如权利要求7所述的图像处理设备,其中,所述搜索范围的尺寸是根据所述运动量的尺寸。
10.如权利要求1所述的图像处理设备,其中,当所述差异检测单元检测到的差异大于所述阈值时,所述深度生成单元根据比生成所述先前帧的图像的深度图像作为所述当前帧的深度图像的频率更小的频率来生成所述当前帧的深度图像。
11.如权利要求1所述的图像处理设备,还包括:
编码单元,被配置为:对所述深度生成单元所生成的深度图像进行编码。
12.一种图像处理方法,包括,通过图像处理设备:
基于当前帧的图像和所述当前帧的先前帧的图像来生成指示在所述先前帧的图像中的深度方向上的被摄体的位置的深度图像作为所述当前帧的深度图像,
检测所述当前帧的图像与所述先前帧的图像之间的差异,
其中,当检测到的差异等于或小于一阈值时,根据生成所述先前帧的图像的深度图像作为所述当前帧的深度图像的频率来生成所述当前帧的深度图像。
CN201410315682.5A 2013-07-10 2014-07-03 图像处理设备和图像处理方法 Expired - Fee Related CN104284192B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013144504A JP2015019204A (ja) 2013-07-10 2013-07-10 画像処理装置および画像処理方法
JP2013-144504 2013-07-10

Publications (2)

Publication Number Publication Date
CN104284192A CN104284192A (zh) 2015-01-14
CN104284192B true CN104284192B (zh) 2019-06-14

Family

ID=52258601

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410315682.5A Expired - Fee Related CN104284192B (zh) 2013-07-10 2014-07-03 图像处理设备和图像处理方法

Country Status (3)

Country Link
US (1) US9262839B2 (zh)
JP (1) JP2015019204A (zh)
CN (1) CN104284192B (zh)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW201607296A (zh) * 2014-08-07 2016-02-16 國立臺灣大學 快速產生影像景深圖的方法及影像處理裝置
JP6425534B2 (ja) * 2014-12-25 2018-11-21 キヤノン株式会社 画像処理装置及びその制御方法、並びにプログラム
US20170127039A1 (en) * 2015-11-02 2017-05-04 Mediatek Inc. Ultrasonic proximity detection system
US10294552B2 (en) * 2016-01-27 2019-05-21 GM Global Technology Operations LLC Rapidly solidified high-temperature aluminum iron silicon alloys
US10841491B2 (en) * 2016-03-16 2020-11-17 Analog Devices, Inc. Reducing power consumption for time-of-flight depth imaging
KR102529120B1 (ko) * 2016-07-15 2023-05-08 삼성전자주식회사 영상을 획득하는 방법, 디바이스 및 기록매체
JP6939807B2 (ja) * 2016-10-25 2021-09-22 ソニーグループ株式会社 画像処理装置および画像処理方法
WO2019075473A1 (en) 2017-10-15 2019-04-18 Analog Devices, Inc. METHODS AND SYSTEMS FOR PROCESSING FLIGHT TIME DEPTH IMAGE
CN111937391B (zh) * 2018-04-02 2024-03-29 寰发股份有限公司 用于视频编解码系统中的子块运动补偿的视频处理方法和装置
JP7231729B2 (ja) * 2018-11-13 2023-03-01 北京字節跳動網絡技術有限公司 イントラブロックコピーのための履歴ベース動き候補リスト構築
MX2021006306A (es) * 2018-11-29 2021-08-11 Interdigital Vc Holdings Inc Ordenamiento de candidatos de predictor de vector de movimiento en lista de fusion.
GB2588827B (en) * 2019-11-11 2022-10-12 Advanced Risc Mach Ltd Depth processing
CN112750157B (zh) * 2020-08-11 2023-09-12 腾讯科技(深圳)有限公司 一种深度图像生成方法及装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101605269A (zh) * 2009-07-10 2009-12-16 清华大学 一种密集深度图像跟踪的方法和装置
CN102881018A (zh) * 2012-09-27 2013-01-16 清华大学深圳研究生院 一种图像深度图生成方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000261828A (ja) 1999-03-04 2000-09-22 Toshiba Corp 立体映像生成方法
CA2729106A1 (en) * 2008-06-24 2009-12-30 Thomson Licensing System and method for depth extraction of images with motion compensation
JP5464129B2 (ja) 2010-11-17 2014-04-09 コニカミノルタ株式会社 画像処理装置および視差情報生成装置
JP5919563B2 (ja) * 2011-04-12 2016-05-18 パナソニックIpマネジメント株式会社 動き推定装置、奥行き推定装置、及び動き推定方法
JP5787398B2 (ja) 2011-07-12 2015-09-30 国立大学法人東北大学 関数算出装置、デプスマップ生成装置、関数算出方法及び関数算出プログラム
KR101957873B1 (ko) * 2012-06-04 2019-03-13 삼성전자주식회사 3차원 영상을 위한 영상 처리 장치 및 방법
US20140267616A1 (en) * 2013-03-15 2014-09-18 Scott A. Krig Variable resolution depth representation

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101605269A (zh) * 2009-07-10 2009-12-16 清华大学 一种密集深度图像跟踪的方法和装置
CN102881018A (zh) * 2012-09-27 2013-01-16 清华大学深圳研究生院 一种图像深度图生成方法

Also Published As

Publication number Publication date
US20150016713A1 (en) 2015-01-15
JP2015019204A (ja) 2015-01-29
US9262839B2 (en) 2016-02-16
CN104284192A (zh) 2015-01-14

Similar Documents

Publication Publication Date Title
CN104284192B (zh) 图像处理设备和图像处理方法
EP3286750B1 (en) Image processing method and apparatus for preventing screen burn-ins and related display apparatus
KR101939628B1 (ko) 모션 검출 방법 및 모션 검출기
US9661298B2 (en) Depth image enhancement for hardware generated depth images
KR101620933B1 (ko) 제스쳐 인식 메커니즘을 제공하는 방법 및 장치
US10002436B2 (en) Image processing device, image processing method, and solid-state imaging device
KR102553273B1 (ko) 가상 현실 이미지들의 이미지 개선을 위한 방법 및 장치
US20110304636A1 (en) Wallpaper image generation method and portable electric device thereof
TW201433162A (zh) 電子裝置及其影像選擇方法
CN105827914A (zh) 镜头清理的提示方法及装置
CN109145970B (zh) 基于图像的问答处理方法和装置、电子设备及存储介质
EP3038055B1 (en) Image processing system with aperture change depth estimation and method of operation thereof
KR102367648B1 (ko) 전 방향 시차 영상 합성 방법, 장치 및 저장 매체
Santamaria et al. A comparison of block-matching motion estimation algorithms
JP5091994B2 (ja) 動きベクトル検出装置
CN103002212A (zh) 图像处理器、图像处理方法和计算机可读介质
US20150187051A1 (en) Method and apparatus for estimating image noise
US9769379B2 (en) Method and apparatus for selecting target image
RU2012103557A (ru) Предсказание вектора движения текущего раздела изображения, указывающего на опорную зону, которая перекрывает несколько разделов опорного изображения, кодирование и декодирование с использованием такого предсказания
JP2008003674A (ja) 動きベクトル検出装置
CN103096009B (zh) 图像处理装置和方法以及图像显示装置和方法
CN115422986B (zh) 处理方法、处理设备及存储介质
US20160014387A1 (en) Multiple view image display apparatus and disparity estimation method thereof
US8976186B2 (en) Image processing apparatus and method thereof
JP6155349B2 (ja) デコンボリューション画像において色収差を減じる方法、装置及びコンピュータプログラム製品

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20190614