CN102883170B - 图像处理装置及图像处理方法 - Google Patents
图像处理装置及图像处理方法 Download PDFInfo
- Publication number
- CN102883170B CN102883170B CN201210232990.2A CN201210232990A CN102883170B CN 102883170 B CN102883170 B CN 102883170B CN 201210232990 A CN201210232990 A CN 201210232990A CN 102883170 B CN102883170 B CN 102883170B
- Authority
- CN
- China
- Prior art keywords
- scene
- image
- depth image
- degree
- conformity
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/261—Image signal generators with monoscopic-to-stereoscopic image conversion
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Image Processing (AREA)
- Processing Or Creating Images (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
提供了一种图像处理装置及图像处理方法。图像处理装置包括:符合度检测单元,用于针对由二维图像构成的输入图像,检测多个场景中的每一个的符合度;深度图像生成单元,用于针对所述输入图像来生成各自通过与所述场景中的每一个相对应的技术获得的深度图像;混合单元,用于以基于所述场景中的每一个的符合度的混合比来混合由所述深度图像生成单元生成的、各自通过与所述场景中的每一个相对应的技术获得的深度图像,以生成混合的深度图像;以及三维图像生成单元,用于生成由通过使用所述混合的深度图像将所述输入图像的每个像素移位而生成的左眼图像和右眼图像构成的、能够以三维方式观看的三维图像。
Description
技术领域
本公开涉及图像处理装置、图像处理方法以及图像处理程序,更具体地,涉及能够将作为输入图像的二维图像转换为由左眼图像和右眼图像构成的三维图像以稳定地实现三维视觉效果的图像处理装置、图像处理方法以及图像处理程序。
背景技术
近年来,已广泛提供了被配置为显示能够以三维方式观看的三维图像的液晶面板或等离子显示面板(PDP),使得观看者可以观看三维图像。但是,由用于三维观看的图像信号(即,左眼图像和右眼图像)构成的三维图像信号的内容并不充足。已经通过用于将典型的二维图像信号转换成准三维图像信号的技术来对这种不充足的内容进行补偿。
通常,基于二维图像的颜色或亮度将二维图像信号转换成三维图像信号。具体地,使用基于关于深度图像的信息的视差来生成左眼图像和右眼图像,其中深度图像是通过将深度设置为该图像的每个像素的像素值而获得的。
近来,已经提出了如下技术:该技术用于基于与被估计和分类的每个图像的场景相对应的深度图像,将二维图像转换为更有立体感的三维图像(参见:东芝评论(TOSHIBAREVIEW)第66卷(2011年),以下称为非专利文献1)。
发明内容
但是,在该非专利文献1中提出的技术可能使得观看者感觉到由于对场景的错误估计和分类而引起的不适,这种错误估计和分类导致与实际深度完全不相同的估计深度。
鉴于上述情况,本技术涉及能够将作为输入图像的二维图像转换成由左眼图像和右眼图像构成的三维图像以稳定地实现三维视觉效果的图像处理装置、图像处理方法以及图像处理程序。
根据本公开的实施例,提供了一种图像处理装置,包括:符合度检测单元,被配置为针对由二维图像构成的输入图像,检测多个场景中的每一个的符合度;深度图像生成单元,被配置为针对所述输入图像来生成各自通过与所述场景中的每一个相对应的技术获得的深度图像;混合单元,被配置为以基于所述场景中的每一个的符合度的混合比来混合由所述深度图像生成单元生成的、各自通过与所述场景中的每一个相对应的技术获得的深度图像,以生成混合的深度图像;以及三维图像生成单元,被配置为生成由通过使用所述混合的深度图像将所述输入图像的像素中的每一个像素移位而生成的左眼图像和右眼图像构成的、能够以三维方式观看的三维图像。
该图像处理装置还可包括:附加信息获取单元,被配置为获取所述输入图像的附加信息;以及附加信息加权单元,被配置为基于所述附加信息,将所述场景中的每一个的权重应用于所述场景中的每一个的符合度。此外,所述混合单元可以以如下混合比来混合由所述深度图像生成单元生成的、各自通过与所述场景中的每一个相对应的技术获得的深度图像:该混合比基于经所述附加信息加权单元加权的所述场景中的每一个的符合度。
所述输入图像的附加信息可以是电子节目指南(EPG)中包括的关于所述输入图像的节目的信息。
所述图像处理装置还可包括稳定化单元,其被配置为使经所述附加信息加权单元加权的所述场景中的每一个的符合度在时间轴方向上稳定化。此外,所述混合单元可以以如下混合比来混合由所述深度图像生成单元生成的、各自通过与所述场景中的每一个相对应的技术获得的深度图像:该混合比基于经所述附加信息加权单元加权的、并被进一步稳定化的所述场景中的每一个的符合度。
所述稳定化单元可以是IIR(无限冲击响应)滤波器。
所述图像处理装置还可包括归一化单元,其被配置为使得所述符合度检测单元所检测到的所述场景中的每一个的符合度归一化。此外,所述混合单元可以以如下混合比来混合由所述深度图像生成单元生成的、各自通过与所述场景中的每一个相对应的技术获得的深度图像:该混合比基于经所述归一化单元归一化的相应场景的符合度。
所述混合单元可以通过获得由所述深度图像生成单元生成的、各自通过与所述场景中的每一个相对应的技术获得的深度图像与如下混合比的乘积的和,来混合由所述深度图像生成单元生成的、各自通过与所述场景中的每一个相对应的技术获得的深度图像:该混合比基于经所述归一化单元归一化的所述场景中的每一个的符合度。
根据本公开的另一实施例,提供了一种图像处理方法,包括:通过被配置为针对由二维图像构成的输入图像来检测多个场景中的每一个的符合度的符合度检测单元,针对由二维图像构成的输入图像来检测多个场景中的每一个的符合度;通过被配置为针对所述输入图像来生成各自通过与所述场景中的每一个相对应的技术获得的深度图像的深度图像生成单元,针对所述输入图像来生成各自通过与所述场景中的每一个相对应的技术获得的深度图像;通过被配置为以基于所述场景中的每一个的符合度的混合比来混合由所述深度图像生成单元生成的、各自通过与所述场景中的每一个相对应的技术获得的深度图像以生成混合的深度图像的混合单元,以基于所述场景中的每一个的符合度的混合比来混合由所述深度图像生成单元生成的、各自通过与所述场景中的每一个相对应的技术获得的深度图像,以生成混合的深度图像;以及通过被配置为生成由通过使用所述混合的深度图像将所述输入图像的像素中的每一个像素移位而生成的左眼图像和右眼图像构成的、能够以三维方式观看的三维图像的三维图像生成单元,生成由通过使用所述混合的深度图像将所述输入图像的像素中的每一个像素移位而生成的左眼图像和右眼图像构成的、能够以三维方式观看的三维图像。
根据本公开的另一实施例,还提供了一种程序,其被配置用于使对图像处理装置进行控制的计算机执行处理,所述图像处理装置包括:符合度检测单元,被配置为针对由二维图像构成的输入图像,检测多个场景中的每一个的符合度;深度图像生成单元,被配置为针对所述输入图像来生成各自通过与所述场景中的每一个相对应的技术获得的深度图像;混合单元,被配置为以基于所述场景中的每一个的符合度的混合比来混合由所述深度图像生成单元生成的、各自通过与所述场景中的每一个相对应的技术获得的深度图像,以生成混合的深度图像;以及三维图像生成单元,被配置为生成由通过使用所述混合的深度图像将所述输入图像的像素中的每一个像素移位而生成的左眼图像和右眼图像构成的、能够以三维方式观看的三维图像;并且,所述处理包括:通过所述符合度检测单元,针对由二维图像构成的输入图像,检测多个场景中的每一个的符合度;通过所述深度图像生成单元,针对所述输入图像来生成各自通过与所述场景中的每一个相对应的技术获得的深度图像;通过所述混合单元,以基于所述场景中的每一个的符合度的混合比来混合由所述深度图像生成单元生成的、各自通过与所述场景中的每一个相对应的技术获得的深度图像,以生成混合的深度图像;以及通过所述三维图像生成单元,生成由通过使用所述混合的深度图像将所述输入图像的像素中的每一个像素移位而生成的左眼图像和右眼图像构成的、能够以三维方式观看的三维图像。
根据本公开的另一实施例,针对由二维图像构成的输入图像检测多个场景中的每一个的符合度,针对该输入图像生成各自通过与所述场景中的每一个相对应的技术获得的深度图像,以基于所述场景中的每一个的符合度的混合比来混合各自通过与所述场景中的每一个相对应的获得的深度图像,以生成混合的深度图像,并且生成由通过使用该混合的深度图像对所述输入图像的像素中的每一个像素进行移位而生成的左眼图像和右眼图像构成的、能够以三维方式观看的三维图像。
该图像处理装置可以是单独的实体或图像处理块。
根据本技术,可以将作为输入图像的二维图像转换成由左眼图像和右眼图像构成的三维图像,以稳定地实现三维视觉效果。
附图说明
图1是示出根据本公开的实施例的图像处理装置的结构的视图;
图2是示出图1中的场景分类处理单元的结构的视图;
图3是示出图1中的权重处理单元的结构的视图;
图4是示出图1中的时间轴控制处理单元的结构的视图;
图5是示出图1中的混合单元的结构的视图;
图6是示出图1中的视差生成处理单元的结构的视图;
图7是示出由图1中的图像处理装置进行的二维-三维图像转换处理的流程图;
图8是示出场景分类处理的流程图;
图9是示出时间轴控制处理的流程图;
图10是示出分类场景深度图像生成处理的流程图;
图11是示出混合处理的流程图;
图12是示出视差生成处理的流程图;以及
图13是示出通用个人计算机的结构的视图。
具体实施方式
在下文中,将参考附图详细描述本公开的优选实施例。注意,在本说明书及附图中,用相同的附图标记来表示具有基本上相同的功能和结构的结构元件,并且省略对这些结构元件的重复说明。
[根据本技术的实施例的图像处理装置的结构]
将参考图1描述根据本技术的实施例的图像处理装置的结构。
在图1中,图像处理装置11被配置为将作为输入图像的二维图像信号转换为三维图像信号,以实现三维视觉效果。
具体地,图像处理装置11包括:场景分类处理单元21、时间轴控制处理单元22、混合单元23、分类场景深度图像生成单元24、以及视差生成处理单元25。
场景分类处理单元21被配置为计算如下符合度:该符合度表示由二维图像信号构成的输入图像信号的图像与三种类型的场景中的每一种(即,第一至第三分类场景中的每一个)相符合的程度。场景分类处理单元21将该符合度提供给时间轴控制处理单元22。例如,第一至第三分类场景是风景图像的场景、包括面部图像的场景以及运动图像的场景。也就是说,场景分类处理单元21检测表示输入图像与三种类型的场景中的每一种相符合的程度的符合度。将参考图2详细描述场景分类处理单元21的结构。本实施例描述使用三种类型的场景将二维图像转换成三维图像。但是,可以使用多于三种类型的场景来将二维图像转换成三维图像。
时间轴控制处理单元22被配置为使得从场景分类处理单元21提供的、与三种类型的场景中的每一种相对应的符合度相对于时间轴稳定化,并将稳定化的符合度作为每个场景的混合比提供给混合单元23。将参考图4详细描述时间轴控制处理单元22的结构。
分类场景深度图像生成单元24被配置为通过与第一至第三分类场景中的每一个相对应的技术来生成输入图像的深度图像。分类场景深度图像生成单元24将深度图像提供给混合单元23。在本实施例中,通过与第一至第三分类场景中的每一个相对应的技术来生成三种类型的深度图像。具体地,分类场景深度图像生成单元24包括第一至第三分类场景深度图像生成子单元31-1至31-3。第一至第三分类场景深度图像生成子单元31-1至31-3中的每一个通过与第一至第三分类场景中的每一个相对应的技术来生成输入图像的深度图像,并将该深度图像提供给混合单元23。例如,如果场景属于人的面部的图像,则从输入图像检测到面部图像。在这种情况下,可以读取预先统计获得的面部图像的深度图像并将其应用于检测到的面部图像,以匹配检测到的面部图像的尺寸或形状。再例如,如果场景属于包括天空和地面的风景图像,则在输入图像中检测天空与地面之间的边界,并且可以将预先获得的地面的深度图案和天空的深度图案添加到该边界。又例如,如果场景属于运动图像,则可以使用多个连续帧的像素间信息来生成深度图像。
混合单元23被配置为基于在时间轴方向上稳定化的分类场景中的每一个的混合比,来将从分类场景深度图像生成单元24提供的三种类型的深度图像混合成单个深度图像。混合单元23将混合后的深度图像提供给视差生成处理单元25。将参考图5详细描述混合单元23的结构。
视差生成处理单元25被配置为将基于从混合单元23提供的深度图像的视差信息添加到作为输入图像的二维图像信号,以生成左眼图像信号和右眼图像信号。将参考图6详细描述视差生成处理单元23的结构。
[场景分类处理单元]
将参考图2详细描述场景分类处理单元21的结构。
场景分类处理单元21包括第一至第三分类场景符合度检测处理单元41-1至41-3以及权重处理单元42。第一至第三分类场景符合度检测处理单元41-1至41-3检测表示输入图像与第一至第三分类场景相符合的程度的符合度M1至M3。例如,可以根据图像四角上的预定范围的直方图确定:如果图像的两个上角上的直方图之间的差别以及两个下角上的直方图之间的差别低、并且图像的两个左角上的直方图之间的差别以及两个右角上的直方图之间的差别高,则该图像很可能是风景图像的场景。换言之,如果天空位于图像上部且地面位于图像下部,则可以获得直方图之间的这种关系。在此情况下,可以将四角上的直方图的分布与风景图像的构造相类似的程度表示为符合度。在下文中,除非必须相互区分第一至第三分类场景或第一至第三分类场景符合度检测处理单元41-1至41-3,否则将分别将第一至第三分类场景或第一至第三分类场景符合度检测处理单元41-1至41-3称为第N分类场景或第N分类场景符合度检测处理单元41(或41-N)。将以类似方式指代其它要素。
权重处理单元42被配置为基于针对包括输入图像的节目的诸如EPG(electronicprogramguide,电子节目指南)的由文本信息构成的附加信息,来将权重应用于第一至第三分类场景中的每一个。具体地,参考图3,权重处理单元42包括场景信息提取处理单元61、权重改变单元62以及乘法器单元63-1至63-3。场景信息提取处理单元61从包括输入图像的节目的诸如EPG的附加信息中提取在识别场景时使用的信息,并将所提取的信息提供给权重改变单元62。权重改变单元62基于从场景信息提取处理单元61提供的、诸如与场景相对应的关键词的数量的该场景信息而获得权重W1至W3,并将权重W1至W3提供给乘法器单元63-1至63-3。乘法器单元63-1至63-3被配置为分别将权重W1至W3与符合度M1至M3相乘,并将权重W1至W3与符合度M1至M3的乘积作为混合比提供给时间轴控制处理单元22。
例如,假设场景信息提取处理单元61从附加信息中提取诸如“旅行”和“旅游”的关键词,并将关键词提供给权重处理单元42。如果第一分类场景属于风景图像,则权重处理单元42可以根据关键词“旅行”和“旅游”确定包括该输入图像的节目很可能具有多个风景图像,将权重W1设置为大于一,并将权重W1提供给乘法器单元63-1。在此情况下,权重处理单元42将第二分类场景和第三分类场景的权重W2和W3设置为一,并将第二分类场景和第三分类场景的权重W2和W3分别提供给乘法器单元63-2和63-3。相应地,可以仅针对很可能与输入图像相关的场景来增大权重。
[时间轴控制处理单元]
将参考图4详细描述时间轴控制处理单元22的结构。
时间轴控制处理单元22包括IIR(无限冲击响应)滤波器71-1至71-3以及归一化处理单元72。IIR滤波器71-1至71-3被配置为使得与对应于第一至第三分类场景的权重相乘后的符合度相对于时间轴方向稳定化。IIR滤波器71-1至71-3将在时间上稳定化的符合度S_(W1×M1)至S_(W3×M3)提供给归一化处理单元72。归一化处理单元72被配置为将符合度S_(W1×M1)至S_(W3×M3)的总和归一化为1。归一化处理单元72将归一化的值分别作为用于第一至第三分类场景的混合比α、β和γ而提供给混合单元23。
[混合单元]
将参考图5详细描述混合单元23的结构。
混合单元23包括乘法器单元81-1至81-3以及加法器单元82。乘法器单元81-1至81-3被配置为将分别与第一至第三分类场景相对应的深度图像Map1至Map3的像素与混合比α、β和γ相乘,并将深度图像α×Map1、β×Map2和γ×Map3输出到加法器单元82。加法器单元82被配置为将这些输出图像信号相加。具体地,加法器单元82将通过与第一至第三分类场景中的每一个相对应的技术而获得的深度图像Map1至Map3混合并组合成单个深度图像B-Map。加法器单元82将深度图像B-Map提供给视差生成处理单元25。
[视差生成处理单元]
将参考图6详细描述视差生成处理单元25的结构。
视差生成处理单元25包括右眼移位处理单元91-1和左眼移位处理单元91-2。右眼移位处理单元91-1和左眼移位处理单元91-2被配置为使用关于深度图像B-Map的像素的信息作为视差信息,将作为输入图像的二维图像信号的像素分别针对右眼和左眼进行移位,以分别生成右眼图像和左眼图像。
[二维-三维图像转换处理]
将参考图7的流程图描述在图像处理装置11中执行的用于将作为输入图像的二维图像信号转换为三维图像信号的二维-三维图像转换处理。
在步骤S1中,场景分类处理单元21确定从广播站(未示出)通过广播波以无线或有线方式发送并通过天线(未示出)接收的广播节目的二维(2D)图像信号是否被接收到。场景分类处理单元21重复地执行步骤S1,直到接收到二维图像信号为止。如果在步骤S1中确定接收到二维图像信号,则二维-三维图像转换处理进行到下一步骤S2。
在步骤S2中,场景分类处理单元21和分类场景深度图像生成单元24获取二维图像信号。由于将描述的所提取的特征因子,所获取的二维图像可以属于单个帧或者多个连续帧。
在步骤S3中,场景分类处理单元21中的权重处理单元42的场景信息提取处理单元61读取伴随二维图像信号的EPG的文本信息作为附加信息,并将该附加信息提供给权重改变单元62。
在步骤S4中,场景分类处理单元21执行场景分类处理以获得二维输入图像相对于预先分类的第一至第三分类场景中的每一个的符合度,并将二维图像的符合度提供给时间轴控制处理单元22。
[场景分类处理]
将参考图8的流程图详细描述场景分类处理。
在步骤S31中,场景分类处理单元21将用于识别第一至第三分类场景的计数器N(未示出)初始化为一。
在步骤S32中,权重处理单元42的场景信息提取处理单元61从伴随二维图像信号的EPG信息中提取场景信息。在此情况下,场景信息指代EPG信息中包括的与第一至第三分类场景相关的关键词。在风景图像的场景的情况下,场景信息是表示很可能频繁显示风景图像的节目的关键词,例如“旅行”或“旅游”。在面部图像的场景的情况下,场景信息是表示很可能频繁显示进行体育运动的运动者的面部的节目的关键词,例如“棒球”或“足球”。场景信息提取处理单元61检索并提取这些关键词作为场景信息,并将这些关键词提供给权重改变单元62。
在步骤S33中,场景分类处理单元21控制第一至第三分类场景符合度检测处理单元41-1至41-3的第N分类场景符合度检测处理单元41,以提取用于识别第N分类场景的特征因子。例如,如果第N分类场景是包括风景图像的场景,则第N分类场景符合度检测处理单元41可以提取输入图像的四角上的像素的直方图作为该特征因子。再例如,如果第N分类场景是包括面部图像的场景,则第N分类场景符合度检测处理单元41可以检索并提取输入图像中的面部图像的诸如眼、鼻、耳和嘴的器官的图像,作为该特征因子。再例如,如果第N分类场景是由运动图像构成的场景,则第N分类场景符合度检测处理单元41可以提取可通过输入图像的多个帧中的对应像素之间的块匹配而获得的运动矢量,作为该特征因子。
在步骤S34中,场景分类处理单元21控制第一至第三分类场景符合度检测处理单元中的第N分类场景符合度检测处理单元41来根据第N分类场景中的每一个的特征因子检测符合度MN。例如,如上文所述,如果第N分类场景是风景图像的场景,则第N分类场景符合度检测处理单元41可以提取输入图像的四角的预定范围内的直方图,作为该特征因子。在此情况下,如果输入图像的两个上角上的直方图之间的差别以及输入图像的两个下角上的直方图之间的差别低、并且输入图像的两个左角上的直方图之间的差别以及输入图像的两个右角上的直方图之间的差别高,则可以认为第N分类场景很可能是风景图像的场景。在此情况下,对于四种类型的特征因子,即,两个上角上的直方图之间的低差别、两个下角上的直方图之间的低差别、右上角和右下角上的直方图之间的高差别以及左上角和左下角上的直方图之间的高差别,如果这四种类型的特征因子全部得到满足,则第N分类场景符合度检测处理单元41可以获得100%的符合度,而如果这四种类型的特征因子中的两种未得到满足,则第N分类场景符合度检测处理单元41可以获得50%的符合度。
如上文所述,在第N分类场景是面部图像的场景的情况下,如果频繁检测到面部器官,则可以认为第N分类场景很可能是面部图像。假设这些器官仅包括眼、鼻、嘴和耳,如果眼、鼻、嘴和耳全部被检测到,则第N分类场景符合度检测处理单元41可以确定符合度为100%,而如果仅检测到这四种器官中的两种,则第N分类场景符合度检测处理单元41可以确定符合度为50%。
在步骤S35中,第N分类场景符合度检测处理单元41将检测到的符合度MN输出到权重处理单元42。
在步骤S36中,权重改变单元62确定场景信息是否是与第N分类场景相关的信息。也就是说,对于作为风景图像的场景的第N分类场景,如果场景信息指代诸如“旅游”或“旅行”的、表示很可能频繁显示风景图像的节目的关键词,则可以认为该场景信息与第N分类场景相关。另一方面,对于作为面部图像的场景的第N分类场景,如果场景信息指代诸如“棒球”或“足球”的、表示很可能频繁显示进行体育运动的运动者的面部的节目的关键词,则可以认为场景信息与第N分类场景相关。像这样,如果认为场景信息与第N分类场景相关,则场景分类处理进行到步骤S37。
在步骤S37中,权重改变单元62针对第N分类场景的符合度将权重系数WN设置为大于一的值,并将该权重系数WN输出到乘法器单元63-N。
如果在步骤S36中确定场景信息与第N分类场景不相关,则权重改变单元62在步骤S38中针对第N分类场景的符合度将权重系数WN设置为一,并将该权重系数WN输出到乘法器单元63-N。
在步骤S39中,乘法器单元63-N将第N分类场景的符合度MN与所提供的权重系数WN相乘,并输出第N分类场景的经加权的符合度WN×MN。
在步骤S40中,场景分类处理单元21确定计数器N是否等于三,即,是否对所有的第一至第三分类场景均执行了场景分类处理。如果在步骤S40中确定计数器N不等于三,则场景分类处理进行到步骤S41。
在步骤S41中,场景分类处理单元21使计数器N递增一,并且场景分类处理回到步骤S33。也就是说,重复执行步骤S33至S41,直到确定对所有的第一至第三分类场景均执行了场景分类处理为止。如果在步骤S40中确定计数器N等于三,即,对第一至第三分类场景执行了场景分类处理,则场景分类处理完成。
通过场景分类处理,获得输入图像对于第N分类场景的符合度MN,同时,如果从诸如EPG的附加信息获得的场景信息与第N分类场景相关,则权重系数WN被设置为大于一的值,而如果该场景信息与第N分类场景不相关,则权重系数WN被设置为一。相应地,当符合度高且场景信息与第N分类场景密切相关时,获得以较大的权重系数WN加权的符合度。
返回参考图7,将描述该流程图。
如果在步骤S4中完成了场景分类处理,则时间轴控制处理单元22在步骤S5中执行时间轴控制处理,以针对第一至第三分类场景中的每一个使得以权重系数WN加权的符合度WN×MN在时间轴方向上稳定化。
[时间轴控制处理]
将参考图9的流程图详细描述时间轴控制处理。
在步骤S61中,时间轴控制处理单元22将计数器N(未示出)初始化为一。
在步骤S62中,IIR滤波器71-N对第N分类场景的经加权的符合度WN×MN执行IIR滤波处理,以使经加权的符合度在时间轴方向上稳定化,并输出第N分类场景的稳定化的经加权的符合度S_WN×MN。
在步骤S63中,时间轴控制处理单元22确定计数器N是否等于三,即,确定IIR滤波器是否对所有的第一至第三分类场景的经加权的符合度WN×MN均执行了IIR滤波处理。如果在步骤S63中确定计数器N不等于三,则在步骤S64中时间轴控制处理单元22将计数器N递增一,并且时间轴控制处理返回到步骤S62。也就是说,重复地执行步骤S62至S64,直到对所有的第一至第三分类场景的经加权的符合度WN×MN均执行了IIR滤波处理为止。如果在步骤S63中确定计数器N等于三,即,确定对所有的第一至第三分类场景的经加权的符合度WN×MN均执行了IIR滤波处理,则时间轴控制处理进行到步骤S65。
在步骤S65中,归一化处理单元72将从IIR滤波器71-1至71-3提供的、第一至第三第N分类场景的稳定化的经加权的符合度S_WN×MN归一化成用于第一至第三分类场景的深度图像Map1至Map3的混合比α、β和γ,并将混合比α、β和γ提供给混合单元23。
通过时间轴控制处理,可以使得以基于场景信息的权重系数加权的第N分类场景的符合度WN×MN在时间轴方向上稳定化,计算第一至第三分类场景的深度图像Map1至Map3的混合比α、β和γ,并将混合比α、β和γ提供给混合单元23。
返回参考图7,将描述该流程图。
在步骤S5中执行时间轴控制处理之后,分类场景深度图像生成单元24在步骤S6中执行分类场景深度图像生成处理,以针对每个分类场景以不同的技术生成深度图像。分类场景深度图像生成单元24将生成的深度图像提供给混合单元23。
[分类场景深度图像生成处理]
将参考图10的流程图详细描述分类场景深度图像生成处理。
在步骤S81中,分类场景深度图像生成单元24将计数器N(未示出)初始化为一。
在步骤S82中,分类场景深度图像生成单元24控制第N分类场景深度图像生成单元31-N生成第N分类场景深度图像MapN,并将该第N分类场景深度图像MapN输出到混合单元23。
例如,如果第N分类场景是属于风景图像的场景,则第N分类场景深度图像生成单元31-N基于关于以下关系的信息来将包括基线的深度图案读取成深度图像:四角上的像素的直方图之间的差别与预先记录的包括基线的深度图案之间的关系。该基线表示图像中的以直线方式形成的边界(例如水平线或者地面与建筑之间的边界线),在该边界处深度改变。在本实施例中,对于作为风景图像的场景的包括基线的图像,预先获得四角上的像素的直方图之间的差别与深度图案之间的关系。在此情况下,基于四角上的像素的直方图之间的差别来选择深度图像。
例如,如果第N分类场景是包括人的面部图像的场景,则第N分类场景深度图像生成单元31-N通过以下方式针对包括面部图像的场景生成深度图像:放大或缩小先前记录的与面部图像相对应的深度图案以匹配所提供的面部图像的尺寸,并应用调整后的深度图案。
例如,如果第N分类场景是包括人的面部图像的场景,则第N分类场景深度图像生成单元31-N通过以下方式生成针对包括面部图像的场景生成深度图像:放大或缩小先前记录的与面部图像相对应的深度图案以匹配从所提供的图像检测到的面部图像的尺寸,并应用调整后的深度图案。
再例如,如果第N分类场景是包括运动图像的场景,则第N分类场景深度图像生成单元31-N基于多个连续帧获得用于每个像素的运动矢量,并形成运动矢量的聚类。在此情况下,由于针对每个对象形成聚类中的每一个,因此被另一对象覆盖的对象根据运动关系(即,运动)位于最内侧。第N分类场景深度图像生成单元31-N通过获得位于最内侧的对象与另一对象之间的运动矢量的平方差来获得相对深度方向的关系,并基于该相对深度方向的关系生成深度图像。
在步骤S83中,分类场景深度图像生成单元24确定计数器N是否等于三。也就是说,分类场景深度图像生成单元24确定计数器N是否等于三,即,确定是否根据第一至第三分类场景中的每一个的技术生成了深度图像MapN并将该深度图像MapN提供给了混合单元23。如果在步骤S83中未确定计数器N等于三以及根据第一至第三分类场景中的每一个的技术生成了深度图像MapN并将该深度图像MapN提供给混合单元23,则分类场景深度图像生成处理进行到步骤S84。
在步骤S84中,分类场景深度图像生成单元24将计数器N递增一,并且分类场景深度图像生成处理返回到步骤S82。也就是说,重复执行步骤S82至S84,直到根据第一至第三分类场景中的每一个的技术生成深度图像MapN并将该深度图像MapN提供给混合单元23为止。如果在步骤S83中确定根据第一至第三分类场景中的每一个的技术生成了深度图像MapN并将该深度图像MapN提供给了混合单元23,则完成分类场景深度图像生成处理。
通过分类场景深度图像生成处理,根据第一至第三分类场景中的每一个的技术生成用于第一至第三分类场景的深度图像,并将这些深度图像提供给混合单元23。
返回参考图7,将描述该流程图。
当在步骤S6中执行分类场景深度图像生成处理以根据第一至第三分类场景中的每一个的技术生成深度图像MapN之后,二维-三维图像转换处理进行到步骤S7。
在步骤S7中,混合单元23执行混合处理,以按照从时间轴控制处理单元22提供的针对第N分类场景的混合比α、β和γ来混合从分类场景深度图像生成单元24提供的针对第N分类场景的深度图像。混合单元23将混合的深度图像提供给视差生成处理单元25。
[混合处理]
将参考图11的流程图详细描述混合处理。
在步骤S101中,混合单元23将计数器N(未示出)初始化为一。
在步骤S102中,混合单元23将第N分类场景的混合比与第N分类场景的深度图像MapN的每个像素相乘。
在步骤S103中,混合单元23确定计数器N是否等于三。如果在步骤S103中未确定计数器N等于三,即,未确定所有的第N分类场景的混合比均与第N分类场景的深度图像MapN的像素的像素值相乘,则混合处理进行到步骤S104。
在步骤S104中混合单元23将计数器N递增一,并且混合处理返回到步骤S102。也就是说,重复执行步骤S102至S104,直到确定所有的第N分类场景的混合比均已与第N分类场景的深度图像MapN的像素的像素值相乘为止。
如果在步骤S103中确定计数器N等于三且第N分类场景的混合比已与第N分类场景的深度图像MapN的像素的像素值相乘,则混合处理进行到步骤S105。
在步骤S105中,混合单元23获得每一个第N分类场景的深度图像MapN的像素的像素值与第N分类场景的混合比的乘积,并获得位于对应像素位置处的每个像素上的乘积的和。混合单元23将由像素值分别为该乘积的和的像素构成的混合的深度图像B-Map输出到视差生成处理单元25。
通过混合处理,可以通过获得针对第N分类场景的深度图像的像素值与根据符合度获得的混合比的乘积的和,将针对第N分类场景的深度图像混合成混合的深度图像B-Map。
返回参考图7,将描述该流程图。
在通过以对应于符合度的混合比混合根据第N分类场景中的每一个的技术获得的针对第N分类场景的深度图像来在步骤S7中的混合处理中针对输入图像生成混合的深度图像B-Map之后,二维-三维图像转换处理进行到步骤S8。
在步骤S8中,视差生成处理单元25执行视差生成处理,以生成由视差导致的左眼图像和右眼图像,其中,通过基于与混合的深度图像B-Map中的每个像素的像素值相对应的深度值将作为输入图像的二维图像的每个像素在左方向或右方向上移位,而产生该视差。
[视差生成处理]
将参考图12的流程图详细描述视差生成处理。
在步骤S121中,右眼移位处理单元91-1通过以下方式来生成右眼图像:将作为输入图像的二维图像的每个像素在左方向上移位与混合的深度图像B-Map中的对应像素位置处的深度值相对应的距离,以向输入图像提供右眼视差。
在步骤S122中,左眼移位处理单元91-2通过以下方式来生成左眼图像:将作为输入图像的二维图像的每个像素在右方向上移位与混合的深度图像B-Map中的对应像素位置处的深度值相对应的距离,以向输入图像提供左眼视差。
通过视差生成处理,可以通过将作为输入图像的二维图像的每个像素在右方向或左方向上基于如下深度值而移位来生成左眼图像和右眼图像:该深度值与深度图像中的、位于作为输入图像的二维图像中的每个像素的对应像素位置处的、每个像素的像素值相对应。
参考图7,将描述该流程图。
当在步骤S8中执行视差生成处理以生成左眼图像和右眼图像之后,在步骤S9中,视差生成处理单元25输出左眼图像和右眼图像,作为能够以三维方式观看的三维图像信号。
在步骤S10中,分类场景深度图像生成单元24确定下一图像是否被提供。如果在步骤S10中确定下一图像已被提供,则二维-三维图像转换处理返回到步骤S2并重复后续操作。如果在步骤S10中确定下一图像未被提供,则完成二维-三维图像转换处理。
因此,由于针对分类场景单独地生成深度图像并以基于场景信息以及分类场景的符合度的混合比来混合这些深度图像,以生成混合的深度图像,因此可以抑制由于错误分类的场景而导致的不满意的结果。在此情况下,由于在获得混合比时执行IIR滤波处理,因此使混合比在时间轴方向上稳定化,由此使得所生成的深度图像稳定化。相应地,可以实现二维-三维图像转换处理,以提供非常稳定的三维图像,而不会使观看者感到不适。
结果,根据本技术,可以根据二维图像信号生成由左眼图像和右眼图像构成的、能够以三维方式观看的三维图像信号,该三维图像信号是稳定的,而不会使观看者感到不适。
上述处理不仅可以通过硬件执行,而且可以通过软件执行。如果要通过软件执行该处理,则通过记录介质将该软件的程序安装在包括专用硬件的计算机中或安装在借助于所安装的各种程序来执行各种功能的通用个人计算机中。
图13示出了通用个人计算机的结构。个人计算机包括CPU(中央处理单元)1001。CPU1001通过总线1004连接到输入/输出(I/O)接口1005。总线1004连接到ROM(只读存储器)1002和RAM(随机存取存储器)1003。
I/O接口1005连接到以下各单元:用于供用户输入操作命令的、由诸如键盘或鼠标的输入装置构成的输入单元1006;将处理操作画面或处理结果图像输出到显示装置的输出单元1007;用于存储程序或数据的、由硬盘驱动器等构成的存储单元1008;以及用于在诸如因特网的网络上执行通信处理的、由LAN(局域网)适配器构成的通信单元1009。此外,I/O接口1005连接到驱动器1010,驱动器1010用于从诸如磁盘(包括软盘)、光盘(包括CD-ROM(压缩盘只读存储器))和DVD(数字多功能盘)或半导体存储器的可拆卸介质1011读取数据或者向可拆卸介质1011写入数据。
CPU1001根据存储在ROM1002中的程序或者根据被从诸如磁盘、光盘、磁光盘或半导体存储器的可拆卸介质1011读取、被安装在存储单元1008中、并被从存储单元1008加载到RAM1003中的程序来执行各种处理。RAM1003还可以存储被CPU1001用于执行各种处理的数据。
应当注意,在本公开中,描述记录在记录介质上的程序的步骤不仅能够以所描述的顺序按时间序列执行,并且能够并行地或单独地执行。
本领域的技术人员应当理解,取决于设计需求和其它因素,可以进行各种变型、组合、子组合和变更,只要这些变型、组合、子组合和变更在所附权利要求或其等同的范围之内即可。
此外,本技术也可以配置如下:
(1)一种图像处理装置,包括:
符合度检测单元,被配置为针对由二维图像构成的输入图像,检测多个场景中的每一个的符合度;
深度图像生成单元,被配置为针对所述输入图像来生成各自通过与所述场景中的每一个相对应的技术获得的深度图像;
混合单元,被配置为以基于所述场景中的每一个的符合度的混合比来混合由所述深度图像生成单元生成的、各自通过与所述场景中的每一个相对应的技术获得的深度图像,以生成混合的深度图像;以及
三维图像生成单元,被配置为生成由通过使用所述混合的深度图像将所述输入图像的像素中的每一个像素移位而生成的左眼图像和右眼图像构成的、能够以三维方式观看的三维图像。
(2)根据(1)所述的图像处理装置,还包括:
附加信息获取单元,被配置为获取所述输入图像的附加信息;以及
附加信息加权单元,被配置为基于所述附加信息,将所述场景中的每一个的权重应用于所述场景中的每一个的符合度,
其中,所述混合单元以如下混合比来混合由所述深度图像生成单元生成的、各自通过与所述场景中的每一个相对应的技术获得的深度图像:该混合比基于经所述附加信息加权单元加权的所述场景中的每一个的符合度。
(3)根据(1)或(2)所述的图像处理装置,
其中,所述输入图像的附加信息是电子节目指南(EPG)中包括的关于所述输入图像的节目的信息。
(4)根据(1)至(3)中任意一项所述的图像处理装置,还包括:
稳定化单元,被配置为使经所述附加信息加权单元加权的所述场景中的每一个的符合度在时间轴方向上稳定化,
其中,所述混合单元以如下混合比来混合由所述深度图像生成单元生成的、各自通过与所述场景中的每一个相对应的技术获得的深度图像:该混合比基于经所述附加信息加权单元加权的、并被进一步稳定化的所述场景中的每一个的符合度。
(5)根据(4)所述的图像处理装置,
其中,所述稳定化单元是无限冲击响应(IIR)滤波器。
(6)根据(1)至(5)中任意一项所述的图像处理装置,还包括:
归一化单元,被配置为使得所述符合度检测单元所检测到的所述场景中的每一个的符合度归一化,
其中,所述混合单元以如下混合比来混合由所述深度图像生成单元生成的、各自通过与所述场景中的每一个相对应的技术获得的深度图像:该混合比基于经所述归一化单元归一化的所述场景中的每一个的符合度。
(7)根据(6)所述的图像处理装置,
其中,所述混合单元通过获得由所述深度图像生成单元生成的、各自通过与所述场景中的每一个相对应的技术获得的深度图像与如下混合比的乘积的和,来混合由所述深度图像生成单元生成的、各自通过与所述场景中的每一个相对应的技术获得的深度图像:该混合比基于经所述归一化单元归一化的相应场景的符合度。
(8)一种图像处理方法,包括:
通过被配置为针对由二维图像构成的输入图像来检测多个场景中的每一个的符合度的符合度检测单元,针对由二维图像构成的输入图像来检测多个场景中的每一个的符合度;
通过被配置为针对所述输入图像来生成各自通过与所述场景中的每一个相对应的技术获得的深度图像的深度图像生成单元,针对所述输入图像来生成各自通过与所述场景中的每一个相对应的技术获得的深度图像;
通过被配置为以基于所述场景中的每一个的符合度的混合比来混合由所述深度图像生成单元生成的、各自通过与所述场景中的每一个相对应的技术获得的深度图像以生成混合的深度图像的混合单元,以基于所述场景中的每一个的符合度的混合比来混合由所述深度图像生成单元生成的、各自通过与所述场景中的每一个相对应的技术获得的深度图像,以生成混合的深度图像;以及
通过被配置为生成由通过使用所述混合的深度图像将所述输入图像的像素中的每一个像素移位而生成的左眼图像和右眼图像构成的、能够以三维方式观看的三维图像的三维图像生成单元,生成由通过使用所述混合的深度图像将所述输入图像的像素中的每一个像素移位而生成的左眼图像和右眼图像构成的、能够以三维方式观看的三维图像。
(9)一种程序,被配置用于使对图像处理装置进行控制的计算机执行处理,
其中,所述图像处理装置包括:
符合度检测单元,被配置为针对由二维图像构成的输入图像,检测多个场景中的每一个的符合度,
深度图像生成单元,被配置为针对所述输入图像来生成各自通过与所述场景中的每一个相对应的技术获得的深度图像,
混合单元,被配置为以基于所述场景中的每一个的符合度的混合比来混合由所述深度图像生成单元生成的、各自通过与所述场景中的每一个相对应的技术获得的深度图像,以生成混合的深度图像,以及
三维图像生成单元,被配置为生成由通过使用所述混合的深度图像将所述输入图像的像素中的每一个像素移位而生成的左眼图像和右眼图像构成的、能够以三维方式观看的三维图像,以及
其中,所述处理包括:
通过所述符合度检测单元,针对由二维图像构成的输入图像,检测多个场景中的每一个的符合度,
通过所述深度图像生成单元,针对所述输入图像来生成各自通过与所述场景中的每一个相对应的技术获得的深度图像,
通过所述混合单元,以基于所述场景中的每一个的符合度的混合比来混合由所述深度图像生成单元生成的、各自通过与所述场景中的每一个相对应的技术获得的深度图像,以生成混合的深度图像,以及
通过所述三维图像生成单元,生成由通过使用所述混合的深度图像将所述输入图像的像素中的每一个像素移位而生成的左眼图像和右眼图像构成的、能够以三维方式观看的三维图像。
本公开包含与2011年7月12日在日本专利局递交的日本优先权专利申请JP2011-153555中公开的主题相关的主题,该申请全部内容通过引用合并于此。
Claims (8)
1.一种图像处理装置,包括:
符合度检测单元,被配置为针对由二维图像构成的输入图像,检测根据图像场景中包括的对象的类别和所述对象的运动而分类的多个场景中的每一个的符合度;
深度图像生成单元,被配置为针对所述输入图像来生成各自通过与所述场景中的每一个相对应的技术获得的深度图像;
混合单元,被配置为以基于所述场景中的每一个的符合度的混合比来混合由所述深度图像生成单元生成的、各自通过与所述场景中的每一个相对应的技术获得的深度图像,以生成混合的深度图像;以及
三维图像生成单元,被配置为生成由通过使用所述混合的深度图像将所述输入图像的像素中的每一个像素移位而生成的左眼图像和右眼图像构成的、能够以三维方式观看的三维图像。
2.根据权利要求1所述的图像处理装置,还包括:
附加信息获取单元,被配置为获取所述输入图像的附加信息;以及
附加信息加权单元,被配置为基于所述附加信息,将所述场景中的每一个的权重应用于所述场景中的每一个的符合度,
其中,所述混合单元以如下混合比来混合由所述深度图像生成单元生成的、各自通过与所述场景中的每一个相对应的技术获得的深度图像:该混合比基于经所述附加信息加权单元加权的所述场景中的每一个的符合度。
3.根据权利要求2所述的图像处理装置,
其中,所述输入图像的附加信息是电子节目指南EPG中包括的关于所述输入图像的节目的信息。
4.根据权利要求3所述的图像处理装置,还包括:
稳定化单元,被配置为使经所述附加信息加权单元加权的所述场景中的每一个的符合度在时间轴方向上稳定化,
其中,所述混合单元以如下混合比来混合由所述深度图像生成单元生成的、各自通过与所述场景中的每一个相对应的技术获得的深度图像:该混合比基于经所述附加信息加权单元加权的、并被进一步稳定化的所述场景中的每一个的符合度。
5.根据权利要求4所述的图像处理装置,
其中,所述稳定化单元是无限冲击响应IIR滤波器。
6.根据权利要求1所述的图像处理装置,还包括:
归一化单元,被配置为使得所述符合度检测单元所检测到的所述场景中的每一个的符合度归一化,
其中,所述混合单元以如下混合比来混合由所述深度图像生成单元生成的、各自通过与所述场景中的每一个相对应的技术获得的深度图像:该混合比基于经所述归一化单元归一化的所述场景中的每一个的符合度。
7.根据权利要求6所述的图像处理装置,
其中,所述混合单元通过获得由所述深度图像生成单元生成的、各自通过与所述场景中的每一个相对应的技术获得的深度图像与如下混合比的乘积的和,来混合由所述深度图像生成单元生成的、各自通过与所述场景中的每一个相对应的技术获得的深度图像:该混合比基于经所述归一化单元归一化的相应场景的符合度。
8.一种图像处理方法,包括:
通过被配置为针对由二维图像构成的输入图像来检测根据图像场景中包括的对象的类别和该对象的运动而分类的多个场景中的每一个的符合度的符合度检测单元,针对由二维图像构成的输入图像来检测根据图像场景中包括的对象的类别和该对象的运动而分类的多个场景中的每一个的符合度;
通过被配置为针对所述输入图像来生成各自通过与所述场景中的每一个相对应的技术获得的深度图像的深度图像生成单元,针对所述输入图像来生成各自通过与所述场景中的每一个相对应的技术获得的深度图像;
通过被配置为以基于所述场景中的每一个的符合度的混合比来混合由所述深度图像生成单元生成的、各自通过与所述场景中的每一个相对应的技术获得的深度图像以生成混合的深度图像的混合单元,以基于所述场景中的每一个的符合度的混合比来混合由所述深度图像生成单元生成的、各自通过与所述场景中的每一个相对应的技术获得的深度图像,以生成混合的深度图像;以及
通过被配置为生成由通过使用所述混合的深度图像将所述输入图像的像素中的每一个像素移位而生成的左眼图像和右眼图像构成的、能够以三维方式观看的三维图像的三维图像生成单元,生成由通过使用所述混合的深度图像将所述输入图像的像素中的每一个像素移位而生成的左眼图像和右眼图像构成的、能够以三维方式观看的三维图像。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011153555A JP5907368B2 (ja) | 2011-07-12 | 2011-07-12 | 画像処理装置および方法、並びにプログラム |
JP2011-153555 | 2011-07-12 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102883170A CN102883170A (zh) | 2013-01-16 |
CN102883170B true CN102883170B (zh) | 2016-02-10 |
Family
ID=47484285
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201210232990.2A Expired - Fee Related CN102883170B (zh) | 2011-07-12 | 2012-07-05 | 图像处理装置及图像处理方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US9071832B2 (zh) |
JP (1) | JP5907368B2 (zh) |
CN (1) | CN102883170B (zh) |
BR (1) | BR102012016660A2 (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9508173B2 (en) | 2013-10-30 | 2016-11-29 | Morpho, Inc. | Image processing device having depth map generating unit, image processing method and non-transitory computer redable recording medium |
US10951875B2 (en) | 2018-07-03 | 2021-03-16 | Raxium, Inc. | Display processing circuitry |
CN111881709A (zh) * | 2019-05-03 | 2020-11-03 | 爱唯秀股份有限公司 | 人脸图像处理方法及装置 |
CN110378946B (zh) | 2019-07-11 | 2021-10-01 | Oppo广东移动通信有限公司 | 深度图处理方法、装置以及电子设备 |
WO2021092397A1 (en) * | 2019-11-08 | 2021-05-14 | General Electric Company | System and method for vegetation modeling using satellite imagery and/or aerial imagery |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006186795A (ja) * | 2004-12-28 | 2006-07-13 | Victor Co Of Japan Ltd | 奥行き信号生成装置、奥行き信号生成プログラム、擬似立体画像生成装置、及び擬似立体画像生成プログラム |
CN101243448A (zh) * | 2005-08-17 | 2008-08-13 | 松下电器产业株式会社 | 影像场面分类装置及影像场面分类方法 |
CN102013086A (zh) * | 2009-09-03 | 2011-04-13 | 索尼公司 | 图像处理设备和方法,以及程序 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6163337A (en) * | 1996-04-05 | 2000-12-19 | Matsushita Electric Industrial Co., Ltd. | Multi-view point image transmission method and multi-view point image display method |
JP3413065B2 (ja) * | 1997-07-03 | 2003-06-03 | 松下電器産業株式会社 | 番組情報処理装置 |
JP2002112186A (ja) * | 2000-09-28 | 2002-04-12 | Toshiba Corp | 電子番組ガイド受信装置 |
JP4729812B2 (ja) * | 2001-06-27 | 2011-07-20 | ソニー株式会社 | 画像処理装置および方法、記録媒体、並びにプログラム |
WO2006046180A1 (en) * | 2004-10-26 | 2006-05-04 | Koninklijke Philips Electronics N.V. | Disparity map |
EP1889171A4 (en) * | 2005-04-07 | 2012-11-28 | Visionsense Ltd | METHOD FOR RECONSTRUCTING A THREE-DIMENSIONAL SURFACE OF AN OBJECT |
US20110043540A1 (en) * | 2007-03-23 | 2011-02-24 | James Arthur Fancher | System and method for region classification of 2d images for 2d-to-3d conversion |
WO2009011492A1 (en) * | 2007-07-13 | 2009-01-22 | Samsung Electronics Co., Ltd. | Method and apparatus for encoding and decoding stereoscopic image format including both information of base view image and information of additional view image |
KR101420681B1 (ko) * | 2008-02-01 | 2014-07-17 | 한국과학기술원 | 비디오 영상의 깊이 지도 생성 방법 및 장치 |
GB2465791A (en) * | 2008-11-28 | 2010-06-02 | Sony Corp | Rendering shadows in augmented reality scenes |
JP2010263527A (ja) * | 2009-05-11 | 2010-11-18 | Canon Inc | 放送受信装置及びその制御方法 |
WO2011036761A1 (ja) * | 2009-09-25 | 2011-03-31 | 株式会社東芝 | 多視点画像生成方法および装置 |
US8472704B2 (en) * | 2009-10-30 | 2013-06-25 | Fujifilm Corporation | Image processing apparatus and image processing method |
JP2012138787A (ja) * | 2010-12-27 | 2012-07-19 | Sony Corp | 画像処理装置、および画像処理方法、並びにプログラム |
US8749548B2 (en) * | 2011-09-01 | 2014-06-10 | Samsung Electronics Co., Ltd. | Display system with image conversion mechanism and method of operation thereof |
-
2011
- 2011-07-12 JP JP2011153555A patent/JP5907368B2/ja not_active Expired - Fee Related
-
2012
- 2012-07-05 CN CN201210232990.2A patent/CN102883170B/zh not_active Expired - Fee Related
- 2012-07-05 BR BRBR102012016660-7A patent/BR102012016660A2/pt not_active IP Right Cessation
- 2012-07-05 US US13/542,141 patent/US9071832B2/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006186795A (ja) * | 2004-12-28 | 2006-07-13 | Victor Co Of Japan Ltd | 奥行き信号生成装置、奥行き信号生成プログラム、擬似立体画像生成装置、及び擬似立体画像生成プログラム |
CN101243448A (zh) * | 2005-08-17 | 2008-08-13 | 松下电器产业株式会社 | 影像场面分类装置及影像场面分类方法 |
CN102013086A (zh) * | 2009-09-03 | 2011-04-13 | 索尼公司 | 图像处理设备和方法,以及程序 |
Also Published As
Publication number | Publication date |
---|---|
JP5907368B2 (ja) | 2016-04-26 |
US9071832B2 (en) | 2015-06-30 |
BR102012016660A2 (pt) | 2013-07-30 |
US20130063424A1 (en) | 2013-03-14 |
CN102883170A (zh) | 2013-01-16 |
JP2013021525A (ja) | 2013-01-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102741879B (zh) | 由单眼图像产生深度图的方法及其系统 | |
US9300947B2 (en) | Producing 3D images from captured 2D video | |
Guttmann et al. | Semi-automatic stereo extraction from video footage | |
Moorthy et al. | Visual quality assessment algorithms: what does the future hold? | |
JP5969537B2 (ja) | 視覚的関心に基づいた2次元映像の3次元映像変換器および変換方法 | |
JP6024110B2 (ja) | 画像処理装置、画像処理方法、プログラム、端末装置及び画像処理システム | |
JP5977752B2 (ja) | 映像変換装置およびそれを利用するディスプレイ装置とその方法 | |
CN102883170B (zh) | 图像处理装置及图像处理方法 | |
US20120056873A1 (en) | Display system with image conversion mechanism and method of operation thereof | |
US8441521B2 (en) | Method and apparatus for determining view of stereoscopic image for stereo synchronization | |
US20120287233A1 (en) | Personalizing 3dtv viewing experience | |
CN102547356A (zh) | 图像处理装置、图像处理方法和程序 | |
EP2246807A1 (en) | Information processing apparatus and method, and program | |
US20110249886A1 (en) | Image converting device and three-dimensional image display device including the same | |
CN104980651A (zh) | 图像处理设备及控制方法 | |
US20100246954A1 (en) | Apparatus, method, and medium of generating visual attention map | |
CN101242474A (zh) | 一种照片在小尺寸屏幕设备上的动态视频浏览方法 | |
EP3407248B1 (en) | An apparatus, a method and a computer program for video coding and decoding | |
CN109995997A (zh) | 具有特征匹配的多相机处理器 | |
US20110248988A1 (en) | Image converting device and three dimensional image display device including the same | |
US20130155192A1 (en) | Stereoscopic image shooting and display quality evaluation system and method applicable thereto | |
CN105120256A (zh) | 移动终端及其通过拍摄3d图像合成图片的方法和装置 | |
KR101791917B1 (ko) | 일반 영상을 가상 현실 영상으로 자동 변환하는 방법 및 이를 이용한 장치 | |
CN101527762A (zh) | 数码相框及立体图像显示方法 | |
Lu et al. | Light field editing propagation using 4d convolutional neural networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20160210 Termination date: 20170705 |