CN102905152A - 图像处理设备、图像处理方法及程序 - Google Patents

图像处理设备、图像处理方法及程序 Download PDF

Info

Publication number
CN102905152A
CN102905152A CN2012102442426A CN201210244242A CN102905152A CN 102905152 A CN102905152 A CN 102905152A CN 2012102442426 A CN2012102442426 A CN 2012102442426A CN 201210244242 A CN201210244242 A CN 201210244242A CN 102905152 A CN102905152 A CN 102905152A
Authority
CN
China
Prior art keywords
signal
image
viewpoint
enhancing
signals
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2012102442426A
Other languages
English (en)
Other versions
CN102905152B (zh
Inventor
土田祐司
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of CN102905152A publication Critical patent/CN102905152A/zh
Application granted granted Critical
Publication of CN102905152B publication Critical patent/CN102905152B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/282Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本申请提供了一种图像处理设备、图像处理方法及程序。图像处理设备根据由二维图像信号形成的输入图像信号生成多个视点图像,使得视点之间的信号差为预定值,并且视点之间的信号差等于预定值两倍的两个视点图像均形成用于实现三维立体视觉的左眼图像和右眼图像。

Description

图像处理设备、图像处理方法及程序
技术领域
本公开涉及图像处理设备、图像处理方法及程序。特别地,本公开涉及能够生成多视点图像的图像处理设备、图像处理方法及程序,其中,多视点图像可以以简单的方式,根据由二维图像形成的输入图像,来实现多个视点的裸眼三维立体视觉。
背景技术
在现有技术中,已提出了用于生成两个立体图像的技术,其中可根据单个图像实现立体视觉(参见JP-A-2010-63083)。
根据JP-A-2010-63083中提出的技术,使用简单的差分滤波器等对从输入图像中提取的特征量进行非线性变换,从而生成增强信号,以及可通过将增强信号加到输入信号上和从输入信号减去增强信号,来生成可实现立体视觉的右眼图像和左眼图像。
发明内容
然而,由于通过上述方法仅生成右眼图像和左眼图像这两种图像,所以不可能生成多视点图像,其中,作为由裸眼立体视觉图像显示装置代表的多视点显示装置(例如,柱状透镜型装置或视差屏障型装置)的输入信号,多视点图像是必要的。
考虑到这些情况做出了本公开,特别地,本公开提供了如下技术,该技术能够以简单的方式,根据由二维图像形成的输入图像,来适当地生成多视点的裸眼三维立体视觉图像。
根据本公开的实施例,提供了一种图像处理设备,其根据由二维图像信号形成的输入图像信号生成多个视点图像,使得视点之间的信号差为预定值,并且视点之间的信号差等于预定值两倍的两个视点图像均形成用于实现三维立体视觉的左眼图像和右眼图像。
根据本公开的实施例,提供了一种图像处理设备,其包括多个提取单元、多个增强处理单元和多个第一图像生成单元。多个提取单元提取由二维图像信号形成的输入图像信号的多个空间特征量信号。多个增强处理单元对多个特征量信号中的每个执行增强处理,并且生成多个增强信号。多个第一图像生成单元通过将多个增强信号加到输入图像信号上,来针对多个增强信号中的每个生成第一视点图像。多个提取单元提取由二维图像信号形成的输入图像信号的多个空间特征量信号,使得按照被加到输入图像信号上的增强信号的相加值的大小的顺序获得的视点图像的视点之间的信号差为预定值,并且视点之间的信号差等于预定值两倍的两个视点图像均形成用于实现三维立体视觉的左眼图像和右眼图像。
根据本公开的实施例的图像处理设备还可包括多个第二图像生成单元,第二图像生成单元通过从输入信号中减去多个增强信号,来针对多个增强信号中的每个生成第二视点图像。这里,多个提取单元可提取由二维图像信号形成的输入图像信号的多个空间特征量信号,使得按照被加到输入图像信号上或从输入图像信号减去的增强信号的相加值的大小的顺序获得的视点图像的视点之间的信号差为预定值,并且视点之间的信号差等于预定值两倍的两个视点图像均形成用于实现三维立体视觉的左眼图像和右眼图像。
在根据本公开的实施例的图像处理设备中,当以在预定方向上连续相邻的像素为单位依次提供输入图像信号时,第一图像生成单元可通过将增强信号加到当前像素的输入图像信号上,来生成第一视点图像。
根据本公开的实施例,提供了一种图像处理方法,其包括:由多个提取单元提取由二维图像信号形成的输入图像信号的多个空间特征量信号,该提取被执行多次,其中提取单元提取由二维图像形成的输入图像信号的空间特征量信号;由多个增强处理单元对多个特征量信号中的每个执行增强处理并且生成多个增强信号,该增强处理被执行多次,其中增强处理单元通过对多个特征量信号中的每个执行增强处理来生成多个增强信号;以及由多个第一图像生成单元通过将多个增强信号加到输入图像信号上,来针对多个增强信号中的每个生成第一视点图像,该生成被执行多次,其中第一图像生成单元通过将多个增强信号加到输入图像信号上,来针对多个增强信号中的每个生成第一视点图像。通过使得多个提取单元提取由二维图像信号形成的输入图像信号的多个空间特征量信号来执行提取,使得按照被加到输入图像信号上的增强信号的相加值的大小的顺序获得的视点图像的视点之间的信号差为预定值,并且视点之间的信号差等于预定值两倍的两个视点图像均形成用于实现三维立体视觉的左眼图像和右眼图像。
根据本公开的实施例,提供了一种使得计算机能够控制图像处理设备的程序。图像处理设备包括:多个提取单元,其提取由二维图像信号形成的输入图像信号的多个空间特征量信号;多个增强处理单元,其对多个特征量信号中的每个执行增强处理,并且生成多个增强信号;以及多个第一图像生成单元,其通过将多个增强信号加到输入图像信号上,来针对多个增强信号中的每个生成第一视点图像。多个提取单元提取由二维图像信号形成的输入图像信号的多个空间特征量信号,使得按照被加到输入图像信号上的增强信号的相加值的大小的顺序获得的视点图像的视点之间的信号差为预定值,并且视点之间的信号差等于预定值两倍的两个视点图像均形成用于实现三维立体视觉的左眼图像和右眼图像。该程序使得计算机能够执行如下操作,该操作包括:由多个提取单元提取由二维图像信号形成的输入图像信号的多个空间特征量信号,该提取被执行多次,其中提取单元提取由二维图像形成的输入图像信号的空间特征量信号;由多个增强处理单元对多个特征量信号中的每个执行增强处理并且生成多个增强信号,该增强处理被执行多次,其中增强处理单元通过对多个特征量信号中的每个执行增强处理来生成多个增强信号;以及由多个第一图像生成单元通过将多个增强信号加到输入图像信号上,来针对多个增强信号中的每个生成第一视点图像,该生成被执行多次,其中第一图像生成单元通过将多个增强信号加到输入图像信号上,来针对多个增强信号中的每个生成第一视点图像。通过使得多个提取单元提取由二维图像信号形成的输入图像信号的多个空间特征量信号来执行提取,使得按照被加到输入图像信号上的增强信号的相加值的大小的顺序获得的视点图像的视点之间的信号差为预定值,并且视点之间的信号差等于预定值两倍的两个视点图像均形成用于实现三维立体视觉的左眼图像和右眼图像。
在根据本公开的实施例的图像处理设备中,可根据由二维图像信号形成的输入图像信号生成多个视点图像,使得视点之间的信号差为预定值,并且视点之间的信号差等于预定值两倍的两个视点图像均形成用于实现三维立体视觉的左眼图像和右眼图像。
在根据本公开的实施例的图像处理设备中,可提取由二维图像信号形成的输入图像信号的多个空间特征量信号,并且可通过对多个特征量信号中的每个执行增强处理来生成多个增强信号,以及可通过将多个增强信号加到输入图像信号上,来针对多个增强信号中的每个生成第一视点图像。在图像处理设备中,可提取由二维图像信号形成的输入图像信号的多个空间特征量,使得按照被加到输入图像信号上的增强信号的相加值的大小的顺序获得的视点图像的视点之间的信号差为预定值,并且视点之间的信号差等于预定值两倍的两个视点图像均形成用于实现三维立体视觉的左眼图像和右眼图像。
根据本公开的实施例的图像处理设备可为分立装置,或者可被配置为用于执行成像处理的块。
根据本公开的实施例,可以以简单的方式,根据二维输入图像生成裸眼的多视点三维立体视觉图像。
附图说明
图1是图示现有技术中的立体图像生成单元的配置的图;
图2是图示现有技术中的立体图像生成处理的图;
图3是图示根据本公开的第一实施例的图像处理设备的多视点图像生成单元的配置示例的图;
图4是图示由图3的多视点图像生成单元执行的多视点图像生成处理的图;
图5是图示非线性变换处理的图;
图6是图示由图3的多视点图像生成单元执行的多视点图像生成处理的流程图;
图7是图示由图3的多视点图像生成单元生成的多视点图像导致的串扰的图;
图8是图示根据本公开的第二实施例的图像处理设备的多视点图像生成单元的配置示例的图;
图9是图示由图8的多视点图像生成单元执行的多视点图像生成处理的图;
图10是图示由图8的多视点图像生成单元执行的多视点图像生成处理的流程图;
图11是图示由图8的多视点图像生成单元生成的多视点图像导致的串扰的图;以及
图12是图示通用个人计算机的配置示例的图。
具体实施方式
在下文中,将参考附图详细描述本公开的优选实施例。注意,在本说明书和附图中,用相同的附图标记表示具有基本上相同功能和结构的结构部件,并且省略这些结构部件的重复说明。
在下文中,将描述本公开的实施例。另外,将按照下面的顺序进行说明。
1.第一实施例
2.第二实施例(如下情况的配置示例:在该情况下,单个滤波器系数序列未形成关于其中心系数值的奇对称)
1.第一实施例
[现有技术中的裸眼三维立体视觉图像]
在描述根据本公开实施例的生成裸眼三维立体视觉图像的多视点图像生成单元之前,将描述JP-A-2010-63083中公开的生成三维立体视觉图像的原理。
图1示出现有技术中的立体图像生成单元1的配置,其中,该立体图像生成单元1根据由二维图像形成的输入图像生成裸眼三维立体视觉图像。
立体图像生成单元1包括滤波器11、非线性变换部分12、加法器13和减法器14。滤波器11对由二维图像形成的输入图像执行差分滤波处理,以便提取特征量信号。非线性变换部分12通过对特征量信号进行非线性变换,来输出增强信号。加法器13将增强信号加到输入图像上,以便输出左眼图像信号。减法器14从输入图像减去增强信号,以便输出右眼图像信号。
如果要以立体视觉观看根据右眼图像信号和左眼图像信号获得的右眼图像和左眼图像,则必要的条件可为右眼图像与左眼图像之间存在适合于立体视觉的信号差。在下文中,右眼图像与左眼图像之间的信号差被称为左视点与右视点之间的信号差。
例如,在滤波器11使用如下线性总和来处理目标像素的情况下,假设特征量信号被表示为[-1,0,1],其中,该线性总和是通过将包括与目标像素左相邻和与目标像素右相邻的三个像素分别乘以系数[-1,0,1]获得的。另外,假设当输入信号为1、2、3、4等时,非线性变换部分12的输出信号被表示为1u、2u、3u、4u等。另外,稍后将详细描述非线性变换部分12中的输入信号与输出信号之间的关系。在这种情况下,如图2所示,对应于输入图像的每个像素的增强信号针对左眼图像被表示为[-u,0,u],并且针对右眼图像被表示为[u,0,-u]。所以,如图2所示,左眼输出图像被表示为[-u,1,u],而右眼输出图像被表示为[u,1,-u]。因此,通过从左眼输出信号减去右眼输出信号,将左视点与右视点之间的信号差表示为[-2u,0,2u]。
换言之,当如此表示的左视点与右视点之间的信号差被适当地设定为[-2u,0,2u]时,可以生成能够根据二维图像实现裸眼三维立体视觉的左眼输出信号和右眼输出信号。
然而,如上所述,在JP-A-2010-63083中公开的方法中,由于仅生成右眼图像和左眼图像这两种图像,所以不可能生成多视点图像,其中,作为由裸眼立体视觉图像显示装置代表的多视点显示装置(例如,柱状透镜型装置或视差屏障型装置)的输入信号,多视点图像是必要的。
[由根据本公开实施例的图像处理设备形成的多视点图像生成单元的配置示例]
所以,将参考图3描述能够生成多视点图像的多视点图像生成单元的配置示例,该多视点图像可用于由裸眼立体视觉图像显示装置代表的多视点显示装置,例如柱状透镜型装置或视差屏障型装置。
如图3所示,多视点图像生成单元31包括第一滤波器51至第四滤波器54、非线性变换部分61至64、加法器71至74和减法器75至78。四种类型的滤波器,即可为具有不同滤波器系数的FIR滤波器的第一滤波器51至第四滤波器54,通过对作为输入信号的二维图像执行滤波器处理来获得特征量信号,并且将获得的特征量信号提供到非线性变换部分61至64中的对应的非线性变换部分。
非线性变换部分61至64对提供的特征量信号执行相同非线性特征的非线性处理,然后生成增强信号。非线性变换部分61将生成的增强信号提供到加法器71和减法器78。非线性变换部分62将生成的增强信号提供到加法器72和减法器77。非线性变换部分63将生成的增强信号提供到加法器73和减法器76。非线性变换部分64将生成的增强信号提供到加法器74和减法器75。
加法器71至74分别将提供的增强信号加到输入信号上,然后输出第一至第四视点输出信号。减法器75至78分别从输入信号中减去所提供的增强信号,然后输出第六至第九视点输出图像。另外,输入图像被无改变地输出为第五视点输出信号。
换言之,多视点图像生成单元31根据由单个二维图像形成的输入图像,生成九种类型的各自具有不同视点的第一至第九输出信号。
[图3的多视点图像生成单元的第一滤波器至第四滤波器的滤波器系数]
接下来,将参考图4描述第一滤波器51至第四滤波器54的滤波器系数。另外,各个视点对应于与图4的圆圈中表示的数字相对应的位置,并且被称为视点1至视点9。假设,当相邻视点之间的距离R为1时,被设定为如下图像的左眼图像信号和右眼图像信号为两视点输出信号,其中,在该图像中,裸眼三维立体视觉对各个视点来说是可能的;在两视点输出信号中,与设定在对应于各个视点的输入图像的位置处的图像相邻的视点之间的距离为2。
换言之,对应于视点5处的输入图像的输出信号为设定在视点5的位置处的第五视点输出信号。另外,视点5处的左眼图像信号和右眼图像信号分别为第四视点输出信号和第六视点输出信号。类似地,对应于视点4处的输入图像的输出信号为设定在视点4的位置处的第四视点输出信号。另外,视点4处的左眼图像信号和右眼图像信号分别为第三视点输出信号和第五视点输出信号。另外,对应于视点3处的输入图像的输出信号为设定在视点3的位置处的第三视点输出信号。另外,视点3处的左眼图像信号和右眼图像信号分别为第二视点输出信号和第四视点输出信号。而且,对应于视点2处的输入图像的输出信号为设定在视点2的位置处的第二视点输出信号。另外,视点2处的左眼图像信号和右眼图像信号分别为第一视点输出信号和第三视点输出信号。
另外,对应于视点6处的输入图像的输出信号为设定在视点6的位置处的第六视点输出信号。另外,视点6处的左眼图像信号和右眼图像信号分别为第五视点输出信号和第七视点输出信号。另外,对应于视点7处的输入图像的输出信号为设定在视点7的位置处的第七视点输出信号。另外,视点7处的左眼图像信号和右眼图像信号分别为第六视点输出信号和第八视点输出信号。另外,对应于视点8处的输入图像的输出信号为设定在视点8的位置处的第八视点输出信号。另外,视点8处的左眼图像信号和右眼图像信号分别为第七视点输出信号和第九视点输出信号。
另外,视点a处的输出信号用C_a表示,并且视点a处的输出信号与视点b处的输出信号之间的差用D_ab表示。
换言之,各个视点处的左眼图像信号和右眼图像信号基于如下假设:全部都旨在实现裸眼三维立体视觉,因此各个视点处的左眼图像信号和右眼图像信号的视点之间的信号差相同。所以,第一滤波器51至第四滤波器54的滤波器系数被设定为使得视点之间的各个信号差相同。
因此,第一滤波器51至第四滤波器54的滤波器系数可基于如下约束条件来考虑:视点之间的信号差相同。
例如,在生成视点4至视点6的特征量信号的第一滤波器51使用将抽头系数[-1,0,1]作为滤波器系数的3抽头FIR滤波器的情况下,并且当输入为1、2、3、4、…时,非线性变换的输出为u、2u、3u、4u、…,针对单元输入1的视点4至视点6处的输出信号C_4至输出信号C_6用下面的等式(1)至(3)表示。
C_4=[-u,1,u]         (1)
C_5=[0,1,0]          (2)
C_6=[u,1,-u]         (3)
所以,根据下面的过程分别获得用于生成视点1至视点3和视点7至视点9处的输出信号C_1至输出信号C_3和输出信号C_7至输出信号C_9。这里,u是通过非线性变换生成的值,并且其细节将在稍后描述。
换言之,视点4处的输出信号与视点6处的输出信号之间的差D_46等于视点4处的输出信号C_4与视点6处的输出信号C_6之间的差,因此差D_46被表示为下面的等式(4)中所表示的。
D_46=C_4-C_6=[-u,1,u]-[u,1,-u]=[-2u,0,2u]       (4)
基于约束条件,视点3处的输出信号C_3与视点5处的输出信号C_5之间的差D_35等于差D_46,因此建立了下面的等式(5)的关系。
D_35=C_3-C_5=D_46                     (5)
如果等式(5)被重写为下面的等式(6),则获得视点3处的输出信号C_3。
C_3=D_46+C_5=[-2u,0,2u]+[0,1,0]=[-2u,1,2u]        (6)
另外,基于约束条件,视点2处的输出信号C_2与视点4处的输出信号C_4之间的差D_24等于差D_46,因此建立了下面的等式(7)的关系。
D_24=C_2-C_4=D_46                (7)
如果等式(7)被重写为下面的等式(8),则获得了视点2处的输出信号C_2。
C_2=D_46+C_4=[-2u,0,2u]+[-u,1,u]=[-3u,1,3u]      (8)
另外,基于约束条件,视点1处的输出信号C_1与视点3处的输出信号C_3之间的差D_13等于差D_46,因此建立了下面的等式(9)的关系。
D_13=C_1-C_3=D_46                     (9)
如果等式(9)被重写为下面的等式(10),则获得了视点1处的输出信号C_1。
C_1=D_46+C_3=[-2u,0,2u]+[-2u,1,2u]=[-4u,1,4u]          (10)
另外,基于约束条件,视点5处的输出信号C_5与视点7处的输出信号C_7之间的差D_57等于差D_46,因此建立了下面的等式(11)的关系。
D_57=C_5-C_7=D_46                    (11)
如果等式(11)被重写为下面的等式(12),则获得了视点7处的输出信号C_7。
C_7=C_5-D_46=[0,1,0]-[-2u,0,2u]=[2u,1,-2u]          (12)
另外,基于约束条件,视点6处的输出信号C_6与视点8处的输出信号C_8之间的差D_68等于差D_46,因此建立了下面的等式(13)的关系。
D_68=C_6-C_8=D_46                    (13)
如果等式(13)被重写为下面的等式(14),则获得了视点8处的输出信号C_8。
C_8=C_6-D_46=[u,1,-u]-[-2u,0,2u]=[3u,1,-3u]        (14)
另外,基于约束条件,视点7处的输出信号C_7与视点9处的输出信号C_9之间的差D_79等于差D_46,因此建立了下面的等式(15)的关系。
D_79=C_7-C_9=D_46                       (15)
如果等式(15)被重写为下面的等式(16),则获得了视点9处的输出信号C_9。
C_9=C_7-D_46=[2u,1,-2u]-[-2u,0,2u]=[4u,1,-4u]    (16)
在非线性变换部分61至非线性变换部分64中以相同的非线性变换执行各个视点处的输出信号C_1至输出信号C_9,然后输出信号为通过将输入信号加到输出信号C_1至输出信号C_9上而获得的值,因此通过从输出信号C_1至输出信号C_9减去输入信号并且通过执行逆非线性变换来获得滤波器系数。
另外,由于具有立体效果的增强信号的幅度主要在低水平(level),该区域中的非线性变换和逆非线性变换可近似为线性变换。换言之,例如,如果用于非线性变换部分61至非线性变换部分64的非线性变换的函数y=f(x)为由图5所示的曲线定义的函数,例如在增强信号的幅度大的范围中的输出y=f(x)=Au(由图中的长短交替的虚线箭头表示的)的情况下,输入为非线性的,因此其不导致x=A。然而,当幅度在低水平并且位于原点附近(例如由图中的实线箭头表示的范围)时,非线性函数可近似为线性函数,因此当输出y=u或2u时,对应的输入基本上可为1或2。
换言之,如果非线性变换部分61至非线性变换64的输入为x,非线性变换部分61至非线性变换64的输出为y,用于非线性变换部分61至非线性变换部分64的非线性变换的函数为y=f(x),并且用于逆非线性变换的函数被定义为x=f’(y),则当输入x为1、2、3和4时,用下面的等式(17)至(20)来表示与非线性变换有关的等式。
u=f(1)               (17)
2u=f(2)              (18)
3u=f(3)              (19)
4u=f(4)              (20)
所以,用下面的等式(21)至(24)来表示与逆非线性变换有关的等式。
1=f’(u)         (21)
2=f’(2u)        (22)
3=f’(3u)        (23)
4=f’(4u)        (24)
由于这个原因,第一滤波器51至第四滤波器54的滤波器系数被获得为下面的等式(25)至(28)。
第一滤波器51的滤波器系数=[-4,0,4]            (25)
第二滤波器52的滤波器系数=[-3,0,3]            (26)
第三滤波器53的滤波器系数=[-2,0,2]            (27)
第四滤波器54的滤波器系数=[-1,0,1]            (28)
因此,可见滤波器系数基本上形成关于第一视点输出信号至第九视点输出信号中的第五视点输出信号的奇对称。如上所述,通过设置滤波器系数使得视点之间的信号差通常为不变的,可以生成这样的多视点图像:其中,通常优化的裸眼三维立体视觉在任意视点处都是可能的。另外,无需说,滤波器系数可为其它滤波器系数,只要满足由相邻视点之间的距离设定的约束条件即可。
[由图3的多视点图像生成单元执行的多视点图像生成处理]
接下来,将参考图6的流程图描述由图3的多视点图像生成单元执行的多视点图像生成处理。
在步骤S1,多视点图像生成单元31将计数器x和y初始化为零(0),并且计数器x和y用于管理像素位置。
在步骤S2,多视点图像生成单元31将目标像素的像素位置设定为(x,y)。
在步骤S3,多视点图像生成单元31将计数器n(未示出)初始化为零(0),并且计数器n用来管理视点位置。
在步骤S4,多视点图像生成单元31确定计数器n是否为0,并且例如,由于计数器n在处理开始时为0,所以处理前进到步骤S5。
在步骤S5,多视点图像生成单元31将输入信号的目标像素的图像信号无改变地输出为第五视点输出信号,并且处理前进到步骤S13。
在步骤S13,多视点图像生成单元31将计数器n(未示出)增一(1),并且处理前进到步骤S4。
另外,在步骤S4,例如,如果计数器n不为0,则处理前进到步骤S6。
在步骤S6,多视点图像生成单元31控制来自于第一滤波器51至第四滤波器54中的对应于计数器n的第n个滤波器,从而通过使用上述滤波器系数的滤波处理,根据输入图像的目标像素的信号来生成特征量信号。多视点图像生成单元31将由第n个滤波器生成的特征量信号提供到非线性变换部分61至非线性变换部分64中的对应的非线性变换部分(60+n)。
在步骤S7,多视点图像生成单元31控制非线性变换部分(60+n),使得通过对特征量执行非线性变换处理来生成增强信号,然后将生成的增强信号提供到加法器(70+n)和减法器(79-n)。
在步骤S8,多视点图像生成单元31控制加法器(70+n),使得通过将增强信号加到输入信号上,来生成第n个视点输出信号。换言之,通过该处理,根据计数器n的值依次生成第一视点输出信号至第四视点输出信号。
在步骤S9,加法器(70+n)输出所生成的第n个视点输出信号。
在步骤S10,多视点图像生成单元31控制减法器(79-n),使得通过从输入信号减去增强信号来输出第(10-n)个视点输出信号。换言之,通过该处理,根据计数器n的值依次生成第九视点输出信号至第六视点输出信号。
在步骤S11,减法器(79-n)输出所生成的第(10-n)个视点输出信号。
在步骤S12,多视点图像生成单元31确定计数器n是否为4,即是否生成了所有的视点输出信号,并且如果未生成所有的视点输出信号,则处理前进到步骤S13。也就是说,重复执行步骤S4、和步骤S6至步骤S13的处理,直至生成了所有的视点输出信号。另外,如果在步骤S12确定计数器n为4并且生成了所有的视点输出信号,则处理前进到步骤S14。
在步骤S14,多视点图像生成单元31确定计数器x是否等于xmax,即位置是否为水平方向上的图像的端部分,并且如果计数器x不等于xmax,即位置不为水平方向上的图像的端部分,则处理前进到步骤S15。
在步骤S15,多视点图像生成单元31将计数器x增1,并且处理返回到步骤S2。
另外,在步骤S14,如果计数器x等于xmax,则多视点图像生成单元31在步骤S16将计数器x初始化为0,并且处理前进到步骤S17。
在步骤S17,多视点图像生成单元31确定计数器y是否等于ymax,即位置是否为垂直方向上的图像的端部分,并且如果计数器y不等于ymax,即位置不为垂直方向上的图像的端部分,则在步骤S18将计数器y增1,并且处理返回到步骤S2。
另外,在步骤S17,如果确定计数器y等于ymax,并且完成了整个图像的处理,则处理结束。
利用上述处理,生成了由第一视点图像至第九视点图像形成的多视点图像。另外,尽管描述了图3的多视点图像生成单元31生成对应于九种类型的视点的多视点图像的示例,但是可存在如下配置:通过增加或减少分别对应于第一滤波器51至第四滤波器54、非线性变换部分61至非线性变换部分64、加法器71至加法器74和减法器75至减法器78的滤波器、非线性变换部分、加法器和减法器的相应数量,来生成对应于不同数量的类型的多视点图像。另外,在第一视点图像至第九视点图像中,如果相邻视点之间的信号差等于预定值,并且只要两个视点图像具有等于预定值两倍的值,即例如上述[-2u,0,2u],则任意两个图像分别形成左眼输出信号和右眼输出信号。因此,即使在多个视点处也可以实现裸眼三维立体视觉。
[由图3的多视点图像生成单元生成的多视点图像的串扰的影响]
一般,在多视点显示装置中,由于其结构,难以完全仅将一个视点图像呈现给观看者,并且可能无法避免基本上以给定的比率观看特定视点的两侧上的视点图像的图像(在下文中被称为“相邻视点图像”)。该现象被称为串扰,类似于音频信号的泄漏。
这里,将参考图7描述在如下情况下的视点之间的信号差:存在来自于由图3的多视点图像生成单元31生成的多视点图像的相邻视点的串扰。
如图7所示,除了第四视点输出信号之外,作为相邻视点图像的第三视点输出信号和第五视点输出信号通常处在以给定比率呈现给左眼的状态,其中第四视点输出信号为要原始呈现给观看者作为左眼图像的图像。
另外,除了第六视点输出信号之外,作为相邻视点图像的第五视点输出信号和第七视点输出信号以给定比率呈现给右眼,其中第六视点输出信号为要原始呈现给观看者作为右眼图像的图像。
在图7中,如果相邻视点图像与要原始呈现的图像的比率为p,在视点5处,如下面的等式(29)所示地获得视点之间的差D_ab,差D_ab为呈现给左眼作为左眼视点a的图像的输出信号C_a’与呈现给右眼作为右眼视点b的图像的输出信号C_b’之间的差。
D_ab=C_a’-C_b’                      (29)
这里,各个视点a和b处的输出信号C_a’和C_b’可分别被替换为下面的等式(30)和(31)所示的。
C_a’=p×C_a-1+(1-2×p)×C_a+p×C_a+1              (30)
C_b’=p×C_b-1+(1-2×p)×C_b+p×C_b+1              (31)
另外,由于视点之间的差为2,可由下面的等式(32)给出视点a和b之间的关系。
b=a+R=a+2                           (32)
通过使用该关系,等式(31)可被重写为下面的等式(33)。
C_b’=p×C_a+1+(1-2×p)×C_a+2+p×C_a+3             (33)
所以,用下面的等式(34)来表示考虑了串扰的影响的视点之间的信号差D_ab。
D_ab={p×C_a-1+(1-2×p)×C_a+p×C_a+1}
-{p×C_a+1+(1-2×p)×C_a+2+p×C_a+3}
=p×(C_a-1-C_a+1)+(C_a-C_a+2)
-2×p×(C_a-C_a+2)+p×(C_a+1-C_a+3)
=(p+1-2×p+p)×[-2u,0,2u]
(∵C_a-1-C_a+1=C_a-C_a+2=C_a+1-C_a+3=[-2u,0,2u])
=[-2u,0,2u]                         (34)
如等式(34)所示,视点之间的信号差D_ab为不依赖于串扰的比率p的值。换言之,由图3的多视点图像生成单元31生成的多视点图像通常可保持视点之间的不变的信号差,而不管发生在相邻视点之间的串扰的数量或位置,因此通常可以实现优化的三维立体视觉。
2.第二实施例
[使用之前目标像素的增强信号的多视点图像生成单元的配置示例]
尽管在以上说明中描述了滤波器系数序列形成关于中心系数值的奇对称的情况的配置示例,但是即使在滤波器系数序列没有形成关于中心系数值的奇对称的情况下,也可通过考虑系数值的配置来实现三维立体视觉。
图8示出在滤波器系数没有形成关于中心系数值的奇对称的情况下的多视点图像生成单元31的配置示例。另外,在图8的多视点图像生成单元31中,与图3的多视点图像生成单元31的组成部件具有相同功能的组成部件被给予相同的附图标记,并且将适当地省略其说明。
换言之,图8的多视点图像生成单元与图3的多视点图像生成单元31的不同之处在于,取代第一滤波器51至第四滤波器54和减法器75至加法器78,提供了第一滤波器81至第四滤波器87和加法器91至加法器94。
第一滤波器81至第四滤波器84基本上具有与第一滤波器51至第四滤波器54类似的功能,但是其相应的滤波器系数彼此不同。
加法器91至加法器94具有与加法器71至加法器74相同的功能。
[图8的多视点图像生成单元的第一至第四滤波器的滤波器系数]
如图9所示,例如,在生成视点4至6的特征量信号的第一滤波器81使用将抽头系数[-1,1,0]作为滤波器系数的3抽头FIR滤波器的情况下,并且当输入为1、2、3、4、…时,非线性变换的输出为u、2u、3u、4u、…,则针对单位输入1的视点4至视点6处的输出信号C_4至输出信号C_6由下面的等式(35)至(37)来表示。
C_4=[-u,1+u,0]               (35)
C_5=[0,1,0]                  (36)
C_6=[0,1+u,-u]               (37)
所以,分别根据下面的处理来获得生成视点1至视点3和视点7至视点9处的输出信号C_1至输出信号C_3和输出信号C_7至输出信号C_9的滤波器系数。
换言之,视点4处的输出信号与视点6处的输出信号之间的差D_46等于视点4处的输出信号C_4与视点6处的输出信号C_6之间的差,因此差D_46被表示为下面的等式(38)所示的。
D_46=C_4-C_6=[-u,1+u,0]-[0,1+u,-u]=[-u,0,u]        (38)
基于约束条件,视点3处的输出信号C_3与视点5处的输出信号C_5之间的差D_35等于差D_46,因此建立了下面的等式(39)的关系。
D_35=C_3-C_5=D_46                      (39)
如果等式(39)被重写为下面的等式(40),则获得视点3处的输出信号C_3。
C_3=D_46+C_5=[-u,0,u]+[0,1,0]=[-u,1,u]            (40)
另外,基于约束条件,视点2处的输出信号C_2与视点4处的输出信号C_4之间的差D_24等于差D_46,因此建立了下面的等式(41)的关系。
D_24=C_2-C_4=D_46                     (41)
如果等式(41)被重写为下面的等式(42),则获得视点2处的输出信号C_2。
C_2=D_46+C_4=[-u,0,u]+[-u,1+u,0]=[-2u,1+u,u]        (42)
另外,基于约束条件,视点1处的输出信号C_1与视点3处的输出信号C_3之间的差D_13等于差D_46,因此建立了下面的等式(43)的关系。
D_13=C_1-C_3=D_46                      (43)
如果等式(43)被重写为下面的等式(44),则获得视点1处的输出信号C_1。
C_1=D_46+C_3=[-u,0,u]+[-u,1,u]=[-2u,1,2u]             (44)
另外,基于约束条件,视点5处的输出信号C_5与视点7处的输出信号C_7之间的差D_57等于差D_46,因此建立了下面的等式(45)的关系。
D_57=C_5-C_7=D_46                   (45)
如果等式(45)被重写为下面的等式(46),则获得视点7处的输出信号C_7。
C_7=C_5-D_46=[0,1,0]-[-u,0,u]=[u,1,-u]            (46)
另外,基于约束条件,视点6处的输出信号C_6与视点8处的输出信号C_8之间的差D_68等于差D_46,因此建立了下面的等式(47)的关系。
D_68=C_6-C_8=D_46                     (47)
如果等式(47)被重写为下面的等式(48),则获得视点8处的输出信号C_8。
C_8=C_6-D_46=[0,1+u,-u]-[-u,0,u]=[u,1+u,-2u]        (48)
另外,基于约束条件,视点7处的输出信号C_7与视点9处的输出信号C_9之间的差D_79等于差D_46,因此建立了下面的等式(49)的关系。
D_79=C_7-C_9=D_46                     (49)
如果等式(49)被重写为下面的等式(50),则获得视点9处的输出信号C_9。
C_9=C_7-D_46=[u,1,-u]-[-u,0,u]=[2u,1,-2u]          (50)
与非线性变换部分61至非线性变换部分64有关的非线性变换具有与上述等式(17)至(24)类似的关系。
由于这个原因,获得如下面等式(51)至(54)所示的第一滤波器81至第四滤波器84的滤波器系数。
第一滤波器81的滤波器系数=[-2,0,2]         (51)
第二滤波器82的滤波器系数=[-2,1,1]         (52)
第三滤波器83的滤波器系数=[-1,0,1]         (53)
第四滤波器84的滤波器系数=[-1,1,0]         (54)
另外,可使用与用于获得第一滤波器81至第四滤波器84的滤波器系数的方法类似的方法,来获得第五滤波器85至第八滤波器系数88的滤波器系数,因此获得如下面的等式(55)至(58)所示的第五滤波器85至第八滤波器系数88的滤波器系数。
第五滤波器85的滤波器系数=[0,1,-1]         (55)
第六滤波器86的滤波器系数=[1,0,-1]       (56)
第七滤波器87的滤波器系数=[1,1,-2]       (57)
第八滤波器88的滤波器系数=[2,0,-2]       (58)
如上所述,通过设定滤波器系数使得视点之间的信号差通常为不变的,可以生成这样的多视点图像:其中,优化的裸眼三维立体视觉在任何时间和任何视点都是可能的。因此,即使在多个视点处也可以实现裸眼的三维立体视觉。另外,无需说,滤波器系数可为其它滤波器系数,只要满足由相邻视点之间的距离设定的约束条件即可。
[由图8的多视点图像生成单元执行的多视点图像生成处理]
接下来,将参考图10的流程图描述由图8的多视点图像生成单元31执行的多视点图像生成处理。另外,在图10的流程图中,步骤S31至步骤S49的处理中除步骤S40至步骤S42中的处理之外的处理类似于参考图6的流程图描述的步骤S1至步骤S18的处理中除步骤S10中的处理之外的处理,因此将省略其描述。
换言之,在步骤S40,多视点图像生成单元31控制来自于第一滤波器81至第八滤波器88中的对应于计数器n的第(9-n)个滤波器,使得通过使用上述滤波器系数的滤波处理,根据输入图像的目标像素的信号来生成特征量信号。多视点图像生成单元31将第(9-n)个滤波器所生成的特征量信号提供到非线性变换部分61至非线性变换部分68中的对应的非线性变换部分(69-n)。
在步骤S41,多视点图像生成单元31控制非线性变换部分(69-n),使得通过对特征量信号执行非线性变换处理来生成增强信号,并且将生成的增强信号提供到加法器(95-n)。
在步骤S42,多视点图像生成单元31控制加法器(95-n),使得通过将增强信号加到输入图像上,来生成第(10-n)个视点输出信号。换言之,通过该处理,根据计数器n的值依次生成第九视点输出信号至第六视点输出信号。
利用上述处理,生成了多视点图像。另外,尽管描述了图8的多视点图像生成单元31生成对应于九种类型的视点的多视点图像的示例,但是可存在如下配置:通过增加或减少分别对应于第一滤波器81至第八滤波器88、非线性变换部分61至非线性变换部分68、加法器71至加法器74和加法器91至加法器94的滤波器、非线性变换部分、和加法器的相应数量,来生成对应于不同数量的类型的多视点图像。另外,在第一视点图像至第九视点图像中,如果相邻视点之间的信号差等于预定值,并且只要两个视点图像具有等于预定值两倍的值,即例如上述[-u,0,u],则任意两个图像分别形成左眼输出信号和右眼输出信号。因此,即使在多个视点处也可以实现裸眼三维立体视觉。另外,在以水平方向上相邻的像素为单位依次执行处理的情况下,当位于水平方向上的开始位置或最后位置处的像素变成目标像素时,由于之前目标像素或下一目标像素不是相邻像素,所以当位于水平方向上的开始位置或最后位置处的像素变成目标像素时,之前目标像素或下一目标像素也可被当作当前像素。
[由图8的多视点图像生成单元生成的多视点图像的串扰的影响]
这里,将参考图11描述在如下情况下的视点之间的信号差:存在来自于由图8的多视点图像生成单元31生成的多视点图像的相邻视点的串扰。根据上述等式(34)获得相邻视点之间的串扰。通过将图8的多视点图像生成单元31的第一滤波器81至第四滤波器84滤波器系数代入等式(34),如下面的等式(59)一样获得视点之间的信号差D_ab,其中考虑了由图8的多视点图像生成单元31获得的视点之间的串扰。
D_ab={p×C_a-1+(1-2×p)×C_a+p×C_a+1}
-{p×C_a+1+(1-2×p)×C_a+2+p×C_a+3}
=p×(C_a-1-C_a+1)+(C_a-C_a+2)
-2×p×(C_a-C_a+2)+p×(C_a+1-C_a+3)
=(p+1-2×p+p)×[-u,0,u]
(∵C_a-1-C_a+1=C_a-C_a+2=C_a+1-C_a+3=[-u,0,u])
=[-u,0,u]                       (59)
如等式(59)所示,视点之间的信号差D_ab成为不依赖于串扰的比率p的值。换言之,由图8的多视点图像生成单元31生成的多视点图像通常可保持视点之间的不变的信号差,而不管发生在相邻视点之间的串扰的数量或位置,因此通常可以实现优化的三维立体视觉。
如上所述,在本公开的实施例中,可以以简单的处理来生成适合于立体视觉的多视点图像,并且通常可以实现优化的三维立体视觉而不依赖于当显示多视点图像时发生的串扰的数量。
上述处理序列可由硬件来执行或可由软件来执行。当处理序列以软件来执行时,构成软件的程序从记录介质安装到集成有专用硬件的计算机,或例如通过安装各种程序能够执行各种功能的通用个人计算机。
图12示出通用个人计算机的配置示例。个人计算机中嵌入有CPU(中央处理单元)1001。CPU1001经由总线1004连接到输入/输出接口1005。总线1004连接到ROM(只读存储器)1002和RAM(随机访问存储器)1003。
输入/输出接口1005连接到输入单元1006、输出单元1007、存储单元1008和通信单元1009。输入单元1006包括诸如键盘和鼠标的输入装置,用户使用输入装置输入操作命令。输出单元1007将处理操作屏幕或处理结果图像输出到显示装置。存储单元1008包括存储程序或各种数据的硬盘驱动器。通信单元1009包括LAN(局域网)适配器等,并且经由因特网所代表的网络来执行通信处理。另外,输入/输出接口1005连接到驱动器1010,驱动器1010从可移除介质1011中读取数据或将数据写入到可移除介质1011,可移除介质1011例如为磁盘(包括软盘)、光盘(包括CD-ROM(紧凑盘只读存储器)和DVD(数字多功能盘))、磁光盘(包括MD(迷你盘))或半导体存储器。
CPU1001根据存储在ROM1002中的程序来执行各种处理,或者从诸如磁盘、光盘、磁光盘或半导体存储器的可移除介质中读取的程序安装在存储单元1008中,并且从存储单元1008装载到RAM 1003。RAM 1003也适当地存储CPU 1001为执行各种处理所需要的数据等。
另外,在本说明书中,描述记录在记录介质上的程序的步骤不仅包括根据描述的顺序以时间序列执行的处理,而且包括甚至不需要以时间序列执行的并行或独立地执行的处理。
另外,本技术也可如下配置:
(1)一种图像处理设备,包括:
多个提取单元,其提取由二维图像信号形成的输入图像信号的多个空间特征量信号;
多个增强处理单元,其通过对所述多个特征量信号中的每个执行增强处理来生成多个增强信号;以及
多个第一图像生成单元,其通过将所述多个增强信号加到所述输入图像信号上,来针对所述多个增强信号中的每个生成第一视点图像,
其中,所述多个提取装置提取由二维图像信号形成的所述输入图像的多个空间特征量,使得按照被加到所述输入图像信号上的所述增强信号的相加值的大小的顺序获得的视点图像的视点之间的信号差为预定值,并且视点之间的所述信号差等于所述预定值两倍的两个视点图像均形成用于实现三维立体视觉的左眼图像和右眼图像。
(2)根据(1)所述的图像处理设备,还包括:
多个第二图像生成单元,其通过从所述输入图像信号减去所述多个增强信号,来针对所述多个增强信号中的每个生成第二视点图像,
其中,所述多个提取单元提取由二维图像信号形成的所述输入图像信号的多个空间特征量,使得按照被加到所述输入图像信号上或从所述输入图像信号减去的所述增强信号的相加值的大小的顺序获得的视点图像的视点之间的信号差为预定值,并且视点之间的所述信号差等于所述预定值两倍的两个视点图像均形成用于实现三维立体视觉的左眼图像和右眼图像。
(3)根据(1)或(2)所述的图像处理设备,
其中,当以预定方向上连续相邻的像素为单位依次提供所述输入图像信号时,所述第一图像生成单元通过将增强信号加到当前像素的所述输入图像信号上,来生成所述第一视点图像,并且所述第二图像生成单元通过从紧接在所述当前信号之前被处理的像素的所述输入图像信号中减去所述增强信号,来生成所述第二视点图像。
(4)一种图像处理方法,包括:
由多个提取单元提取由二维图像信号形成的输入图像信号的多个空间特征量信号,所述提取被执行多次,其中所述多个提取单元提取由二维图像信号形成的所述输入图像信号的所述多个空间特征量信号;
由多个增强处理单元对多个特征量信号中的每个执行增强处理并且生成多个增强信号,所述增强处理被执行多次,其中所述多个增强处理单元通过对所述多个特征量信号中的每个执行增强处理来生成所述多个增强信号;以及
由多个第一图像生成单元通过将所述多个增强信号加到所述输入信号上,来针对所述多个增强信号中的每个生成第一视点图像,所述生成被执行多次,其中所述多个第一图像生成单元通过将所述多个增强信号加到所述输入图像信号上,来针对所述多个增强信号中的每个生成所述第一视点图像,
其中,通过使得所述多个提取单元提取由二维图像信号形成的所述输入图像信号的多个空间特征量来执行所述提取,使得按照被加到所述输入图像信号的所述增强信号的相加值的大小的顺序获得的视点图像的视点之间的信号差为预定值,并且视点之间的所述信号差等于所述预定值两倍的两个视点图像均形成用于实现三维立体视觉的左眼图像和右眼图像。
(5)一种使得计算机能够控制图像处理设备的程序,所述图像处理设备包括:
多个提取单元,其提取由二维图像信号形成的输入图像信号的多个空间特征量信号;
多个增强处理单元,其对所述多个特征量信号中的每个执行增强处理并且生成多个增强信号;以及
多个第一图像生成单元,其通过将所述多个增强信号加到所述输入图像信号上,来针对所述多个增强信号中的每个生成第一视点图像,
其中,所述多个提取装置提取由二维图像信号形成的所述输入图像的多个空间特征量,使得按照被加到所述输入图像信号上的所述增强信号的相加值的大小的顺序获得的视点图像的视点之间的信号差为预定值,并且视点之间的所述信号差等于所述预定值两倍的两个视点图像均形成用于实现三维立体视觉的左眼图像和右眼图像,以及
其中,所述程序使得所述计算机能够执行如下操作,所述操作包括:
由所述多个提取单元提取由所述二维图像信号形成的所述输入图像信号的所述多个空间特征量信号,所述提取被执行多次;
由所述多个增强处理单元对所述多个特征量信号中的每个执行所述增强处理并且生成所述多个增强信号,所述增强处理被执行多次;以及
由所述多个第一图像生成单元通过将所述多个增强信号加到所述输入信号上,来针对所述多个增强信号中的每个生成所述第一视点图像,所述生成被执行多次,
其中,通过使得所述多个提取单元提取由二维图像信号形成的所述输入图像信号的多个空间特征量来执行所述提取,使得按照被加到所述输入图像信号上的所述增强信号的相加值的大小的顺序获得的视点图像的视点之间的信号差为预定值,并且视点之间的所述信号差等于所述预定值两倍的两个视点图像均形成用于实现三维立体视觉的左眼图像和右眼图像。
本领域技术人员应当理解,可根据设计需要或其它因素来进行各种变型、组合、子组合和修改,只要其在所附权利要求或其等同内容的范围内即可。
本公开包括与2011年7月21日在日本专利局提交的日本优先权专利申请JP2011-159485中公开的主题有关的主题,其全部内容通过引用合并于此。

Claims (6)

1.一种图像处理设备,
其中,所述图像处理设备根据由二维图像信号形成的输入图像信号生成多个视点图像,使得视点之间的信号差为预定值,并且视点之间的所述信号差等于所述预定值两倍的两个视点图像均形成用于实现三维立体视觉的左眼图像和右眼图像。
2.一种图像处理设备,包括:
多个提取单元,其提取由二维图像信号形成的输入图像信号的多个空间特征量信号;
多个增强处理单元,其通过对所述多个特征量信号中的每个执行增强处理来生成多个增强信号;以及
多个第一图像生成单元,其通过将所述多个增强信号加到所述输入图像信号上,来针对所述多个增强信号中的每个生成第一视点图像,
其中,所述多个提取装置提取由二维图像信号形成的所述输入图像的多个空间特征量,使得按照被加到所述输入图像信号上的所述增强信号的相加值的大小的顺序获得的视点图像的视点之间的信号差为预定值,并且视点之间的所述信号差等于所述预定值两倍的两个视点图像均形成用于实现三维立体视觉的左眼图像和右眼图像。
3.根据权利要求2所述的图像处理设备,还包括:
多个第二图像生成单元,其通过从所述输入图像信号减去所述多个增强信号,来针对所述多个增强信号中的每个生成第二视点图像,
其中,所述多个提取单元提取由二维图像信号形成的所述输入图像信号的多个空间特征量,使得按照被加到所述输入图像信号上或从所述输入图像信号减去的所述增强信号的相加值的大小的顺序获得的视点图像的视点之间的信号差为预定值,并且视点之间的所述信号差等于所述预定值两倍的两个视点图像均形成用于实现三维立体视觉的左眼图像和右眼图像。
4.根据权利要求2所述的图像处理设备,
其中,当以预定方向上连续相邻的像素为单位依次提供所述输入图像信号时,所述第一图像生成单元通过将增强信号加到当前像素的所述输入图像信号上,来生成所述第一视点图像。
5.一种图像处理方法,包括:
由多个提取单元提取由二维图像信号形成的输入图像信号的多个空间特征量信号,所述提取被执行多次,其中所述多个提取单元提取由二维图像信号形成的所述输入图像信号的所述多个空间特征量信号;
由多个增强处理单元对多个特征量信号中的每个执行增强处理并且生成多个增强信号,所述增强处理被执行多次,其中所述多个增强处理单元通过对所述多个特征量信号中的每个执行增强处理来生成所述多个增强信号;以及
由多个第一图像生成单元通过将所述多个增强信号加到所述输入信号上,来针对所述多个增强信号中的每个生成第一视点图像,所述生成被执行多次,其中所述多个第一图像生成单元通过将所述多个增强信号加到所述输入图像信号上,来针对所述多个增强信号中的每个生成所述第一视点图像,
其中,通过使得所述多个提取单元提取由二维图像信号形成的所述输入图像信号的多个空间特征量来执行所述提取,使得按照被加到所述输入图像信号上的所述增强信号的相加值的大小的顺序获得的视点图像的视点之间的信号差为预定值,并且视点之间的所述信号差等于所述预定值两倍的两个视点图像均形成用于实现三维立体视觉的左眼图像和右眼图像。
6.一种使得计算机能够控制图像处理设备的程序,所述图像处理设备包括:
多个提取单元,其提取由二维图像信号形成的输入图像信号的多个空间特征量信号;
多个增强处理单元,其对所述多个特征量信号中的每个执行增强处理并且生成多个增强信号;以及
多个第一图像生成单元,其通过将所述多个增强信号加到所述输入图像信号上,来针对所述多个增强信号中的每个生成第一视点图像,
其中,所述多个提取装置提取由二维图像信号形成的所述输入图像的多个空间特征量,使得按照被加到所述输入图像信号上的所述增强信号的相加值的大小的顺序获得的视点图像的视点之间的信号差为预定值,并且视点之间的所述信号差等于所述预定值两倍的两个视点图像均形成用于实现三维立体视觉的左眼图像和右眼图像,以及
其中,所述程序使得所述计算机能够执行如下操作,所述操作包括:
由所述多个提取单元提取由二维图像信号形成的所述输入图像信号的所述多个空间特征量信号,所述提取被执行多次;
由所述多个增强处理单元对所述多个特征量信号中的每个执行所述增强处理并且生成所述多个增强信号,所述增强处理被执行多次;以及
由所述多个第一图像生成单元通过将所述多个增强信号加到所述输入信号上,来针对所述多个增强信号中的每个生成所述第一视点图像,所述生成被执行多次,
其中,通过使得所述多个提取单元提取由二维图像信号形成的所述输入图像信号的多个空间特征量来执行所述提取,使得按照被加到所述输入图像信号上的所述增强信号的相加值的大小的顺序获得的视点图像的视点之间的信号差为预定值,并且视点之间的所述信号差等于所述预定值两倍的两个视点图像均形成用于实现三维立体视觉的左眼图像和右眼图像。
CN201210244242.6A 2011-07-21 2012-07-13 图像处理设备和图像处理方法 Expired - Fee Related CN102905152B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011159485A JP2013026808A (ja) 2011-07-21 2011-07-21 画像処理装置および方法、並びにプログラム
JP2011-159485 2011-07-21

Publications (2)

Publication Number Publication Date
CN102905152A true CN102905152A (zh) 2013-01-30
CN102905152B CN102905152B (zh) 2016-03-16

Family

ID=46650328

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201210244242.6A Expired - Fee Related CN102905152B (zh) 2011-07-21 2012-07-13 图像处理设备和图像处理方法

Country Status (4)

Country Link
US (1) US8988424B2 (zh)
EP (1) EP2549761A2 (zh)
JP (1) JP2013026808A (zh)
CN (1) CN102905152B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7706917B1 (en) * 2004-07-07 2010-04-27 Irobot Corporation Celestial navigation system for an autonomous robot
CN103079084B (zh) * 2013-02-21 2015-10-21 厦门市羽星智能科技有限责任公司 一种有利于实时融合播放的多视点裸眼立体片源存储方式
KR102140080B1 (ko) * 2013-09-27 2020-07-31 삼성전자주식회사 다시점 영상 디스플레이 장치 및 제어 방법
DE102014218961A1 (de) 2014-09-22 2016-03-24 Aktiebolaget Skf Rollenstößel und Verfahren zum Herstellen eines Gehäuseelements eines Rollenstößels

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070024614A1 (en) * 2005-07-26 2007-02-01 Tam Wa J Generating a depth map from a two-dimensional source image for stereoscopic and multiview imaging
CN101156456A (zh) * 2005-04-14 2008-04-02 株式会社东芝 用于为三维图像显示产生多视点图像的方法及其程序
CN101547376A (zh) * 2008-03-28 2009-09-30 株式会社东芝 多视差图像生成装置以及方法
CN101605271A (zh) * 2009-07-08 2009-12-16 无锡景象数字技术有限公司 一种基于单幅图像的2d转3d方法
CN101646095A (zh) * 2008-08-06 2010-02-10 索尼株式会社 图像处理装置、图像处理方法及程序

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4562463A (en) * 1981-05-15 1985-12-31 Stereographics Corp. Stereoscopic television system with field storage for sequential display of right and left images
US5850352A (en) * 1995-03-31 1998-12-15 The Regents Of The University Of California Immersive video, including video hypermosaicing to generate from multiple video views of a scene a three-dimensional video mosaic from which diverse virtual video scene images are synthesized, including panoramic, scene interactive and stereoscopic images
US7680322B2 (en) * 2002-11-12 2010-03-16 Namco Bandai Games Inc. Method of fabricating printed material for stereoscopic viewing, and printed material for stereoscopic viewing
RU2497196C2 (ru) * 2007-10-11 2013-10-27 Конинклейке Филипс Электроникс Н.В. Способ и устройство для обработки карты глубины

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101156456A (zh) * 2005-04-14 2008-04-02 株式会社东芝 用于为三维图像显示产生多视点图像的方法及其程序
US20070024614A1 (en) * 2005-07-26 2007-02-01 Tam Wa J Generating a depth map from a two-dimensional source image for stereoscopic and multiview imaging
CN101547376A (zh) * 2008-03-28 2009-09-30 株式会社东芝 多视差图像生成装置以及方法
CN101646095A (zh) * 2008-08-06 2010-02-10 索尼株式会社 图像处理装置、图像处理方法及程序
CN101605271A (zh) * 2009-07-08 2009-12-16 无锡景象数字技术有限公司 一种基于单幅图像的2d转3d方法

Also Published As

Publication number Publication date
CN102905152B (zh) 2016-03-16
US8988424B2 (en) 2015-03-24
JP2013026808A (ja) 2013-02-04
EP2549761A2 (en) 2013-01-23
US20130021333A1 (en) 2013-01-24

Similar Documents

Publication Publication Date Title
CN109803175B (zh) 视频处理方法及装置、设备、存储介质
CN103369337B (zh) 3d显示设备及使用该3d显示设备处理图像的方法
CN101668221B (zh) 图像处理设备以及图像处理方法
US7804995B2 (en) Stereoscopic format converter
CN101523434B (zh) 图像增强
CN102844696B (zh) 电子装置和再现三维图像的方法
CN102187680A (zh) 用于确定图像序列的二维或三维显示模式的方法和设备
US8849060B2 (en) Image processing method, image processing system and display device for modifying background colors based on object colors
EP2618582A1 (en) Stereoscopic format converter
CN102905152B (zh) 图像处理设备和图像处理方法
TW200833109A (en) Advanced deinterlacer for high-definition and standard-defintion video
CN102629460B (zh) 液晶显示器帧频控制方法和装置
CN102293002A (zh) 三维图像处理装置及其控制方法
CN103444193A (zh) 图像处理设备和图像处理方法
US9667939B2 (en) Image processing apparatus, image processing method, and program
CN104219532A (zh) 确定小物体区域的方法、视频帧之间插补帧的方法和装置
CN102857694B (zh) 图像合成设备及其控制方法
CN106982366A (zh) 一种基于6x2拼接3x3的3D拼接方法
CN105657541A (zh) 一种帧处理方法及装置
WO2011006104A1 (en) Modifying images for a 3-dimensional display mode
CN112016456B (zh) 基于自适应反向投影深度学习的视频超分辨率方法及系统
CN101742082B (zh) 运动图像处理设备及其方法
KR101912242B1 (ko) 3d 디스플레이 장치 및 그 영상 처리 방법
Rodrigo et al. Real-time 3-D HDTV depth cue conflict optimization
CN103250185A (zh) 使用能量值的图像处理装置及其图像处理方法和显示方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20160316

Termination date: 20170713