CN102740102A - 图像处理装置、图像处理方法和程序 - Google Patents
图像处理装置、图像处理方法和程序 Download PDFInfo
- Publication number
- CN102740102A CN102740102A CN2012100918743A CN201210091874A CN102740102A CN 102740102 A CN102740102 A CN 102740102A CN 2012100918743 A CN2012100918743 A CN 2012100918743A CN 201210091874 A CN201210091874 A CN 201210091874A CN 102740102 A CN102740102 A CN 102740102A
- Authority
- CN
- China
- Prior art keywords
- image
- viewpoint
- viewpoints
- user
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 title claims abstract description 169
- 238000003672 processing method Methods 0.000 title description 5
- 230000000007 visual effect Effects 0.000 claims description 138
- 238000000034 method Methods 0.000 claims description 29
- 230000008569 process Effects 0.000 claims description 10
- 238000001514 detection method Methods 0.000 claims description 2
- 238000005516 engineering process Methods 0.000 abstract description 3
- 238000009877 rendering Methods 0.000 description 50
- 238000010586 diagram Methods 0.000 description 23
- 238000006243 chemical reaction Methods 0.000 description 22
- 230000008447 perception Effects 0.000 description 10
- 230000008859 change Effects 0.000 description 8
- 230000008676 import Effects 0.000 description 7
- 238000006073 displacement reaction Methods 0.000 description 5
- 238000012856 packing Methods 0.000 description 5
- 230000004044 response Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 230000006837 decompression Effects 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 238000011946 reduction process Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 238000013213 extrapolation Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/398—Synchronisation thereof; Control thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/111—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
- H04N13/117—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/261—Image signal generators with monoscopic-to-stereoscopic image conversion
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/302—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明公开了一种图像处理装置、图像处理方法和程序。分配单元基于来自用户的输入将预定视点的图像分配给3D图像显示单元中的两个或更多个视点,3D图像显示单元在根据视点而不同的方向上显示所述两个或更多个视点的图像。驱动处理单元基于该分配使得预定视点的图像显示在3D图像显示单元上。例如,本技术可以应用于3D图像的图像处理装置。
Description
技术领域
本技术涉及一种图像处理装置、图像处理方法和程序,并且更具体地涉及能够根据用户改变对由在根据视点而不同的方向上显示多视点图像的显示装置所显示的图像进行显示的方法的图像处理装置、图像处理方法和程序。
背景技术
允许在不使用三维(3D)观看眼镜的情况下观看3D图像的显示装置(下文中被称作“裸眼型显示装置”)是在根据视点而不同的方向上显示多视点图像的显示装置。在裸眼型显示装置中,扩展观看位置以增加要显示的3D图像的视点数目是有效的。
在裸眼型显示装置中,已经提出了在M个不同方向上向观看者单独示出N视点图像的技术(例如,参见日本专利申请公开第2010-014891号)。此外,在裸眼型显示装置中,当输入图像的视点数目小于裸眼型显示装置中的视点(下文中被称作“显示视点”)数目时,需要对输入图像执行用于生成新视点图像的视点图像生成处理。关于视点图像生成处理,已经提出了改进生成图像的质量的方法、降低处理成本的方法等(参见日本专利申请公开第2005-151534号、第2005-252459号和第2009-258726号)。
发明内容
同时,在传统裸眼型显示装置中,固定与显示视点对应的图像的视点。换言之,在传统裸眼型显示装置中,预先决定3D图像的显示方法。因此,根据用户改变3D图像的显示方法会是困难的。
鉴于以上内容,得到本技术,并期望根据用户来改变由裸眼型显示装置显示的图像的显示方法。
根据本技术的实施例,提供了一种图像处理装置,包括:分配单元,其基于来自用户的输入,将预定视点的图像分配给显示装置中的两个或更多个视点,该显示装置在根据视点而不同的方向上显示所述两个或更多个视点的图像;以及显示控制单元,其基于由分配单元进行的分配,使得预定视点的图像显示在显示装置上。
根据本技术的另一实施例,提供了对应于根据本技术的实施例的图像处理装置的图像处理方法和程序。
根据本技术的实施例,基于来自用户的输入将预定视点的图像分配给显示装置中的两个或更多个视点,该显示装置在根据视点而不同的方向上显示所述两个或更多个视点的图像,并且基于该分配在显示装置上显示预定视点的图像。
根据本技术的实施例,可以根据用户来改变由裸眼型显示装置显示的图像的显示方法。
附图说明
图1是示出了根据本技术的第一实施例的图像处理装置的配置示例的框图;
图2是示出了图1所示的图像信号处理单元的第一详细配置示例的框图;
图3是示出了M视点图像生成单元的第一详细配置示例的框图;
图4是示出了M视点图像生成单元的第二详细配置示例的框图;
图5是示出了M视点图像生成单元的第三详细配置示例的框图;
图6是示出了M视点图像生成单元的第四详细配置示例的框图;
图7是示出了M视点图像的示例的图;
图8是示出了显示视点信息的配置示例的图;
图9是示出了显示视点信息的描述示例的图;
图10是示出了显示视点信息的描述示例的图;
图11是示出了显示视点信息的描述示例的图;
图12是示出了显示视点信息的描述示例的图;
图13是用于描述基于图9的显示视点信息显示的显示图像与观看位置之间的关系的图;
图14是用于描述基于图11的显示视点信息显示的显示图像与观看位置之间的关系的图;
图15是用于描述图1的图像处理装置的图像处理的流程图;
图16是用于描述图2的图像信号处理单元的显示视点信息生成处理的流程图;
图17是示出了图1所示的图像信号处理单元的第二详细配置示例的框图;
图18是示出了图1所示的图像信号处理单元的第三详细配置示例的框图;
图19是用于描述图18的图像信号处理单元的显示视点信息生成处理的流程图;
图20是示出了图1所示的图像信号处理单元的第四详细配置示例的框图;
图21是示出了图1所示的图像信号处理单元的第五详细配置示例的框图;
图22是用于描述包括图21的图像信号处理单元的图像处理装置的图像处理的流程图;
图23是用于描述图21的图像信号处理单元的显示视点信息生成处理的流程图;
图24是示出了图1所示的图像信号处理单元的第六详细配置示例的框图;
图25是用于描述图24的图像信号处理单元的显示视点信息生成处理的流程图;以及
图26是示出了计算机的实施例的配置示例的图。
具体实施方式
下文中,将参照附图详细描述本公开的优选实施例。注意,在本说明书和附图中,用相同的附图标记表示具有基本相同功能和结构的结构元件,并省略对这些结构元件的重复说明。
根据本技术的实施例,提供了一种图像处理装置,包括:分配单元,其基于来自用户的输入,将预定视点的图像分配给显示装置中的两个或更多个视点,该显示装置在根据视点而不同的方向上显示所述两个或更多个视点的图像;以及显示控制单元,其基于由分配单元进行的分配,使得预定视点的图像显示在显示装置上。
根据本技术的实施例,提供了一种处理图像的方法,包括:在图像处理装置处,基于来自用户的输入,将预定视点的图像分配给显示装置中的两个或更多个视点,该显示装置在根据视点而不同的方向上显示所述两个或更多个视点的图像;以及基于通过所该分配处理进行的分配,使得预定视点的图像显示在该显示装置上。
<1.第一实施例>
[根据第一实施例的图像处理装置的配置示例]
图1是示出了根据本技术的第一实施例的图像处理装置的配置示例的框图。
图1的图像处理装置10包括图像接收单元11、图像信号处理单元12和3D图像显示单元13,并显示图像。
图像处理装置10的图像接收单元11接收从外部输入的输入图像的模拟信号。图像接收单元11对接收的输入图像执行模拟-数字(A/D)转换,并将作为A/D转换结果获得的输入图像的数字信号提供给图像信号处理单元12。在以下描述中,输入图像的数字信号被适当地简称为“输入图像”。
图像信号处理单元12对从图像接收单元11提供的输入图像执行预定图像处理等,并生成作为3D图像显示单元13的显示视点的M(M是2或更大的自然数)个视点的图像以作为显示图像。图像信号处理单元12将生成的显示图像提供给3D图像显示单元13。
3D图像显示单元13是以视差屏障型和透镜型为代表的、能够显示M视点3D图像的裸眼型显示装置。3D图像显示单元13显示从图像信号处理单元12提供的显示图像。
[图像信号处理单元的第一详细配置示例]
图2是示出了图1所示的图像信号处理单元12的第一详细配置示例的框图。
图2的图像信号处理单元12包括图像转换单元21、M视点图像生成单元22、显示视点选择单元23、驱动处理单元24、输入单元25、以及生成单元26。
图像信号处理单元12的图像转换单元21对从图1所示的图像接收单元11提供的输入图像执行预定图像处理,诸如解压缩处理、转换成对应于3D图像显示单元13的分辨率的分辨率转换处理、颜色转换处理、以及降噪处理等。图像转换单元21将已经进行了图像处理的输入图像提供给M视点图像生成单元22。
当从图像转换单元21提供的输入图像的视点数目小于M时,M视点图像生成单元22通过对输入图像执行内插处理来生成M视点图像。M视点图像生成单元22将生成的M视点图像或输入的M视点图像作为M视点图像,提供给显示视点选择单元23。
显示视点选择单元23基于从生成单元26提供的显示视点信息来生成显示图像,使得使用与每个显示视点对应且包括在从M视点图像生成单元22提供的M视点图像之中的预定视点的图像来作为每个显示视点的图像。显示视点选择单元23将生成的显示图像提供给驱动处理单元24。显示视点信息是指表示包括在M视点图像之中、分配给3D图像显示单元13的每个显示视点的预定视点的图像的信息。
驱动处理单元24执行例如将从显示视点选择单元23提供的显示图像的格式转换成与3D图像显示单元13的接口对应的格式的处理。驱动处理单元24用作显示控制单元,将生成的显示图像提供给3D图像显示单元13,并通过3D图像显示单元13使得显示图像被显示。
输入单元25配置有控制器等。输入单元25接收由用户输入的操作并将与该操作对应的信息提供给生成单元26。
生成单元26用作分配单元。换言之,生成单元26基于从输入单元25提供的信息来生成显示视点信息,并将M视点图像中包括的预定视点的图像分配给3D图像显示单元13的每个显示视点。生成单元26保存生成的显示视点信息。生成单元26将保存的显示视点信息提供给显示视点选择单元23。
[M视点图像生成单元的详细配置示例]
图3是示出了输入图像是单视点图像时的M视点图像生成单元22的第一详细配置示例的框图。
图3的M视点图像生成单元22包括2D/3D转换单元41和两视点/M视点转换单元42。
M视点图像生成单元22的2D/3D转换单元41通过将输入图像在水平方向上移位预定距离来对从图2的图像转换单元21提供的输入图像执行用于生成新的单视点图像的内插处理。2D/3D转换单元41将生成的单视点图像和输入图像作为两视点图像,提供给两视点/M视点转换单元42。
两视点/M视点转换单元42针对要生成的(M-2)视点图像的每个视点,通过将两视点图像中包括的任一个图像在水平方向上移位了对应于每个视点的距离,来对从2D/3D转换单元41提供的两视点图像中包括的任一个图像执行用于生成(M-2)视点图像的内插处理。两视点/M视点转换单元42将生成的(M-2)视点图像和两视点图像提供给图2所示的显示视点选择单元23。
图4是示出了输入图像是单视点图像时的M视点图像生成单元22的第二详细配置示例的框图。
图4的M视点图像生成单元22配置有单视点/M视点转换单元51。
M视点图像生成单元22的单视点/M视点转换单元51针对要生成的(M-1)视点图像的每个视点,通过将输入图像在水平方向上移位了对应于每个视点的距离,来对从图2所示的图像转换单元21提供的输入图像执行用于生成(M-1)视点图像的内插处理。
图5是示出了输入图像是两视点图像时的M视点图像生成单元22的详细配置示例的框图。
图5的M视点图像生成单元22配置有两视点/M视点转换单元61。
M视点图像生成单元22的两视点/M视点转换单元61对作为从图2所示的图像转换单元21提供的输入图像的两视点图像中包括的任一个图像执行用于生成(M-2)视点图像的内插处理。具体地,两视点/M视点转换单元61针对要生成的(M-2)视点图像的每个视点,将作为输入图像的两视点图像中包括的任一个图像在水平方向上移位了与每个视点对应的距离。两视点/M视点转换单元61将生成的(M-2)视点图像和输入图像作为M视点图像提供给图2所示的显示视点选择单元23。
图6是示出了输入图像是N视点图像(N是小于M的自然数)时的M视点图像生成单元22的详细配置示例的框图。
图6的M视点图像生成单元22配置有N视点/M视点转换单元71。
M视点图像生成单元22的N视点/M视点转换单元71对作为从图2所示的图像转换单元21提供的输入图像的N视点图像中包括的任一个图像执行用于生成(M-N)视点图像的内插处理。具体地,N视点/M视点转换单元71针对要生成的(M-N)视点图像的每个视点,将作为输入图像的N视点图像中包括的任一个图像在水平方向上移位了与每个视点对应的距离。N视点/M视点转换单元71将生成的(M-N)视点图像和输入图像作为M视点图像提供给图2所示的显示视点选择单元23。
[M视点图像的示例]
图7是示出了由M视点图像生成单元22生成的M视点图像的示例的图。
在图7中,第i个视点图像被表示为视点图像#i。
如图7所示,M视点图像包括具有不同视点的M个图像,即,视点图像#1至#M。
[显示视点信息的配置示例]
图8是示出了显示视点信息的配置示例的图。
如图8所示,显示视点信息是这样的信息,其被配置为使得3D图像显示单元13的每个显示视点与指定要分配给每个显示视点的图像的图像指定信息相关联。在图8中,第i个显示视点被表示为显示视点#i。
图9至12是示出了显示视点信息的描述示例的图。
在图9至12中,显示视点的数目M是9。此外,图像视点#i是指分配给9视点图像的9个视点之中的第i个视点的ID。分配给视点的ID被设置为使得相邻视点的ID连续。换言之,按顺序布置图像视点#1至#9的视点。
在图9的显示视点信息中,显示视点#1至#9分别与作为图像视点信息的图像视点#1至#9相关联。因此,当基于图9的显示视点信息生成显示图像时,分别显示9视点图像的视点图像作为显示视点图像。这允许用户在不使用3D观看眼镜的情况下通过9个视点图像之中的从观看位置可观看的2个视点图像来观看3D图像。此外,甚至当观看位置随着用户移动而改变时,平滑地切换3D图像的视点,并由此可以获得运动学视差。
在图10的显示视点信息中,所有显示视点#1至#9与作为图像视点信息的图像视点#5相关联。因此,当基于图10的显示视点信息生成显示图像时,显示9视点图像中包括的图像视点#5的视点图像,作为所有显示视点的图像。这允许用户无视差地观看2D图像。
在图11的显示视点信息中,作为三个连续的显示视点的显示视点#1至#3、显示视点#4至#6和显示视点#7至#9分别与作为图像视点信息的图像视点#2至#4相关联。因此,当基于图11的显示视点信息生成显示图像时,分别显示9视点图像中包括的图像视点#2至#4的视点图像,作为显示视点#1至#3的图像、显示视点#4至#6的图像和显示视点#7至#9的图像。
因此,可以分别在与显示视点#1至#3、显示视点#4至#6和显示视点#7至#9对应的三个观看位置处观看相同方向性的3D图像。例如,在可观看显示视点#1和#2的图像的观看位置处、在可观看显示视点#4和#5的图像的观看位置处、以及在可观看显示视点#7和#8的图像的观看位置处可以观看同一3D图像。
在图12的显示视点信息中,显示视点#1和#4与如图像指定信息先前决定的、指定预定图像(例如,黑图像)的“固定”相关联。此外,对应于用户的左眼与右眼之间的距离的显示视点(例如,作为两个连续显示视点的显示视点#2和#3)分别与用作图像视点信息的、作为在其间具有相对大距离的视点的图像视点#1和#9相关联。此外,显示视点#5至#9之中的两个连续显示视点与作为图像视点信息的、在其间具有相对小距离的视点的ID(例如,相隔一个视点的ID)相关联。具体地,显示视点#5至#9分别与作为图像视点信息的图像视点#1、图像视点#3、图像视点#5、图像视点#7和图像视点#9相关联。
这允许用户观看具有根据观看位置而不同的深度感的3D图像。例如,与可观看显示视点#5至#9之中的相邻视点的图像的观看位置相比,用户可以在可观看显示视点#2和#3的图像的观看位置处观看具有更强深度感的3D图像。
此外,甚至当M视点图像生成单元22通过内插来生成M视点图像并且M相对大时,用户也可以观看具有强的深度感的3D图像。具体地,当M视点图像生成单元22通过内插来生成M视点图像时,与通过外插生成M视点图像的情况相比可以容易地生成M视点图像。然而,随着M增大,视点之间的距离减小。例如,当如图8的显示视点信息那样,按顺序将M视点图像的视点分配给显示视点时,被分配给与用户的左眼和右眼之间的距离对应的两个显示视点的图像的视点之间的距离减小,并由此由用户观看的3D图像的深度感降低。然而,在图12的显示视点信息中,被分配给相邻显示视点的M视点图像的视点不彼此相邻。因此,甚至当M是大的时,也可以增强由用户观看的3D图像的深度感。
可以使用通过将M视点图像中包括的多个视点图像(例如,附近显示的多个视点图像)以及M视点图像中包括的任一图像或预先决定的预定图像进行阿尔法混合而获得的图像,作为分配给显示视点的图像。
[显示图像与观看位置之间的关系的描述]
图13是用于描述基于图9的显示视点信息显示的显示图像与观看位置之间的关系的图。
如图13所示,当基于图9的显示视点信息来对显示图像进行显示时,在预定观看位置A处观看的用户和在不同于观看位置A的预定观看位置B处观看的用户分别观看由不同两视点图像构成的3D图像。换言之,在观看位置A处观看的显示图像的方向性与在观看位置B处观看的显示图像的方向性不同。
图14是用于描述基于图11的显示视点信息显示的显示图像与观看位置之间的关系的图。
如图14所示,当基于图11的显示视点信息来对显示图像进行显示时,在预定观看位置A处观看的用户和在不同于观看位置A的预定观看位置B处观看的用户观看具有相同方向性的3D图像。在图14的示例中,观看位置A和观看位置B是与显示视点#1至#3、显示视点#4至#6和显示视点#7至#9中的任一组对应的位置。
[图像处理装置的处理的描述]
图15是用于描述图1的图像处理装置10的图像处理的流程图。例如,当将输入图像的模拟信号输入到图像处理装置10时,图像处理开始。
参照图15,在步骤S11中,图像处理装置10的图像接收单元11接收从外部输入的输入图像的模拟信号。
在步骤S12中,图像接收单元11对接收的输入图像的模拟信号执行A/D转换,并将作为A/D转换结果获得的输入图像的数字信号提供给图像信号处理单元12。
在步骤S13中,图像信号处理单元12的图像转换单元21对从图像接收单元11提供的输入图像执行预定图像处理,诸如解压缩处理、转换成对应于3D图像显示单元13的分辨率的分辨率转换处理、颜色转换处理、以及降噪处理。图像转换单元21将已经进行了图像处理的输入图像提供给M视点图像生成单元22。
在步骤S14中,M视点图像生成单元22通过对从图像转换单元21提供的输入图像执行内插处理等来生成M视点图像,然后将生成的M视点图像提供给显示视点选择单元23。
在步骤S15中,显示视点选择单元23基于从生成单元26提供的显示视点信息来生成显示图像,使得使用与每个显示视点对应且包括在从M视点图像生成单元22提供的M视点图像之中的预定视点的图像来作为每个显示视点的图像。然后,显示视点选择单元23将显示图像提供给驱动处理单元24。
在步骤S16中,驱动处理单元24执行例如将从显示视点选择单元23提供的显示图像的格式转换成与3D图像显示单元13的接口对应的格式的处理。
在步骤S17中,驱动处理单元24将作为步骤S16的处理结果获得的显示图像提供给3D图像显示单元13,并通过3D图像显示单元13使得显示图像被显示。然后,处理结束。
图16是用于描述图2的图像信号处理单元12的显示视点信息生成处理的流程图。例如,当用户操作输入单元25并指示生成显示视点信息时,显示视点信息生成处理开始。
参照图16,在步骤S31中,输入单元25确定是否已经从用户输入与作为3D图像显示单元13的显示视点的M个视点中的任一个对应的图像指定信息。具体地,输入单元25确定是否已经接收了用户进行的用于输入与M个视点中的任一个对应的图像指定信息的操作。
当在步骤S31中确定尚未从用户输入与作为显示视点的M个视点的任一个对应的图像指定信息时,输入单元25处于待命状态,直到输入图像指定信息为止。
然而,当在步骤S31中确定已经从用户输入了与作为显示视点的M个视点的任一个对应的图像指定信息时,输入单元25将显示视点和图像指定信息提供给生成单元26。
然后,在步骤S32中,生成单元26彼此相关联地描述从输入单元25提供的显示视点和图像指定信息。
在步骤S33中,生成单元26确定是否已经与3D图像显示单元13的所有显示视点相关联地描述了图像指定信息。当在步骤S33中确定尚未与3D图像显示单元13的所有显示视点相关联地描述图像指定信息时,则处理返回到步骤S31,并且重复步骤S31和后续处理。
然而,当在步骤S33中确定已经与3D图像显示单元13的所有显示视点相关联地描述了图像指定信息时,生成单元26保存所有显示视点以及与显示视点相关联地描述的图像视点信息作为显示视点信息。然后,生成单元26将显示视点信息提供给显示视点选择单元23,然后结束处理。
如上所述,图像处理装置10基于用户的输入来生成显示视点信息,并使得基于显示视点信息来对显示图像进行显示。因此,可以根据用户来改变显示图像的显示方法。
结果,例如,用户可以通过执行用于生成图9的显示视点信息的操作来观看具有根据观看位置而不同的方向性的3D图像,或者可以通过执行用于生成图10的显示视点信息的操作来观看2D图像。此外,用户可以通过执行用于生成图11的显示视点信息的操作来观看在不同观看位置处具有相同方向性的3D图像。此外,用户可以通过执行用于生成图12的显示视点信息的操作来观看具有根据观看位置而不同的深度感的3D图像。换言之,用户可以选择观看模式或可以根据观看位置来调节3D图像的方向性、深度感等的改变。
[图像信号处理单元的第二详细配置示例]
图17是示出了图1所示的图像信号处理单元12的第二详细配置示例的框图。
在图17所示的部件之中,用相同的附图标记表示与图2所示的部件相同的部件,并由此将适当地省略其多余描述。
图17的图像信号处理单元12的配置与图2所示的配置的不同之处主要在于:提供了M视点图像生成单元91来替代M视点图像生成单元22。图17的图像信号处理单元12仅生成由显示视点信息中的图像指定信息指定的视点的图像,而不是M视点图像。
具体地,图17的图像信号处理单元12的M视点图像生成单元91基于由生成单元26生成的显示视点信息来对从图像转换单元21提供的输入图像执行内插处理,并生成由显示视点信息的图像指定信息指定的视点的图像。然后,M视点图像生成单元91将生成的图像提供给显示视点选择单元23。这里,当输入图像是由显示视点信息中的图像指定信息指定的视点的图像时,M视点图像生成单元91按原样将输入图像提供给显示视点选择单元23。
如上所述,图17的图像信号处理单元12仅生成由显示视点信息中的图像指定信息指定的、用作显示图像的视点的图像。因此,图17的图像信号处理单元12与图2的图像信号处理单元12相比可以降低处理成本。
[图像信号处理单元的第三配置示例]
图18是示出了图1所示的图像信号处理单元12的第三详细配置示例的框图。
在图18所示的部件之中,用相同的附图标记表示与图17所示的部件相同的部件,并由此将适当地省略其多余描述。
图18的图像信号处理单元12的配置与图17所示的配置的不同之处主要在于:分别提供了输入单元101和生成单元102来替代输入单元25和生成单元26。图18的图像信号处理单元12基于表示用户的观看位置的观看位置信息和表示与观看有关的偏好的偏好信息(诸如,观看模式的偏好、或根据观看位置而改变3D图像的方向性或深度感的偏好),来对显示图像进行显示。
具体地,与输入单元25类似,图18的图像信号处理单元12的输入单元101配置有控制器等。输入单元101从用户接收输入,诸如用于输入观看位置信息的操作和用于输入偏好信息的操作。然后,输入单元101将与操作对应的观看位置信息和偏好信息提供给生成单元102。观看位置信息不仅可以包括表示观看位置的信息,而且包括表示与观看位置处可观看的图像对应的显示视点的信息。
生成单元102基于从输入单元101提供的观看位置信息和偏好信息来生成显示视点信息,并保存生成的显示视点信息。具体地,当偏好信息表示将正常3D图像观看模式作为观看模式的偏好时,生成单元102生成并保存图9所示的显示视点信息。此外,例如,当偏好信息表示将2D图像观看模式作为观看模式的偏好并且与观看位置信息对应的显示视点是显示视点#4和#5时,生成单元102生成并保存图10所示的显示视点信息。
此外,例如,当偏好信息表示将不根据观看位置而改变3D图像的方向性作为偏好并且与观看位置信息对应的显示视点是显示视点#4和#5时,生成单元102生成并保存图11所示的显示视点信息。此外,例如,当偏好信息表示将根据观看位置而改变3D图像的深度感作为偏好并且与观看位置信息对应的显示视点是显示视点#2和#3时,生成单元102生成并保存图12所示的显示视点信息。
此外,例如,当偏好信息表示将仅在当前观看位置处可观看3D图像的观看模式作为观看模式的偏好时,生成单元102生成并保存以下显示视点信息。换言之,生成单元102生成并保存以下显示视点信息:其中预定的两视点图像的图像指定信息与对应于观看位置信息的显示视点相关联,表示“固定”的图像指定信息与除了对应的显示视点之外的显示视点相关联。因此,M视点图像生成单元91仅需要生成两视点图像,因此可以降低M视点图像生成单元91的处理成本。
生成单元102将保存的显示视点信息提供给M视点图像生成单元91和显示视点选择单元23。
输入单元101可以被配置成接收多个用户进行的操作。在此情况下,例如,当难以生成与所有用户的观看位置信息和偏好信息对应的显示视点信息时或当基于与特定用户的观看位置信息和偏好信息对应的显示视点信息的显示对其它用户造成损害时,生成图9的显示视点信息或图10的显示视点信息。
[另一个显示视点信息生成处理的描述]
图19是用于描述图18的图像信号处理单元12的显示视点信息生成处理的流程图。例如,当用户操作输入单元101并指示生成显示视点信息时,显示视点信息生成处理开始。
参照图19,在步骤S51中,图像信号处理单元12的输入单元101确定用户是否已经执行了用于输入观看位置信息的操作。当在步骤S51中确定用户尚未执行用于输入观看位置信息的操作时,输入单元101处于待命状态,直到执行了用于输入观看位置信息的操作为止。
然而,当在步骤S51中确定用户已经执行了用于输入观看位置信息的操作时,输入单元101接收该操作,并将观看位置信息提供给生成单元102。在步骤S52中,输入单元101确定用户是否已经执行了用于输入偏好信息的操作。当在步骤S52中确定尚未执行用于输入偏好信息的操作时,输入单元101处于待命状态,直到执行了用于输入偏好信息的操作为止。
然而,当在步骤S52中确定已经执行了用于输入偏好信息的操作时,输入单元101接收该操作,并将偏好信息提供给生成单元102。
然后,在步骤S53中,生成单元102基于从输入单元101提供的观看位置信息和偏好信息来生成显示视点信息,并保持生成的显示视点信息。生成单元102将保存的显示视点信息提供给M视点图像生成单元91和显示视点选择单元23,然后结束该处理。
[图像信号处理单元的第四配置示例]
图20是示出了图1所示的图像信号处理单元12的第四详细配置示例的框图。
在图20所示的部件中,用相同的附图标记表示与图18所示的部件相同的部件,因此将适当地省略其多余描述。
图20的图像信号处理单元12的配置与图18的配置的不同之处主要在于:提供了输入单元111来替代输入单元101,并新提供了观看位置检测单元112。图20的图像信号处理单元12检测观看位置信息。
具体地,与输入单元25类似,图像信号处理单元12的输入单元111配置有控制器等。输入单元111接收来自用户的诸如用于输入偏好信息的操作的输入。然后,输入单元111向生成单元102提供与操作对应的偏好信息。
例如,观看位置检测单元112配置有立体摄像机、红外线传感器等。观看位置检测单元112检测用户的观看位置,并将表示检测到的观看位置的观看位置信息提供给生成单元102。
此外,在图20的图像信号处理单元12中,输入单元111接收用户的用于输入观看位置信息的操作,并且生成单元102可以使用该观看位置信息和来自观看位置检测单元112的观看位置信息中的任一个用于生成显示视点信息。
[图像信号处理单元的第五配置示例]
图21是示出了图1所示的图像信号处理单元12的第五详细配置示例的框图。
在图21所示的部件中,用相同的附图标记表示与图20所示的部件相同的部件,因此将适当地省略其多余描述。
图21的图像信号处理单元12的配置与图20的配置的不同之处主要在于:分别提供了输入单元121和生成单元122来替代输入单元111和生成单元102。图21的图像信号处理单元12响应于用于显示诸如3D菜单图像的3D图形图像的用户操作而仅将输入图像分配给显示视点。
具体地,与输入单元25类似,图像信号处理单元12的输入单元121配置有控制器等。输入单元121从用户接收用于输入偏好信息的操作、用于显示3D图形图像的操作等。
与输入单元111类似,输入单元121向生成单元122提供与用于输入偏好信息的操作对应的偏好信息。此外,输入单元121指示生成单元122以响应于用于显示3D图形图像的操作而仅将输入图像分配给显示视点。
生成单元122基于从输入单元121提供的偏好信息和从观看位置检测单元112提供的观看位置信息来生成显示视点信息,并保存生成的显示视点信息。此外,生成单元122响应于从输入单元121提供的、仅将输入图像分配给显示视点的指令,生成其中输入图像的图像指定信息与每个显示视点相关联的显示视点信息,并保存生成的显示视点信息。生成单元122将保存的显示视点信息提供给显示视点选择单元23和M视点图像生成单元91。因此,当用户执行用于显示3D图形图像的操作时,M视点图像生成单元91按原样向显示视点选择单元23提供输入图像。
[另一图像处理的描述]
图22是用于描述包括图21的图像信号处理单元12的图像处理装置10的图像处理的流程图。例如,当将输入图像的模拟信号输入到图像处理装置10时,该图像处理开始。
图22的步骤S71至S73的处理与图15的步骤S11至S13的处理相同,因此将不重复多余描述。
在步骤S74中,图21的M视点图像生成单元91基于由生成单元122生成的显示视点信息,对从图像转换单元21提供的输入图像执行内插处理等,并生成由显示视点信息的图像指定信息指定的视点的图像。然后,M视点图像生成单元91将生成的图像提供给显示视点选择单元23。
当用户执行用于显示3D图形图像的操作时,由于由显示视点信息中的图像指定信息指定的视点的图像是输入图像,在步骤S74的处理中,按原样将输入图像提供给显示视点选择单元23。
步骤S75至S77的处理与步骤S15至S17的处理相同,因此将不重复多余描述。
图23是用于描述图21的图像信号处理单元12的显示视点信息生成处理的流程图。
参照图23,在步骤S91中,输入单元121确定用户是否已经执行了用于显示3D图形图像的操作。当在步骤S91中确定用户尚未执行用于显示3D图形图像的操作时,处理进行到步骤S92。
在步骤S92中,输入单元121确定用户是否已经执行了用于输入偏好信息的操作。当在步骤S92中确定用户尚未执行用于输入偏好信息的操作时,处理返回到步骤S91。
然而,当在步骤S92中确定用户已经执行了用于输入偏好信息的操作时,输入单元121接收该操作,并将偏好信息提供给生成单元122。然后,在步骤S93中,观看位置检测单元112检测用户的观看位置,并将表示观看位置的观看位置信息提供给生成单元122。
在步骤S94中,生成单元122基于从输入单元121提供的偏好信息和从观看位置检测单元112提供的观看位置信息来生成显示视点信息,并保存生成的显示视点信息。生成单元122将保存的显示视点信息提供给M视点图像生成单元91和显示视点选择单元23,然后结束该处理。
同时,当在步骤S91中确定用户已经执行了用于显示3D图形图像的操作时,处理进行到步骤S95。在步骤S95中,生成单元122生成其中输入图像的图像指定信息与每个显示视点相关联的显示视点信息,并保存生成的显示视点信息。生成单元122将保存的显示视点信息提供给M视点图像生成单元91和显示视点选择单元23,然后结束该处理。
如上所述,当用户已经执行了用于显示3D图形图像的操作时,也就是,当输入图像是3D图形图像时,图21的图像信号处理单元12仅将输入图像分配给显示视点,从而改进显示图像的图像质量。
具体地,3D图形图像具有几何图案并且亮度或颜色的改变是突然的。因此,当3D图形图像的视点数目通过内插处理等增加时,已经进行了内插处理的3D图形图像经受可能被用户感知的、由在内插处理时出现的闭塞区域(稍后将进行详细描述)等引起的图像退化。因此,当输入图像是3D图形图像时,图21的图像信号处理单元12不将已经进行了内插处理的输入图像分配给显示视点,而是仅将输入图像分配给显示视点,从而改进显示图像的图像质量。这里,闭塞区域是指存在于特定视点的图像中但是由于视点的差异而不存在于另一视点的图像中的区域。
此外,图21的图像信号处理单元12在用户已经执行了用于显示3D图形图像的操作时仅将输入图像分配给显示视点。然而,图21的图像信号处理单元12可以在由M视点图像生成单元91生成的图像的误差值大于预定值时仅将输入图像分配给显示视点。
[图像信号处理单元的第六配置示例]
图24是示出了图1所示的图像信号处理单元12的第六详细配置示例的框图。
在图24所示的部件中,用相同的附图标记表示与图20所示的部件相同的部件,因此将适当地省略其多余描述。
图24的图像信号处理单元12的配置与图20的配置的不同之处主要在于:分别提供了生成单元131和M视点图像生成单元132来替代生成单元102和M视点图像生成单元91。图24的图像信号处理单元12基于M视点图像的视差图像以及观看位置信息和偏好信息来生成显示视点信息。视差图像还被称作视差图并且是包括视差值的图像,该视差值表示对应视点的图像的每个像素的屏幕位置与对应于该像素的、作为基本点的视点的图像的像素的屏幕位置之间的水平方向上的距离。
图24的图像信号处理单元12的生成单元131基于从输入单元111提供的偏好信息、从观看位置检测单元112提供的观看位置信息、以及从M视点图像生成单元132提供的M视点图像的视差图像来生成显示视点信息,并保存生成的显示视点信息。
具体地,例如,生成单元131首先基于偏好信息和观看位置信息来生成显示视点信息。然后,基于分配给对应于观看位置的两个显示视点的图像的视差图像,确定由深度方向上的图像构成的3D图像的位置的最小值与最大值之间的差是否小于预定值。当确定差小于预定值时,生成单元131基于M视点图像的视差图像,改变分配给对应于观看位置的两个显示视点的图像,使得差可以等于或大于预定值。生成单元131将保存的显示视点信息提供给显示视点选择单元23。
M视点图像生成单元132对从图像转换单元21提供的输入图像执行内插处理等,并生成M视点图像以及M视点图像的视差图像。M视点图像生成单元132将M视点图像提供给显示视点选择单元23,并将M视点图像的视差图像提供给生成单元131。
[另一显示视点信息生成处理的描述]
图25是用于描述图24的图像信号处理单元12的显示视点信息生成处理的流程图。例如,当用户操作输入单元111并指示生成显示视点信息时,显示视点信息生成处理开始。
参照图25,在步骤S111中,输入单元111确定用户是否已经执行了用于输入偏好信息的操作。当在步骤S111中确定用户尚未执行用于输入偏好信息的操作时,输入单元111处于待命状态,直到执行了该操作为止。
然而,当在步骤S111中确定用户已经执行了用于输入偏好信息的操作时,输入单元111接收该操作并将偏好信息提供给生成单元131。然后,在步骤S112中,观看位置检测单元112检测用户的观看位置,并将表示观看位置的观看位置信息提供给生成单元131。
在步骤S113中,生成单元131基于从观看位置检测单元112提供的观看位置信息和从输入单元121提供的偏好信息来生成显示视点信息,并保存生成的显示视点信息。生成单元131将保存的显示视点信息提供给显示视点选择单元23。因此,M视点图像生成单元132根据输入图像生成M视点图像,并将M视点图像提供给显示视点选择单元23。此外,M视点图像生成单元132生成M视点图像的视差图像,并将该视差图像提供给生成单元131。
在步骤S114中,生成单元131基于显示视点信息来确定分配给对应于观看位置信息的两个显示视点的图像是否是2D图像,也就是,对应于观看位置信息的图像指定信息是否相同。当在步骤S114中确定分配给对应于观看位置信息的两个显示视点的图像是2D图像时,处理结束。
然而,当在步骤S114中确定分配给对应于观看位置信息的两个显示视点的图像不是2D图像时,处理进行到步骤S115。
在步骤S115中,生成单元131基于从M视点图像生成单元132提供的M视点图像的视差图像和观看位置信息,确定由分配给对应于观看位置信息的两个显示视点的图像构成的3D图像的位置在深度方向上的最小值与最大值之间的差是否小于预定值。
当在步骤S115中确定3D图像的位置在深度方向上的最小值与最大值之间的差小于预定值时,在步骤S116中,生成单元131基于M视点图像的视差图像,改变显示视点信息,使得该差可以等于或大于预定值。具体地,生成单元131基于M视点图像的视差图像,改变分配给对应于观看位置信息的两个显示视点的图像,使得3D图像的位置在深度方向上的最小值与最大值之间的差可以等于或大于预定值。然后,生成单元131生成其中改变的图像的图像指定信息与对应于观看位置信息的两个显示视点相关联的显示视点信息,并保存生成的显示视点信息。生成单元131将保存的显示视点信息提供给显示视点选择单元23,然后结束处理。
然而,当在步骤S115中确定3D图像的位置在深度方向上的最小值与最大值之间的差不小于预定值时,处理结束。
图18、20和21的图像信号处理单元12包括M视点图像生成单元91,然而,其可以包括M视点图像生成单元22。
在以上描述中,从图像接收单元11的外部输入输入图像的模拟信号,然而,可以输入输入图像的数字信号。
[应用本技术的计算机的描述]
接着,可以用硬件或软件来执行上述系列处理。当用软件执行系列处理时,构成软件的程序被安装到通用计算机等中。
图26示出了安装有用于执行上述系列处理的程序的计算机的实施例的配置示例。
程序可以被预先记录在用作嵌入计算机中的记录介质的存储单元208或只读存储器(ROM)202中。
可替选地,程序可以被存储(记录)到可拆卸介质211中。可拆卸介质211可以被设置为所谓的封装软件。可拆卸介质211的示例包括软盘、压缩盘只读存储器(CD-ROM)、磁光(MO)盘、数字多用盘(DVD)、磁盘、以及半导体存储器。
此外,程序可以通过驱动器210从可拆卸介质211安装到计算机中。此外,程序可以经由通信网络或广播网络下载到计算机并且然后安装到内置存储单元208中。换言之,例如,程序可以通过用于数字卫星广播的卫星以无线方式从下载站点传输到计算机或可以经由诸如局域网(LAN)或因特网的网络以有线方式传输到计算机。
计算机在其中包括中央处理单元(CPU)201,并且I/O接口205经由总线204连接到CPU 201。
当用户操作输入单元206并经由I/O接口205输入指令时,CPU 201响应于该指令执行存储在ROM 202中的程序。可替选地,CPU 201可以将存储在存储单元208中的程序加载到随机存取存储器(RAM)203中并且然后执行加载的程序。
以这种方式,CPU 201根据上述流程图或通过上述框图的配置执行的处理来执行处理。然后,CPU 201从输出单元207输出处理结果或例如需要的话通过I/O接口205从通信单元209传输处理结果。此外,例如,CPU 201将处理结果记录到存储单元208中。
输入单元206配置有键盘、鼠标、麦克风等。输出单元207配置有液晶显示器(LCD)、扬声器等。
在本公开中,不一定按照流程图中描述的顺序以时序的方式执行计算机根据程序所执行的处理。换言之,计算机根据程序执行的处理还包括并行地或单独地执行的处理(例如,并行处理或对象的处理)。
此外,程序可以由单个计算机(处理器)来执行或可以由多个计算机分布地处理。此外,程序可以传输到远程站点处的计算机,然后被执行。
本领域的技术人员将理解,可以根据设计要求和其它因素进行各种修改、组合、子组合和变型,只要它们在所附权利要求或其等同物的范围之内。
另外,还可以对本技术进行如下配置。
(1)一种图像处理装置,包括:
分配单元,其基于来自用户的输入,将预定视点的图像分配给显示装置中的两个或更多个视点,所述显示装置在根据视点而不同的方向上显示所述两个或更多个视点的图像;以及
显示控制单元,其基于由所述分配单元进行的分配,使得所述预定视点的图像显示在所述显示装置上。
(2)根据(1)所述的图像处理装置,其中,所述分配单元基于来自所述用户的、表示所述用户的观看偏好的偏好信息的输入来执行分配。
(3)根据(2)所述的图像处理装置,其中,所述分配单元基于所述偏好信息和所述用户进行观看的位置来执行分配。
(4)根据(3)所述的图像处理装置,其中,所述分配单元基于来自所述用户的、所述偏好信息和所述用户进行观看的位置的输入来执行分配。
(5)根据(3)所述的图像处理装置,还包括观看位置检测单元,其检测所述用户进行观看的位置,
其中,所述分配单元基于所述偏好信息和由所述观看位置检测单元检测到的所述用户进行观看的位置来执行分配。
(6)根据(1)至(5)中任一项所述的图像处理装置,还包括图像生成单元,其根据视点数目小于所述显示装置中的所述两个或更多个视点的数目的图像来生成所述显示装置中的所述两个或更多个视点的图像,
其中,所述预定视点的图像是由所述图像生成单元生成的所述显示装置中的所述两个或更多个视点的图像中的至少一个。
(7)根据(6)所述的图像处理装置,其中,所述分配单元基于来自所述用户的、用于显示作为所述预定视点的图像的3D图形图像的输入,使用视点数目小于所述显示装置中的所述两个或更多个视点的数目的图像作为所述预定视点的图像。
(8)根据(6)或(7)所述的图像处理装置,其中,所述分配单元基于由所述图像生成单元生成的所述显示装置中的所述两个或更多个视点的图像的误差,使用视点数目小于所述显示装置中的所述两个或更多个视点的数目的图像作为所述预定视点的图像。
(9)根据(6)至(8)中任一项所述的图像处理装置,其中,所述分配单元基于与由所述图像生成单元生成的所述显示装置中的所述两个或更多个视点的图像对应的视差图像,使用由所述图像生成单元生成的所述显示装置中的所述两个或更多个视点的图像中的至少一个作为所述预定视点的图像。
(10)根据(1)至(5)中任一项所述的图像处理装置,还包括图像生成单元,其根据视点数目小于所述预定视点的数目的图像来生成所述预定视点的图像。
(11)根据(1)至(10)中任一项所述的图像处理装置,其中,所述预定视点的图像是单视点图像。
(12)根据(1)至(10)中任一项所述的图像处理装置,其中,所述预定视点的图像是两个或更多个视点的图像,并且
所述分配单元基于来自所述用户的输入,将所述预定视点的图像分配给所述显示装置中的所述两个或更多个视点之中的每两个连续视点。
(13)根据(1)至(10)中任一项所述的图像处理装置,其中,所述预定视点的图像是两个或更多个视点的图像,并且
所述分配单元基于来自所述用户的输入,将所述预定视点的图像中包括的、在所述用户的左眼与右眼之间具有小距离的两视点图像分配给与所述显示装置中的所述两个或更多个视点之中的、与所述用户的左眼与右眼之间的距离对应的两个预定视点,并且将所述预定视点的图像中包括的、具有长距离的两视点图像分配给除了与所述用户的左眼与右眼之间的距离对应的所述两个预定视点之外的两个预定视点。
(14)根据(1)至(10)中任一项所述的图像处理装置,其中,所述分配单元基于来自所述用户的输入,将所述预定视点的图像和预定图像分配给所述显示装置中的所述两个或更多个视点。
(15)一种处理图像的方法,包括:
在图像处理装置处,基于来自用户的输入,将预定视点的图像分配给显示装置中的两个或更多个视点,所述显示装置在根据视点而不同的方向上显示所述两个或更多个视点的图像;以及
基于通过所述分配处理进行的分配,使得所述预定视点的图像显示在所述显示装置上。
(16)一种使计算机执行处理的程序,所述处理包括:
基于来自用户的输入,将预定视点的图像分配给显示装置中的两个或更多个视点,所述显示装置在根据视点而不同的方向上显示所述两个或更多个视点的图像;以及
基于通过所述分配处理进行的分配,使得所述预定视点的图像显示在所述显示装置上。
本公开包含与在2011年4月8日向日本专利局提交的日本优先权专利申请JP 2011-086307中公开的主题相关的主题,其全部内容通过引用并入本申请。
Claims (16)
1.一种图像处理装置,包括:
分配单元,其基于来自用户的输入,将预定视点的图像分配给显示装置中的两个或更多个视点,所述显示装置在根据视点而不同的方向上显示所述两个或更多个视点的图像;以及
显示控制单元,其基于由所述分配单元进行的分配,使得所述预定视点的图像显示在所述显示装置上。
2.根据权利要求1所述的图像处理装置,其中,所述分配单元基于来自所述用户的、表示所述用户的观看偏好的偏好信息的输入来执行分配。
3.根据权利要求2所述的图像处理装置,其中,所述分配单元基于所述偏好信息和所述用户进行观看的位置来执行分配。
4.根据权利要求3所述的图像处理装置,其中,所述分配单元基于来自所述用户的、所述偏好信息和所述用户进行观看的位置的输入来执行分配。
5.根据权利要求3所述的图像处理装置,还包括观看位置检测单元,其检测所述用户进行观看的位置,
其中,所述分配单元基于所述偏好信息和由所述观看位置检测单元检测到的所述用户进行观看的位置来执行分配。
6.根据权利要求1所述的图像处理装置,还包括图像生成单元,其根据视点数目小于所述显示装置中的所述两个或更多个视点的数目的图像来生成所述显示装置中的所述两个或更多个视点的图像,
其中,所述预定视点的图像是由所述图像生成单元生成的所述显示装置中的所述两个或更多个视点的图像中的至少一个。
7.根据权利要求6所述的图像处理装置,其中,所述分配单元基于来自所述用户的、用于显示作为所述预定视点的图像的3D图形图像的输入,使用视点数目小于所述显示装置中的所述两个或更多个视点的数目的图像作为所述预定视点的图像。
8.根据权利要求6所述的图像处理装置,其中,所述分配单元基于由所述图像生成单元生成的所述显示装置中的所述两个或更多个视点的图像的误差,使用视点数目小于所述显示装置中的所述两个或更多个视点的数目的图像作为所述预定视点的图像。
9.根据权利要求6所述的图像处理装置,其中,所述分配单元基于与由所述图像生成单元生成的所述显示装置中的所述两个或更多个视点的图像对应的视差图像,使用由所述图像生成单元生成的所述显示装置中的所述两个或更多个视点的图像中的至少一个作为所述预定视点的图像。
10.根据权利要求1所述的图像处理装置,还包括图像生成单元,其根据视点数目小于所述预定视点的数目的图像来生成所述预定视点的图像。
11.根据权利要求1所述的图像处理装置,其中,所述预定视点的图像是单视点图像。
12.根据权利要求1所述的图像处理装置,其中,所述预定视点的图像是两个或更多个视点的图像,并且
所述分配单元基于来自所述用户的输入,将所述预定视点的图像分配给所述显示装置中的所述两个或更多个视点之中的每两个连续视点。
13.根据权利要求1所述的图像处理装置,其中,所述预定视点的图像是两个或更多个视点的图像,并且
所述分配单元基于来自所述用户的输入,将所述预定视点的图像中包括的、在所述用户的左眼与右眼之间具有小距离的两视点图像分配给与所述显示装置中的所述两个或更多个视点之中的、与所述用户的左眼与右眼之间的距离对应的两个预定视点,并且将所述预定视点的图像中包括的、具有长距离的两视点图像分配给除了与所述用户的左眼与右眼之间的距离对应的所述两个预定视点之外的两个预定视点。
14.根据权利要求1所述的图像处理装置,其中,所述分配单元基于来自所述用户的输入,将所述预定视点的图像和预定图像分配给所述显示装置中的所述两个或更多个视点。
15.一种处理图像的方法,包括:
在图像处理装置处,基于来自用户的输入,将预定视点的图像分配给显示装置中的两个或更多个视点,所述显示装置在根据视点而不同的方向上显示所述两个或更多个视点的图像;以及
基于通过所述分配处理进行的分配,使得所述预定视点的图像显示在所述显示装置上。
16.一种使计算机执行处理的程序,所述处理包括:
基于来自用户的输入,将预定视点的图像分配给显示装置中的两个或更多个视点,所述显示装置在根据视点而不同的方向上显示所述两个或更多个视点的图像;以及
基于通过所述分配处理进行的分配,使得所述预定视点的图像显示在所述显示装置上。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011-086307 | 2011-04-08 | ||
JP2011086307A JP5732986B2 (ja) | 2011-04-08 | 2011-04-08 | 画像処理装置、画像処理方法、およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102740102A true CN102740102A (zh) | 2012-10-17 |
CN102740102B CN102740102B (zh) | 2016-07-06 |
Family
ID=46965735
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201210091874.3A Expired - Fee Related CN102740102B (zh) | 2011-04-08 | 2012-03-30 | 图像处理装置、图像处理方法和程序 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20120256909A1 (zh) |
JP (1) | JP5732986B2 (zh) |
CN (1) | CN102740102B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102010009737A1 (de) * | 2010-03-01 | 2011-09-01 | Institut für Rundfunktechnik GmbH | Verfahren und Anordnung zur Wiedergabe von 3D-Bildinhalten |
JP2015164235A (ja) * | 2012-06-19 | 2015-09-10 | シャープ株式会社 | 画像処理装置、方法、プログラム、および記録媒体 |
JP2015037282A (ja) * | 2013-08-15 | 2015-02-23 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
US10368046B2 (en) * | 2014-06-19 | 2019-07-30 | Koninklijke Philips N.V. | Method and apparatus for generating a three dimensional image |
US10735707B2 (en) * | 2017-08-15 | 2020-08-04 | International Business Machines Corporation | Generating three-dimensional imagery |
KR102145381B1 (ko) * | 2018-05-21 | 2020-08-19 | 주식회사 고영테크놀러지 | Oct 시스템, oct 영상 생성 방법 및 저장 매체 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005175538A (ja) * | 2003-12-05 | 2005-06-30 | Sharp Corp | 立体映像表示装置及び映像表示方法 |
US20070024614A1 (en) * | 2005-07-26 | 2007-02-01 | Tam Wa J | Generating a depth map from a two-dimensional source image for stereoscopic and multiview imaging |
CN101762880A (zh) * | 2008-12-24 | 2010-06-30 | 三星电子株式会社 | 立体图像显示装置及其控制方法 |
US20100253766A1 (en) * | 2009-04-01 | 2010-10-07 | Mann Samuel A | Stereoscopic Device |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH01317091A (ja) * | 1988-06-17 | 1989-12-21 | Nippon Hoso Kyokai <Nhk> | 多方向立体映像装置 |
JP4236428B2 (ja) * | 2001-09-21 | 2009-03-11 | 三洋電機株式会社 | 立体画像表示方法および立体画像表示装置 |
JP2006101224A (ja) * | 2004-09-29 | 2006-04-13 | Toshiba Corp | 画像生成装置、画像生成方法および画像生成プログラム |
JP2010273013A (ja) * | 2009-05-20 | 2010-12-02 | Sony Corp | 立体表示装置および方法 |
JP4823349B2 (ja) * | 2009-11-11 | 2011-11-24 | パナソニック株式会社 | 三次元映像復号装置及び三次元映像復号方法 |
US20120218393A1 (en) * | 2010-03-09 | 2012-08-30 | Berfort Management Inc. | Generating 3D multi-view interweaved image(s) from stereoscopic pairs |
-
2011
- 2011-04-08 JP JP2011086307A patent/JP5732986B2/ja not_active Expired - Fee Related
-
2012
- 2012-03-23 US US13/428,845 patent/US20120256909A1/en not_active Abandoned
- 2012-03-30 CN CN201210091874.3A patent/CN102740102B/zh not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005175538A (ja) * | 2003-12-05 | 2005-06-30 | Sharp Corp | 立体映像表示装置及び映像表示方法 |
US20070024614A1 (en) * | 2005-07-26 | 2007-02-01 | Tam Wa J | Generating a depth map from a two-dimensional source image for stereoscopic and multiview imaging |
CN101762880A (zh) * | 2008-12-24 | 2010-06-30 | 三星电子株式会社 | 立体图像显示装置及其控制方法 |
US20100253766A1 (en) * | 2009-04-01 | 2010-10-07 | Mann Samuel A | Stereoscopic Device |
Also Published As
Publication number | Publication date |
---|---|
US20120256909A1 (en) | 2012-10-11 |
CN102740102B (zh) | 2016-07-06 |
JP2012222605A (ja) | 2012-11-12 |
JP5732986B2 (ja) | 2015-06-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5389139B2 (ja) | 電子機器及び表示制御方法 | |
CN102740102A (zh) | 图像处理装置、图像处理方法和程序 | |
US9071835B2 (en) | Method and apparatus for generating multiview image with hole filling | |
CN102238408B (zh) | 显示设置菜单的方法以及相应装置 | |
CN102450022B (zh) | 输出三维内容的显示装置的图像处理方法以及采用该方法的显示装置 | |
JP6569496B2 (ja) | 入力装置、入力方法、及びプログラム | |
KR102121389B1 (ko) | 무안경 3d 디스플레이 장치 및 그 제어 방법 | |
EP2753086A2 (en) | Display apparatus and display method thereof | |
AU2008204084A1 (en) | Method and apparatus for generating stereoscopic image from two-dimensional image by using mesh map | |
US20120086777A1 (en) | Systems and methods for detecting and displaying three-dimensional videos | |
EP1187495A3 (en) | Apparatus and method for displaying image data | |
EP2688038A1 (en) | Image data scaling method and image display apparatus | |
EP3182702B1 (en) | Multiview image display device and control method therefor | |
CN103597824A (zh) | 图像处理装置及其方法和程序 | |
CN102411486A (zh) | 信息处理设备、程序以及信息处理方法 | |
US9047797B2 (en) | Image display apparatus and method for operating the same | |
US20120293638A1 (en) | Apparatus and method for providing 3d content | |
CN106559662B (zh) | 多视图图像显示设备及其控制方法 | |
JP5289538B2 (ja) | 電子機器、表示制御方法及びプログラム | |
CN103597538B (zh) | 显示控制装置、显示控制方法 | |
EP2530940A1 (en) | Apparatus and method for 3D image conversion and a storage medium thereof | |
US11189080B2 (en) | Method for presenting a three-dimensional object and an associated computer program product, digital storage medium and a computer system | |
JP5161998B2 (ja) | 情報処理装置、情報処理方法およびプログラム | |
JP2012227714A (ja) | 情報処理装置、情報処理方法およびプログラム | |
US9547933B2 (en) | Display apparatus and display method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20160706 |
|
CF01 | Termination of patent right due to non-payment of annual fee |