CN103597824A - 图像处理装置及其方法和程序 - Google Patents
图像处理装置及其方法和程序 Download PDFInfo
- Publication number
- CN103597824A CN103597824A CN201280028044.4A CN201280028044A CN103597824A CN 103597824 A CN103597824 A CN 103597824A CN 201280028044 A CN201280028044 A CN 201280028044A CN 103597824 A CN103597824 A CN 103597824A
- Authority
- CN
- China
- Prior art keywords
- image
- spectators
- viewpoint
- unit
- instruction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
- H04N13/368—Image reproducers using viewer tracking for two or more viewers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/302—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
- H04N13/31—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/111—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
- H04N13/117—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/349—Multi-view displays for displaying three or more geometrical viewpoints without viewer tracking
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
一种设备可以包括硬件处理器和存储介质。所述存储介质可以耦合到所述处理器,并且可以存储指令。当被所述处理器执行时,所述指令可以使得所述设备确定观众的数量。所述指令也可以使得所述设备基于观众的所述数量计算视点的数量。另外,所述指令可以使得所述设备产生与所述视点对应的多个图像。
Description
技术领域
本技术涉及图像处理装置及其方法和程序,并且具体地说涉及下述图像处理装置及其方法和程序,其中,当输入作为输入图像的、具有两个视点的无眼镜三维立体图像时,可以以与观众的数量对应的适当分辨率来观看多视点图像。
背景技术
作为其中可以不使用特殊眼镜来观看立体图像的无眼镜图像显示装置,公知视差屏障系统(例如,参见PTL1)或者柱状透镜系统(例如,参见PTL2)。
引用列表
专利文献
PTL1:PTL1:日本未审查专利申请公报No.7-5420
PTL2:日本未审查专利申请公报No.5-49044
发明内容
技术问题
同时,在上述双透镜视差屏障系统或柱状透镜系统的两种情况下,因为将像素划分为右眼像素和左眼像素,并且分别显示右眼图像和左眼图像,所以其分辨率减半。因为这个原因,当它被配置来从多个视点被观看以便对应于更多观众的观看方向时,其分辨率进一步降低。
然而,可能有其中例如与仅有一个观众无关并且当不必然需要来自多个视点的观看时,单个观众通过使能从多个视点的观看来以低分辨率观看图像的情况。
本技术已经鉴于该情况而被作出,并且具体地说,用于使得能够当输入作为输入图像的具有两个视点的无眼镜三维立体图像时,以与观众的数量对应的适当分辨率来从多个视点观看图像。
对于问题的解决方案
公开了一种设备,其可以包括硬件处理器和存储介质。所述存储介质可以耦合到所述处理器,并且可以存储指令。当被所述处理器执行时,所述指令可以使得所述设备确定观众的数量。所述指令也可以使得所述设备基于观众的数量来计算视点的数量。另外,所述指令可以使得所述设备产生与所述视点对应的多个图像。
也公开了一种方法。所述方法可以包括确定观众的数量。所述方法也可以包括基于观众的数量来计算视点的数量。另外,所述方法可以包括产生与所述视点对应的多个图像。
另外,公开了一种用于存储指令的永久计算机可读存储介质。当被处理器执行时,所述指令可以使得所述设备确定观众的数量。所述指令也可以使得所述设备基于观众的数量来计算视点的数量。另外,所述指令可以使得所述设备产生与所述视点对应的多个图像。
附图说明
图1是示出本技术被应用到的图像处理装置的第一实施例的配置示例的框图。
图2是描述根据在图1中的图像处理装置的多视点图像的显示处理的流程图。
图3是描述多视点图像的显示处理的图。
图4是描述计算视差屏障的狭缝的间距的方法的图。
图5是示出图像处理装置的第二实施例的配置示例的框图。
图6是描述根据在图5中的图像处理装置的多视点图像的显示处理的流程图。
图7是描述与观众的位置对应的多视点图像的显示处理的图。
图8是描述与观众的位置对应的多视点图像的显示示例的图。
图9是示出图像处理装置的第三实施例的配置示例的框图。
图10是描述根据在图9中的图像处理装置的多视点图像的显示处理的流程图。
图11是描述通用个人计算机的配置示例的图。
具体实施方式
以下,将描述用于体现本技术的实施例(以下称为“实施例”)。另外,将以下面的顺序来进行描述。
1.第一实施例(其中使用视差屏障的示例)
2.第二实施例(其中使用观众的位置信息的示例)
3.第三实施例(其中使用柱状透镜的示例)
<1.第一实施例>
<使用视差屏障的图像处理装置>
图1示出本技术被应用到的图像处理装置的第一实施例的配置示例。在图1中的图像处理装置11显示可以使用具有预定视差的裸眼被看作三维立体图像的图像,该图像是右眼图像和左眼图像的输入图像,作为具有基于观众的数量的适当分辨率的多视点图像,并且该图像处理装置11是TV接收器等。
在图1中的图像处理装置11包括成像单元(即,软件模块、硬件模块或软件模块和硬件模块的组合)21、面部图像检测单元22、观众数量检测单元23、所需视点数量计算单元24、右眼图像获得单元25-1、左眼图像获得单元25-2、多视点图像产生单元26和显示单元27。
成像单元21在其中观众观看被图像处理装置11显示的图像(即,观众图像)的方向上捕获图像,并且向面部图像检测单元22供应该图像。
面部图像检测单元22从所供应的图像提取关于人体的面部轮廓或作为器官的眼睛、耳朵、鼻子或嘴部等的信息作为可检测特征量,指定为矩形面部图像,并且将指定的面部图像与捕获的图像一起供应到观众数量检测单元23。
当获得从面部图像检测单元22供应的面部图像时,观众数量检测单元23获得所获得的面部图像的数量,将其检测为观众的数量,并且向所需视点数量计算单元24供应作为检测结果的观众的数量的信息。
所需视点数量计算单元24基于关于从观众数量检测单元23供应的观众的数量的信息计算当配置多视点图像时所需的所需视点的数量,并且向多视点图像产生单元26和显示单元27供应所需视点的数量。假定观众以固定间隔位于相对于显示图像的水平方向上。另外,为了使得观众能够观看三维立体图像,对于每个观众分别设置左眼图像和右眼图像。另外,位于第一观众左侧的第二观众使用第一观众的左眼图像作为他本身的右眼图像。而且,与此类似,位于第一观众右侧的第三观众使用第一观众的右眼图像作为他自己的左眼图像。因此,例如,当观众是三个时,所需的视点的数量是4。
右眼图像获得单元25-1和左眼图像获得单元25-2分别获得三维和立体的输入的右眼图像和左眼图像,向多视点图像产生单元26供应该图像。
多视点图像产生单元26基于关于从所需视点数量计算单元24供应的所需视点的数量的信息从自右眼图像获得单元25-1和左眼图像获得单元25-2供应的输入的右眼图像和左眼图像产生多视点图像,并且向显示单元27供应该图像。
更具体地,通过双视点确定单元41、双视点图像输出单元42、N视点图像产生单元43和选择输出单元44来构成多视点图像产生单元26。双视点确定单元41确定从所需视点数量计算单元24供应的所需视点的数量是否是双视点,并且向选择输出单元44供应确定结果。双视点图像输出单元42向选择输出单元44原样供应从右眼图像获得单元25-1和左眼图像获得单元25-2供应的右眼图像和左眼图像。N视点图像产生单元43通过下述方式来使用内插或外插来产生所需视点的数量的图像,并且,向选择输出单元44供应该图像:基于关于从所需视点数量计算单元24供应的所需视点的数量的信息来使用从右眼图像获得单元25-1和左眼图像获得单元25-2供应的右眼图像和左眼图像(即,其他图像)来控制内插产生单元43a。当所需视点的数量是2个时,选择输出单元44基于从双视点确定单元41供应的确定结果,原样向显示单元27输出由从双视点图像输出单元42供应的右眼图像和左眼图像形成的双视点图像。另一方面,当所需视点的数量不是2个时,选择输出单元44基于从双视点确定单元41供应的确定结果来向显示单元27输出由N视点图像产生单元43产生的多视点图像。
显示单元27基于关于从所需视点数量计算单元24供应的所需视点的数量的信息来控制视差屏障63的狭缝的间距(间隙),显示从多视点图像产生单元26供应的双视点图像或多视点图像,并且通过视差屏障63来显示该多视点图像。
更具体地,显示单元27包括视差屏障间距计算单元61、视差屏障间距控制单元62、视差屏障63、显示像素阵列设置单元64和显示器65。视差屏障间距计算单元61根据由所需视点数量计算单元24计算的所需视点的数量来计算具有在其中使用视差屏障63来透射从显示器65发射的光的垂直方向上的间距的狭缝(狭缝的间隙),并且向视差屏障间距控制单元62供应间距。视差屏障间距控制单元62基于由视差屏障间距计算单元61计算的视差屏障的间距(狭缝的间隙)控制视差屏障63的操作,以便在对应的垂直方向上配置狭缝。
视差屏障63由例如液晶板等形成,并且以由视差屏障间距控制单元62控制的间距在垂直方向上配置狭缝。更具体地,视差屏障63例如相对于除了使用液晶配置垂直狭缝的区域之外的区域配置屏蔽区域,通过仅将狭缝区域设置为透光区域来配置视差屏障,并且作为视差屏障工作。显示像素阵列设置单元64根据从所需视点数量计算单元24供应的所需视点的数量来以像素列为单位将所产生的多视点图像分离为狭缝形状,在相对于视线方向的相反方向上布置具有狭缝形状的多视点图像,并且在显示器65上显示。显示器65由液晶显示器(LCD)、等离子体显示器或有机EL等形成,并且通过使得使用从显示像素阵列设置单元64供应的像素值来发射颜色而显示图像。
<由在图1中的图像处理装置进行的多视点图像的显示处理>
随后,将参考在图2中的流程图来描述由在图1中的图像处理装置11进行的多视点图像的显示处理。
在步骤S1中,成像单元21在观众所位于的方向上、即在面向由显示单元27显示的图像的方向上捕获图像,并且向面部图像检测单元22供应所捕获的图像。
在步骤S2中,面部图像检测单元22通过提取当从供应的图像检测面部图像时所需的特征量来检测矩形面部图像,并且将矩形面部图像与所捕获的图像一起供应到观众数量检测单元23。
在步骤S3中,观众数量检测单元23基于所供应的面部图像的数量来检测观众的数量,并且向所需视点数量计算单元24供应所检测的关于观众的数量的信息。
在步骤S4中,所需视点数量计算单元24基于关于从观众数量检测单元23供应的观众的数量的信息来计算所需视点的数量N。即,例如,当观众的数量是1时,如图3中右面所示,所需视点的数量是位于面向显示器65和视差屏障63的显示方向的位置处的观众H1的左眼视点L1与右眼视点R1的双视点的总和。在该情况下,对于观众H的视点L1和R1的每一个,需要视点图像A作为左眼图像,并且视点图像B作为右眼图像。另一方面,如图3的左面所示,当观众的数量是3时,所需视点的数量分别变为在面向显示器65和视差屏障63的位置处的观众H11至H13的左眼视点和右眼视点。在此,假定观众H11至H13以固定间隔位于面向显示器65和视差屏障63的面上。即,观众H11所需的视点是左眼视点L11和右眼视点R11。另外,观众H12所需的视点是左眼视点L12和右眼视点R12。而且,观众H13所需的视点是左眼视点L13和右眼视点R13。因此,在该情况下,需要视点图像A作为用于观众H11的视点L11的左眼图像,并且需要视点图像B作为用于观众H11的视点R11的右眼图像和作为观众H12的视点L12的左眼图像。另外,需要视点图像C作为用于观众H12的视点R12的右眼图像和作为观众H13的视点L13的左眼图像,并且需要视点图像D作为观众H13的视点R13的右眼图像。
即,当将观众H12作为参考时,作为在观众H12的紧左的观众H11的右眼图像的视点R11和作为观众H12的左眼图像的视点L12彼此相同。另外,作为在观众H12的紧右的观众H13的左眼图像的视点L12和作为观众H12的右眼图像的视点R12彼此相同。
结果,当观众的数量是3时,所需视点的数量N变为4。另外,即使当观众的数量与此不同时,每个观众的视点具有下述配置:其中,分别地,与位于紧右的观众共享左眼图像的视点,并且与位于紧左的观众共享右眼图像。另外,在图3中,在显示器65上附接的A至D的全部表示像素阵列,其中,将与视点图像A至D对应的图像以像素为单位在垂直方向上划分为狭缝形状。另外,在视差屏障63中,实线是光屏蔽区域,并且其间隙是狭缝,并且是从显示器65发射的光的透射区域。而且,在图3中的视差屏障63的Q2和Q4当所需视点的数量N分别是2和4时表示狭缝的间距(间隙)。在显示器65中,p表示像素的间距(间隙)。
在步骤S5中,多视点图像产生单元26的双视点图像输出单元42原样向选择输出单元44输出作为双视点图像的、从右眼图像获得单元25-1供应的右眼图像和从左眼图像获得单元25-2供应的左眼图像。
在步骤S6中,多视点图像产生单元26的N视点图像产生单元43从自右眼图像获得单元25-1供应的右眼图像和自左眼图像获得单元25-2供应的左眼图像根据所需视点的数量来产生N视点图像。另外,N视点图像产生单元43向选择输出单元44输出所产生的N视点图像。
更具体地,N视点图像产生单元43分别使用视点图像B和C的外插来获得视点图像A和D,因为例如当如图3中的左部所示所需视点的数量是4时视点图像B和C是输入的双视点图像。另外,当所需视点的数量是3时,如图3的左部所示,N视点图像产生单元43在产生作为四个视点的视点A至D的图像后,使用在视点A和B、B和C与C和D之间的内插来产生新的三种类型的视点的图像。另外,当输入图像的水平分辨率是1920个像素时,每一个视点图像的水平分辨率在双视点图像的情况下变为960个像素,并且进一步,每一个视点图像的水平分辨率在四视点图像的情况下变为480个像素。然而,因为不必根据所需视点的数量来形成多视点图像,所以能够根据所需视点的数量来产生具有适当的水平分辨率的视点图像。
在步骤S7中,双视点确定单元41确定所需视点的数量N是否是2。在步骤S7中,当所需视点的数量N在步骤S8中是2时,双视点确定单元41向选择输出单元44供应所需视点的数量N是2的情况。选择输出单元44原样向显示单元27供应作为从双视点图像输出单元42供应的输入图像的双视点图像,因为从双视点确定单元41供应的确定结果是双视点图像。
另一方面,在步骤S7中,当所需视点的数量N不是2时,选择输出单元44在步骤S9中向显示单元27供应从N视点图像产生单元43供应的N视点图像。
在步骤S10中,显示单元27的视差屏障间距计算单元61根据所需视点的数量N来计算在视差屏障63中的狭缝的间距(间隙),并且向视差屏障间距控制单元62供应计算结果。更具体地,视差屏障63中的狭缝的间距被设置使得通过在图4中所示的显示器65、视差屏障63和观众H11至H13的各自的视点图像来满足在下面的表达式(1)和(2)之间的关系。
e:p=d:g....(1)
Q:d=Nxp:(d+g)....(2)
在此,e表示在每一个观众的左眼和右眼之间的距离,并且p表示在显示器65的像素之间的间距(间隙),d表示从视差屏障63到观众的测量位置的距离,并且g表示在视差屏障63(其狭缝:打开部分)和显示器65之间的距离。另外,Q表示视差屏障63的狭缝的间距(间隙),并且N表示所需视点的数量。
结果,通过计算下面的表达式(3)来获得视差屏障的狭缝的间距Q。
Q=(dxNxp)/(d+g)....(3)
在步骤S11中,视差屏障间距控制单元62控制视差屏障63的面板,并且设置使得以从视差屏障间距计算单元61供应的间距提供狭缝。此时,在视差屏障63中,设置狭缝使得在中心部分处提供狭缝,并且以中心狭缝作为参考以视差屏障间距计算单元61供应的间距(间隙)提供随后的狭缝。
在步骤S12中,显示像素阵列设置单元64如图3中所示以像素列为单位将双视点图像或从选择输出单元44供应的N视点图像划分为狭缝形状,布置像素列以便在横向上逆转布置顺序,并且在显示器65上显示。
即,例如,如图3的左部所示,当在显示器65上的像素列阵列中在其中观众H11至H13观看的位置处从在图3的左面起设置视点图像A至D时,以横向逆反的顺序从图像D向A重复地布置与以像素列为单位被划分为狭缝形状的视点图像A至D对应的视线方向上的图像。
根据上述的处理,观众H11至H13能够在任何位置观看三维立体图像,即使当分别在不同的视点观看在显示单元27上显示的图像时。因为这个原因,当是具有1920像素的水平分辨率的图像时,如果所需视点的数量N是4,则每一个视点图像变为480个像素,并且如果所需视点的数量N是2,则每一个视点图像变为960个像素。即,因为每一个观众观看图像的水平分辨率根据观众的数量而变化,所以能够根据观众的数量以适当的分辨率来观看多视点的立体图像。
<2.第二实施例>
<使用观众位置的图像处理装置>
如上所述,下述示例:其中,根据由观众的数量设置的所需视点的数量来从作为输入图像的双视点图像产生和显示N视点图像,然而,当产生因为视点位置而不同的多视点图像时,可以选择和显示不仅对应于观众的数量而且对应于观众的位置的双视点图像。
图5是图像处理装置的第二实施例的配置示例,其中,产生和显示不仅对应于观众的数量而且对应于观众的位置的双视点图像。另外,在图5中的图像处理装置11中,将使用相同的名称和附图标号给出关于具有与在图1中的图像处理装置11相同的功能的配置,并且将省略其说明。
即,在图5中的图像处理装置11中,与图1中的图像处理装置11的差别是在图5中的图像处理装置11新包括观众位置检测单元81。另外,在多视点图像产生单元26中,取代N视点图像产生单元43和选择输出单元44而提供了N视点图像产生单元91和选择输出单元92。
观众位置检测单元81基于捕获的图像的内部来检测由从面部图像检测单元22供应的矩形图像形成的面部图像和由矩形图像形成的面部图像的位置,并且将其检测为观众的位置。观众位置检测单元81向多视点图像产生单元26供应所检测的、关于观众的位置的信息。
多视点图像产生单元26的N视点图像产生单元91基于从观众位置检测单元81供应的观众的位置和关于所需视点的数量N的信息,使用与每一个观众的位置对应的双视点图像的右眼图像和左眼图像来产生多视点图像。另外,N视点图像产生单元91向所产生的选择输出单元92供应。
选择输出单元92具有与选择输出单元44相同的基本功能,然而,仅当双视点确定单元41确定为双视点时向显示单元27输出从双视点图像输出单元42供应的双视点图像,并且进一步地观众基于关于观众的位置的信息来位于在相对于显示单元27的前面。
<由在图5中图像处理装置11进行的多视点图像显示处理>
随后,将参考在图6中流程图来描述由在图5中的图像处理装置11进行的多视点图像的显示处理。此外,在图6的流程图中的步骤S31至S34、S36和S40至S45的处理与参考在图2中的流程图描述的步骤S1至S5和S8至S12的处理相同,将省略其说明。
即,当通过步骤S31至S34的处理来获得所需视点的数量时,在步骤S35中,观众位置检测单元81基于在由从面部图像检测单元22供应的矩形图像形成的图像中的面部图像的位置来检测观众的位置,并且向多视点图像产生单元26供应关于检测的观众位置的信息。
在步骤S36中,双视点图像输出单元42原样向选择输出单元92供应从右眼图像获得单元25-1和左眼图像获得单元25-2供应的右眼图像和左眼图像。
在步骤S37中,N视点图像产生单元91基于关于从观众位置检测单元81供应的观众的位置的信息和所需视点的数量N来产生与观众的位置对应的双视点图像,并且向选择输出单元44供应该图像。
即,当观众是例如1个时,位于图7中的左部、中心和右部的观众H11至H13分别在彼此不同的方向上观看视差屏障63和显示器65。即,观众H11至H13分别在相对于他们本身的位置的右手方向、前方向和左手方向上观看视差屏障63和显示器65。假定在显示器65和视差屏障63所位于的位置处的多视点图像获得单元82中获得多视点图像,其中,例如,如图8中的左面所示,显示圆柱物体B1,其在上基座上具有描述“A”,并且当从上基座观看时逆时针地在其侧面上具有描述“Ko、Sa、Si、Su、Se、So和Ta”。在该情况下,如图8的左部所示,观众H11至H13分别在右手方向、前方向和左手方向上观看物体B1。即,它匹配在图7中的、其中观众H11至H13在观看显示器65和视差屏障63的位置关系。
因此,N视点图像产生单元91通过使用外插来从作为输入图像的双视点图像产生在图7中所示的视点图像A和B来当在其中在图7中的左部中所示的观众H11的右手方向上观看显示器65和视差屏障63的位置处供应关于观众的信息时,产生其中立体地观看在图8的右部的物体B1R的双视点图像,并且向选择输出单元92供应。
另外,N视点图像产生单元91通过使用外插来从作为输入图像的双视点图像产生在图7中所示的视点图像B和C来当在其中在图7中的中心所示的观众H12的前向上观看显示器65和视差屏障63的位置处供应关于观众的信息时,产生其中立体地观看在图8的右部的物体B1C的双视点图像,并且向选择输出单元92供应。
另外,N视点图像产生单元91通过使用外插来从作为输入图像的双视点图像产生在图7中所示的视点图像C和D来当在其中在观众H13的左手方向上观看显示器65和视差屏障63的位置处供应关于观众的信息时,产生其中立体地观看在图8的右部的物体B1L的双视点图像,并且向选择输出单元92供应。
因为这个原因,如图8中所示,对于在右手方向上在观看显示器65和视差屏障63的观众H11,就像在其中在右手方向上观看物体B1的情况下那样,能够使得当在右手方向上观看物体B1时,如在物体B1R中所示观看物体B1,其中,观看在前部被观看的粗字符“Su”,就好像它通过向右旋转被移位。另外,对于在前向上在观看显示器65和视差屏障63的观众H12,就像在其中在前向上观看物体B1的情况下那样,能够使得当在前向上观看物体B1时,如在物体B1C中所示在前面观看粗字符“Su”。而且,对于在左手方向上在观看显示器65和视差屏障63的观众H13,就像在其中在左手方向上观看物体B1的情况下那样,能够使得当在左手方向上观看物体B1时,如在物体B1L中所示观看物体B1,其中,观看在前部被观看的粗字符“Su”,就好像它通过向左旋转被移位。
另外,在步骤S38中,当所需视点的数量是2时,在步骤S39中,选择输出单元92确定从观众位置检测单元81供应的观众的位置是否是中心位置。例如,在步骤S39中,当观众的位置是中心位置时,选择输出单元92在步骤S40中原样向显示单元27输出从双视点图像输出单元42供应的作为输入图像的双视点图像。另外,在步骤S39中,当从观众位置检测单元81供应的观众的位置不是中心位置时,选择输出单元92在步骤S41中向显示单元27输出从N视点图像产生单元91供应的N视点图像。
作为结果,能够在显示器65和视差屏障63中实现与观众在观看的方向对应的三维立体视图。另外,当多个观众位于分离的位置处时,N视点图像产生单元91能够通过在每一个观众的位置处产生观众的数量的所需的双视点图像来实现用于多个观众的每一个位置的适当的三维立体视图。在该情况下,因为当多个观众可以共享多视点图像时可以尽可能多地共享多视点图像,并且能够减少作为多视点图像的必要图像,所以可以抑制分辨率的变差。
如上所述,当产生多视点图像时,能够通过下述方式使得图像看起来好像也改变与被三维立体地观看的物体的位置关系:选择和显示与观众相对于显示器65和视差屏障63的观看位置对应的双视点图像。
<3.第三实施例>
<使用柱状透镜的图像处理装置>
如上所述,使用视差屏障的示例已经被描述为视差屏障的配置,然而,因为可以根据所需视点的数量来设置视差屏障的配置,所以不限于视差屏障,并且可以是柱状透镜。
图9示出其中使用柱状透镜的图像处理装置11的第三实施例的配置示例。另外,在图9中,向具有与在图1中的图像处理装置11相同的功能的构造给出相同的数字和相同的附图标号,并且将适当地省略其说明。
即,在图9中的图像处理装置11中,与在图1中的图像处理装置11的差别是在图9中的图像处理装置11包括取代视差屏障间距计算单元61、视差屏障间距控制单元62和视差屏障63的柱状透镜间距计算单元101、柱状透镜间距控制单元102和柱状透镜103。
柱状透镜103一般用于与视差屏障63相同的目的。视差屏障63配置光屏蔽区域,并且通过将光透射区域划分为狭缝来配置视差屏障,然而,通过其上在垂直方向上设置半圆不均匀的液体透镜来配置柱状透镜103。它通过下述方式具有与改变视差屏障的狭缝的间距相同的功能:使用从柱状透镜间距控制单元102供应的电压来改变不均匀的间距。
柱状透镜间距计算单元101计算与由视差屏障间距计算单元61计算的狭缝的间距对应的柱状透镜103的不均匀的间距(间隙),并且向柱状透镜间距控制单元102供应计算结果。
柱状透镜间距控制单元102通过基于计算结果产生对应的电压来控制柱状透镜103的不均匀的间距。
<使用在图9中的图像处理装置的多视点图像的显示处理>
随后,将参考在图10中的流程图来描述使用在图9中的图像处理装置来进行的多视点图像的显示处理。另外,在图10中的流程图中的步骤S61至S69和S72的处理与在图2的流程图中的步骤S1至S9和S12的处理相同,将省略其说明。
即,当通过步骤S61至S69的处理来向显示单元27供应多视点图像或双视点图像时,在步骤S70中,显示单元27的柱状透镜间距计算单元101根据所需视点的数量N计算在柱状透镜103中的不均匀间距(间隙),并且向柱状透镜间距控制单元102供应计算结果。另外,该计算方法对应于上述的表达式(3),将省略其说明。
在步骤S71中,柱状透镜间距控制单元102被设置使得通过控制柱状透镜103的施加电压来以从柱状透镜间距计算单元101供应的间距来提供不均匀部分。
根据上述处理,能够发挥与图1的图像处理装置11相同的效果,即使取代视差屏障63使用柱状透镜103。另外,柱状透镜103具有比视差屏障63高的要透射的光强,观众能够在那个程度上观看明亮的立体图像。而且,类似于在图5中的图像处理装置11,能够通过下述方式来显示与观众的位置对应的双视点图像:提供观众位置检测单元81,在图9中的图像处理装置11中提供取代N视点图像产生单元43和选择输出单元44的N视点图像产生单元91和选择输出单元92。
如上所述,根据本技术,能够以与观众的数量对应的适当的分辨率来显示多视点图像。
同时,可以使用硬件来执行上述系列的处理,然而,也可以使用软件来执行该系列处理。当使用软件来执行该系列处理时,通过从记录介质安装多种程序等来向在内置于专用硬件的计算机或例如可以执行多个功能的通用个人计算机安装配置该软件的程序。
图11示出通用个人计算机的配置示例。个人计算机包括内置CPU(中央处理单元(即,硬件处理器))1001。CPU1001通过总线1004与输入/输出接口1005连接。总线1004与ROM(只读存储器(即,存储介质))1002和RAM(随机存取存储器)1003连接。
输入/输出接口1005与下述部分连接:用于输入用户操作命令的键盘;由诸如鼠标的输入装置形成的输入单元1006;输出单元1007,用于向显示装置输出处理操作屏幕或处理结果的图像;存储单元1008,其由用于存储程序或各种数据的硬盘驱动器等形成;以及通信单元1009,其由LAN(局域网)适配器等形成。并且,输入/输出接口1005通过由因特网代表的网络来执行通信处理。另外,磁盘(包括软盘)、光盘(包括CD-ROM(致密盘-只读存储器)和DVD(数字通用盘))、磁光盘(包括MD(微型盘))或相对于诸如半导体存储器的可移除介质1011读取和写入数据的驱动器1010连接到输入/输出接口。
CPU1001根据在ROM1002中存储的程序(即,指令)来执行各种处理,或者从磁盘、光盘、磁光盘或诸如半导体存储器的可移除介质1011(其任何一个构成永久的计算机可读存储介质)读出的多种程序(即,指令)被安装在存储单元1008中,并且被从存储单元1008加载到RAM1003。另外,RAM1003适当地存储当CPU1001执行各种处理时所需的数据等。
另外,在本申请中,描述在记录介质中记录的程序的步骤包括单独或也并行执行的处理,即使不必然以时间系列来处理它们,并且不必说,根据所述顺序来包括以时间系列执行的处理。
另外,本技术可以具有下面描述的配置。
(1)一种设备,包括:
硬件处理器;以及
存储介质,所述存储介质耦合到所述处理器,并且存储指令,所述指令当被所述处理器执行时使得所述设备:
确定观众的数量;
基于观众的数量来计算视点的数量;以及
产生与所述视点对应的多个图像。
(2)(1)的设备,其中,所述存储介质存储指令,所述指令当被所述处理器执行时使得所述设备向显示器输出所述多个图像。
(3)(2)的设备,包括所述显示器。
(4)(1)至(3)中任一的设备,其中,所述存储介质存储指令,所述指令当被所述处理器执行时使得所述设备从左眼图像和右眼图像产生所述多个图像。
(5)(1)至(4)中任一的设备,其中,所述存储介质存储指令,所述指令当被所述处理器执行时使得所述设备基于观众图像来确定观众的数量。
(6)(5)的设备,其中,所述存储介质存储指令,所述指令当被所述处理器执行时使得所述设备通过检测在所述观众图像中的面部的数量来确定观众的数量。
(7)(5)或(6)的设备,包括成像单元,用于捕获所述观众图像。
(8)(1)至(7)中任一的设备,其中,所述存储介质存储指令,所述指令当被所述处理器执行时使得所述设备通过从其他图像内插或外插所述多个图像来产生所述多个图像。
(9)(1)至(4)中任一的设备,其中,所述存储介质存储指令,所述指令当被所述处理器执行时使得所述设备基于观众位置来产生所述多个图像。
(10)(9)的设备,包括成像单元,用于捕获观众图像,其中,所述存储介质存储指令,所述指令当被所述处理器执行时使得所述设备基于所述观众图像来确定所述观众位置。
(11)(1)至(10)中任一的设备,其中,所述存储介质存储指令,所述指令当被所述处理器执行时使得所述设备基于视点的数量来计算用于控制视差屏障的间距。
(12)(11)的设备,包括所述视差屏障。
(13)(1)至(10)中任一的设备,其中,所述存储介质存储指令,所述指令当被所述处理器执行时使得所述设备基于视点的数量来计算用于控制柱状透镜的间距。
(14)(13)的设备,包括所述柱状透镜。
虽然已经参考附图详细描述了一些实施例,但是本公开不限于这样的实施例。本领域内的技术人员应当明白,可以根据设计要求和其他因素来进行各种修改、组合、子组合和改变,只要它们在所附的权利要求或其等同物的范围内。而且,应当明白,在此使用的不定冠词“一个”在包含连接词“包括”、“包含”和/或“具有”的开放权利要求中表示“一个或多个”。
附图标记列表
11:图像处理装置
21:成像单元
22:面部图像检测单元
23:观众数量检测单元
24:所需视点数量检测单元
25-1:右眼图像获得单元
25-2:左眼图像获得单元
26:多视点图像产生单元
27:显示单元
41:双视点确定单元
42:双视点图像输出单元
43:N视点图像产生单元
44:选择输出单元
61:视差屏障间距计算单元
62:视差屏障间距控制单元
63:视差屏障
64:显示像素阵列设置单元
65:显示器
81:观众位置检测单元
82:多视点图像获得单元
91:N视点图像选择单元
101:柱状透镜间距计算单元
102:柱状透镜间距控制单元
103:柱状透镜
Claims (16)
1.一种设备,包括:
硬件处理器;以及
存储介质,所述存储介质耦合到所述处理器,并且存储指令,所述指令当被所述处理器执行时使得所述设备:
确定观众的数量;
基于观众的数量来计算视点的数量;以及
产生与所述视点对应的多个图像。
2.根据权利要求1所述的设备,其中,所述存储介质存储指令,所述指令当被所述处理器执行时使得所述设备向显示器输出所述多个图像。
3.根据权利要求2所述的设备,包括所述显示器。
4.根据权利要求1所述的设备,其中,所述存储介质存储指令,所述指令当被所述处理器执行时使得所述设备从左眼图像和右眼图像产生所述多个图像。
5.根据权利要求1所述的设备,其中,所述存储介质存储指令,所述指令当被所述处理器执行时使得所述设备基于观众图像来确定观众的数量。
6.根据权利要求5所述的设备,其中,所述存储介质存储指令,所述指令当被所述处理器执行时使得所述设备通过检测在所述观众图像中的面部的数量来确定观众的数量。
7.根据权利要求6所述的设备,包括成像单元,用于捕获所述观众图像。
8.根据权利要求1所述的设备,其中,所述存储介质存储指令,所述指令当被所述处理器执行时使得所述设备通过从其他图像内插或外插所述多个图像来产生所述多个图像。
9.根据权利要求1所述的设备,其中,所述存储介质存储指令,所述指令当被所述处理器执行时使得所述设备基于观众位置来产生所述多个图像。
10.根据权利要求9所述的设备,包括成像单元,用于捕获观众图像,其中,所述存储介质存储指令,所述指令当被所述处理器执行时使得所述设备基于所述观众图像来确定所述观众位置。
11.根据权利要求1所述的设备,其中,所述存储介质存储指令,所述指令当被所述处理器执行时使得所述设备基于视点的数量来计算用于控制视差屏障的间距。
12.根据权利要求11所述的设备,包括所述视差屏障。
13.根据权利要求1所述的设备,其中,所述存储介质存储指令,所述指令当被所述处理器执行时使得所述设备基于视点的数量来计算用于控制柱状透镜的间距。
14.根据权利要求13所述的设备,包括所述柱状透镜。
15.一种方法,包括:
确定观众的数量;
基于观众的数量来计算视点的数量;以及
产生与所述视点对应的多个图像。
16.一种用于存储指令的永久计算机可读存储介质,所述指令当被所述处理器执行时使得所述设备:
确定观众的数量;
基于观众的数量来计算视点的数量;以及
产生与所述视点对应的多个图像。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011132865A JP2013005135A (ja) | 2011-06-15 | 2011-06-15 | 画像処理装置および方法、並びにプログラム |
JP2011-132865 | 2011-06-15 | ||
PCT/JP2012/003764 WO2012172766A1 (en) | 2011-06-15 | 2012-06-08 | Image processing device and method thereof, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
CN103597824A true CN103597824A (zh) | 2014-02-19 |
Family
ID=47356773
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201280028044.4A Pending CN103597824A (zh) | 2011-06-15 | 2012-06-08 | 图像处理装置及其方法和程序 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20140071237A1 (zh) |
JP (1) | JP2013005135A (zh) |
CN (1) | CN103597824A (zh) |
WO (1) | WO2012172766A1 (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102010009737A1 (de) * | 2010-03-01 | 2011-09-01 | Institut für Rundfunktechnik GmbH | Verfahren und Anordnung zur Wiedergabe von 3D-Bildinhalten |
CN104104934B (zh) * | 2012-10-04 | 2019-02-19 | 陈笛 | 无眼镜多观众三维显示的组件与方法 |
CN103118267B (zh) * | 2013-01-25 | 2015-06-03 | 明基材料有限公司 | 自动调整三维影像显示视角的显示系统 |
JP2015130582A (ja) * | 2014-01-07 | 2015-07-16 | 日本電信電話株式会社 | 映像提供装置 |
KR20160025922A (ko) * | 2014-08-28 | 2016-03-09 | 삼성전자주식회사 | 영상 처리 방법 및 장치 |
KR102415502B1 (ko) * | 2015-08-07 | 2022-07-01 | 삼성전자주식회사 | 복수의 사용자를 위한 라이트 필드 렌더링 방법 및 장치 |
EP3316575A1 (en) * | 2016-10-31 | 2018-05-02 | Thomson Licensing | Method for providing continuous motion parallax effect using an auto-stereoscopic display, corresponding device, computer program product and computer-readable carrier medium |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040233275A1 (en) * | 2003-03-20 | 2004-11-25 | Seijiro Tomita | Stereoscopic image picking up and display system |
JP2007096951A (ja) * | 2005-09-29 | 2007-04-12 | Toshiba Corp | 多視点画像作成装置、多視点画像作成方法および多視点画像作成プログラム |
CN101437170A (zh) * | 2007-11-13 | 2009-05-20 | 学校法人东京电机大学 | 多眼视图像生成系统以及多眼视图像生成方法 |
CN101895779A (zh) * | 2010-07-23 | 2010-11-24 | 深圳超多维光电子有限公司 | 立体显示方法和系统 |
WO2011001372A1 (en) * | 2009-06-30 | 2011-01-06 | Koninklijke Philips Electronics N.V. | Directional display system |
JP2011081269A (ja) * | 2009-10-08 | 2011-04-21 | Nikon Corp | 画像表示装置および画像表示方法 |
US20110128356A1 (en) * | 2009-11-30 | 2011-06-02 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Method for displaying image information and autostereoscopic screen |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0678342A (ja) * | 1992-08-24 | 1994-03-18 | Ricoh Co Ltd | 立体表示装置 |
JPH06148763A (ja) * | 1992-11-12 | 1994-05-27 | Hitachi Ltd | 多人数観測用レンチキュラ立体表示方式 |
JP3397602B2 (ja) * | 1996-11-11 | 2003-04-21 | 富士通株式会社 | 画像表示装置及び方法 |
EP1087627A3 (en) * | 1999-09-24 | 2004-02-18 | SANYO ELECTRIC Co., Ltd. | Autostereoscopic image display device |
KR20040026693A (ko) * | 2001-07-27 | 2004-03-31 | 코닌클리케 필립스 일렉트로닉스 엔.브이. | 관찰자 추적 시스템을 구비한 오토스테레오스코픽 이미지디스플레이 |
GB0119176D0 (en) * | 2001-08-06 | 2001-09-26 | Ocuity Ltd | Optical switching apparatus |
JP2005141102A (ja) * | 2003-11-07 | 2005-06-02 | Pioneer Electronic Corp | 立体的二次元画像表示装置及び方法 |
TW200739129A (en) * | 2006-03-30 | 2007-10-16 | Sanyo Electric Co | Optical filter and image displaying device using the same |
EP2292018B1 (en) * | 2008-04-22 | 2012-06-20 | 3ality, Inc. | Position-permissive autostereoscopic display systems and methods |
US20090282429A1 (en) * | 2008-05-07 | 2009-11-12 | Sony Ericsson Mobile Communications Ab | Viewer tracking for displaying three dimensional views |
JP4669032B2 (ja) * | 2008-09-08 | 2011-04-13 | 富士フイルム株式会社 | 画像処理装置および方法並びにプログラム |
WO2010049868A1 (en) * | 2008-10-28 | 2010-05-06 | Koninklijke Philips Electronics N.V. | A three dimensional display system |
GB0901084D0 (en) * | 2009-01-22 | 2009-03-11 | Trayner David J | Autostereoscopic display |
US8199186B2 (en) * | 2009-03-05 | 2012-06-12 | Microsoft Corporation | Three-dimensional (3D) imaging based on motionparallax |
JP2010282090A (ja) * | 2009-06-05 | 2010-12-16 | Sony Corp | 立体表示装置 |
JP2011077679A (ja) * | 2009-09-29 | 2011-04-14 | Fujifilm Corp | 立体画像表示装置 |
KR101073512B1 (ko) * | 2010-05-20 | 2011-10-17 | 한국과학기술연구원 | 시역 확장을 이용한 3차원 영상 표시 장치 |
US9030536B2 (en) * | 2010-06-04 | 2015-05-12 | At&T Intellectual Property I, Lp | Apparatus and method for presenting media content |
US9291830B2 (en) * | 2011-02-27 | 2016-03-22 | Dolby Laboratories Licensing Corporation | Multiview projector system |
-
2011
- 2011-06-15 JP JP2011132865A patent/JP2013005135A/ja active Pending
-
2012
- 2012-06-08 US US14/115,043 patent/US20140071237A1/en not_active Abandoned
- 2012-06-08 CN CN201280028044.4A patent/CN103597824A/zh active Pending
- 2012-06-08 WO PCT/JP2012/003764 patent/WO2012172766A1/en active Application Filing
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040233275A1 (en) * | 2003-03-20 | 2004-11-25 | Seijiro Tomita | Stereoscopic image picking up and display system |
JP2007096951A (ja) * | 2005-09-29 | 2007-04-12 | Toshiba Corp | 多視点画像作成装置、多視点画像作成方法および多視点画像作成プログラム |
CN101437170A (zh) * | 2007-11-13 | 2009-05-20 | 学校法人东京电机大学 | 多眼视图像生成系统以及多眼视图像生成方法 |
WO2011001372A1 (en) * | 2009-06-30 | 2011-01-06 | Koninklijke Philips Electronics N.V. | Directional display system |
JP2011081269A (ja) * | 2009-10-08 | 2011-04-21 | Nikon Corp | 画像表示装置および画像表示方法 |
US20110128356A1 (en) * | 2009-11-30 | 2011-06-02 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Method for displaying image information and autostereoscopic screen |
CN101895779A (zh) * | 2010-07-23 | 2010-11-24 | 深圳超多维光电子有限公司 | 立体显示方法和系统 |
Also Published As
Publication number | Publication date |
---|---|
WO2012172766A1 (en) | 2012-12-20 |
JP2013005135A (ja) | 2013-01-07 |
US20140071237A1 (en) | 2014-03-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5933931B2 (ja) | 設定メニューを表示する方法及び対応するデバイス | |
CN102056003B (zh) | 使用主动亚像素渲染的高密度多视点图像显示系统及方法 | |
CN103597824A (zh) | 图像处理装置及其方法和程序 | |
CN103595987B (zh) | 立体图像显示装置、图像处理装置及图像处理方法 | |
CN103873844B (zh) | 多视点自动立体显示器及控制其最佳观看距离的方法 | |
KR102140080B1 (ko) | 다시점 영상 디스플레이 장치 및 제어 방법 | |
US9520106B2 (en) | Multi-view autostereoscopic image display and method of controlling optimal viewing distance thereof | |
KR102121389B1 (ko) | 무안경 3d 디스플레이 장치 및 그 제어 방법 | |
US8564647B2 (en) | Color management of autostereoscopic 3D displays | |
US10694173B2 (en) | Multiview image display apparatus and control method thereof | |
CN102183840A (zh) | 显示系统和方法 | |
CA2666393A1 (en) | Method and device for the creation of pseudo-holographic images | |
CN103392342A (zh) | 视区调整的方法和装置、能实现立体显示视频信号的设备 | |
KR102670407B1 (ko) | 무안경 입체 영상 표시장치 | |
US9560342B2 (en) | Autostereoscopic multi-view image display apparatus | |
TW201322733A (zh) | 影像處理裝置、立體影像顯示裝置、影像處理方法及影像處理程式 | |
KR20170053270A (ko) | 무안경 3d 디스플레이 장치 및 그 제어 방법 | |
EP3182702B1 (en) | Multiview image display device and control method therefor | |
KR20150121386A (ko) | 입체 영상 표시 장치 및 영상 처리 방법 | |
US20160014400A1 (en) | Multiview image display apparatus and multiview image display method thereof | |
KR20120018864A (ko) | 3차원 컨텐츠를 출력하는 멀티비전 디스플레이 기기의 영상 처리 방법 및 그 방법을 채용한 멀티비전 디스플레이 기기 | |
KR20170036476A (ko) | 다시점 영상 디스플레이 장치 및 그 제어 방법 | |
US10115220B2 (en) | Method and apparatus for changing 3D display based on rotation state | |
KR20150012976A (ko) | 다시점 영상 처리 장치 및 그 영상 처리 방법 | |
KR102293837B1 (ko) | 입체영상표시장치 및 이의 동작방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20140219 |