CN101491108A - 用于三维图像处理的装置、方法和计算机程序产品 - Google Patents

用于三维图像处理的装置、方法和计算机程序产品 Download PDF

Info

Publication number
CN101491108A
CN101491108A CNA2007800261315A CN200780026131A CN101491108A CN 101491108 A CN101491108 A CN 101491108A CN A2007800261315 A CNA2007800261315 A CN A2007800261315A CN 200780026131 A CN200780026131 A CN 200780026131A CN 101491108 A CN101491108 A CN 101491108A
Authority
CN
China
Prior art keywords
parameter
image
unit
visual point
observation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CNA2007800261315A
Other languages
English (en)
Inventor
三原功雄
沼崎俊一
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Publication of CN101491108A publication Critical patent/CN101491108A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Processing Or Creating Images (AREA)
  • Liquid Crystal Display Device Control (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

一种用于处理三维图像的装置,该装置包括:规定值获取单元,其获取立体显示单元的特性作为规定参数,所述立体显示单元显示多视点图像,所述多视点图像是通过根据所述特性来映射在多个视点图像中所包含的每个像素位置而创建的;观察值获取单元,其获取观察参数,所述观察参数表示在立体显示单元上所显示的立体图像的观察值;计算单元,其基于所述规定参数来计算表示所述映射的逆映射的变换信息;观察值变换单元,其基于变换信息将观察参数变换为具有与所述视点图像相同维度的经变换参数;以及控制单元,其基于经变换参数,针对每个视点图像而控制对该视点图像执行的与立体图像的每个像素位置相对应的图像处理。

Description

用于三维图像处理的装置、方法和计算机程序产品
技术领域
本发明涉及用于三维图像处理的一种装置、方法和计算机程序产品,其中所述三维图像处理对立体图像执行图像处理。
背景技术
双目系统和多目系统是已知的用于为裸眼显示三维图像的系统。这两种系统都包括布置在显示屏表面上的光线控制元件,例如透镜片(仅在水平方向上具有透镜特征的凹槽型透镜(troffer lens)阵列)或者视差栅栏。这两种系统通过为左右眼分别呈现具有双目视差的二维图像来使观察者能够感知立体图像(该图像仅能够从一个方向上感知为立体的)。双目系统使用仅来自单个视点方向的两个二维图像使观察者感知到立体图像。作为对比,多目系统能够例如使用来自三个视点方向的四个二维图像使观察者感知到立体图像。换而言之,多目系统能够提供不连续的运动视差(观察在与观察者物理运动相反的方向上进行运动的对象的现象)。
根据M.G.Lippmann,“La Photographie Integrale”,comptes RendusAcademie des Sciences,Vol 146,pp.446-451(1908),积分图片成像(IntegralPhoto Imaging,IP)系统已知是一种能够用进一步改进的运动视差来显示立体图像的技术。根据该技术,首先准备等同于立体图片中的像素的透镜阵列。将胶片放置在与物体之间的距离为透镜阵列的焦距的位置上,然后拍摄该物体。将用于拍摄的透镜阵列放置在该胶片上,以再生该物体的图像。如果该胶片具有足够的分辨率,则该IP系统就是理想系统,理想系统能够产生完全浮动的图像而不会类似全息摄影那样限制观察点。
此外,最近使用的是积分成像(II)系统,其使用诸如液晶显示器(LCD)之类的平板显示器来替代胶片。根据II系统,需要从多个视点(数量等于希望实现的视差)来拍摄期望形成立体图像的物体图像,并且使用这些图像来创建用于实现立体图像的图像(以下称为“多视点图像”)。以下,将由多个相机(例如平行布置的数量等于期望实现的视差的相机构成的相机阵列)中每一个相机以各自的不同视点(视差)所拍摄的每个图像以及从多个视点中每一个所绘制的每一个计算机图形(CG)图像称为“视点图像”。通过使用多个这种视点图像(以下称为“视点图像组”)并且基于某种规则将在视点图像中包含的每个像素的位置(以下称为“像素位置”)映射到一个图像上,来创建多视点图像。
为了从视点图像组创建多视点图像,必须根据三维图像显示设备的特性,逐个子像素地将每个视点图像中包含的每个像素的位置重新布置为特定排列。其原因是,由于根据II系统,与IP系统类似,通过透镜阵列(例如透镜片)来再生多视点图像的光,从而根据透镜阵列的光学特性来确定用于显示立体图像的像素位置。另外,为了在平板显示器上实现多个视差,能够使用与普通滤色器结构不同的一种滤色器结构,例如根据JP-A2006-98779(KOKAI)。在此情况下,根据滤色器的特性,逐个子像素地确定在多视点图像中的每个像素位置。
在一些情况中,能够对所显示的立体图像执行图像处理,例如噪声降低以及混合。在这种图像处理中,根据特定的图像处理来处理与立体图像相关的每一个视点图像。
然而,为了创建如上所述的多视点图像,必须基于透镜阵列的特性和与三维显示设备相关的滤色器的特性来重新排列包含在每个视点图像中的像素。根据如上所述的常规技术,像素的重新排列未被考虑,而简单地对每个视点图像执行处理,该处理并不表示适合的图像处理,因此有可能会造成所显示的立体图像质量下降。
以下参考一个将会降低帧效应的图像处理示例来解释图像处理造成立体图像质量下降的情况。在此,“帧效应”表示以下现象。当立体图像被呈现在三维显示设备的显示表面的外边缘之外时,尤其是当立体图像被呈现为跨越在显示设备的显示区域的内部和外部之间时,在显示区域的外边缘上立体图像发生不连续的消失,并由此使观察者产生不适的感觉。在此情况中,为了降低这种不适的感觉,执行处理以便使所显示的立体图像随着逐渐靠近显示区域的外边缘而逐渐变得透明,并且当到达显示区域的外边缘时最终变为完全透明的。
当执行这种图像处理时,指示在三维对象与显示区域的外边缘之间距离的参数是关键指标。其原因在于,必须根据到显示区域的外边缘的实际距离来改变要在显示区域中进行显示的多视点图像的透明度。通过在考虑了透镜的特性以及三维显示设备的调色板的特性的情况下重新排列在每个视点图像中包含的像素位置,来创建在显示表面上所显示的多视点图像。因此,当观察者观看立体图像时的显示区域中的相邻像素(或者在像素中包含的每个子像素的元件)在重新排列之前可能在视点图像中并不彼此相邻。此外,所述相邻像素并非必然包含在同一视点图像中,而是可以以分散方式包含在多个视点图像中。由此,不考虑像素信息的重新排列而简单地对每个视点图像所执行的图像处理并不表示合适的图像处理,因此有可能会降低所显示的立体图像的质量。
发明内容
根据本发明的一个方面,一种用于处理三维图像的装置,该装置包括:规定值获取单元,其获取立体显示单元的特性作为规定参数,所述立体显示单元显示多视点图像,所述多视点图像是通过根据所述立体显示单元的所述特性来映射在多个视点图像中所包含的每个像素位置而创建的;观察值获取单元,其获取观察参数,所述观察参数表示在所述立体显示单元上所显示的立体图像的观察值;计算单元,其基于所述规定参数来计算表示所述映射的逆映射的变换信息;观察值变换单元,其基于所述变换信息将所述观察参数变换为具有与所述视点图像相同维度的经变换参数;以及控制单元,其基于所述经变换参数,针对每个所述视点图像而控制对视点图像执行的与所述立体图像的每个像素位置相对应的图像处理。
根据本发明的另一方面,一种用于处理三维图像的方法,该方法包括:获取立体显示单元的特性作为规定参数,所述立体显示单元显示多视点图像,所述多视点图像是通过根据所述立体显示单元的所述特性来映射在多个视点图像中所包含的每个像素位置而创建的;获取观察参数,所述观察参数表示在所述立体显示单元上所显示的立体图像的观察值;基于所述规定参数来计算表示所述映射的逆映射的变换信息;基于所述变换信息将所述观察参数变换为具有与所述视点图像相同维度的经变换参数;以及基于所述经变换参数,针对每个所述视点图像而控制对视点图像执行的与所述立体图像的每个像素位置相对应的图像处理。
根据本发明的再另一方面的计算机程序产品使计算机执行根据本发明的方法。
附图说明
图1是根据本发明的第一实施例的三维图像处理装置的框图;
图2是该三维图像处理装置的功能框图;
图3是三维图像显示装置的透视图;
图4是用于解释像素位置的关系的示意图;
图5是用于解释像素位置的关系的示意图;
图6是图像处理控制单元所执行的操作的流程图;
图7是用于解释像素位置的关系的示意图;
图8是根据本发明的第二实施例的三维图像处理装置的功能框图;
图9是图像处理控制单元所执行的操作的流程图;以及
图10是根据本发明的第三实施例的三维图像处理装置的功能框图。
具体实施方式
以下将结合附图详细描述本发明的各个示例性实施例。
图1是根据第一实施例的三维图像处理装置100的框图。如图1所示,三维图像处理装置100包括:用于处理信息的中央处理单元(CPU)1、用于存储基本输入输出系统(BIOS)的只读存储器(ROM)2、作为用于以可覆写方式存储各种类型的数据的主存储器的随机存取存储器(RAM)3、以及用于存储三维图像内容(视点图像组等等)以及与三维图像处理相关的计算机程序(以下称为“三维处理程序”)的硬盘(HDD)4。
CPU1根据存储在HDD4中的三维处理程序执行计算,并总体控制三维图像处理装置100的各个单元。具体而言,CPU1根据由存储在HDD4中的多个视点图像构成的视点图像组来创建多视点图像,并使三维图像显示设备200显示该多视点图像。以下解释CPU1根据该三维处理程序所执行的根据第一实施例的特征处理。
图2是三维图像处理装置100的功能框图。如图2所示,CPU1通过根据三维处理程序控制各个单元,在主存储器上创建观察参数获取单元11、规定参数获取单元12、变换信息计算单元13、观察参数变换单元14、图像处理控制单元15、图像处理条件设定单元16、以及图像处理单元17。
观察参数获取单元11获取当三维图像显示设备200将三维图像处理装置100所创建的多视点图像显示为立体图像时所观察到的各种参数(以下称为“观察参数”)。观察参数包括:例如在三维图像显示设备200的立体显示单元230上所显示的立体图像的大小和位置,以及形成该立体图像的各个像素的大小和位置(例如在每个像素与立体显示单元230的外边缘之间的距离)。观察参数是能够通过观察立体图像获取的信息。
观察参数获取单元11能够使用任何方法获取观察参数。例如,可以将预先观察到的观察参数存储在诸如非易失性存储器之类的存储设备中,然后观察参数获取单元11能够从该存储设备获取观察参数。在此情况中,该存储设备可以集成到用于显示立体图像的三维图像显示设备200中,并且观察参数获取单元11能够经由三维图像显示设备200和接口来获得观察参数。
作为替代,观察参数获取单元11能够从连接到网络(例如因特网)的外部数据库设备等等、经由连接到该网络的通信设备获取用于显示立体图像的三维图像显示设备200的观察参数。此外,可以由用户经由诸如键盘之类的输入设备(未示出)的输入来获得观察参数。
以下,将解释三维图像显示设备200。如图3所示,三维图像显示设备200包括显示屏210和光线控制元件220。显示屏210显示从三维图像处理装置100(未示出)输入的多视点图像。光线控制元件220例如为透镜片,用于控制来自显示屏210的光线。显示屏210包括显示设备(例如液晶显示器(LCD))的图像显示元件211以及滤色器层212。以下,将显示屏210和光线控制元件220一起称为立体显示单元230。
图像显示元件211显示从三维图像处理装置100输入的多视点图像。通过滤色器层212和光线控制元件220来观察所显示的多视点图像,从而将与多视点图像相对应的立体图像以视觉方式呈现给观察者的眼睛。在第一实施例中,三维图像处理装置100和三维图像显示设备200是分开的。然而,本发明并不局限于此,而是也可以将三维图像处理装置100集成到三维图像显示设备200中。
当三维图像显示设备200显示立体图像中,在实际中,在立体显示单元230的表面上的空间(光线空间)中显示多视点图像的光(以下称为多视点图像光)。当显示多视点图像光时,在图像显示元件211上所显示的多视点图像中包含的每个像素位置和在光线空间中所显示的多视点图像光的每个像素位置之间并不存在镜像关系,即并不存在于同一位置。其理由在于,滤色器层212和光线控制元件220叠置在三维图像显示设备200的图像显示元件211上,并且从图像显示元件211发出的光线的方向由于这些组件的特征而发生改变。
图4是用于解释在立体显示单元230上的像素位置与显示屏210上的像素位置之间的关系的示意图。在图4中,滤色器层212包括多个像素,每个像素都具有3比1的长宽比(3Pp:Pp)。在滤色器层212上,像素以矩阵形式排列在横向直线和纵向直线上。每个像素都包括红色(R)、绿色(G)和蓝色(B),它们在横向方向上在同一行中交替排列。另外,将每个像素排列为使R、G和B在纵向方向上在同一列中交替出现。滤色器层212被配置为呈现由在纵向方向上排列的三个子像素构成的一个颜色。由于在一个透镜间距(图4中的Ps)中横行排列了18组这种纵向排列的三个子像素,因此实现了给出18个视差的立体图像。
假设在立体显示单元230上即在光线空间中,观察在特定位置P上存在的像素。在此刻,在显示屏210上与位置P相对应的像素包括三个子像素,例如在区域P’中存在的纵向排列的三个子像素。然而,在通过光线控制元件220观察到的像素位置与在显示屏210上的像素位置之间的关系并不局限于图4中所示的示例。
图5是用于解释在显示屏210上每个子像素的像素位置与在视点图像组中每个子像素的像素位置之间的关系的示意图。在图5所示的示例中,在显示屏210上的区域P’中存在的三个子像素由视点图像组的视点图像m中的三个横向相邻的像素构成,其中该视点图像组由n个视点图像组成(m和n都是整数,并且m<n)。图5还示出了这样的一种状态:即,在显示屏210上纵向排列的三个子像素(R、G和B)被变换在在视点图像m中横向相邻的三个子像素。
这样,在根据滤色器层212的特性和光线控制元件220的特性而确定的具体规则之下,执行从视点图像中包含的每个子像素的每个像素位置到形成显示在显示屏210上的图像(即多视点图像)的每个子像素的每个像素位置的映射。因此,通过在该具体规则之下创建多视点图像,能够将多视点图像的立体图像提供给观察者。
滤色器层212的布置并不局限于图5中所示的示例。例如,如果滤色器层212具有特殊的布置,能够将包含在每个视点图像中的像素划分为各自的RGB元素,并且能够在从该原始像素划分出多个像素的状态下,在显示屏210上观察该像素。
返回到图1,规定参数获取单元12获取用于指示三维图像显示设备200所包括的立体显示单元230(滤色器层212、光线控制元件220和图像显示元件211)的规格和特性的参数(以下称为“规定参数”)。该规定参数包括例如滤色器层的布置和子像素的纵向-横向大小,光线控制元件220的透镜间距和焦点距离、以及图像显示元件211的大小和分辨率,这些参数表示根据诸如产品规格而定义的信息。
规定参数获取单元12能够使用任何方法获得规定参数。例如,能够将与三维图像显示设备200的各个单元相关的多种规定参数预先存储在诸如非易失性存储器之类的存储设备中,然后规定参数获取单元12能够从该存储设备中获取相关的规定参数。在该情况中,可以将存储设备集成到三维图像显示设备200中,并且规定参数获取单元12能够经由三维图像显示设备200和接口获得规定参数。如果规定参数本身并未存储在存储设备中,则规定参数获取单元12能够获取构成三维图像显示设备200的每个组件的规格(以下称为“设计数据”),并通过执行算术运算、物理运算等等来根据设计数据获取规定参数。
作为替代,规定参数获取单元12能够从连接到网络(例如因特网)的外部数据库设备等等、经由可连接到该网络的通信设备获取规定参数。例如,如果光学组件的制造商在网站上公开了光学组件的规格,则规定参数获取单元12就能够经由网络搜索设计数据,并且能够用搜索到的设计数据计算规定参数,然后能够获取规定参数。此外,规定参数获取单元12可以由用户经由诸如键盘之类的输入设备(未示出)输入的设计数据来获得规定参数。
变换信息计算单元13计算表示逆映射的变换信息,该逆映射是用于基于规定参数获取单元12所获取的规定参数从视点图像组创建多视点图像的映射的逆操作。以下将解释变换信息计算单元13的操作原理。
当II系统的三维图像显示设备200显示立体图像时,其基于规定参数获取单元12所获取的规定参数来确定呈现立体图像所需的视差数量,具体而言是滤色器层212的结构与光线控制元件220的透镜间距之间的关系。在确定了视差数量之后,基于视差数量和规定参数来确定构成视点图像组的视点图像总数量以及每个视点图像的图像大小。基于由此确定的总数量和大小,通过使用相机阵列进行拍摄或者通过使用CG处理进行绘制,来创建视点图像组。
然后,通过使用指示三维图像显示设备200所包括的滤色器层212、光线控制元件220、图像显示元件211等等的特性的规定参数,来确定用于创建要在实际显示面板上显示的立体图像的条件。具体而言,通过根据规定参数对在所准备的视点图像组中包含的像素的各个子像素进行重新排列,来创建要显示的多视点图像。
换而言之,当确定了三维图像显示设备200的规定参数时,就唯一地确定了用于将像素位置从视点图像组重新排列(变换)到多视点图像中的映射。相反地,能够计算逆映射。逆映射是用于根据最终进行显示以在实际显示面板上呈现立体图像的多视点图像中的每个子像素而推导出在视点图像组的视点图像中的原始像素位置。变换信息计算单元13通过使用由规定参数获取单元12获取的规定参数,来计算与逆映射相对应的变换信息。
观察参数变换单元14通过使用变换信息计算单元13所计算的变换信息,来变换(逆映射)由观察参数获取单元11所获取的观察参数。换而言之,通过使用变换信息计算单元13所计算的变换信息来变换观察参数,从而将观测参数(例如在立体图像中所包含的像素位置)的维度变换为视点图像组的维度(例如在每个视点图像中的像素位置)。
根据第一实施例,解释了当在显示表面上显示立体图像时的像素位置的示例,然而本发明并不局限于此。通常,当显示立体图像时,能够计算立体图像中的像素(构成三维形状的顶点上的像素,精确地说,其是基于不同于二维像素的概念,这是因为立体图像是三维空间中的图像)所对应的在视点图像组中的位置。
图像处理控制单元15基于观察参数变换单元14所变换的观察参数以及规定参数获取单元12所获取的规定参数,来针对每个视点图像而控制在HDD4中所存储的特定图像处理过程。
具体而言,图像处理控制单元15基于根据规定参数获取单元12所获取的规定参数而确定的视点总数量,针对每个视点将由观察参数变换单元14变换的参数输出到图像处理条件设定单元16。
图6是根据第一实施例的图像处理控制单元15所执行的操作流程图。开始,图像处理控制单元15执行初始设置,以设定计数器N,该计数器将视点数量计数为初始视点,即N=0(步骤S11)。然后,图像处理控制单元15将在由规定参数所确定的全部视点之中与当前计数器值(视点)N相对应的视点图像设定为要进行图像处理的对象(步骤S12)。
然后,图像处理控制单元15将与进行图像处理的视点N的视点图像相关的信息以及观察参数变换单元14所变换的参数(以下称为“变换参数”)输出到图像处理条件设定单元16(步骤S13)。
接下来,图像处理控制单元15等待由图像处理单元17输入的用于通知处理结束的通知信号(步骤S14中为“否”)。当输入了该通知信号时(步骤S14中为“是”),图像处理控制单元15转移到步骤S15中的处理。
在步骤S15,图像处理控制单元15确定是否用规定参数所确定的数量的所有视点都已经通过步骤S12到S14进行了处理。如果确定还没有对所有视点都完成处理(步骤S15中为“否”),则图像处理控制单元15将计数器N递增“1”,以便转移到下一个视点(步骤S16),然后返回到步骤S12。
另一方面,如果确定已经对所有视点都完成了处理(步骤S15中为“是”),则该处理结束。
返回到图1,图像处理条件设定单元16基于从图像处理控制单元15输入的信息,设置要由图像处理单元17执行的图像处理的处理条件(以下称为“图像处理条件”)。具体而言,图像处理条件设定单元16接收与进行处理的视点图像相关的信息以及经变换参数,然后基于该信息设置要应用于在进行处理的视点图像中包含的各个像素的图像处理条件。
作为图像处理条件设定单元16所执行的处理的一个示例,参考图7解释了被执行来减小帧效应的图像处理的情况。图7示出了在立体显示单元230上的像素位置与在视点图像组中的子像素的像素位置之间的关系。在此,(x,y)表示观察者所观察的立体显示单元230上的立体图像的像素位置。另外,(xm1,ym1,c1)、(xm2,ym2,c2)和(xm3,ym3,c3)表示观察参数变换单元14对像素位置(x,y)进行变换得到的像素位置。此外,xm1、ym2等等表示在视点m上的x-y坐标,而c1、c2和c3表示在该坐标上的相应子像素。例如,如果用RGB24比特来表示视点图像,则存在三个子像素,即R:8比特,G:8比特,以及B:8比特,并且c1、c2和c3分别对应于这些子像素。换而言之,(xm1,ym1,c1)表示在视点图像m中、坐标(xm1,ym1)上的像素中包含的子像素c1。
为了简化解释,在如上所解释的示例中,将立体显示单元230上的像素位置变换为在同一视点图像m中的多个子像素上,然而本发明并不局限于此。通常,观察参数变换单元14能够将在三维图像显示设备200中立体显示单元230上所显示的像素位置(x,y)变换(逆映射)为在各个不同视点图像m、n和1中的(xm1,ym1,c1)、(xn2,yn2,c2)和(x13,y13,c3)。
在该逆映射期间,为了减小帧效应,执行图像处理,该图像处理根据与立体显示单元230的显示区域的外边缘之间的距离来改变透明度。用等式表示了该图像处理所需的过程,例如等式(1)如下:
d=dist(x,y)
Figure A200780026131D00141
在此,dist(x,y)是用于获取在坐标(x,y)上的像素与显示区域外边缘之间的距离(或者与立体显示单元230上所显示的图像的边缘之间的距离)的函数。“A”和“B”分别是按照需要确定的常数。基于从这些值获得的透明度“a”的值,可以改变每个视点图像中包含的像素的透明度。当a是“0”时,像素是完全透明的,而当其是“1”时,像素是完全不透明的。当a是“0”或“1”之外的值且在坐标(x,y)上的像素的颜色为“c”时,经变换的“c’”被表示为c’=a×c+(1-a)×c0,其中c0是背景颜色。
如上所述,在立体显示单元230中观察到的像素的像素坐标(x,y)在视点图像中由三个子像素,即(xm1,ym1,c1)、(xm2,ym2,c2)和(xm3,ym3,c3)来表示。在该情况中,分别用dist(xm1,ym1)、dist(xm2,ym2)和dist(xm3,ym3)获得了在视点图像中的坐标与显示区域外边缘之间的相应距离。然而,由于在视点图像中与在立体显示单元230中单个像素相对应的三个子像素的像素位置是不同的,因此如果基于关于不同位置的距离来执行图像处理,则这三个像素的透明度的相应值彼此不同。
为此,图像处理条件设定单元16根据等式(1),通过使用距离d来计算在视点图像中的每个像素的透明度a,其中该距离d是在显示区域外边缘与在视点图像中与在立体显示单元230上所显示的单个像素相对应的三个像素之间的距离,该距离d是观察参数变换单元14根据在立体显示单元230上的单个像素与显示区域外边缘之间的距离进行变换得到值,并且其是作为观察参数而获取的。
因此,图像处理条件设定单元16将通过以上处理所创建(计算)的针对每个子像素的图像处理条件(例如在子像素级别上的卷积、滤波等等)输出到图像处理单元17。
在第一实施例中,作为图像处理的一个示例,解释了用以减小帧效应的透明度处理,然而本发明并不局限于此。可以类似地执行其他图像处理,例如噪声降低滤波或者低通滤波。
此外,在第一实施例中,解释了分别对每个像素或者每个子像素执行的图像处理,然而本发明并不局限于此。例如当使用在一个特定像素周围的像素的信息时,类似地执行图像处理。然而,在此情况中,需要针对每个子像素来执行处理。此外,由于并非必须要将在立体显示单元230中观察到的两个相邻像素变换到同一视点图像中,因此该图像处理能够使用存在于多个视点图像中的子像素的信息。
图像处理单元17基于由图像处理条件设定单元16设置的图像处理条件,针对在要进行处理的视点图像中包含的每个像素,对该视点图像执行特定的图像处理。
具体而言,图像处理单元17基于从图像处理控制单元15或图像处理条件设定单元16输入的与视点图像相关的信息,从HDD 4中获取要进行处理的视点图像。图像处理单元17基于图像处理条件设定单元16所设置的图像处理条件,针对在所获取的视点图像中包含的每个像素,对该视点图像执行特定的图像处理。在完成了处理之后,图像处理单元17将经过图像处理的视点图像覆写到HDD 4上,并向图像处理控制单元15输出用以通知该处理结束的信号。
如上所述,根据第一实施例,能够将用于指示与立体图像相关的观察值的观察参数变换为具有与视点图像相同维度的经变换参数,然后基于该经变换的观察参数和规定参数来控制对每个视点图像的图像处理。因此,能够对立体图像执行合适的图像处理,从而能够提高在立体显示单元上所显示的立体图像的质量。
根据第一实施例,通过关注于某个具体视点图像来解释图像处理的流程,然而,可以类似地对所有视点图像执行图像处理。此外,当观察者改变该观察者观察三维图像显示设备的位置时,或者当多个观察者观察三维图像显示设备时,一个(或多个)观察者进行观察的位置(视点)是不同的,从而针对用于观察的每个视点类似地执行图像处理。换而言之,针对三维图像显示设备所提供的所有视差方向,即所有视点图像类似地执行图像处理。
接下来,以下将解释根据第二实施例的三维图像处理装置。对与第一实施例中类似的各个组件给予了相同的参考数字,并省略了对其的解释。
图8是根据第二实施例的三维图像处理装置101的功能框图。在图8中所示的三维图像处理装置101中,CPU 1通过根据三维处理程序控制各个单元而在主存储器上创建观察参数获取单元11、规定参数获取单元12、变换信息计算单元13、观察参数变换单元14、图像处理控制单元15、图像处理条件设定单元16、图像处理单元17、经变换参数存储单元18以及经变换参数获取单元19。
根据第二实施例的观察参数变换单元14响应于从图像处理控制单元15输入的请求信号,基于变换信息来变换与该请求信号相关的观察参数,并将经变换的观察参数输出到图像处理控制单元15。
经变换参数存储单元18将由观察参数变换单元14变换得到的经变换的观察参数(以下称为“经变换参数”)存储到HDD 4中的特定存储区域中。在第二实施例中,将经变换参数存储在HDD 4中,然而本发明并不局限于此。例如,可以将经变换参数存储在RAM 3中,其是一个临时存储区域。此外,可以将经变换参数存储在连接到网络(例如因特网)上的计算机中。
经变换参数获取单元19响应于从图像处理控制单元15输入的该请求信号,从HDD 4中获取该请求信号所指示的经变换参数,并将所获取的经变换参数输出到图像处理控制单元15。如果经变换参数获取单元19不能从HDD 4获取到图像处理控制单元15所指示的经变换参数,精确而言,如果图像处理控制单元15所请求的经变换参数并没有被观察参数变换单元14所变换,则经变换参数获取单元19向图像处理控制单元15输出一个指示所请求的经变换参数无法获取的指示信号。
根据第二实施例的图像处理控制单元15从经变换参数获取单元19或者观察参数变换单元14接收经变换参数,并与第一实施例相类似地控制图像处理条件设定单元16和图像处理单元17。
图9是根据第二实施例的图像处理控制单元15所执行的操作的流程图。开始,图像处理控制单元15向经变换参数获取单元19输出一个请求信号,其请求与要由图像处理条件设定单元16和图像处理单元17执行的图像处理相关的经变换参数(步骤S21)。
然后,图像处理控制单元15确定是否从经变换参数获取单元19输入了经变换参数(步骤S22)。如果输入了经变换参数(步骤S22中为“是”),则图像处理控制单元15与第一实施例相类似地基于该经变换参数来控制图像处理条件设定单元16和图像处理单元17,然后结束该处理。
另一方面,如果输入了一个指示无法获取经变换参数的指示信号时(步骤S22中为“否”),图像处理控制单元15向观察参数变换单元14输出用于请求经变换参数的请求信号(步骤S24)。当从观察参数变换单元14输入了经变换参数时(步骤S25),图像处理控制单元15随后移动到步骤S23,与第一实施例相类似地控制图像处理条件设定单元16和图像处理单元17,然后结束该处理。
如上所述,根据第二实施例,该三维图像处理装置能够指示与立体图像相关的观察值的观察参数变换为具有与视点图像相同维度的经变换参数,并且能够基于该经变换的观察参数以及规定参数来控制对于每个视点图像的具体图像处理。因此,该三维图像处理装置能够对立体图像执行适当的图像处理,从而提高在立体显示单元上所显示的立体图像的质量。此外,由于该三维图像处理装置能够再次利用所存储的经变换参数,因此能够省略冗余计算,从而能够提高处理速度。
在第二实施例中,如果图像处理控制单元15请求了观察参数变换单元14未变换的经变换参数,则经变换参数获取单元19向图像处理控制单元15输出用以指示所请求的经变换参数无法获取的指示信号。然而本发明并不局限于此。例如,经变换参数存储单元18可以重新尝试向观察参数变换单元14请求由图像处理控制单元15所请求的经变换参数。
接下来,以下解释根据第三实施例的三维图像处理装置。对与第一实施例中类似的各个组件分配了相同的参考数字,并省略了对其的解释。
图10是根据第三实施例的三维图像处理装置102的功能框图。在图10中所示的三维图像处理装置102中,CPU 1通过根据三维处理程序控制各个单元,在主存储器上创建观察参数获取单元11、规定参数获取单元12、变换信息计算单元13、观察参数变换单元14、图像处理控制单元15、图像处理条件设定单元16、图像处理单元17和观察位置信息获取单元20。
观察位置信息获取单元20获取观察位置信息,该信息指示观察三维图像显示设备200(立体显示单元230)的观察者的观察位置。该观察位置信息是指示三维图像显示设备200与三维图像显示设备200的观察者之间的相对或绝对位置关系的信息。例如,该观察位置信息包括观察者的存在位置、观察者身体的方向(例如视线方向)、以及在观察者与三维图像显示设备200之间的距离。
在此情况中,观察位置信息获取单元20能够使用任何方法来获得观察位置信息。例如,通过使用头部跟踪系统或眼睛跟踪系统来检测观察者的头部或眼睛的位置,然后,观察位置信息获取单元20能够从该检测结果之中获得在观察者与三维图像显示设备200之间的位置关系作为观察位置信息。可替代地,拍摄观察者,例如使用相机进行拍摄,然后观察位置信息获取单元20能够通过使用已知的计算机视觉技术分析所拍摄的图像,来获取观察位置信息。在另一情况中,要求观察者佩戴发射机,然后观察位置信息获取单元20能够通过检测从该发射机发射的信号来获取观察位置信息。假设预先检测了三维图像显示设备200所在的位置。
根据第三实施例的观察参数变换单元14基于变换信息计算单元13所计算的变换信息以及观察位置信息获取单元20所获取的观察位置信息,来变换由观察参数获取单元11获取的观察参数。以下将解释观察参数变换单元14的操作原理。
可以根据由观察位置信息获取单元20所获取的观察位置信息来检测在观察者与三维图像显示设备200之间的位置关系。通过将对立体图像的显示限定在观察者所在的方向上而不是围绕三维图像显示设备200的所有方向上,就能够实现立体图像质量的提高。其原因在于,立体图像能够被偏转到观察者所在的方向上,具体而言,在显示立体图像的光线空间中的光束(light flux)能够被偏转到观察者所在的方向上。由此,就能够使得在立体显示单元230上所显示的立体图像的显示密度变得较高(高分辨率)。
当观察者根据如上所述的观察位置来偏转光线空间的密度时,除了三维图像显示设备200(立体显示单元230)的特性之外,观察者还需要推导出与观察位置相对应的新的变换信息。根据第三实施例的观察参数变换单元14基于观察位置信息,计算用于扭曲从中形成立体图像的光线空间的映射(通常,除了一对一之外,还可以一对多或多对一地执行映射)。然后,观察参数变换单元14通过将由变换信息计算单元13所计算的变换信息添加到该映射中,来计算新的变换信息。然后,观察参数变换单元14通过使用该新的变换信息,来变换由观察参数获取单元11所获取的观察参数。
具体而言,观察参数变换单元14基于由观察位置信息获取单元20获取的观察位置信息来计算矢量V(从三维图像显示设备200到观察者所在的方向),该矢量V是从在观察者与三维图像显示设备200之间的相对位置关系得到的。在变换信息计算单元13所计算的变换信息中,定义了显示立体图像的光线空间中的光束,以便将其均匀地配置到立体显示单元230上,这是因为要求将视域(能够看到立体图像的区域)设置的较宽。
另外,观察参数变换单元14基于由变换信息计算单元13所计算的变换信息,指定在从形成光线空间的立体显示单元230照射的多视点图像的光束之中的、与在基本等同于矢量V的方向上的光束相对应的、多视点图像(视点图像)上的像素位置。然后,观察参数变换单元14计算用于将立体图像的像素位置映射到指定像素位置上的新的变换信息(以下称为“观察位置变换信息”),并基于观察位置变换信息来变换由观察参数获取单元11所获取的观察参数。
能够通过以下过程来确定与矢量V方向基本上相同的光束方向。例如,当从立体显示单元230照射的光束的行进方向表示为矢量W时,通过使用矢量V与矢量W之间的内积(V·W=|V|·|W|cosθ),来计算矢量V与矢量W所形成的角度θ,并且如果θ的值小于某个阈值,则将光束确定为基本等同。然而本发明并不局限于此方法。
当根据以上方法获得在与矢量V的方向基本等同的方向上的多个光束时,为了使用这些光束来显示立体图像,能够通过使用由观察参数获取单元11所获取的变换参数,来计算用于将每个视点图像中包含的每个像素位置与在立体图像中包含的每个像素位置相关联的映射。在此,所计算的映射的逆映射相当于观察位置变换信息。
如上所述,根据第三实施例,能够根据观察者的观察方向来执行图像处理,从而能够提高从观察位置观察的立体图像的质量。
用于将每个视点图像中包含的每个像素位置与在立体图像中包含的每个像素位置相关联的映射能够预先计算,或者可以在每次需要时对其进行计算。
使用在与矢量V的方向基本等同的方向上的多个光束所显示的立体图像的任何显示密度都是可接受的。例如,能够使用观察位置变换信息来定义显示密度,以使得使显示密度均匀。此外,能够使用观察位置变换信息来定义显示密度,以使得显示密度随着由矢量V与矢量W形成的角度θ的增加而成比例地递减。
图像处理控制单元15能够进行控制,从而能够仅对视点图像组中与观察者的观察位置相关的像素执行图像处理。由此,能够部分地省略不对观察者的观察方向产生影响的图像处理,从而能够提高处理速度。
此外,根据第三实施例,由观察参数变换单元14计算观察位置变换信息,然而本发明并不局限于此。例如,将观察位置信息获取单元20所获取的观察位置信息输入到变换信息计算单元13中,然后能够由变换信息计算单元13计算观察位置变换信息。在此情况中,观察参数变换单元14基于由变换信息计算单元13所计算的观察位置变换信息来变换观察参数。
对于本领域技术人员而言,其他优点和修改将会变得显而易见。因此,本发明在其更为宽泛的范围内并不局限于在此所和描述的具体细节和代表性实施例。因此,在不由附带的权利要求以及等同物所定义的整体发明性概念的精神或范围的情况下,可以作出各种修改。

Claims (13)

1、一种用于处理三维图像的装置,该装置包括:
规定值获取单元,其获取立体显示单元的特性作为规定参数,所述立体显示单元显示多视点图像,所述多视点图像是通过根据所述立体显示单元的所述特性来映射在多个视点图像中所包含的每个像素位置而创建的;
观察值获取单元,其获取观察参数,所述观察参数表示在所述立体显示单元上所显示的立体图像的观察值;
计算单元,其基于所述规定参数来计算表示所述映射的逆映射的变换信息;
观察值变换单元,其基于所述变换信息,将所述观察参数变换为具有与所述视点图像相同维度的经变换参数;以及
控制单元,其基于所述经变换参数,针对每个所述视点图像而控制对该视点图像执行的与所述立体图像的每个像素位置相对应的图像处理。
2、如权利要求1所述的装置,进一步包括:
存储单元,其存储由所述观察值变换单元所变换的经变换参数;以及
参数获取单元,其获取存储在所述存储单元中的所述经变换参数,其中,
所述控制单元基于由所述观察值变换单元所变换的所述经变换参数以及所述参数获取单元所获取的所述经变换参数两者之一,针对每个所述视点图像而控制对该视点图像执行的与所述立体图像的每个像素位置相对应的图像处理。
3、如权利要求1所述的装置,进一步包括:
位置获取单元,其获取观察所述立体图像的观察者的观察位置信息,其中,
所述观察值变换单元基于所述变换信息和所述观察位置信息,将所述观察参数变换为对应于所述观察位置信息的值,并且将经变换的所述观察参数变换为具有与所述视点图像相同维度的经变换参数,并且
所述控制单元基于所述经变换参数,针对每个所述视点图像而控制对该视点图像执行的与所述立体图像的每个像素位置相对应的图像处理。
4、如权利要求1所述的装置,进一步包括:
条件设定单元,其基于所述控制单元执行的控制,为每个所述视点图像中包含的每个像素设定图像处理条件;以及
图像处理单元,其基于所述条件设定单元所设定的图像处理条件,对在每个所述视点图像中包含的每个像素执行图像处理。
5、如权利要求1所述的装置,其中,
所述立体显示单元包括:用于显示所述多视点图像的图像显示元件、叠置在所述图像显示元件上的滤色器层、以及用于控制来自所述图像显示元件的光线的光线控制元件,并且
所述规定参数获取单元获取所述图像显示元件、所述滤色器层以及所述光线控制元件中至少一个的特性作为规定参数。
6、如权利要求5所述的装置,其中,所述光线控制元件是叠置在所述图像显示元件上的透镜片。
7、如权利要求1所述的装置,其中,所述观察值获取单元获取在所述立体显示单元上所显示的立体图像的位置。
8、如权利要求1所述的装置,其中,所述观察值获取单元获取在所述立体显示单元上所显示的立体图像与所述立体显示单元的外边缘之间的距离。
9、如权利要求3所述的装置,其中,所述位置获取单元获取在所述立体显示单元与所述观察者之间的位置关系。
10、如权利要求3所述的装置,其中,所述位置获取单元获取所述观察者朝向所述立体显示单元的观察方向。
11、如权利要求3所述的装置,其中,所述位置获取单元获取在所述立体显示单元与所述观察者之间的距离。
12、一种用于处理三维图像的方法,该方法包括:
获取立体显示单元的特性作为规定参数,所述立体显示单元显示多视点图像,所述多视点图像是通过根据所述立体显示单元的所述特性来映射在多个视点图像中所包含的每个像素位置而创建的;
获取观察参数,所述观察参数表示在所述立体显示单元上所显示的立体图像的观察值;
基于所述规定参数来计算表示所述映射的逆映射的变换信息;
基于所述变换信息,将所述观察参数变换为具有与所述视点图像相同维度的经变换参数;以及
基于所述经变换参数,针对每个所述视点图像而控制对该视点图像执行的与所述立体图像的每个像素位置相对应的图像处理。
13、一种具有计算机可读介质的计算机程序产品,该计算机可读介质包含用于处理三维图像的编程指令,其中,所述指令当由计算机执行时使该计算机执行下列步骤:
获取立体显示单元的特性作为规定参数,所述立体显示单元显示多视点图像,所述多视点图像是通过根据所述立体显示单元的所述特性来映射在多个视点图像中所包含的每个像素位置而创建的;
获取观察参数,所述观察参数表示在所述立体显示单元上所显示的立体图像的观察值;
基于所述规定参数来计算表示所述映射的逆映射的变换信息;
基于所述变换信息,将所述观察参数变换为具有与所述视点图像相同维度的经变换参数;以及
基于所述经变换参数,针对每个所述视点图像而控制对该视点图像执行的与所述立体图像的每个像素位置相对应的图像处理。
CNA2007800261315A 2006-09-26 2007-03-16 用于三维图像处理的装置、方法和计算机程序产品 Pending CN101491108A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP261357/2006 2006-09-26
JP2006261357A JP2008085503A (ja) 2006-09-26 2006-09-26 三次元画像処理装置、方法、プログラム及び三次元画像表示装置

Publications (1)

Publication Number Publication Date
CN101491108A true CN101491108A (zh) 2009-07-22

Family

ID=38091765

Family Applications (1)

Application Number Title Priority Date Filing Date
CNA2007800261315A Pending CN101491108A (zh) 2006-09-26 2007-03-16 用于三维图像处理的装置、方法和计算机程序产品

Country Status (6)

Country Link
US (1) US20100079578A1 (zh)
EP (1) EP2070339A1 (zh)
JP (1) JP2008085503A (zh)
KR (1) KR20090023473A (zh)
CN (1) CN101491108A (zh)
WO (1) WO2008038425A1 (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103686122A (zh) * 2012-08-31 2014-03-26 株式会社东芝 影像处理装置及影像处理方法
CN111034190A (zh) * 2017-08-29 2020-04-17 索尼公司 信息处理设备、信息处理方法和程序

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100043751A (ko) * 2008-10-21 2010-04-29 삼성전자주식회사 렌더링 방법
KR101615111B1 (ko) * 2009-06-16 2016-04-25 삼성전자주식회사 다시점 영상 표시 장치 및 방법
JP5572532B2 (ja) * 2010-12-10 2014-08-13 任天堂株式会社 表示制御プログラム、表示制御装置、表示制御方法および表示制御システム
JP5827038B2 (ja) * 2011-05-30 2015-12-02 株式会社三共 遊技機
US20140152783A1 (en) * 2011-09-01 2014-06-05 Sharp Kabushiki Kaisha Display device
JP6213812B2 (ja) * 2012-07-31 2017-10-18 Tianma Japan株式会社 立体画像表示装置及び立体画像処理方法
US9265458B2 (en) 2012-12-04 2016-02-23 Sync-Think, Inc. Application of smooth pursuit cognitive testing paradigms to clinical drug development
US9380976B2 (en) 2013-03-11 2016-07-05 Sync-Think, Inc. Optical neuroinformatics
JP6560480B2 (ja) * 2017-08-14 2019-08-14 楽天株式会社 画像処理システム、画像処理方法、及びプログラム
WO2019042558A1 (en) * 2017-08-31 2019-03-07 Hp Indigo B.V. GENERATING MODIFIED AND TRAMED IMAGES FROM A TRAMED SEED IMAGE

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5883739A (en) * 1993-10-04 1999-03-16 Honda Giken Kogyo Kabushiki Kaisha Information display device for vehicle
JP4409035B2 (ja) * 2000-03-22 2010-02-03 本田技研工業株式会社 画像処理装置、特異箇所検出方法、及び特異箇所検出プログラムを記録した記録媒体
US7113634B2 (en) * 2001-07-31 2006-09-26 Canon Kabushiki Kaisha Stereoscopic image forming apparatus, stereoscopic image forming method, stereoscopic image forming system and stereoscopic image forming program
JP2003158752A (ja) * 2001-09-04 2003-05-30 Sanyo Electric Co Ltd 多眼式立体映像表示装置及び二眼式立体映像表示装置
JP4015090B2 (ja) * 2003-09-08 2007-11-28 株式会社東芝 立体表示装置および画像表示方法
KR20050047745A (ko) * 2003-11-18 2005-05-23 삼성전자주식회사 에지 검출장치 및 그 검출방법
JP4202991B2 (ja) * 2004-09-29 2008-12-24 株式会社東芝 立体画像用データの記録方法及び表示再生方法
JP2006107213A (ja) * 2004-10-06 2006-04-20 Canon Inc 立体画像印刷システム
US7758799B2 (en) * 2005-04-01 2010-07-20 3D Systems, Inc. Edge smoothness with low resolution projected images for use in solid imaging
JP2009077234A (ja) * 2007-09-21 2009-04-09 Toshiba Corp 三次元画像処理装置、方法及びプログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103686122A (zh) * 2012-08-31 2014-03-26 株式会社东芝 影像处理装置及影像处理方法
CN111034190A (zh) * 2017-08-29 2020-04-17 索尼公司 信息处理设备、信息处理方法和程序
CN111034190B (zh) * 2017-08-29 2022-04-15 索尼公司 信息处理设备、信息处理方法和程序

Also Published As

Publication number Publication date
US20100079578A1 (en) 2010-04-01
WO2008038425A1 (en) 2008-04-03
KR20090023473A (ko) 2009-03-04
EP2070339A1 (en) 2009-06-17
JP2008085503A (ja) 2008-04-10

Similar Documents

Publication Publication Date Title
CN101491108A (zh) 用于三维图像处理的装置、方法和计算机程序产品
US10567741B2 (en) Stereoscopic image display device, terminal device, stereoscopic image display method, and program thereof
CN103988504B (zh) 用于子像素渲染的图像处理设备和方法
US9280951B2 (en) Stereoscopic image display device, image processing device, and stereoscopic image processing method
JP6277544B2 (ja) 立体画像表示装置、端末装置
CN106504188B (zh) 用于立体视觉呈现的人眼观察图像的生成方法和装置
US20110157322A1 (en) Controlling a pixel array to support an adaptable light manipulator
US7511716B2 (en) High-resolution micro-lens 3D display with shared sub-pixel color signals
US6888540B2 (en) Autostereoscopic display driver
KR101852209B1 (ko) 자동입체 디스플레이 및 그 제조방법
CN101276061A (zh) 三维图像显示装置及用于显示三维图像的方法
CN208257981U (zh) 一种基于子像素的led裸眼3d显示装置
TW201624058A (zh) 廣視角裸眼立體圖像顯示方法、裸眼立體顯示設備以及其操作方法
JP2006203668A (ja) 画像生成システム及び画像生成方法
US20140192047A1 (en) Stereoscopic image display device, image processing device, and image processing method
CN112866676B (zh) 一种基于单像素多视点重建的裸眼三维显示算法
JP2009147508A (ja) 立体視画像生成方法、その装置、及び立体視画像表示装置
JP2006163547A (ja) 立体画像生成プログラム、立体画像生成システム及び立体画像生成装置。
JP2015037282A (ja) 画像処理装置、画像処理方法及びプログラム
KR101831978B1 (ko) 회전된 렌티큘러시트를 부착한 디스플레이에 표시되는 요소영상콘텐츠 생성 방법
KR20190067328A (ko) 육각 렌즈를 이용한 집적영상 시스템의 시점영상 매핑 방법
CN105447812A (zh) 一种基于线状阵列的三维活动图像显示及信息隐藏方法
JP5045917B2 (ja) 立体ディスプレイ
JP6543096B2 (ja) 視点位置用要素画像生成装置およびそのプログラム、ならびに、インテグラル立体シミュレーションシステム
JP6604493B2 (ja) 立体画像表示装置及び端末装置

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C02 Deemed withdrawal of patent application after publication (patent law 2001)
WD01 Invention patent application deemed withdrawn after publication

Open date: 20090722