JP2009063879A - Stereoscopic display - Google Patents

Stereoscopic display Download PDF

Info

Publication number
JP2009063879A
JP2009063879A JP2007232647A JP2007232647A JP2009063879A JP 2009063879 A JP2009063879 A JP 2009063879A JP 2007232647 A JP2007232647 A JP 2007232647A JP 2007232647 A JP2007232647 A JP 2007232647A JP 2009063879 A JP2009063879 A JP 2009063879A
Authority
JP
Japan
Prior art keywords
display
stereoscopic
image
element display
light modulator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007232647A
Other languages
Japanese (ja)
Other versions
JP5045917B2 (en
Inventor
Shunsuke Yoshida
俊介 吉田
Lopez-Gulliver Roberto
ロベルト ロペス・グリベール
Naoki Inoue
直己 井ノ上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Information and Communications Technology
Original Assignee
National Institute of Information and Communications Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Institute of Information and Communications Technology filed Critical National Institute of Information and Communications Technology
Priority to JP2007232647A priority Critical patent/JP5045917B2/en
Publication of JP2009063879A publication Critical patent/JP2009063879A/en
Application granted granted Critical
Publication of JP5045917B2 publication Critical patent/JP5045917B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a stereoscopic display capable of providing stereoscopic images that a plurality of people can observe without using special eyeglasses from arbitrary directions and that can sufficiently obtain a stereoscopic presence of an object. <P>SOLUTION: The stereoscopic display 1 is configured such that it has a box-shape by bonding a plurality of quadrangular element display surfaces 2. The stereoscopic image 3 is presented in a globular region (a virtual sphere), that is, the virtual space enclosed with the element display surfaces 2. Every element display surface 2 has a layered structure comprising a planar spatial light modulator 21, a planar lens array and a planar tactile sensor. The lens array consists of a plurality of convex lenses that can control the direction of light beam; and the lens array has a function of reproducing the state of light that goes from the spatial light modulator to various directions. Every convex lens in the lens array is set to satisfy a predetermined condition. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、立体画像を提示する立体ディスプレイに関する。   The present invention relates to a stereoscopic display for presenting a stereoscopic image.

立体画像を提示する立体ディスプレイは、ボリュームディスプレイと立体視ディスプレイとに大別される。   A stereoscopic display for presenting a stereoscopic image is roughly classified into a volume display and a stereoscopic display.

ボリュームディスプレイは、空間中に何らかの方法で画像を投影する方式である。例えば、高速に回転する板に画像を投影する方法がある。ボリュームディスプレイは、複数人での同時観察が可能であるが、比較的大掛かりな投影系および機械的構造を要するものが多い。   The volume display is a method for projecting an image into a space by some method. For example, there is a method of projecting an image on a plate that rotates at high speed. A volume display can be simultaneously observed by a plurality of people, but many require a relatively large projection system and mechanical structure.

一方、立体視ディスプレイは、視体積(視点を頂点として画像提示面を断面に持つ錐体)に含まれる物体を画像提示面に射影し、その画像提示面を通じて見えるであろう画像を両眼に提示することにより画像を立体視させる。   On the other hand, a stereoscopic display projects an object contained in a viewing volume (a cone having a viewpoint as a vertex and an image presentation surface in a cross section) onto the image presentation surface, and an image that can be seen through the image presentation surface to both eyes. By presenting, the image is stereoscopically viewed.

特に、インテグラル・フォトグラフィ(IP)は、裸眼で立体画像を観察可能にする技術の一つである。インテグラル・フォトグラフィでは、光線制御子として複数の凸レンズからなるレンズアレイを画像提示面上に配置し、各凸レンズ下の焦点位置に立体画像を再現するための要素画像を提示する。各要素画像の各画素から発する光は、凸レンズの効果により特定の方向にのみ向かうように放射される。画像提示面上に配置されたレンズアレイは有機的に作用して離散的な光線の空間を作るため、任意視点からの視体積に応じた光線状態が再現される。   In particular, integral photography (IP) is one of the technologies that enables stereoscopic images to be observed with the naked eye. In integral photography, a lens array including a plurality of convex lenses is arranged on the image presentation surface as a light controller, and an element image for reproducing a stereoscopic image is presented at a focal position under each convex lens. The light emitted from each pixel of each element image is emitted so as to be directed only in a specific direction by the effect of the convex lens. Since the lens array arranged on the image presentation surface acts organically to create a discrete light space, the light state according to the viewing volume from an arbitrary viewpoint is reproduced.

このような立体視ディスプレイは、画像提示面にLCD(液晶ディスプレイ)等を用いることにより小型化が可能であるが、画像提示面の枠で表示が制限されるために周囲から覗き込むような観察はできず、立体的な物体の存在感を得ることが困難である。   Such a stereoscopic display can be reduced in size by using an LCD (Liquid Crystal Display) or the like on the image presentation surface. It is difficult to obtain the presence of a three-dimensional object.

特許文献1には、複数枚の三次元画像表示装置を組み合わせた三次元画像表示システムが記載されている。各三次元画像表示装置は、表示面内に画素がマトリクス状に配置された表示ユニットと、その表示ユニットの画素からの光線を制限して観察領域に光線を向ける複数の光線制御部を有する光学ユニットとを備える。この三次元画像表示システムによれば、三次元画像を複数人で観察することができる。また、三次元画像を回り込んで観察することもできる。
特開2006−98775号公報
Patent Document 1 describes a three-dimensional image display system in which a plurality of three-dimensional image display devices are combined. Each three-dimensional image display device includes a display unit in which pixels are arranged in a matrix on the display surface, and a plurality of light beam control units that restrict light beams from the pixels of the display unit and direct light beams to an observation region. A unit. According to this three-dimensional image display system, a three-dimensional image can be observed by a plurality of people. It is also possible to observe a three-dimensional image.
JP 2006-98775 A

上記のように、特許文献1に記載された三次元画像表示システムでは、複数人による観察が可能であるとともに、三次元画像を回り込んで観察することができる。   As described above, in the three-dimensional image display system described in Patent Document 1, observation by a plurality of persons is possible, and a three-dimensional image can be observed by wrapping around.

しかしながら、特許文献1の三次元画像表示システムでは、各表示面の外周部において表示が制限される。具体的には、2枚以上の表示面を斜めの方向から同時に観察した場合、立体画像が見えない部分が生じる。そのため、立体的な物体の存在感を十分に得ることができない。   However, in the three-dimensional image display system of Patent Document 1, display is limited at the outer peripheral portion of each display surface. Specifically, when two or more display surfaces are observed simultaneously from an oblique direction, a portion where a stereoscopic image cannot be seen occurs. Therefore, the presence of a three-dimensional object cannot be obtained sufficiently.

本発明の目的は、特殊な眼鏡を用いることなく任意の方向から複数人により観察可能でありかつ立体的な物体の存在感を十分に得ることが可能な立体画像を提示する立体ディスプレイを提供することである。   An object of the present invention is to provide a three-dimensional display that presents a three-dimensional image that can be observed by a plurality of people from any direction without using special glasses and can sufficiently obtain the presence of a three-dimensional object. That is.

本発明に係る立体ディスプレイは、立体的な外面を形成する複数の要素表示面と、複数の要素表示面の表示を制御する制御手段とを備え、複数の要素表示面は、光を発生する複数の画素により構成される空間光変調器と、複数の光線制御子からなり、空間光変調器の各画素から発生される光の方向を制御する光線制御子アレイとを含み、制御手段は、複数の要素表示面により囲まれる空間の仮想球内に立体画像が提示されるように空間光変調器を制御し、観察者の視点が仮想球と同心で複数の要素表示面よりも外側に形成される球面の内側にあるとし、rを仮想球の半径とし、Dを仮想球の中心から各光線制御子の中心へのベクトルとし、θを各光線制御子の中心から仮想球に引いた接線とベクトルDとのなす角度とし、pを空間光変調器の画素の大きさとし、zを要素表示面の中心から球面までの距離とし、eを観察者の両眼の間の距離とし、fを各光線制御子から空間光変調器までの距離とし、αを要素表示面に垂直な方向とベクトルDとのなす角度とし、Nを各光線制御子に割り当てられる画素の数とした場合に、各光線制御子から空間光変調器までの距離f、要素表示面での各光線制御子の位置および各光線制御子に割り当てられる画素の数Nは、
θ=sin−1(r/|D|) …(1)
f≧pz/e …(2)
pN≧f・tan(α+θ)−f・tan(α−θ) …(3)
を満足するように設定されるものである。
The three-dimensional display according to the present invention includes a plurality of element display surfaces that form a three-dimensional outer surface and a control unit that controls display of the plurality of element display surfaces, and the plurality of element display surfaces generate a plurality of light. A spatial light modulator composed of a plurality of light beam controllers and a light beam controller array configured to control the direction of light generated from each pixel of the spatial light modulator, and the control means includes a plurality of light control elements. The spatial light modulator is controlled so that a stereoscopic image is presented in the virtual sphere in the space surrounded by the element display surface, and the observer's viewpoint is concentric with the virtual sphere and formed outside the multiple element display surfaces And r is the radius of the phantom sphere, D is a vector from the center of the phantom sphere to the center of each ray controller, and θ is a tangent drawn from the center of each ray controller to the phantom sphere. The angle formed by the vector D, and p is the spatial light modulator And z is the distance from the center of the element display surface to the spherical surface, e is the distance between the eyes of the observer, f is the distance from each light controller to the spatial light modulator, and α is The distance f from each light controller to the spatial light modulator, the element display surface, where N is the number of pixels assigned to each light controller, and the angle between the direction perpendicular to the element display surface and the vector D And the number N of pixels assigned to each light controller,
θ = sin −1 (r / | D |) (1)
f ≧ pz / e (2)
pN ≧ f · tan (α + θ) −f · tan (α−θ) (3)
Is set so as to satisfy.

本発明に係る立体ディスプレイにおいては、複数の要素表示面により立体的な外面が形成されている。各要素表示面は、空間光変調器および光線制御子アレイからなる。複数の要素表示面により囲まれる空間内の仮想球に立体画像が提示されるように制御手段により空間光変調器が制御される。   In the three-dimensional display according to the present invention, a three-dimensional outer surface is formed by a plurality of element display surfaces. Each element display surface includes a spatial light modulator and a light controller array. The spatial light modulator is controlled by the control means so that a stereoscopic image is presented on a virtual sphere in a space surrounded by a plurality of element display surfaces.

この場合、各光線制御子から空間光変調器までの距離f、要素表示面での各光線制御子の位置および各光線制御子に割り当てられる画素の数Nは、上式(1)〜(3)を満足するように設定される。   In this case, the distance f from each light controller to the spatial light modulator, the position of each light controller on the element display surface, and the number N of pixels assigned to each light controller are given by the above equations (1) to (3). ) Is set to satisfy.

上式(1)より、各光線制御子の中心から仮想球に引いた接線とベクトルDとのなす角度θが求められる。また、上式(2)より、各光線制御子から空間光変調器までの距離fが求められる。さらに、上式(3)より、各光線制御子に割り当てられる画素の数が求められる。   From the above equation (1), the angle θ formed by the tangent drawn from the center of each ray controller to the virtual sphere and the vector D is obtained. Further, the distance f from each light beam controller to the spatial light modulator is obtained from the above equation (2). Furthermore, the number of pixels assigned to each light ray controller is obtained from the above equation (3).

それにより、特殊な眼鏡を用いることなく任意の方向から複数人で立体画像を観察することが可能となる。また、観察者は、複数の要素表示面により囲まれる空間の仮想球内に提示される立体画像を裸眼で立体視することができる。したがって、立体的な物体の存在感が十分に得られる。   Thereby, it is possible to observe a stereoscopic image by a plurality of persons from an arbitrary direction without using special glasses. Further, the observer can stereoscopically view a stereoscopic image presented in a virtual sphere in a space surrounded by a plurality of element display surfaces with the naked eye. Therefore, a sufficient presence of a three-dimensional object can be obtained.

複数の要素表示面の各々は平面状の四角形状を有し、複数の要素表示面は直方体を形成してもよい。   Each of the plurality of element display surfaces may have a flat quadrangular shape, and the plurality of element display surfaces may form a rectangular parallelepiped.

この場合、各要素表示面を容易に作製することができるとともに、複数の要素表示面により立体的な外面を容易に作製することができる。また、各光線制御子から空間光変調器までの距離f、要素表示面での各光線制御子の位置および各光線制御子に割り当てられる画素の数Nが上式(1)〜(3)を満足することにより、仮想球内に提示された立体画像を任意の方向から観察することが可能となる。   In this case, each element display surface can be easily produced, and a three-dimensional outer surface can be easily produced by a plurality of element display surfaces. Further, the distance f from each light controller to the spatial light modulator, the position of each light controller on the element display surface, and the number N of pixels assigned to each light controller are given by the above equations (1) to (3). When satisfied, the stereoscopic image presented in the virtual sphere can be observed from an arbitrary direction.

複数の要素表示面の各々は平面状の正方形状を有し、複数の要素表示面は立方体を形成してもよい。この場合、各光線制御子の設計および製造が容易になる。   Each of the plurality of element display surfaces may have a planar square shape, and the plurality of element display surfaces may form a cube. In this case, it becomes easy to design and manufacture each light controller.

空間光変調器は、平面型マトリクス表示素子を含んでもよい。この場合、各要素表示面を容易に作製することができる。   The spatial light modulator may include a planar matrix display element. In this case, each element display surface can be easily manufactured.

立体ディスプレイは、要素表示面に沿って設けられる触覚センサをさらに備え、制御手段は、触覚センサの出力信号に応答して仮想球内に提示される立体画像が変化するように空間光変調器を制御してもよい。   The stereoscopic display further includes a tactile sensor provided along the element display surface, and the control means includes a spatial light modulator such that a stereoscopic image presented in the virtual sphere changes in response to an output signal of the tactile sensor. You may control.

この場合、観察者は、立体画像を取り囲む要素表示面に触れることまたは手に持つことが可能であるので、立体画像の立体形状を擬似的に触覚することが可能であるとともに、立体画像の観察方向を手で操作することができる。また、操作者が任意の方向から要素表示面の任意の部分に触れることにより仮想球内に提示される立体画像の対応する部分が変化する。それにより、観察者は、要素表示面に触れる行為に応答する立体画像の変化を通して立体画像により表される物体に直接触れている感覚を得ることができる。これらの結果、触覚的な物体の存在感を得ることができる。   In this case, the observer can touch the element display surface surrounding the stereoscopic image or can hold it in his / her hand, so that the stereoscopic shape of the stereoscopic image can be simulated and the stereoscopic image can be observed. The direction can be operated by hand. Further, when the operator touches any part of the element display surface from any direction, the corresponding part of the stereoscopic image presented in the virtual sphere changes. Thereby, the observer can obtain a feeling of directly touching the object represented by the stereoscopic image through the change of the stereoscopic image in response to the act of touching the element display surface. As a result, the presence of a tactile object can be obtained.

複数の光線制御子は複数のレンズであり、光線制御子アレイはレンズアレイであってもよい。この場合、明るい立体画像が提示される。   The plurality of light controllers may be a plurality of lenses, and the light controller array may be a lens array. In this case, a bright stereoscopic image is presented.

本発明によれば、観察者は、複数の要素表示面により囲まれる空間の仮想球内に提示される立体画像を任意の方向から裸眼で立体視することができる。したがって、立体的な物体の存在感が十分に得られる。   According to the present invention, an observer can stereoscopically view a stereoscopic image presented in a virtual sphere in a space surrounded by a plurality of element display surfaces from any direction with the naked eye. Therefore, a sufficient presence of a three-dimensional object can be obtained.

(1)立体ディスプレイの構成
図1は本発明の一実施の形態に係る立体ディスプレイを示す模式的外観図である。
(1) Configuration of stereoscopic display FIG. 1 is a schematic external view showing a stereoscopic display according to an embodiment of the present invention.

図1に示すように、立体ディスプレイ1は、複数の四角形の要素表示面2を結合することにより箱形に構成される。本実施の形態では、立体ディスプレイ1は、正方形の6枚の要素表示面2により立方体に構成される。要素表示面2で囲まれる仮想空間の球状領域(以下、仮想球と呼ぶ)に立体画像3が提示される。   As shown in FIG. 1, the stereoscopic display 1 is configured in a box shape by combining a plurality of rectangular element display surfaces 2. In the present embodiment, the three-dimensional display 1 is configured in a cube by six square element display surfaces 2. A stereoscopic image 3 is presented in a spherical region (hereinafter referred to as a virtual sphere) in a virtual space surrounded by the element display surface 2.

図2は立体ディスプレイ1を構成する要素表示面2を示す模式的平面図である。図3は立体ディスプレイ1を構成する要素表示面2を示す模式的平面図である。   FIG. 2 is a schematic plan view showing the element display surface 2 constituting the stereoscopic display 1. FIG. 3 is a schematic plan view showing the element display surface 2 constituting the stereoscopic display 1.

図2および図3に示すように、要素表示面2は、平面状の空間光変調器21、平面状のレンズアレイ22および平面状の触覚センサ23の積層構造により構成される。   As shown in FIGS. 2 and 3, the element display surface 2 is configured by a laminated structure of a planar spatial light modulator 21, a planar lens array 22, and a planar tactile sensor 23.

空間光変調器21は、マトリクス状に色を提示することができるマトリクス表示素子からなる。この空間光変調器21は、マトリクス状に配列された複数の画素を有する。空間光変調器21として、例えば液晶ディスプレイ(LCD)、または有機エレクトロルミネッセンス(EL)ディスプレイ等を用いることができる。あるいは、空間光変調器21として、プロジェクタとスクリーンとを組み合わせて用いてもよい。   The spatial light modulator 21 includes a matrix display element that can present colors in a matrix. The spatial light modulator 21 has a plurality of pixels arranged in a matrix. As the spatial light modulator 21, for example, a liquid crystal display (LCD) or an organic electroluminescence (EL) display can be used. Alternatively, as the spatial light modulator 21, a projector and a screen may be used in combination.

レンズアレイ22は、光線の方向を制御することができる複数の凸レンズ220からなり、空間光変調器21から様々な方向へ向かう光の状態を再現させる機能を有する。レンズアレイ22の複数のレンズ220は、マトリクス状に配置される。   The lens array 22 includes a plurality of convex lenses 220 that can control the direction of light rays, and has a function of reproducing the state of light from the spatial light modulator 21 in various directions. The plurality of lenses 220 of the lens array 22 are arranged in a matrix.

レンズアレイ22の各凸レンズ220により空間光変調器21の複数の画素からの光線の方向が制御される。各凸レンズ220には、それぞれ画素群が割り当てられる。各凸レンズ220は、割り当てられた画素群のみからの光線の方向を制御することができるように配置される。   The direction of the light beam from the plurality of pixels of the spatial light modulator 21 is controlled by each convex lens 220 of the lens array 22. Each convex lens 220 is assigned a pixel group. Each convex lens 220 is arranged so that the direction of light rays from only the assigned pixel group can be controlled.

レンズアレイ22により制御可能な光線の数および光線の方向は、各凸レンズ220に割り当てられた画素の数、凸レンズ220と画素との距離、および凸レンズ220の焦点距離等の凸レンズ220の光学的な設計等により決まる。凸レンズ220の配置および特性の設計については後述する。   The number of light rays and the direction of light rays that can be controlled by the lens array 22 are the optical design of the convex lens 220 such as the number of pixels assigned to each convex lens 220, the distance between the convex lens 220 and the pixel, and the focal length of the convex lens 220. It depends on etc. The arrangement of the convex lens 220 and the design of characteristics will be described later.

図3に示すように、レンズアレイ22の凸レンズ220は、空間光変調器21の画素Pa,Pb,Pc,Pdから種々の方向へ向かう光をそれぞれ点線で示す方向に制御する。   As shown in FIG. 3, the convex lens 220 of the lens array 22 controls light traveling in various directions from the pixels Pa, Pb, Pc, and Pd of the spatial light modulator 21 in directions indicated by dotted lines.

本実施の形態では、レンズアレイ22上にシート状の透明の触覚センサ23が設けられる。例えば、触覚センサ22として、光ファイバへの通光状態の変化を検出するシート状光検出素子、接触部位の静電容量の変化を検出するシート状可変容量素子、または電極間の通電状態により接触を検出する導電シート等を用いることができる。   In the present embodiment, a sheet-like transparent tactile sensor 23 is provided on the lens array 22. For example, as the tactile sensor 22, a sheet-like light detection element that detects a change in the light transmission state to the optical fiber, a sheet-like variable capacitance element that detects a change in the capacitance of the contact portion, or a contact depending on the energization state between the electrodes A conductive sheet or the like that detects the above can be used.

また、触覚センサ23として、例えば触覚センサアレイを用いてもよい。触覚センサアレイは、マトリクス状に配列された複数の触覚センサ素子からなる。触覚センサ素子としては、人または物が触れたことを検出することができる種々の接触センサを用いることができる。   Further, as the tactile sensor 23, for example, a tactile sensor array may be used. The tactile sensor array includes a plurality of tactile sensor elements arranged in a matrix. As the tactile sensor element, various contact sensors that can detect that a person or an object has touched can be used.

さらに、レンズアレイ220の凸レンズ220間に埋め込まれた複数の触覚センサ素子により構成される触覚センサを用いてもよい。例えば、触覚センサ素子として、圧電効果による電圧変化を検出する圧電素子(ピエゾ素子)、歪を検出する歪ゲージ、静電容量の変化を検出する可変容量素子を用いることができる。また、指により遮光される光を検出するフォトダイオード等の光検出素子、温度変化を検出する熱検出素子等を用いることもできる。   Further, a tactile sensor constituted by a plurality of tactile sensor elements embedded between the convex lenses 220 of the lens array 220 may be used. For example, as the tactile sensor element, a piezoelectric element (piezo element) that detects a voltage change due to the piezoelectric effect, a strain gauge that detects strain, and a variable capacitance element that detects a change in capacitance can be used. It is also possible to use a light detection element such as a photodiode that detects light blocked by a finger, a heat detection element that detects a temperature change, or the like.

本実施の形態では、触覚センサ23は、観察者が触れたときの荷重の大きさ、荷重の方向および荷重が加わった位置を示す検出信号を出力する。   In the present embodiment, the tactile sensor 23 outputs a detection signal indicating the magnitude of the load when the observer touches, the direction of the load, and the position where the load is applied.

また、観察者は、立体ディスプレイ1の表面に触れることができる。特に、本実施の形態では、観察者が手で持つことができるサイズおよび重さを有するように立体ディスプレイ1が形成される。   Further, the observer can touch the surface of the stereoscopic display 1. In particular, in the present embodiment, the three-dimensional display 1 is formed so as to have a size and weight that can be held by an observer.

(2)画像データの作成方法
次に、立体ディスプレイ1に立体画像3を提示するための画像データの作成方法について説明する。図4は立体画像3を提示するための画像データの作成方法を説明するための図である。
(2) Image Data Creation Method Next, an image data creation method for presenting the stereoscopic image 3 on the stereoscopic display 1 will be described. FIG. 4 is a diagram for explaining a method of creating image data for presenting the stereoscopic image 3.

要素表示面2の内側の仮想球内に視覚されるべき立体形状30を定義する。この立体形状30は立体形状データにより表される。立体形状30の表面の任意の点において、任意の方向へ向かう光線を考える。要素表示面2と立体形状30との間の位置関係はデータの定義により一意に求まる。   A solid shape 30 to be visualized is defined in a virtual sphere inside the element display surface 2. This three-dimensional shape 30 is represented by three-dimensional shape data. A light ray traveling in an arbitrary direction at an arbitrary point on the surface of the three-dimensional shape 30 is considered. The positional relationship between the element display surface 2 and the three-dimensional shape 30 is uniquely determined by data definition.

各光線が要素表示面2と交差する際の交点の位置(座標)、光線と要素表示面2との角度、および色を求める。また、各光線がどの要素表示面2のどの位置で交差するかを求める。最終的に、レンズアレイ22により上記の角度の方向へ向かう光線を再現するように、空間光変調器21の各画素に交点の色を表示するための画像データを作成する。   The position (coordinate) of the intersection when each light ray intersects the element display surface 2, the angle between the light ray and the element display surface 2, and the color are obtained. Further, it is determined at which position on which element display surface 2 each light ray intersects. Finally, image data for displaying the color of the intersection point on each pixel of the spatial light modulator 21 is created so as to reproduce the light beam traveling in the direction of the angle by the lens array 22.

理想的には、立体形状30の全表面から全方向に向かう光線について上記の交点の位置、角度および色を求め、各要素表示面2に表示すべき画像を表す画像データを作成する。実際には、要素表示面1で囲まれる空間の仮想球を複数のボクセルに離散化するとともに、各ボクセルから発せられる光線の方向を離散化する。本実施の形態では、各ボクセルから発せられる光線の方向は、レンズアレイ22により離散化された方向に制御される。   Ideally, the position, angle, and color of the above intersection are obtained for light rays traveling in all directions from the entire surface of the three-dimensional shape 30, and image data representing an image to be displayed on each element display surface 2 is created. Actually, the virtual sphere in the space surrounded by the element display surface 1 is discretized into a plurality of voxels, and the direction of light rays emitted from each voxel is discretized. In the present embodiment, the direction of light emitted from each voxel is controlled by the lens array 22 so as to be discretized.

要素表示面2の内側の仮想球の1つのボクセルが立体形状30の一部であれば、そのボクセルから離散化された方向に向かう光線を求める。このようにして、立体形状30の表面上の複数のボクセルの各々から離散化された複数の方向に向かう光線と要素表示面2との交点を求めるとともに、光線と要素表示面2との角度、およびボクセルの色を求め、それらの交点、角度および色に基づいて画像データを作成する。   If one voxel of the phantom sphere inside the element display surface 2 is a part of the three-dimensional shape 30, a light ray directed from the voxel in a discretized direction is obtained. In this way, the intersections between the light beams traveling in a plurality of directions discretized from each of the plurality of voxels on the surface of the three-dimensional shape 30 and the element display surface 2 are obtained, and the angle between the light beam and the element display surface 2; And voxel colors are obtained, and image data is created based on their intersections, angles, and colors.

例えば、図4に示すように、立体形状30の表面上の1つのボクセルb1から発せられる光線は、レンズアレイ22の凸レンズ220により点線の矢印の方向に向かうように制御される。これらの光線と要素表示面2との交点の画素にボクセルb1の色を表示させるように画像データを作成する。   For example, as shown in FIG. 4, a light beam emitted from one voxel b <b> 1 on the surface of the three-dimensional shape 30 is controlled by the convex lens 220 of the lens array 22 in the direction of the dotted arrow. Image data is created so that the color of the voxel b1 is displayed at the pixel at the intersection of these rays and the element display surface 2.

また、立体形状30の表面上の他のボクセルb2から発せられる光線は、レンズアレイ22の凸レンズ220により実線の矢印の方向に向かうように制御される。これらの光線と要素表示面2との交点の画素にボクセルb2の色を表示させるように画像データを作成する。   Light rays emitted from other voxels b2 on the surface of the three-dimensional shape 30 are controlled by the convex lens 220 of the lens array 22 so as to go in the direction of the solid arrow. Image data is created so that the color of the voxel b2 is displayed on the pixel at the intersection of these rays and the element display surface 2.

上記の説明は、理解を容易にするために行ったが、実際には、レンズアレイ22の各凸レンズ220と空間光変調器21の画素数との関係により再現可能な光線が制限されるため、上記の説明とは逆のアルゴリズムが用いられる。すなわち、レンズアレイ22の各凸レンズ220により再現可能な光線を空間光変調器21の画素を経由して逆に辿り、提示すべき立体形状30との交点のボクセルの色を求め、その色を画素に表示させる色と決定する。   The above description has been made for ease of understanding, but in reality, the reproducible rays are limited by the relationship between each convex lens 220 of the lens array 22 and the number of pixels of the spatial light modulator 21. The reverse algorithm to that described above is used. That is, the light beam reproducible by each convex lens 220 of the lens array 22 is traced back through the pixels of the spatial light modulator 21 to obtain the color of the voxel at the intersection with the three-dimensional shape 30 to be presented. Determine the color to be displayed.

レンズアレイ22の凸レンズ220により再現可能な一本の光線が立体形状30の複数のボクセルと交差する場合には、より要素表示面2に近いボクセルの色が画素に表示すべき色と決定される。観察者から見て奥に位置する点は手前に位置する点により隠されるからである。例えば、図4に示すように、レンズアレイ22の凸レンズ220により再現可能な一本の光線が立体形状30の複数のボクセルb2,b3と交差する場合には、より要素表示面2に近いボクセルb3の色を画素に表示すべき色と決定する。   When one light beam reproducible by the convex lens 220 of the lens array 22 intersects a plurality of voxels of the three-dimensional shape 30, the color of the voxel closer to the element display surface 2 is determined as the color to be displayed on the pixel. . This is because a point located in the back as viewed from the observer is hidden by a point located in front. For example, as shown in FIG. 4, when one light beam reproducible by the convex lens 220 of the lens array 22 intersects a plurality of voxels b2 and b3 of the three-dimensional shape 30, the voxel b3 closer to the element display surface 2 Is determined as the color to be displayed on the pixel.

このようにして、立体形状30の表面上の各ボクセルの色を要素表示面1の複数の画素に表示させるための画像データが作成される。画像データに基づいて空間光変調器21の複数の画素に画像を表示させることにより、結果的に立体形状30からの光線が再現される。   In this way, image data for displaying the color of each voxel on the surface of the three-dimensional shape 30 on a plurality of pixels on the element display surface 1 is created. By displaying an image on a plurality of pixels of the spatial light modulator 21 based on the image data, the light rays from the three-dimensional shape 30 are reproduced as a result.

図5は画像データに基づいて立体ディスプレイの空間光変調器21に表示される画像を説明するための図である。   FIG. 5 is a diagram for explaining an image displayed on the spatial light modulator 21 of the stereoscopic display based on the image data.

例えば、観察点V1から立体形状を見た場合の画像が空間光変調器21の画素“A”に表示される。また、観察点V2から立体形状を見た場合の画像が空間光変調器21の画素“B”に表示される。それにより、観察者は眼を観察点V1から観察点V2に移動させた場合に、立体形状を異なる角度から見ることができる。   For example, an image when the stereoscopic shape is viewed from the observation point V1 is displayed on the pixel “A” of the spatial light modulator 21. In addition, an image when the stereoscopic shape is viewed from the observation point V2 is displayed on the pixel “B” of the spatial light modulator 21. Thereby, the observer can see the three-dimensional shape from different angles when the eye is moved from the observation point V1 to the observation point V2.

このように、本実施の形態に係る立体ディスプレイは、多眼式立体視ディスプレイでありながら、結果的にボリュームディスプレイと同等の立体画像3を提示することができる。   Thus, although the stereoscopic display according to the present embodiment is a multi-view stereoscopic display, as a result, a stereoscopic image 3 equivalent to a volume display can be presented.

(3)凸レンズ220の構成
図6〜図9は任意の方向から観察可能な立体画像3を表示するために必要な光線制御の条件を説明するための図である。図6〜図9において、要素表示面2に垂直な方向をZ軸とする。
(3) Configuration of Convex Lens 220 FIG. 6 to FIG. 9 are diagrams for explaining light beam control conditions necessary for displaying the stereoscopic image 3 that can be observed from an arbitrary direction. 6 to 9, the direction perpendicular to the element display surface 2 is taken as the Z axis.

図6に示すように、立体画像3を表示する領域として中心がOで半径がrの仮想球Sを考える。   As shown in FIG. 6, a virtual sphere S having a center of O and a radius of r is considered as a region for displaying the stereoscopic image 3.

まず、凸レンズ220の中心をLとする。また、仮想球Sの中心Oと凸レンズ220の中心Lとを結ぶベクトルをDとする。凸レンズ220が担当すべき光線の再現範囲は、凸レンズ220の中心Lを頂点としてベクトルDを中心軸とする頂角2θの円錐となる。角度θは次式で表される。   First, let L be the center of the convex lens 220. A vector connecting the center O of the phantom sphere S and the center L of the convex lens 220 is represented by D. The light beam reproduction range to be handled by the convex lens 220 is a cone having an apex angle 2θ with the center L of the convex lens 220 as a vertex and the vector D as a central axis. The angle θ is expressed by the following formula.

θ=sin−1(r/|D|) …(1)
次に、凸レンズ220の焦点距離をfとする。図7において、要素表示面2の中心部に位置する凸レンズ220を凸レンズ220aとし、要素表示面2の外周部近傍に位置する凸レンズ220を220bとする。レンズアレイ22は平面Bに配置され、空間光変調器21はレンズアレイ22から内側に距離f離れた平面C上に配置される。平面Cは平面Bと平行である。また、平面Bから外側に距離z離れた平面Pを考える。平面Pは平面Bに平行である。
θ = sin −1 (r / | D |) (1)
Next, let the focal length of the convex lens 220 be f. In FIG. 7, the convex lens 220 positioned at the center of the element display surface 2 is referred to as a convex lens 220 a, and the convex lens 220 positioned near the outer periphery of the element display surface 2 is referred to as 220 b. The lens array 22 is disposed on the plane B, and the spatial light modulator 21 is disposed on the plane C that is separated from the lens array 22 by a distance f. The plane C is parallel to the plane B. Further, a plane P that is a distance z away from the plane B is considered. The plane P is parallel to the plane B.

一般の平面立体視ディスプレイでは、観察者はレンズアレイ22と平行な平面P上にあると定義される。空間光変調器21の画素の大きさ(直径または幅)をpとする。画素の像は、凸レンズ220a,220bにより平面P上でz/f倍に拡大される。平面P上での画素の像の大きさ(直径または幅)iは、次式のようになる。   In a general planar stereoscopic display, the observer is defined to be on a plane P parallel to the lens array 22. Let p be the size (diameter or width) of the pixel of the spatial light modulator 21. The image of the pixel is magnified z / f times on the plane P by the convex lenses 220a and 220b. The size (diameter or width) i of the pixel image on the plane P is expressed by the following equation.

i=(z/f)・p …(2a)
次に、両眼立体視の条件を検討する。両眼立体視を可能にするためには、両眼に異なる像が写る必要がある。人の両眼の間の距離eは約62mm〜64mm程度である。両眼に異なる像が写ることは、距離e離れた右目および左目の視点位置に凸レンズ220から異なる光線が到達することに等しい。すなわち、凸レンズ220により平面P上で距離e離れた位置に異なる光線が到達する必要がある。そのためには、平面P上の像の大きさiが距離e以下でなければならない。
i = (z / f) · p (2a)
Next, the conditions for binocular stereopsis will be examined. In order to enable binocular stereoscopic vision, it is necessary to have different images in both eyes. The distance e between the human eyes is about 62 mm to 64 mm. Different images appearing in both eyes is equivalent to the arrival of different light rays from the convex lens 220 at the viewpoint positions of the right eye and the left eye separated by a distance e. That is, it is necessary for different rays to reach the position separated by the distance e on the plane P by the convex lens 220. For this purpose, the image size i on the plane P must be less than or equal to the distance e.

本実施の形態に係る立体ディスプレイ1は、任意の方向から観察されることを想定しているので、中心がOの球面Eを定義し、視点位置が球面E上にあると仮定する。要素表示面2(平面B)の中心点と球面Eとの間の距離はzである。   Since the stereoscopic display 1 according to the present embodiment is assumed to be observed from an arbitrary direction, it is assumed that a spherical surface E whose center is O is defined and the viewpoint position is on the spherical surface E. The distance between the center point of the element display surface 2 (plane B) and the spherical surface E is z.

ここで、以下の条件を満足することにより、観察者の視点が球面E内にある場合には、仮想球S内に提示される立体画像を立体視することが可能となる。観察者の視点が球面Eの外側にある場合には、観察者は仮想球S内に提示される立体画像を平面画像として認識する。例えば、観察者がよく観察する位置を仮想球Sの中心Oから35cm程度離れた位置であると見積もれば、球面Eの半径を大きめに40cmに設定すればよい。   Here, by satisfying the following conditions, the stereoscopic image presented in the virtual sphere S can be stereoscopically viewed when the observer's viewpoint is within the spherical surface E. When the observer's viewpoint is outside the spherical surface E, the observer recognizes the stereoscopic image presented in the virtual sphere S as a planar image. For example, if it is estimated that the position that the observer often observes is a position that is about 35 cm away from the center O of the phantom sphere S, the radius of the spherical surface E may be set to a large 40 cm.

なお、観察者が観察対象から離れるほど、両眼立体視による立体知覚は薄れる。したがって、立体画像の立体視の範囲を球面E内に制限することに合理性はあり、問題はない。   In addition, the stereoscopic perception by binocular stereoscopic vision decreases as the observer moves away from the observation target. Therefore, it is reasonable to limit the stereoscopic view range of the stereoscopic image within the spherical surface E, and there is no problem.

凸レンズ220により球面E上に投影される画素の像の大きさをi’とする。画素の像の大きさi’は凸レンズ220の位置に応じて変化する。例えば、球面E上で凸レンズ220bにより投影される像の大きさi’は、凸レンズ220aにより投影される像の大きさi’よりも小さい。画素は平面Bに平行な平面C上に等間隔に配列されるので、像の大きさi’は球面Eと平面Pとが接する点Q付近で最大となる。 Let i ′ be the size of the image of the pixel projected onto the spherical surface E by the convex lens 220. The size i ′ of the pixel image changes according to the position of the convex lens 220. For example, the image size i 1 ′ projected by the convex lens 220b on the spherical surface E is smaller than the image size i 0 ′ projected by the convex lens 220a. Since the pixels are arranged at equal intervals on the plane C parallel to the plane B, the image size i ′ is maximized in the vicinity of the point Q where the spherical surface E and the plane P are in contact.

任意の方向からの両眼立体視を可能にするためには、凸レンズ220により球面E上で距離e離れた位置に異なる光線が到達する必要がある。そのためには、球面E上の像の大きさi’が距離e以下でなければならない。そこで、球面E上の像の大きさi’が最も大きくなる場合(i’=i’の場合)を基準として考えると、次式を満足する必要がある。 In order to enable binocular stereoscopic vision from an arbitrary direction, it is necessary for different rays to reach the position separated by the distance e on the spherical surface E by the convex lens 220. For this purpose, the image size i ′ on the spherical surface E must be less than or equal to the distance e. Therefore, when the case where the size i ′ of the image on the spherical surface E is the largest (when i ′ = i 0 ′) is considered as a reference, the following expression must be satisfied.

e≧i’ …(2b)
また、i’≒iであるから、上式(2a)から次式が成り立つ。
e ≧ i 0 ′ (2b)
Further, since i 0 ′ ≈i, the following equation is established from the above equation (2a).

’=pz/f …(2c)
上式(2b),(2c)から次式が導かれる。
i 0 ′ = pz / f (2c)
From the above equations (2b) and (2c), the following equation is derived.

e≧pz/f …(2d)
上式(2d)から、凸レンズ220の焦点距離fは次式のように定まる。
e ≧ pz / f (2d)
From the above equation (2d), the focal length f of the convex lens 220 is determined as follows.

f≧pz/e …(2)
次に、図8に示すように、Z軸とベクトルDとのなす角度をαとする。ベクトルDを中心軸とする角度2θの範囲内に光を出射するために必要な画素の数Nは、次のように求められる。角度2θをなす円錐の光線群の中で最も外側の光線と平面Cとの交点をs1およびs2とし、凸レンズ220の中心Lを通るZ軸方向の直線と平面Cとの交点をs0とする。2点s0,s1間の距離はf・tan(α+θ)となり、2点s0,s2間の距離はf・tan(α−θ)となる。したがって、2点s1,s2間の距離は、f・tan(α+θ)−f・tan(α−θ)となる。この場合、pNが2点s1,s2間の距離以上となる必要がある。したがって、次式が成り立つ。
f ≧ pz / e (2)
Next, as shown in FIG. 8, the angle between the Z axis and the vector D is α. The number N of pixels necessary for emitting light within the range of the angle 2θ with the vector D as the central axis is obtained as follows. Let s1 and s2 be the intersections of the outermost ray and the plane C in the conical ray group forming the angle 2θ, and let s0 be the intersection of the straight line in the Z-axis direction passing through the center L of the convex lens 220 and the plane C. The distance between the two points s0 and s1 is f · tan (α + θ), and the distance between the two points s0 and s2 is f · tan (α−θ). Therefore, the distance between the two points s1 and s2 is f · tan (α + θ) −f · tan (α−θ). In this case, pN needs to be equal to or greater than the distance between the two points s1 and s2. Therefore, the following equation holds.

pN≧f・tan(α+θ)−f・tan(α−θ) …(3)
以上の考察から、立体ディスプレイ1の仮想球S内に立体画像3を表示する場合には、次の式(1)〜(3)の条件を満足するように要素表示面2の各凸レンズ220を設計する必要がある。この場合、観察者の視点は球面Eの内側にあるものとする。
pN ≧ f · tan (α + θ) −f · tan (α−θ) (3)
From the above consideration, when the stereoscopic image 3 is displayed in the virtual sphere S of the stereoscopic display 1, each convex lens 220 of the element display surface 2 is set so as to satisfy the conditions of the following expressions (1) to (3). Need to design. In this case, it is assumed that the observer's viewpoint is inside the spherical surface E.

θ=sin−1(r/|D|) …(1)
f≧pz/e …(2)
pN≧f・tan(α+θ)−f・tan(α−θ) …(3)
上式(1)において、rは仮想球Sの半径であり、Dは仮想球Sの中心Oから凸レンズ220の中心Lへのベクトルであり、θは凸レンズ220の中心Lから仮想球Sに引いた接線とベクトルDとのなす角度である。上式(1)から角度θが求められる。
θ = sin −1 (r / | D |) (1)
f ≧ pz / e (2)
pN ≧ f · tan (α + θ) −f · tan (α−θ) (3)
In the above equation (1), r is the radius of the phantom sphere S, D is a vector from the center O of the phantom sphere S to the center L of the convex lens 220, and θ is drawn from the center L of the convex lens 220 to the phantom sphere S. The angle formed by the tangent line and the vector D. The angle θ is obtained from the above equation (1).

上式(2)において、pは空間光変調器21の画素の大きさであり、zは要素表示面2の中心から球面Eまでの距離であり、eは観察者の両眼の間の距離であり、fは凸レンズ220の焦点距離である。上式(2)から凸レンズ220の焦点距離fが求められる。   In the above equation (2), p is the size of the pixel of the spatial light modulator 21, z is the distance from the center of the element display surface 2 to the spherical surface E, and e is the distance between the eyes of the observer. F is the focal length of the convex lens 220. The focal length f of the convex lens 220 is obtained from the above equation (2).

なお、平面Bと平面Cとが平行であるので、全ての凸レンズ220の焦点距離fは等しくなる。   Since the plane B and the plane C are parallel, the focal lengths f of all the convex lenses 220 are equal.

上式(3)において、αは要素表示面2に垂直な方向とベクトルDとのなす角度であり、Nは凸レンズ220に割り当てられる画素の数である。上式(3)から凸レンズ220に割り当てられる画素の個数Nが求められる。Nは自然数である。   In the above equation (3), α is an angle formed by a direction perpendicular to the element display surface 2 and the vector D, and N is the number of pixels assigned to the convex lens 220. From the above equation (3), the number N of pixels allocated to the convex lens 220 is obtained. N is a natural number.

立体ディスプレイ1の設計時および製造時には、まず、要素表示面2の寸法を決定する。次に、要素表示面2の寸法から仮想球Sの半径rを決定する。それにより、上式(1)により角度θが定まる。また、球面Eの半径を決定する。   At the time of designing and manufacturing the three-dimensional display 1, first, the dimensions of the element display surface 2 are determined. Next, the radius r of the phantom sphere S is determined from the dimensions of the element display surface 2. Thereby, the angle θ is determined by the above equation (1). Further, the radius of the spherical surface E is determined.

その後、要素表示面2の中心部から外側に順に、上式(2)により各凸レンズ220の焦点距離fを決定するとともに、上式(3)によりその凸レンズ220に割り当てられる画素の数Nおよび凸レンズ220の位置を決定する。この場合、各凸レンズ220に割り当てられる画素が重複しないように、各凸レンズ220の位置を決定する。   Thereafter, in order from the center of the element display surface 2 to the outside, the focal length f of each convex lens 220 is determined by the above equation (2), and the number N of pixels assigned to the convex lens 220 and the convex lens by the above equation (3). The position of 220 is determined. In this case, the position of each convex lens 220 is determined so that the pixels assigned to each convex lens 220 do not overlap.

(4)立体ディスプレイの制御系の構成および動作
図9は本実施の形態に係る立体ディスプレイの制御系の構成を示すブロック図である。
(4) Configuration and operation of control system of stereoscopic display FIG. 9 is a block diagram showing the configuration of the control system of the stereoscopic display according to the present embodiment.

図9に示すように、立体ディスプレイの制御系は、制御部10、形状データ記憶部11、空間光変調器21および触覚センサ23により構成される。   As shown in FIG. 9, the control system of the stereoscopic display includes a control unit 10, a shape data storage unit 11, a spatial light modulator 21, and a tactile sensor 23.

制御部10は、CPU(中央演算処理装置)、および半導体メモリ等の記憶装置を含む。記憶装置には、表示制御プログラムが記憶される。形状データ記憶部11は、ハードディスクまたはメモリカード等のデータ記憶媒体からなり、仮想球内に提示すべき立体画像の形状を表す立体形状データを記憶する。   The control unit 10 includes a CPU (Central Processing Unit) and a storage device such as a semiconductor memory. A display control program is stored in the storage device. The shape data storage unit 11 includes a data storage medium such as a hard disk or a memory card, and stores stereoscopic shape data representing the shape of a stereoscopic image to be presented in the virtual sphere.

制御部10のCPUは、記憶装置に記憶された表示制御プログラムを実行することにより形状データ記憶部11に記憶された立体形状データに基づいて画像データを作成し、画像データに基づいて表示のための制御信号を空間光変調器21に与えるとともに、触覚センサ23の検出信号に基づいて立体形状データを修正する。   The CPU of the control unit 10 creates image data based on the solid shape data stored in the shape data storage unit 11 by executing a display control program stored in the storage device, and displays the data based on the image data. Is supplied to the spatial light modulator 21, and the three-dimensional shape data is corrected based on the detection signal of the touch sensor 23.

制御部10および形状データ記憶部11は、要素表示面1で囲まれた空間の内部に設けられてもよい。あるいは、制御部10および形状データ記憶部11が要素表示面1で囲まれた空間の外部に設けられてもよい。その場合には、制御部10から空間光変調器21に有線または無線の通信により制御信号が与えられ、触覚センサ23から制御部10に有線または無線の通信により検出信号が与えられる。また、制御部10および形状データ記憶部11の一方が要素表示面1で囲まれた空間の内部に設けられ、他方が要素表示面1で囲まれた空間の外部に設けられてもよい。   The control unit 10 and the shape data storage unit 11 may be provided inside a space surrounded by the element display surface 1. Alternatively, the control unit 10 and the shape data storage unit 11 may be provided outside the space surrounded by the element display surface 1. In this case, a control signal is given from the control unit 10 to the spatial light modulator 21 by wired or wireless communication, and a detection signal is given from the touch sensor 23 to the control unit 10 by wired or wireless communication. Further, one of the control unit 10 and the shape data storage unit 11 may be provided inside the space surrounded by the element display surface 1, and the other may be provided outside the space surrounded by the element display surface 1.

次に、本実施の形態に係る立体ディスプレイ1の動作について説明する。図10は本実施の形態に係る立体ディスプレイの制御部10の動作を示すフローチャートである。   Next, the operation of the stereoscopic display 1 according to the present embodiment will be described. FIG. 10 is a flowchart showing the operation of the control unit 10 of the stereoscopic display according to the present embodiment.

制御部10は、記憶装置に記憶された表示制御プログラムにしたがって図10のフローチャートの動作を実行する。   The control unit 10 executes the operation of the flowchart of FIG. 10 according to the display control program stored in the storage device.

なお、形状データ記憶部11には、立体画像3の形状を表す立体形状データが記憶されている。   Note that the shape data storage unit 11 stores stereoscopic shape data representing the shape of the stereoscopic image 3.

まず、制御部10は、形状データ記憶部11から立体形状データをロードする(ステップS1)。そして、制御部10は、立体形状データに基づいて画像データを作成する(ステップS2)。さらに、制御部10は、画像データに基づいて空間光変調器21に画像を表示させる(ステップS3)。それにより、図1に示すように、立体ディスプレイの仮想球に立体画像3が提示される。この場合、操作者および他の観察者は、仮想球内に立体画像3を視覚することができる。   First, the control unit 10 loads solid shape data from the shape data storage unit 11 (step S1). Then, the control unit 10 creates image data based on the solid shape data (step S2). Further, the control unit 10 causes the spatial light modulator 21 to display an image based on the image data (step S3). Thereby, as shown in FIG. 1, the three-dimensional image 3 is presented on the virtual sphere of the three-dimensional display. In this case, the operator and other observers can visually see the stereoscopic image 3 in the virtual sphere.

操作者は、立体ディスプレイの要素表示面1に触れることができる。制御部10は、触覚センサ23から検出信号が出力されたか否かを判別する(ステップS4)。   The operator can touch the element display surface 1 of the stereoscopic display. The controller 10 determines whether or not a detection signal is output from the touch sensor 23 (step S4).

触覚センサ23から検出信号が出力された場合には、制御部10は、検出信号に基づいて立体形状データを修正する(ステップS5)。この場合、制御部10は、検出信号から操作者が触覚センサ23に触れたときの荷重の大きさ、荷重の方向および荷重の位置を判別し、それらの荷重の大きさ、荷重の方向および荷重の位置に基づいて、要素表示面1への接触に伴って立体画像3が変化するように立体形状データを修正する。   When the detection signal is output from the touch sensor 23, the control unit 10 corrects the three-dimensional shape data based on the detection signal (step S5). In this case, the control unit 10 determines the magnitude of the load, the direction of the load, and the position of the load when the operator touches the tactile sensor 23 from the detection signal, and the magnitude of the load, the direction of the load, and the load The three-dimensional shape data is corrected so that the three-dimensional image 3 changes in accordance with the contact with the element display surface 1 based on the positions of

そして、制御部10は、ステップS2に戻り、修正後の立体形状データに基づいて画像データを作成する。さらに、制御部10は、画像データに基づいて空間光変調器21に画像を表示させる(ステップS3)。それにより、操作者および他の観察者が視覚する立体画像30が変化する。   Then, the control unit 10 returns to step S2 and creates image data based on the corrected three-dimensional shape data. Further, the control unit 10 causes the spatial light modulator 21 to display an image based on the image data (step S3). As a result, the stereoscopic image 30 viewed by the operator and other observers changes.

例えば、操作者が要素表示面2の一部を指で押した場合には、その部分に近い立体画像3の部分が変形する。要素表示面2の一部に接触した場合の立体画像3の変化の態様は、上記の例に限らなず、要素表示面2の何らかの変化であれば他の変化の態様であってもよい。   For example, when the operator presses a part of the element display surface 2 with a finger, the part of the stereoscopic image 3 near the part is deformed. The mode of change of the stereoscopic image 3 when it contacts a part of the element display surface 2 is not limited to the above example, and may be another mode of change as long as it is any change of the element display surface 2.

なお、ステップS4において、触覚センサ23から検出信号が出力されない場合には制御部10はステップS3に戻る。   In step S4, if no detection signal is output from the touch sensor 23, the control unit 10 returns to step S3.

(5)本実施の形態の効果
本実施の形態に係る立体ディスプレイ1においては、上記の式(1),(2),(3)の条件を満足するように要素表示面2の各凸レンズ220が設計されているので、仮想球S内に提示された立体画像3を任意の方向から観察することができる。また、仮想球S内に提示される立体画像3を複数の観察者が裸眼立体視可能な疑似ボリュームディスプレイが実現される。したがって、立体的な物体の存在感が十分に得られる。
(5) Effect of this Embodiment In the three-dimensional display 1 according to this embodiment, each convex lens 220 on the element display surface 2 so as to satisfy the conditions of the above formulas (1), (2), and (3). Is designed, the stereoscopic image 3 presented in the virtual sphere S can be observed from an arbitrary direction. In addition, a pseudo volume display is realized in which a stereoscopic image 3 presented in the virtual sphere S can be stereoscopically viewed by a plurality of observers. Therefore, a sufficient presence of a three-dimensional object can be obtained.

さらに、内部に立体画像3を提示する立体ディスプレイ1を手に持つことができるので、立体画像3の立体形状を擬似的に触覚することが可能であるとともに、立体画像3を観察する方向を手で操作することができる。また、操作者が任意の方向から要素表示面2の任意の部分に触れることにより立体画像3の対応する部分の形状が変化する。それにより、操作者は、要素表示面2に触れる行為に応答する立体画像3の変形を通して立体画像3により表される物体に直接触れている感覚を得ることができる。これらの結果、触覚的な物体の存在感を得ることができる。   Furthermore, since the 3D display 1 that presents the 3D image 3 can be held in the hand, the 3D shape of the 3D image 3 can be simulated and the direction in which the 3D image 3 is observed can be controlled. Can be operated with. Further, when the operator touches any part of the element display surface 2 from any direction, the shape of the corresponding part of the stereoscopic image 3 changes. Thereby, the operator can obtain a feeling of directly touching the object represented by the stereoscopic image 3 through the deformation of the stereoscopic image 3 in response to the act of touching the element display surface 2. As a result, the presence of a tactile object can be obtained.

(6)立体ディスプレイ1のシミュレーション
実施例の立体ディスプレイにおける立体画像および比較例の立体ディスプレイにおける立体画像の見え方をシミュレーションにより評価した。
(6) Simulation of stereoscopic display 1 The appearance of the stereoscopic image on the stereoscopic display of the example and the stereoscopic image on the stereoscopic display of the comparative example were evaluated by simulation.

実施例の立体ディスプレイは上記実施の形態における凸レンズ220を有し、比較例の立体ディスプレイは一般的なインテグラル・フォトグラフィ(IP)で用いられるハエの目レンズを有する。本シミュレーションでは、仮想球Sの半径rを30mmとし、要素表示面2の一辺の長さを70mmとし、距離zを350mmとした。   The stereoscopic display of the example has the convex lens 220 in the above embodiment, and the stereoscopic display of the comparative example has a fly-eye lens used in general integral photography (IP). In this simulation, the radius r of the phantom sphere S is 30 mm, the length of one side of the element display surface 2 is 70 mm, and the distance z is 350 mm.

図11は比較例のシミュレーション結果を示す図、図12は実施例のシミュレーション結果を示す図である。   FIG. 11 is a diagram showing the simulation result of the comparative example, and FIG. 12 is a diagram showing the simulation result of the example.

図11および図12の(a)は立体ディスプレイを正面に対して垂直な方向から観察した場合の見え方、(b)は立体ディスプレイを正面に対してやや斜め方向から観察した場合の見え方、(c)は立体ディスプレイを正面および側面に対して45度の方向から観察した場合の見え方、(d)は立体ディスプレイを正面、側面および上面に対して45度の方向から観察した場合の見え方を示す。   FIGS. 11 and 12A are views when the stereoscopic display is observed from a direction perpendicular to the front, and FIGS. 11B and 12B are views when the stereoscopic display is observed from a slightly oblique direction. (C) The appearance when the stereoscopic display is observed from a direction of 45 degrees with respect to the front and side surfaces. (D) is the appearance when the stereoscopic display is observed from a direction of 45 degrees with respect to the front, sides, and top surface. Show how.

図11および図12において、白い部分は、正しい像が見えているレンズを示し、黒い部分は、画素からの光線の再現範囲から外れて像が見えないかまたは別の視点のための像が見えているレンズを示す。   In FIG. 11 and FIG. 12, the white part indicates a lens in which a correct image is seen, and the black part is out of the reproduction range of light rays from the pixel, or the image for another viewpoint is visible. Indicates a lens.

図11に示すように、比較例の立体ディスプレイでは、正面より観察した場合に立体画像を見ることができるが、2つまたは3つの面を同時に観察した場合には立体画像の一部または全てを見ることができない。このように、比較例の立体ディスプレイでは、観察する方向によっては立体画像を提示できないレンズが存在する。   As shown in FIG. 11, in the stereoscopic display of the comparative example, a stereoscopic image can be seen when viewed from the front. However, when two or three surfaces are observed simultaneously, part or all of the stereoscopic image is displayed. I can't see it. Thus, in the stereoscopic display of the comparative example, there is a lens that cannot present a stereoscopic image depending on the viewing direction.

これに対して、図12に示すように、実施例の立体ディスプレイでは、どの方向から観察した場合にも、立体画像を見ることができる。実施例の立体ディスプレイでは、任意の方向から観察した場合でも各レンズが仮想球S内に立体画像を提示することができる。   On the other hand, as shown in FIG. 12, the stereoscopic display of the embodiment can see a stereoscopic image when viewed from any direction. In the stereoscopic display of the embodiment, each lens can present a stereoscopic image in the phantom sphere S even when observed from an arbitrary direction.

上記の結果から、実施例の立体ディスプレイでは、仮想球S内に提示される立体画像を任意の方向から複数人で観察することができることがわかる。   From the above results, it can be seen that in the stereoscopic display of the example, the stereoscopic image presented in the virtual sphere S can be observed by a plurality of people from an arbitrary direction.

(7)他の実施の形態
上記実施の形態では、光線制御子として凸レンズアレイ220を用いているが、光線制御子として複数のピンホールを有するピンホールアレイまたは複数の回折格子を有する回折格子アレイを用いてもよい。この場合、ピンホールアレイのピンホールまたは回折格子アレイの回折格子と空間光変調器21との間の距離が上記実施の形態における焦点距離fに相当する。
(7) Other Embodiments In the above embodiment, the convex lens array 220 is used as the light controller, but a pinhole array having a plurality of pinholes or a diffraction grating array having a plurality of diffraction gratings is used as the light controller. May be used. In this case, the distance between the pinhole of the pinhole array or the diffraction grating of the diffraction grating array and the spatial light modulator 21 corresponds to the focal length f in the above embodiment.

また、上記実施の形態では、複数の凸レンズ220がマトリクス状に配置されているが、図13に示すように、複数の凸レンズ220がハエの目状に隙間なく配置されてもよい。   In the above-described embodiment, the plurality of convex lenses 220 are arranged in a matrix. However, as shown in FIG. 13, the plurality of convex lenses 220 may be arranged in a fly's eye shape without a gap.

(8)応用例
本発明に係る立体ディスプレイは、以下のように、手にとって任意の角度から確認するとともに、複数人が同時に観察する要求がある物体の表示に利用することができる。
(8) Application Example The three-dimensional display according to the present invention can be used for displaying an object that is confirmed from an arbitrary angle for the hand and that is requested to be observed by a plurality of persons at the same time.

(a)製品の検査時に、製品の画像をスキャナでデータとして読み込み、そのデータに基づいて製品の立体画像を立体ディスプレイにより提示する。それにより、立体画像を用いて製品の表面の傷等の欠陥の有無を非破壊検査することができる。   (A) At the time of inspection of a product, an image of the product is read as data with a scanner, and a stereoscopic image of the product is presented on a stereoscopic display based on the data. Thereby, the presence or absence of defects such as scratches on the surface of the product can be inspected nondestructively using the stereoscopic image.

(b)空港で手荷検査の際に、手荷物の立体画像を立体ディスプレイで提示することができる。   (B) During baggage inspection at an airport, a three-dimensional image of baggage can be presented on a three-dimensional display.

(c)立体ディスプレイを手で実際に回したり位置を変更したりすることができるので、明示的に機能がわかるインタフェースとして用いることができる。   (C) Since the three-dimensional display can be actually rotated or changed in position by hand, it can be used as an interface whose function is clearly understood.

(d)医療分野において、インフォームドコンセントまたは技術向上教育のために、立体ディスプレイにより臓器模型の立体画像を提示することができる。また、超音波スキャナまたはCT(コンピュータ断層撮影)のデータ等を立体画像として提示し、病状検査に用いることができる。   (D) In the medical field, a three-dimensional image of an organ model can be presented on a three-dimensional display for informed consent or technology improvement education. In addition, ultrasonic scanner or CT (computer tomography) data or the like can be presented as a stereoscopic image and used for medical examination.

(e)日常生活では、立体テレビ電話の立体画像の提示に用いることができる。また、立体写真を提示する立体写真立てとして利用することもできる。   (E) In daily life, it can be used to present a stereoscopic image of a stereoscopic videophone. Moreover, it can also be used as a 3D photo frame for presenting 3D photos.

(f)娯楽の分野では、立体ディスプレイをチェス等の駒の動画立体表示、ルービックキューブの立体画像の提示等に用いることができる。   (F) In the field of entertainment, the stereoscopic display can be used for moving image stereoscopic display of frames such as chess, presentation of a stereoscopic image of a Rubik's cube, and the like.

(g)広告の分野では、手に取って見ることができ、他人に指さしながら説明することができる立体画像を用いた広告を提示することができる。   (G) In the field of advertising, it is possible to present an advertisement using a stereoscopic image that can be picked up by hand and explained while pointing to another person.

(h)遠隔会議の場面において、ネットワークで試作製品の形状データを送信し、立体ディスプレイにより形状データを立体画像として提示することができる。この場合、立体画像を複数人で指し示しながら手に持ち、製品の検討を行うことも可能である。   (H) In a teleconference scene, the shape data of a prototype can be transmitted over a network, and the shape data can be presented as a stereoscopic image on a stereoscopic display. In this case, it is possible to examine the product by holding the stereoscopic image by a plurality of people and holding it in hand.

本発明は、種々の立体形状を提示する立体ディスプレイとして利用することができる。   The present invention can be used as a three-dimensional display that presents various three-dimensional shapes.

本発明の一実施の形態に係る立体ディスプレイを示す模式的外観図である。1 is a schematic external view showing a stereoscopic display according to an embodiment of the present invention. 要素表示面を示す模式的平面図である。It is a typical top view which shows an element display surface. 要素表示面を示す模式的断面図である。It is typical sectional drawing which shows an element display surface. 立体画像を提示するための画像データの作成方法を説明するための図である。It is a figure for demonstrating the production method of the image data for showing a stereo image. 画像データに基づいて立体ディスプレイの空間光変調器に表示される画像を説明するための図である。It is a figure for demonstrating the image displayed on the spatial light modulator of a three-dimensional display based on image data. 任意の方向から観察可能な立体画像を表示するために必要な光線制御の条件を説明するための図である。It is a figure for demonstrating the conditions of light control required in order to display the stereo image which can be observed from arbitrary directions. 任意の方向から観察可能な立体画像を表示するために必要な光線制御の条件を説明するための図である。It is a figure for demonstrating the conditions of light control required in order to display the stereo image which can be observed from arbitrary directions. 任意の方向から観察可能な立体画像を表示するために必要な光線制御の条件を説明するための図である。It is a figure for demonstrating the conditions of light control required in order to display the stereo image which can be observed from arbitrary directions. 本実施の形態に係る立体ディスプレイの制御系の構成を示すブロック図である。It is a block diagram which shows the structure of the control system of the three-dimensional display which concerns on this Embodiment. 本実施の形態に係る立体ディスプレイの制御部の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the control part of the three-dimensional display which concerns on this Embodiment. 比較例のシミュレーション結果を示す図である。It is a figure which shows the simulation result of a comparative example. 実施例のシミュレーション結果を示す図である。It is a figure which shows the simulation result of an Example. レンズアレイの凸レンズの配置の他の例を示す模式図である。It is a schematic diagram which shows the other example of arrangement | positioning of the convex lens of a lens array.

符号の説明Explanation of symbols

1 立体ディスプレイ
2 要素表示面
3 立体画像
10 制御部
11 形状データ記憶部
21 空間光変調器
22 レンズアレイ
23 触覚センサ
30 立体形状
220 凸レンズ
r 仮想球の半径
D 仮想球の中心から各レンズの中心へのベクトル
θ 各レンズの中心から仮想球に引いた接線とベクトルDとのなす角度
p 空間光変調器の画素の大きさ
z 要素表示面の中心から球面までの距離
e 観察者の両眼の間の距離
f 各レンズの焦点距離
α 要素表示面に垂直な方向とベクトルDとのなす角度
N 各レンズに割り当てられる画素の数
V1 観察点
V2 観察点
Pa,Pb,Pc,Pd 画素
b1,b2,b3 ボクセル
DESCRIPTION OF SYMBOLS 1 Stereo display 2 Element display surface 3 Stereo image 10 Control part 11 Shape data storage part 21 Spatial light modulator 22 Lens array 23 Tactile sensor 30 Three-dimensional shape 220 Convex lens r Radius of virtual sphere D From center of virtual sphere to center of each lens Vector θ of the angle p formed by the tangent drawn from the center of each lens to the phantom sphere and the vector D, the size of the pixel of the spatial light modulator z, the distance from the center of the element display surface to the spherical surface e, between the eyes of the observer The distance f is the focal length α of each lens. The angle N between the direction perpendicular to the element display surface and the vector D is the number of pixels assigned to each lens. V1 Observation point V2 Observation points Pa, Pb, Pc, Pd Pixels b1, b2, b3 voxels

Claims (6)

立体的な外面を形成する複数の要素表示面と、
前記複数の要素表示面の表示を制御する制御手段とを備え、
前記複数の要素表示面は、
光を発生する複数の画素により構成される空間光変調器と、
複数の光線制御子からなり、前記空間光変調器の各画素から発生される光の方向を制御する光線制御子アレイとを含み、
前記制御手段は、前記複数の要素表示面により囲まれる空間の仮想球内に立体画像が提示されるように前記空間光変調器を制御し、
観察者の視点が前記仮想球と同心で前記複数の要素表示面よりも外側に形成される球面の内側にあるとし、rを前記仮想球の半径とし、Dを前記仮想球の中心から各光線制御子の中心へのベクトルとし、θを各光線制御子の中心から前記仮想球に引いた接線とベクトルDとのなす角度とし、pを前記空間光変調器の画素の大きさとし、zを要素表示面の中心から前記球面までの距離とし、eを観察者の両眼の間の距離とし、fを各光線制御子から前記空間光変調器までの距離とし、αを要素表示面に垂直な方向とベクトルDとのなす角度とし、Nを各光線制御子に割り当てられる画素の数とした場合に、各光線制御子から前記空間光変調器までの距離f、要素表示面での各光線制御子の位置および各光線制御子に割り当てられる画素の数Nは、
θ=sin−1(r/|D|) …(1)
f≧pz/e …(2)
pN≧f・tan(α+θ)−f・tan(α−θ) …(3)
を満足するように設定されることを特徴とする立体ディスプレイ。
A plurality of element display surfaces forming a three-dimensional outer surface;
Control means for controlling display of the plurality of element display surfaces,
The plurality of element display surfaces are:
A spatial light modulator composed of a plurality of pixels that generate light;
A light controller array comprising a plurality of light controller, and controlling a direction of light generated from each pixel of the spatial light modulator,
The control means controls the spatial light modulator so that a stereoscopic image is presented in a virtual sphere of a space surrounded by the plurality of element display surfaces;
An observer's viewpoint is concentric with the phantom sphere and is inside a spherical surface formed outside the plurality of element display surfaces, r is a radius of the phantom sphere, and D is a ray from the center of the phantom sphere. A vector to the center of the controller, θ is an angle formed by a tangent drawn from the center of each ray controller to the phantom sphere and the vector D, p is a pixel size of the spatial light modulator, and z is an element The distance from the center of the display surface to the spherical surface, e the distance between the eyes of the observer, f the distance from each light controller to the spatial light modulator, and α perpendicular to the element display surface When the angle between the direction and the vector D is used, and N is the number of pixels assigned to each light controller, the distance f from each light controller to the spatial light modulator, each light control on the element display surface The position of the child and the number N of pixels assigned to each light control element is
θ = sin −1 (r / | D |) (1)
f ≧ pz / e (2)
pN ≧ f · tan (α + θ) −f · tan (α−θ) (3)
3D display characterized by being set to satisfy the above.
前記複数の要素表示面の各々は平面状の四角形状を有し、前記複数の要素表示面は直方体を形成することを特徴とする請求項1記載の立体ディスプレイ。 The three-dimensional display according to claim 1, wherein each of the plurality of element display surfaces has a planar quadrangular shape, and the plurality of element display surfaces form a rectangular parallelepiped. 前記複数の要素表示面の各々は平面状の正方形状を有し、前記複数の要素表示面は立方体を形成することを特徴とする請求項1または2記載の立体ディスプレイ。 The three-dimensional display according to claim 1 or 2, wherein each of the plurality of element display surfaces has a planar square shape, and the plurality of element display surfaces form a cube. 前記空間光変調器は、平面型マトリクス表示素子を含むことを特徴とする請求項1〜3のいずれかに記載の立体ディスプレイ。 The three-dimensional display according to claim 1, wherein the spatial light modulator includes a planar matrix display element. 前記要素表示面に沿って設けられる触覚センサをさらに備え、
前記制御手段は、前記触覚センサの出力信号に応答して前記仮想球内に提示される立体画像が変化するように前記空間光変調器を制御することを特徴とする請求項1〜4のいずれかに記載の立体ディスプレイ。
A tactile sensor provided along the element display surface;
The said control means controls the said spatial light modulator so that the three-dimensional image shown in the said virtual sphere changes in response to the output signal of the said tactile sensor. The three-dimensional display of crab.
前記複数の光線制御子は複数のレンズであり、前記光線制御子アレイはレンズアレイであることを特徴とする請求項1〜5のいずれかに記載の立体ディスプレイ。 The three-dimensional display according to claim 1, wherein the plurality of light control elements are a plurality of lenses, and the light control element array is a lens array.
JP2007232647A 2007-09-07 2007-09-07 3D display Expired - Fee Related JP5045917B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007232647A JP5045917B2 (en) 2007-09-07 2007-09-07 3D display

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007232647A JP5045917B2 (en) 2007-09-07 2007-09-07 3D display

Publications (2)

Publication Number Publication Date
JP2009063879A true JP2009063879A (en) 2009-03-26
JP5045917B2 JP5045917B2 (en) 2012-10-10

Family

ID=40558493

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007232647A Expired - Fee Related JP5045917B2 (en) 2007-09-07 2007-09-07 3D display

Country Status (1)

Country Link
JP (1) JP5045917B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021048459A (en) * 2019-09-17 2021-03-25 キヤノン株式会社 Image processing apparatus, image processing method, and program
WO2021084817A1 (en) * 2019-10-29 2021-05-06 ソニー株式会社 Image display device presenting kinesthetic sense

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021048459A (en) * 2019-09-17 2021-03-25 キヤノン株式会社 Image processing apparatus, image processing method, and program
JP7395296B2 (en) 2019-09-17 2023-12-11 キヤノン株式会社 Image processing device, image processing method, and program
WO2021084817A1 (en) * 2019-10-29 2021-05-06 ソニー株式会社 Image display device presenting kinesthetic sense
US11914797B2 (en) 2019-10-29 2024-02-27 Sony Group Corporation Image display apparatus for enhanced interaction with a user

Also Published As

Publication number Publication date
JP5045917B2 (en) 2012-10-10

Similar Documents

Publication Publication Date Title
CN107024775B (en) Stereoscopic display device
AU2017297627B2 (en) Encoded energy waveguides for holographic super resolution
US8970484B2 (en) Three dimensional display device and three dimensional display method
EP3671318B1 (en) Near-eye display device
KR101115700B1 (en) display apparatus for selecting display from 2-dimension and 3-dimension image
US20050083516A1 (en) Method and system for calibration of optics for an imaging device
JP2024045434A (en) display device
Koizumi et al. Optical system to display mid-air images on a glossy plane and remove ground images
Bohdal Devices for Virtual and Augmented Reality
JP4845135B2 (en) 3D display system
JP5045917B2 (en) 3D display
CN112087620B (en) Splicing generation method for multiple display devices for displaying stereoscopic light field
Miyazaki et al. Floating three-dimensional image display using micro-mirror array imaging element
JP4958289B2 (en) 3D display
JP2010233158A (en) Program, information memory medium, and image generating device
TW201947285A (en) Image display apparatus
JP2009205058A (en) Stereoscopic vision display device
JP2014153602A (en) Optical plate and space image display device
CN209879155U (en) Stereoscopic projection device based on double gratings
JP2017090620A (en) Display device
Soomro et al. Integrated 3D display and imaging using dual purpose passive screen and head-mounted projectors and camera
US10605968B2 (en) Imaging system
JP6516161B2 (en) Floating image display device and display method
KR102642697B1 (en) Multi-view display system with view-end indicator, multi-view display and method
CN209982524U (en) Protective sleeve and device for mobile terminal

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100827

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110920

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110921

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120626

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120703

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150727

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5045917

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees