WO2006070499A1 - 立体画像表示方法 - Google Patents

立体画像表示方法 Download PDF

Info

Publication number
WO2006070499A1
WO2006070499A1 PCT/JP2005/011738 JP2005011738W WO2006070499A1 WO 2006070499 A1 WO2006070499 A1 WO 2006070499A1 JP 2005011738 W JP2005011738 W JP 2005011738W WO 2006070499 A1 WO2006070499 A1 WO 2006070499A1
Authority
WO
WIPO (PCT)
Prior art keywords
dimensional
light
display
image
emitting element
Prior art date
Application number
PCT/JP2005/011738
Other languages
English (en)
French (fr)
Inventor
Susumu Tachi
Tomohiro Endo
Naoki Kawakami
Original Assignee
Japan Science And Technology Agency
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Science And Technology Agency filed Critical Japan Science And Technology Agency
Priority to US11/722,846 priority Critical patent/US7961182B2/en
Priority to CA2599833A priority patent/CA2599833C/en
Publication of WO2006070499A1 publication Critical patent/WO2006070499A1/ja

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
    • G02B30/27Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving lenticular arrays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
    • G02B30/30Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving parallax barriers
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/50Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images the image being built up from image elements distributed over a 3D volume, e.g. voxels
    • G02B30/54Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images the image being built up from image elements distributed over a 3D volume, e.g. voxels the 3D volume being generated by moving a 2D surface, e.g. by vibrating or rotating the 2D surface
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/02Stereoscopic photography by sequential recording
    • G03B35/04Stereoscopic photography by sequential recording with movement of beam-selecting members in a system defining two or more viewpoints
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/18Stereoscopic photography by simultaneous viewing
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B37/00Panoramic or wide-screen photography; Photographing extended surfaces, e.g. for surveying; Photographing internal surfaces, e.g. of pipe
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/31Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/388Volumetric displays, i.e. systems where the image is built up from picture elements distributed through a volume
    • H04N13/393Volumetric displays, i.e. systems where the image is built up from picture elements distributed through a volume the volume being generated by a moving, e.g. vibrating or rotating, surface

Definitions

  • the present invention relates to a stereoscopic image display method that does not require wearing of stereoscopic glasses.
  • Non-Patent Documents 1, 2, and 3 propose a three-dimensional display device with a structure in which a one-dimensional light source array aligned in a vertical direction is rotated inside a cylindrical parallax barrier [Non-Patent Documents 1, 2, and 3].
  • This device has the feature that an image can be displayed with a finer parallax interval as compared with the prior art by rotating a cylindrical Noralux noria in the opposite direction to the light source array!
  • a stereoscopic image can be actually displayed using this device and observed from the entire circumference.
  • Patent Document 1 also proposes a stereoscopic display device using a light-emitting array that is circularly scanned and Noralux Noria.
  • Patent Document 2 discloses that a plurality of pixels form a cylindrical display surface, and each pixel can emit light of different colors and brightness depending on the angle in the horizontal direction.
  • a stereoscopic image display device that presents a standing image that can be viewed with the naked eye to a person outside the display surface using a three-dimensional display device configured as described above is shown.
  • Non-Patent Document 1 Tomohiro Kusumi and Makoto Sato “Real-time 3D display by rotating 1D light source array”, Journal of the Institute of Image Information and Television Engineers, Vol. 53, No. 3, pp. 399- 404, (1999)
  • Non-Patent Document 2 Tomohiro Todo, Yoshihiro Kashiwagi, Ikuo Nissan, Makoto Sato, “A 3D Video Display”, 3D Image Conference, 99 Proceedings, pp. 99-104 (1999)
  • Non-Patent Document 3 “Two-Dimensional 3D Display” written by Tomohiro Todo, Yoshihiro Kashiwagi, Ikuo Honda, Makoto Sato, IEICE Transactions D—II Vol. J84-D-II, No. 6, ppl003— 1011, (2001)
  • Non-Patent Document 4 Tomohiro Kusudo and Ikuo Honda “All-around 3D Display Color Video Display System”, 3D Conference 2002, pp. 89-92 (2002)
  • Patent Document 1 Special No. 2003-195214 (Applicant: Seiko Epson Corporation)
  • Patent Document 2 JP-A-10-97013 (Applicant: Futaba Electronics Co., Ltd.) Disclosure of the Invention
  • the data given to the 3D display device is the 3D that determines the color and brightness of the light for the 3 parameters, which are the 2 parameters that specify the pixel position plus the horizontal angle parameter that emits light. It is data of. Generating this type of data to achieve the desired image display is called rendering here.
  • An object of the present invention is to provide a stereoscopic image display method capable of performing stereoscopic display of a live-action image and a live-action simulated image.
  • Another object of the present invention is to provide a stereoscopic image display method capable of supporting real-time display of a photographed image and a photographed simulated image.
  • the source of the image information is a plurality of two-dimensional images having parallax (also referred to as parallax images).
  • parallax images When this is displayed as a stereoscopic image, it is necessary to realize a state in which one of a plurality of two-dimensional images can be selectively viewed according to the position of the viewpoint. This is the same as the conventional multi-lens stereoscopic image such as the lenticular method.
  • a plurality of pixels form a cylindrical display surface, and each pixel can be configured to emit light of different colors and brightness depending on the angle in the horizontal direction.
  • a stereoscopic image that can be viewed with the naked eye is presented to a person outside the display surface.
  • a three-dimensional display device for example, the above-described three-dimensional display device developed by the inventors can be used.
  • a plurality of one-dimensional light-emitting element arrays each having a plurality of light-emitting elements arranged in rows are arranged at predetermined intervals in the circumferential direction.
  • the light-shielding portion is arranged in the circumferential direction. And a light-shielding portion structure arranged at a predetermined interval. Then, under the condition that the rotation speed of the light emitting element array structure is slower than the rotation speed of the light shielding section structure, the light emitting element array structure and the light shielding section structure are rotated in opposite directions and a plurality of primary elements are rotated.
  • a plurality of pixels are formed in the space between the light emitting element array structure and the light shielding portion structure.
  • the light emitting element array structure and the light shielding part structure may be rotated in the same direction.
  • they may be rotated while maintaining a constant speed ratio.
  • a light-emitting element array structure in which a plurality of light-emitting elements are arranged two-dimensionally on a cylindrical surface is used instead of a light-emitting element array structure composed of a plurality of one-dimensional light-emitting element arrays, light emission is performed.
  • the element array structure may be fixed and the light shielding portion structure may be rotated.
  • the method of the present invention can naturally be applied to the case of using another known three-dimensional display device such as Japanese Patent Application Laid-Open No. 10-097013 that is not limited to the above three-dimensional display device.
  • a subject to be displayed as a stereoscopic image is defined as one subject center point.
  • a plurality of two-dimensional pseudo images equivalent to the plurality of two-dimensional images that can be obtained by using computer graphics technology are created and acquired as a plurality of two-dimensional images (first step).
  • the acquired two-dimensional images are stored in memory when data processing is performed later, and may not be stored in memory when data is processed in real time.
  • the subject center point is one starting point for measuring the distance on the subject side when, for example, a subject is photographed with a photographing device from the same distance from the outside to the entire circumference.
  • one 2D image is selected from the plurality of 2D images.
  • the viewpoint power corresponding to the selected 2D image is selected, and one pixel that can be seen is selected as the middle power of multiple pixels (second step).
  • the viewpoint position is a position corresponding to the lens principal point of the photographing device (camera) that captured the selected two-dimensional image when the subject center point is made to correspond to the cylinder center of the display surface.
  • the image center point corresponding to the subject center point in the two-dimensional image coincides with the center of the cylindrical display surface, and
  • the angle formed by the straight line connecting the viewpoint position and the center of the display surface with the virtual plane is the angle formed by the line connecting the subject center point and the lens principal point of the camera (camera) and the imaging surface of the camera (camera).
  • the virtual plane is arranged so as to match (third step).
  • the image center point is the point where the subject center point appears on the 2D image.
  • a virtual extension line extending to the virtual plane through the selected pixel is assumed (fourth step). Based on the color on the two-dimensional image that is assumed to be pasted on the virtual surface corresponding to the intersection point of this virtual extension line and the virtual surface, this one pixel force in the direction toward the viewpoint position
  • the display color of one pixel is determined (fifth step). In the simplest case, if the color on the 2D image assumed to be pasted on the virtual plane corresponding to the intersection mentioned above is determined as the display color of one pixel in the direction of one pixel force at the viewpoint position Good. Occurs when a 2D image that is assumed to be pasted on a virtual surface with a force contains a component that is higher than the maximum spatial frequency that can be displayed by the display device.
  • the color on the two-dimensional image assumed to be pasted on the virtual surface corresponding to the intersection point of the virtual extension line and the virtual surface, and a plurality of points around the intersection point One pixel by performing a weighted average calculation process according to the distance between the intersection and the plurality of points based on the corresponding plurality of colors on the two-dimensional image assumed to be pasted on the virtual surface It is preferable to determine the display color.
  • the maximum spatial frequency that can be displayed by the display device is determined by the spacing between two adjacent pixels, and the spacing force of the horizontal angle discretization in which one pixel can independently control color and brightness.
  • the second to fifth steps are executed for a plurality of pixels visible from one viewpoint position to determine display colors for the plurality of pixels (sixth step). Then, the second to sixth steps are executed for all of the corresponding viewpoint positions for all of the plurality of two-dimensional images (seventh step).
  • the display colors determined by the first to seventh steps are obtained.
  • the 3D display device is controlled so that the color of light emitted by multiple pixels changes according to the horizontal angle from which the light is emitted (eighth step).
  • a two-dimensional image corresponding to each viewpoint position using a three-dimensional display device in which pixels are two-dimensionally arranged on a virtual cylindrical display surface. Can be displayed independently, so that it is possible to execute a real-time image or a three-dimensional display of the simulated image in real time.
  • the display of the photographed image can be displayed in real time (real time).
  • the plurality of light emitting elements included in the light emitting element array include light emitting diodes, laser diodes, organic EL, plasma display elements, FEDs, SEDs, CRTs, and other spatial light such as liquid crystal display elements and DMD elements.
  • a combination of a modulator and a suitable light source can be used.
  • FIG. 1 is a diagram used for explaining a conventional method.
  • FIG. 2 is a diagram showing a basic structure of a three-dimensional display device used in the embodiment of the present invention. is there.
  • FIG. 3 is a diagram used for explaining the principle of the method of the present invention.
  • FIG. 4 is a diagram showing a specific method of identifying pixels used in explaining the principle of the method of the present invention with reference to FIG.
  • FIG. 5 is a diagram used as an auxiliary when explaining the principle of the method of the present invention with reference to FIG. 3.
  • FIG. 6 is a flowchart showing the contents of an example of a software algorithm used when steps 2 to 8 of the method according to the embodiment of the present invention are realized using a computer.
  • FIG. 2 shows a basic structure of the three-dimensional display device 1 used in the embodiment of the present invention.
  • the three-dimensional display device 1 includes a composite rotating structure 3.
  • the composite rotating structure 3 has a structure including a light emitting element array structure 5 and a light shielding portion structure 7.
  • the light emitting element array structure 5 has a structure in which a plurality of one-dimensional light emitting element arrays 9 are arranged at predetermined intervals in the circumferential direction.
  • the one-dimensional light-emitting element array 9 has a structure in which a plurality of light-emitting diodes LED are attached to a support member so as to form a line vertically (vertically).
  • the plurality of one-dimensional light-emitting element arrays 9 constituting the light-emitting element array structure 5 each have a structure in which single-color light emitting diodes are arranged in the vertical direction, and three types of red, green and blue A one-dimensional light emitting element array is repeatedly arranged in the circumferential direction to form a light emitting element array structure 5.
  • the one-dimensional light emitting element array may have a structure in which three color light emitters are contained in one package, and a plurality of light emitting elements are vertically arranged.
  • the plurality of one-dimensional light emitting element arrays 5 are connected by ring-shaped thin and connecting frames (not shown) arranged at the upper and lower positions of each one-dimensional light emitting element array 5.
  • the light shielding part structure 7 called a parallax barrier is arranged outside the light emitting element array structure 5, and has a plurality of slits for presenting a stereoscopic image to a plurality of people outside the three-dimensional display device 1, respectively.
  • 10 has a structure in which a plurality of light-shielding portions 8 are arranged at predetermined intervals in the circumferential direction.
  • the light emitting element array structure 5 and the light shielding portion structure 7 are mutually connected. Rotate with a constant speed ratio.
  • the light emitting element array structure 5 and the light shielding part structure 7 may rotate in opposite directions as shown in FIG. 2 as long as they rotate while maintaining a constant speed ratio. You may rotate in the direction.
  • a description of the drive structure for rotating the light emitting element array structure 5 and the light shielding portion structure 7 is omitted.
  • Both the light-shielding part structure 7 (pararata barrier) and the light-emitting element array structure 5 inside thereof rotate.
  • the direction of rotation is the opposite.
  • the relative position changes rapidly due to the rotation of both the light emitting element array structure 5 and the light shielding part structure 7 (parallax barrier).
  • the direction of the thin light beam exiting through the slit 10 of the light-shielding structure 7 is scanned, and time-division is performed by changing the luminance of the light-emitting diode elements LED constituting the one-dimensional light-emitting element array in synchronization therewith.
  • the light is reproduced with.
  • the specific light shielding part structure (parallax barrier) 7 rotates at a high speed of 1800 rpm, for example, in a prototype.
  • the light-emitting element array structure 5 rotates at a speed of about 100 rpm by the prototype.
  • the three-dimensional display device 1 is used to perform a solid display as follows.
  • a rendering method for carrying out the method of the present invention will be described with reference to FIGS.
  • the 3D display device 1 it is assumed that one pixel in the circumferential direction and m pixels in the axial direction are arranged two-dimensionally on a cylindrical surface (cylindrical display surface). It is expressed as (j, k).
  • the P subscript represents the position in the circumferential direction
  • the second subscript represents the position in the axial direction of the cylinder. Therefore, all pixels are represented by P (l, 1) to P (l, m).
  • a subject to be displayed as a three-dimensional image is determined by defining a single subject center point and photographing it with a photographing device (camera) from the outside to the entire circumference centered on that point. Or multiple equivalents of multiple 2D images that can be obtained by taking a subject at the center point of the subject and taking a picture with a photographing device over the entire circumference around that point.
  • a two-dimensional pseudo image is created using computer graphics technology and acquired as a plurality of two-dimensional images (first step). The plurality of two-dimensional images are stored in a memory as image data that can be processed by a computer. If the 2D image is a live-action image, the input of the 3D display device 1 is n 2 images taken by the camera.
  • shooting may be performed with a single camera or a plurality of cameras.
  • the type of camera is arbitrary. Taking into account later data processing, it is preferable to shoot with a digital camera
  • one two-dimensional image I (i) is selected from the plurality of stored two-dimensional images [1 (1) to I (n)], and a plurality of pixels P (j, k) are selected. From the viewpoint position V (i) force corresponding to I (i), one pixel P (j, k) that can be seen is selected (second step).
  • the viewpoint position V (i) is a position corresponding to the lens principal point of the camera that captured the two-dimensional image I (i) when the object center point corresponds to the cylinder center O. If the magnification is different between when a 2D image is actually taken and when a 3D image is displayed, the position of V (i) can be changed according to the magnification.
  • the image center point corresponding to the subject center point in the 2D image I (i) is cylindrical.
  • the angle between the center of the display surface, i.e., the cylindrical center O, and the straight line connecting the viewpoint position V (i) and the cylindrical center O with the virtual plane B (i) is the subject center point and the camera lens principal point.
  • the virtual plane B (i) is arranged so as to coincide with the angle formed by the straight line connecting the and the imaging plane of the camera (third step).
  • a virtual extension line PL extending from the viewpoint position V (i) through the selected pixel P (j, k) to the virtual plane B (i) is assumed (fourth step). ). These assumptions are actually performed as data operations using a computer.
  • the virtual plane B (i) may be a shape such as a curved surface according to it. In this case, the virtual plane B (i) is arranged at an appropriate position with respect to the viewpoint position V (i) according to the shooting conditions.
  • the maximum spatial frequency that can be displayed by the display device is determined from the pixel interval and the horizontal angle discretization interval in which one pixel can independently control color and brightness. .
  • One viewpoint position V (i) force The above-described second to fifth steps are executed for a plurality of visible pixels to determine display colors for the plurality of pixels P (sixth step). Then, the second to sixth steps are executed for all viewpoint positions V (i) corresponding to all the two-dimensional images (seventh step), and all the plurality of pixels also have a plurality of viewpoint position forces.
  • the display surface is viewed, the light emission timings of the plurality of light emitting elements LED included in the primary light emitting element array 9 are controlled so that the display color determined in the first to seventh steps is obtained (the eighth step). ).
  • FIG. 6 is a flowchart showing the contents of an example of a software algorithm used when the above steps 2 to 8 are implemented using a computer.
  • a plurality of pixels form a cylindrical display surface, and each pixel is configured to emit light of different colors and brightness depending on the angle in the horizontal direction.
  • stereoscopic display of a live-action image or a live-action simulated image can be realized in such a way that the external force of the display can be visually recognized by the naked eye over the entire circumference.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Optics & Photonics (AREA)
  • Computer Graphics (AREA)
  • Theoretical Computer Science (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Processing Or Creating Images (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)

Abstract

 本発明は、実写画像の立体表示を行うことができる立体画像表示方法を提供する。1つの2次元画像I(i)を選択し、対応する視点位置V(i)から見ることができる1つの画素P(j,k)を複数の画素の中から選択する。選択した2次元画像を貼り付けた仮想面B(i)を想定し、2次元画像中における被写体中心点に対応する画像中心点が、ディスプレイ面の中心と一致するように仮想面を配置する。次に視点位置V(i)から選択した1つの画素P(j,k)を通って仮想面B(i)まで延びる仮想延長線PLを想定する。仮想延長線PLと仮想面B(i)とが交わる交点に対応する仮想面B(i)に貼り付けたものと想定した2次元画像上の色を、1つの画素から視点位置に向かう方向の1つの画素の表示色として決定する。

Description

立体画像表示方法
技術分野
[0001] 本発明は、立体視用メガネの装着が不要な立体画像表示方法に関するものである 背景技術
[0002] 発明者等は、マルチプレックスホログラムのように、裸眼で多人数が同時に 360度 全周から観察できる 3次元ディスプレイ装置の一つとして、高速変調可能な 1次元の LED等の発光素子を鉛直方向に一列に並べた 1次元の光源アレイを円筒形のパラ ラクスバリアの内側で回転させる構造の 3次元ディスプレイ装置を提案して 、る [非特 許文献 1, 2及び 3]。この装置は、光源アレイと逆方向に円筒ノララクスノリアを回転 させることによって従来技術に比して細かい視差間隔で画像を表示できるという特長 を有して!/、る。そして本発明の実施で使用する 3次元ディスプレイ装置については、 この装置を用いて実際に立体像を表示し、全周から観察できることが確認されている (非特許文献 4)。
[0003] さらに特開 2003— 195214号公報 [特許文献 1]にも周回走査される発光アレイと ノララクスノリアを用いた立体表示装置が提案されて ヽる。
[0004] また特開平 10— 97013号公報 [特許文献 2]には、複数の画素が円筒形のデイス プレイ面を形成し且つ各画素が水平方向の角度によって異なる色及び明るさの光を 出せるように構成されて ヽる 3次元ディスプレイ装置を用いて、裸眼で視認できる立 体画像をディスプレイ面の外側に居る人に提示する立体画像表示装置の他の例が 示されている。
非特許文献 1:圓道知博、佐藤誠著「1次元光源列の回転操作による全周リアルタイ ム 3次元ディスプレイ」、映像情報メディア学会誌、 Vol. 53, No. 3, pp. 399-404 , (1999)
非特許文献 2 :圓道知博、梶木善裕、本田捷夫、佐藤誠著の「全周型 3次元動画ディ スプレイ」、 3次元画像コンファレンス, 99論文集, pp. 99〜104 (1999) 非特許文献 3 :圓道知博、梶木善裕、本田捷夫、佐藤誠著の「全周型 3次元ディスプ レイ」電子情報通信学会論文誌 D— II Vol. J84-D-II, No. 6, ppl003— 1011 , (2001)
非特許文献 4:圓道知博,本田捷夫著の「全周型 3次元ディスプレイカラー動画像表 示システム」、 3次元画像コンファレンス 2002論文集, pp. 89 - 92 (2002) 特許文献 1:特開 2003— 195214号公報(出願人:セイコーエプソン株式会社) 特許文献 2:特開平 10— 97013号公報(出願人:双葉電子工業株式会社) 発明の開示
発明が解決しょうとする課題
[0005] 前述の 3次元ディスプレイ装置では、各画素が出す光を水平方向の角度によって 独立に色と明るさを制御することによって立体画像の表示を行う。したがって 3次元デ イスプレイ装置に与えるデータは、画素の位置を特定する 2つのパラメータに光を出 す水平方向の角度のパラメータを加えた 3つのパラメータに対して光の色と明るさを 定める 3次元のデータである。 目的とする画像の表示を実現するためにこの形式のデ ータを生成することをここではレンダリングと呼ぶこととする。
[0006] 従来は、 CG画像のみを表示させており、計算機内の立体モデルから直接レンダリ ングを行う、いわばモデルベースレンダリングによって立体表示を行っていた。その 方法は図 1に示すように、画面 101上の各画素 102, 103 · · 'からの光線を、表示す べき立体画像の物体 104〜106から逆方向にトレースする方法で光線の色を決定し 、前述の 3次元データを生成していた。この方法は、物体からの光線を再現するとい う考え方において最も理解しやすい方法であると思われる。しかしながら従来の方法 では、計算機内の立体モデル力 オフラインで生成したデータの表示のみ行ってお り、人物等の実写画像の表示は実現できな力つた。
[0007] 本発明の目的は、実写画像及び実写模擬画像の立体表示を行うことができる立体 画像表示方法を提供することにある。
[0008] また本発明の他の目的は、実写画像及び実写模擬画像の実時間表示に対応でき る立体画像表示方法を提供することにある。
課題を解決するための手段 [0009] 実写画像を扱う場合、画像情報のソースは視差を持った複数の 2次元画像 (視差 画像とも言う)である。これを立体画像として表示する場合には、視点の位置に応じて 複数の 2次元画像の 1つが選択的に見える状態を実現する必要がある。これは従来 のレンティキユラ方式等の多眼式立体画像の考えと同じである。
[0010] 本発明の立体画像表示方法では、複数の画素が円筒形のディスプレイ面を形成し 且つ各画素が水平方向の角度によって異なる色及び明るさの光を出せるように構成 されて ヽる 3次元ディスプレイ装置を用いて、裸眼で視認できる立体画像をディスプ レイ面の外側に居る人に提示する。このような 3次元ディスプレイ装置としては、例え ば、発明者等が開発した前述の 3次元ディスプレイ装置を用いることができる。この発 明者等が開発した 3次元ディスプレイ装置は、複数の発光素子が縦に列を成すよう に配置されてなる一次元発光素子列が、周方向に所定の間隔をあけて複数配置さ れて構成された発光素子列構造体と、発光素子列構造体の外側に配置されて、複 数のスリットが周方向に間隔をあけて形成された構造を作るために、遮光部が周方向 に所定の間隔をあけて配置されてなる遮光部構造体とを備えている。そして発光素 子列構造体の回転速度が遮光部構造体の回転速度よりも遅くなる条件の下で、発光 素子列構造体と遮光部構造体とを、相反する方向に回転させ且つ複数の一次元発 光素子列に含まれる複数の発光素子の発光タイミングを制御することにより、発光素 子列構造体と遮光部構造体との間の空間に複数の画素を形成する。これら複数の 画素からの光で、裸眼で視認できる立体画像を外側に居る人に提示する。なお原理 的には、発光素子列構造体と遮光部構造体とを同じ方向に回転させてもよい。発光 素子列構造体と遮光部構造体と回転させる場合には、互いに一定の速度比を保つ て回転させればよい。また複数の一次元発光素子列から構成された発光素子列構 造体の代わりに、複数の発光素子が円筒面上に 2次元に配置されてなる発光素子列 構造体を用いる場合には、発光素子列構造体を固定し、遮光部構造体を回転させる ようにしてもよい。
[0011] 本発明の方法は、上記の 3次元ディスプレイ装置だけでなぐ特開平 10— 097013 号等の公知の他の 3次元ディスプレイ装置を用いる場合にも当然にして適用できる。
[0012] 本発明の方法では、まず立体画像として表示する被写体を、 1点の被写体中心点 を定めてその点を中心として外側から全周にわたって撮影機器で撮影して複数の 2 次元画像を取得するか、または被写体を被写体中心点を中心として外側力 全周に わたって撮影機器で撮影して得ることができる複数の 2次元画像と同等の複数の 2次 元疑似画像をコンピュータグラフィックス技術を用 ヽて作成してこれを複数の 2次元画 像として取得する(第 1のステップ)。取得した複数の 2次元画像は、データ処理が後 で行われる場合には、メモリに保存され、データがリアルタイムで処理されるときには 、メモリに保存しなくてもよい。ここで被写体中心点は、例えば、ある被写体をその外 側から全周にわたつて等 ヽ距離から撮影機器で撮影する場合における、被写体側 の距離測定のための一方の起点である。
[0013] 次に、複数の 2次元画像から 1つの 2次元画像を選択する。そして選択した 2次元 画像に対応する視点位置力 見ることができる 1つの画素を複数の画素の中力 選 択する(第 2のステップ)。ここで視点位置とは、被写体中心点をディスプレイ面の円 筒中心に対応させた場合における、選択した 2次元画像を撮影した撮影機器 (カメラ )のレンズ主点に対応する位置である。
[0014] そして選択した 1つの 2次元画像を貼り付けた仮想面を想定し、 2次元画像中にお ける被写体中心点に対応する画像中心点が円筒形のディスプレイ面の中心と一致し 、かつ視点位置とディスプレイ面の円筒中心とを結んだ直線が仮想面となす角度が 被写体中心点と撮影機器 (カメラ)のレンズ主点とを結んだ直線と撮影機器 (カメラ) の撮像面がなす角度と一致するように仮想面を配置する(第 3のステップ)。ここで画 像中心点とは、被写体中心点が 2次元画像上に写っている点である。
[0015] その次に、視点位置力 前記選択した 1つの画素を通って仮想面まで延びる仮想 延長線を想定する(第 4のステップ)。この仮想延長線と仮想面とが交わる交点に対 応する、仮想面に貼り付けたものと想定した 2次元画像上の色に基づいて、この 1つ の画素力 視点位置に向力う方向の 1つの画素の表示色を決定する(第 5のステップ )。最も単純には、前述の交点に対応する仮想面に貼り付けたものと想定した 2次元 画像上の色を、 1つの画素力 視点位置に向力 方向の 1つの画素の表示色として 決定すればよい。し力しながら仮想面に貼り付けたものと想定した 2次元画像に、ディ スプレイ装置が表示可能な最大の空間周波数より高い成分が含まれる場合に発生 するエイリアシングを防止するためには、仮想延長線と仮想面とが交わる交点に対応 する仮想面に貼り付けたものと想定した 2次元画像上の色と、前記交点の周囲にある 複数の点に対応する、仮想面に貼り付けたものと想定した 2次元画像上の複数の色 とに基づいて、前記交点と前記複数の点との距離に応じた重み付き平均演算処理を 行って 1つの画素の表示色を決定するのが好ましい。なお、ディスプレイ装置が表示 可能な最大の空間周波数は、隣り合う二つの画素の間隔、および、 1つの画素が色 及び明るさを独立に制御しうる水平方向の角度の離散化の間隔力 決定される。
[0016] 1つの視点位置から見える複数の画素について第 2乃至第 5のステップを実行して 複数の画素についての表示色を決定する(第 6のステップ)。そして複数の 2次元画 像の全てについて、その対応する全ての視点位置に関して、第 2乃至第 6のステップ を実行する(第 7のステップ)。
[0017] そして複数の画素が、複数の 2次元画像に対応する複数の視点位置力 それぞれ ディスプレイ面を見たときに、第 1乃至第 7のステップにより決定された前記表示色に なるように、複数の画素が出す光の色を光が出る水平方向の角度に応じて変えるよう に 3次元ディスプレイ装置を制御する(第 8のステップ)。
[0018] 本発明の方法によれば、仮想の円筒形のディスプレイ面上に 2次元的に画素が配 列された 3次元ディスプレイ装置を用いて、それぞれの視点位置に対して対応する 2 次元画像を独立に表示できるので、実写画像またはその模擬画像の立体表示を実 時間で実行することが可能になる。
[0019] 第 1のステップの実行と前記第 2乃至第 7のステップの実行とをリアルタイムで行え ば、実写画像の表示をリアルタイム(実時間)表示することができる。
[0020] なお発光素子列に含まれる複数の発光素子としては発光ダイオード、レーザーダイ オード、有機 EL、プラズマディスプレイ素子、 FED、 SED、 CRTなどのほか、液晶表 示素子、 DMD素子等の空間光変調器と適当な光源を組み合わせたものが使用でき る。
図面の簡単な説明
[0021] [図 1]従来の方法を説明するために用いる図である。
[図 2]本発明の実施の形態で用いる 3次元ディスプレイ装置の基本構造を示す図で ある。
[図 3]本発明の方法の原理を説明するために用いる図である。
[図 4]図 3を用いて本発明の方法の原理を説明する際に用いる画素の特定の仕方を 示す図である。
[図 5]図 3を用いて本発明の方法の原理を説明する際に補助的に用いる図である。
[図 6]本発明の実施の形態の方法のステップ 2乃至 8をコンピュータを利用して実現 する場合に用いるソフトウェアのアルゴリズムの一例の内容を示すフローチャートであ る。
発明を実施するための最良の形態
[0022] 以下図面を参照して本発明の立体画像表示方法の実施の形態の一例を詳細に説 明する。
[0023] 図 2は、本発明の実施の形態で用いる 3次元ディスプレイ装置 1の基本構造を示し ている。この 3次元ディスプレイ装置 1は、複合回転構造体 3を備えている。この複合 回転構造体 3は、発光素子列構造体 5と、遮光部構造体 7とを備えた構造を有する。 発光素子列構造体 5は、一次元発光素子列 9が、周方向に所定の間隔をあけて複数 配置されて構成された構造を有する。一次元発光素子列 9は、複数個の発光ダイォ ード LEDが縦 (鉛直方向)に列をなすように支持部材に対して取り付けられた構造を 有する。この例では、発光素子列構造体 5を構成する複数の一次元発光素子列 9は 、それぞれ鉛直方向に単色の発光ダイオードが並んだ構造を有しており、赤色、緑 色、青色の 3種類の一次元発光素子列が周方向に繰り返し並んで発光素子列構造 体 5が構成されている。なお一次元発光素子列は、一つのパッケージに三色の発光 体が入って 、る発光素子が複数個縦に並んだ構造とすることもできる。複数の一次 元発光素子列 5は、各一次元発光素子列 5の上下位置に配置された図示しないリン グ状の細 、連結フレームによって連結されて 、る。
[0024] パララクスバリアと呼ばれる遮光部構造体 7は、発光素子列構造体 5の外側に配置 され、 3次元ディスプレイ装置 1の外側に居る複数の人にそれぞれ立体画像を提示 するための複数のスリット 10を形成するように複数の遮光部 8が周方向に所定の間隔 をあけて配置された構造を有する。発光素子列構造体 5と遮光部構造体 7とは、互い に一定の速度比を保って回転する。発光素子列構造体 5と遮光部構造体 7の回転方 向は、互いに一定の速度比を保って回転するのであれば、図 2に示すように互いに 逆方向に回転してもよいが、同じ方向に回転してもよい。発光素子列構造体 5と遮光 部構造体 7とを回転させるための駆動構造の説明は省略する。
[0025] 本実施の形態で用いる 3次元ディスプレイ装置 1の基本原理については、既に発明 者の一部が「1次元光源アレイとパララタスノリアを回転させる方式による円筒形の立 体ディスプレイ」として発表している(圓道知博,梶木善裕,本田捷夫,佐藤誠:全周 型 3次元ディスプレイ,電子情報通信学会論文誌, Vol. J84-D-II, No. 6, pp. 1 003 -011, 2001. )。発表した試作機においては 1度毎といった狭い間で異なる画 像を提示できる。試作機の動作原理は次のようになっている。遮光部構造体 7 (パララ タスバリア)と、その内側にある発光素子列構造体 5とが双方共に回転する。回転方 向は逆である。発光素子列構造体 5に設けた複数の一次元発光素子 9が回転するこ とによって、円筒面状のディスプレイ面上に画像を表示することが可能となる。発光素 子列構造体 5と遮光部構造体 7 (パララクスバリア)双方の回転によって相対位置が高 速に変化する。それによつて遮光部構造体 7のスリット 10を通って出る細い光束の向 きが走査され、それに同期して一次元発光素子列を構成する発光ダイオード素子 L EDの輝度を変化させることによって時分割で光線再現を行う。その結果見る方向に よって異なる画像 (立体画像)を見せることが可能となる。
[0026] 本実施の形態で使用した 3次元ディスプレイ装置 1の仕様は、表 1に示す通りである
[表 1]
画素ピッチ 1 [mm]
画素数 1254 ( H ) x 256 (V)
視域角 360° ( 1画素あたり 60° )
光線の角度間隔 1 °
立体像サイズ 0200 x 256 [mm]
色数 4096 (12b i t)
フレームメモリ容量 6. 9G B
ビデオ長 5. 4 [ s ]
装置の大きさ 800W x 800D 1100H [mm]
[0027] 具体的な、遮光部構造体 (パララクスバリア) 7に関しては、例えば試作機では 1800 rpmでという高速で回転する。これに対して発光素子列構造体 5は、同試作機で 100 rpm程度の速度で回転する。
[0028] 本発明の立体画像表示方法では、このような 3次元ディスプレイ装置 1を用いて立 体表示を次のようにして行う。本発明の方法を実施するためのレンダリング方法を図 3 乃至図 5を参照しながら説明する。ここで 3次元ディスプレイ装置 1は円筒面(円筒形 のディスプレイ面)上に円周方向に 1個、軸方向に m個の画素が 2次元配列されてい るとし、これらの画素の一つを P (j, k)のように表す。 Pの添字は図 4に示すように第一 の添字は円周方向、第二の添字は円筒の軸方向の位置をそれぞれ表すものとする 。したがってすべての画素は P (l, 1)から P (l, m)までで表されることとなる。
[0029] まず最初に、立体画像として表示する被写体を、 1点の被写体中心点を定めてその 点を中心として外側から全周にわたつて撮影機器 (カメラ)で撮影して複数の 2次元 画像を取得するか、または被写体を 1点の被写体中心点を定めてその点を中心とし て外側力ゝら全周にわたって撮影機器で撮影して得ることができる複数の 2次元画像と 同等の複数の 2次元疑似画像をコンピュータグラフィックス技術を用いて作成してこ れを複数の 2次元画像として取得する(第 1のステップ)。これら複数の 2次元画像は、 コンピュータによって処理可能な画像データとして、メモリに保存される。 2次元画像 が実写画像であれば、 3次元ディスプレイ装置 1の入力は、カメラで撮影した n枚の 2 次元画像即ち実写画像であり、これを 1 (1)から I (n)とする。この場合、撮影は、 1台 のカメラで行ってよいし、複数台のカメラを用いて行ってもよい。またカメラの種類は 任意である。後のデータ処理を考えると、デジタルカメラにより撮影するのが好ましい
[0030] 次に、保存した複数の 2次元画像 [1 (1)から I (n) ]から 1つの 2次元画像 I (i)を選択 し、また複数の画素 P (j, k)の中から I (i)に対応する視点位置 V(i)力 見ることがで きる 1つの画素 P (j, k)を選択する(第 2のステップ)。ここで視点位置 V (i)とは、被写 体中心点を円筒中心 Oに対応させた場合における、 2次元画像 I (i)を撮影したカメラ のレンズ主点に対応する位置である。なお実際に 2次元画像を撮影したときと、立体 表示をするときとで、倍率が異なる場合は倍率に応じて V (i)の位置を変更すればよ い。
[0031] 次に選択した 2次元画像 I (i)を貼り付けた仮想面 B (i)を想定し、 2次元画像 I (i)中 における被写体中心点に対応する画像中心点が円筒形のディスプレイ面の中心即 ち円筒中心 Oと一致し、かつ視点位置 V(i)と円筒中心 Oとを結んだ直線が仮想面 B (i)となす角度が被写体中心点とカメラのレンズ主点とを結んだ直線とカメラの撮像面 がなす角度と一致するように仮想面 B (i)を配置する (第 3のステップ)。
[0032] その次に、視点位置 V(i)から、選択した 1つの画素 P (j, k)を通って仮想面 B (i)ま で延びる仮想延長線 PLを想定する(第 4のステップ)。これらの想定は、実際的には 、コンピュータを用いてデータの演算として行う。また撮影した際の結像面が曲面や 多面体などのように単一平面でな!、場合には、仮想面 B (i)もそれに従った曲面等の 形状としてもよい。この場合の仮想面 B (i)は、撮影条件に従い、視点位置 V(i)に対 して適切な位置に配置することになる。
[0033] 次に仮想延長線 PLと仮想面 B (i)とが交わる交点に対応する、仮想面 B (i)に貼り 付けたものと想定した 2次元画像上の色に基づいて、 1つの画素 P (j, k)から視点位 置 V (i)に向力う方向 D (i, j, k)の 1つの画素 P (j, k)の表示色 C (i, j, k)を決定する( 第 5のステップ)。原理的には、交点に対応する、仮想面 B (i)に貼り付けたものと想定 した 2次元画像上の色を、 1つの画素 P (j, k)から視点位置 V(i)に向かう方向 D (i, j , k)の 1つの画素 P (j, k)の表示色 C (i, j, k)として決定すればよい。しかしながら仮 想面に貼り付けたものと想定した 2次元画像 I (i)に、ディスプレイ装置が表示可能な 最大の空間周波数より高い成分が含まれる場合に発生するエイリアシングを防止す るためには、仮想延長線と仮想面とが交わる交点に対応する仮想面に貼り付けたも のと想定した 2次元画像上の色と、前記交点の周囲にある複数の点に対応する仮想 面に貼り付けたものと想定した 2次元画像上の複数の色とに基づいて、前記交点と前 記複数の点との距離に応じた重み付き平均演算処理を行って 1つの画素の表示色 C (i, j, k)を決定するのが好ましい。このような重み付き平均演算処理を行うと、実質的 に 2次元画像 I (i)の空間周波数の最大値を制限することになるので、エイリアシング の発生を防止できる。
[0034] なお、ディスプレイ装置が表示可能な最大の空間周波数は、画素の間隔、および、 1つの画素が色及び明るさを独立に制御しうる水平方向の角度の離散化の間隔から 決定される。
[0035] 1つの視点位置 V (i)力 見える複数の画素について前述の第 2乃至第 5のステツ プを実行して複数の画素 Pについての表示色を決定する(第 6のステップ)。そして全 ての 2次元画像に対応する全ての視点位置 V(i)に関して、第 2乃至第 6のステップを 実行し (第 7のステップ)、全ての複数の画素が、複数の視点位置力もそれぞれデイス プレイ面を見たときに、第 1乃至第 7のステップにより決定された表示色になるように 一次発光素子列 9に含まれる複数の発光素子 LEDの発光タイミングを制御する(第 8 のステップ)。すなわち複数の 2次元画像に対応する複数の視点位置からそれぞれ ディスプレイ面を見たときに、第 1乃至第 7のステップにより決定された表示色になるよ うに、複数の発光素子 LEDが出す光の色を光が出る水平方向の角度に応じて変え るように 3次元ディスプレイ装置を制御する。発光素子 LEDの駆動は、図示しない発 光素子駆動装置を用いて行う。図 6は、上記の各ステップ 2乃至 8をコンピュータを利 用して実現する場合に用いるソフトウェアのアルゴリズムの一例の内容を示すフロー チャートである。
産業上の利用可能性
[0036] 本発明の方法によれば、複数の画素が円筒形のディスプレイ面を形成し且つ各画 素が水平方向の角度によって異なる色及び明るさの光を出せるように構成されている 3次元ディスプレイ装置を用いて実写画像または実写模擬画像の立体表示をデイス プレイの外側力も全周にわたって裸眼で視認できる形で実現することができる。

Claims

請求の範囲
複数の画素が円筒形のディスプレイ面を形成し且つ各画素が水平方向の角度によ つて異なる色及び明るさの光を出せるように構成されている 3次元ディスプレイ装置を 用いて、裸眼で視認できる立体画像を前記ディスプレイ面の外側に居る人に提示す る立体画像表示方法であって、
前記立体画像として表示する被写体を、 1点の被写体中心点を定めてその点を中 心として外側力ゝら全周にわたって撮影機器で撮影して複数の 2次元画像を取得する 力 または前記被写体を前記被写体中心点を中心として外側力 全周にわたって撮 影機器で撮影して得ることができる複数の 2次元画像と同等の複数の 2次元疑似画 像をコンピュータグラフィックス技術を用 、て作成してこれを前記複数の 2次元画像と して取得する第 1のステップと、
前記複数の 2次元画像から 1つの 2次元画像を選択し、また選択した前記 1つの 2 次元画像に対応する視点位置力 見ることができる 1つの前記画素を前記複数の画 素の中から選択する第 2のステップと、
選択した前記 1つの 2次元画像を貼り付けた仮想面を想定し、前記 1つの 2次元画 像中における前記被写体中心点に対応する画像中心点が前記円筒形のディスプレ ィ面の中心と一致し、かつ前記視点位置と前記ディスプレイ面の円筒中心とを結んだ 直線が前記仮想面となす角度が前記被写体中心点と前記撮影機器のレンズ主点と を結んだ直線と前記撮影機器の撮像面がなす角度と一致するように前記仮想面を配 置する第 3のステップと、
前記視点位置から選択した前記 1つの画素を通って前記仮想面まで延びる仮想延 長線を想定する第 4のステップと、
前記仮想延長線と前記仮想面とが交わる交点に対応する前記仮想面に貼り付けた ものと想定した前記 2次元画像上の色に基づいて、前記 1つの画素から前記視点位 置に向力う方向の前記 1つの画素の表示色を決定する第 5のステップと、
前記視点位置から見える前記複数の画素につ 、て前記第 2乃至第 5のステップを 実行して前記複数の画素につ!、ての表示色を決定する第 6のステップと、
前記複数の 2次元画像の全てにつ 、て、前記第 2乃至第 6のステップを実行する第 7のステップと、
前記複数の画素が、前記複数の 2次元画像に対応する前記複数の視点位置から それぞれ前記ディスプレイ面を見たときに、第 1乃至第 7のステップにより決定された 前記表示色になるように、前記複数の画素が出す光の色を前記光が出る水平方向 の角度に応じて変えるように前記 3次元ディスプレイ装置を制御する第 8のステップと 力 なる立体画像表示方法。
[2] 前記 3次元ディスプレイ装置は、
複数の発光素子が縦に列を成すように配置されてなる一次元発光素子列が、周方 向に所定の間隔をあけて複数配置されて構成された発光素子列構造体と、 前記発光素子列構造体の外側に配置され、複数のスリットが周方向に所定の間隔 をあけて配置された構造を作るために、複数の遮光部が周方向に所定の間隔をあけ て配置されてなる遮光部構造体とを備え、
前記発光素子列構造体と前記遮光部構造体とを、相反する方向に回転させ且つ 複数の前記一次元発光素子列に含まれる前記複数の発光素子の発光を制御するこ とにより、前記発光素子列構造体と前記遮光部構造体との間の空間に複数の画素か ら構成される前記ディスプレイ面を形成するように構成されて ヽる請求項 1に記載の 立体画像表示方法。
[3] 前記第 1のステップの実行と前記第 2乃至第 7のステップの実行とをリアルタイムで 行うことを特徴とする請求項 1に記載の立体画像表示方法。
[4] 前記 2次元画像の結像面が曲面等のように単一平面ではない面形状のときには、 前記仮想面を前記結像面と同じ面形状にする請求項 1に記載の立体画像表示方法
[5] 前記第 5のステップでは、前記仮想延長線と前記仮想面とが交わる前記交点に対 応する前記仮想面に貼り付けたものと想定した前記 2次元画像上の色と、前記交点 の周囲にある複数の点に対応する前記仮想面に貼り付けたものと想定した前記 2次 元画像上の複数の色とに基づいて、前記交点と前記複数の点との距離に応じた重 み付き平均演算処理を行って前記 1つの画素の表示色を決定することを特徴とする 請求項 1に記載の立体画像表示方法。
[6] 前記 3次元ディスプレイ装置は、
複数の発光素子が縦に列を成すように配置されてなる一次元発光素子列が、周方 向に所定の間隔をあけて複数配置されて構成された発光素子列構造体と、 前記発光素子列構造体の外側に配置され、複数のスリットが周方向に所定の間隔 をあけて配置された構造を作るために、複数の遮光部が周方向に所定の間隔をあけ て配置されてなる遮光部構造体とを備え、
前記発光素子列構造体と前記遮光部構造体とを、相反する方向に回転させ且つ 複数の前記一次元発光素子列に含まれる前記複数の発光素子の発光を制御するこ とにより、前記発光素子列構造体と前記遮光部構造体との間の空間に複数の画素か ら構成される前記ディスプレイ面を形成するように構成されて ヽる請求項 5に記載の 立体画像表示方法。
[7] 前記第 1のステップの実行と前記第 2乃至第 7のステップの実行とをリアルタイムで 行うことを特徴とする請求項 5に記載の立体画像表示方法。
[8] 複数の発光素子が縦に列を成すように配置されてなる一次元発光素子列が、周方 向に所定の間隔をあけて複数配置されて構成された発光素子列構造体と、 前記発光素子列構造体の外側に配置され、複数のスリットが周方向に所定の間隔 をあけて配置された構造を作るために、複数の遮光部が周方向に所定の間隔をあけ て配置されてなる遮光部構造体とを備え、
前記発光素子列構造体と前記遮光部構造体とを、互いに一定の速度比を保って 回転させ且つ複数の前記一次元発光素子列に含まれる前記複数の発光素子の発 光を制御することにより、複数の画素力 なる円筒形のディスプレイ面を形成する 3次 元ディスプレイ装置を用 Vヽて、裸眼で視認できる立体画像を前記外側に居る人に提 示する立体画像表示方法であって、
前記立体画像として表示する被写体を、 1点の被写体中心点を定めてその点を中 心として外側力ゝら全周にわたって撮影機器で撮影して複数の 2次元画像を取得する 力 または前記被写体を前記被写体中心点を中心として外側力 全周にわたって撮 影機器で撮影して得ることができる複数の 2次元画像と同等の複数の 2次元疑似画 像をコンピュータグラフィックス技術を用 、て作成してこれを前記複数の 2次元画像と して取得する第 1のステップと、
前記複数の 2次元画像から 1つの 2次元画像を選択し、また選択した前記 1つの前 記 2次元画像に対応する視点位置力 見ることができる 1つの前記画素を前記複数 の画素の中力 選択する第 2のステップと、
選択した前記 1つの 2次元画像を貼り付けた仮想面を想定し、前記 1つの 2次元画 像中における前記被写体中心点に対応する画像中心点が前記円筒形のディスプレ ィ面の中心と一致し、かつ前記視点位置と前記ディスプレイ面の円筒中心とを結んだ 直線が前記仮想面となす角度が前記被写体中心点と前記撮影機器のレンズ主点と を結んだ直線と前記撮影機器の撮像面がなす角度と一致するように前記仮想面を配 置する第 3のステップと、
前記視点位置から選択した前記 1つの画素を通って前記仮想面まで延びる仮想延 長線を想定する第 4のステップと、
前記仮想延長線と前記仮想面とが交わる交点に対応する前記仮想面に貼り付けた ものと想定した前記 2次元画像上の色に基づいて、前記 1つの画素から前記視点位 置に向力う方向の前記 1つの画素の表示色を決定する第 5のステップと、
前記視点位置から見える前記複数の画素につ 、て前記第 2乃至第 5のステップを 実行して前記複数の画素につ!、ての表示色を決定する第 6のステップと、
前記複数の 2次元画像の全てにつ 、て、前記第 2乃至第 6のステップを実行する第 7のステップと、
前記複数の画素が、前記複数の 2次元画像に対応する前記複数の視点位置から それぞれ前記ディスプレイ面を見たときに、第 1乃至第 7のステップにより決定された 前記表示色になるように、前記複数の画素が出す光の色を前記光が出る水平方向 の角度に応じて変えるように前記 3次元ディスプレイ装置を制御する第 8のステップと 力 なる立体画像表示方法。
複数の発光素子が円筒面上に 2次元に配置されてなる発光素子列構造体と、 前記発光素子列構造体の外側に配置され、複数のスリットが周方向に所定の間隔 をあけて配置された構造を作るために、複数の遮光部が周方向に所定の間隔をあけ て配置されてなる遮光部構造体とを備え、 前記遮光部構造体を回転させ且つ複数の前記発光素子列構造体に含まれる前記 複数の発光素子の発光を制御することにより、複数の画素力 なる円筒形のディスプ レイ面を形成する 3次元ディスプレイ装置を用いて、裸眼で視認できる立体画像を前 記外側に居る人に提示する立体画像表示方法であって、
前記立体画像として表示する被写体を、 1点の被写体中心点を定めてその点を中 心として外側力ゝら全周にわたって撮影機器で撮影して複数の 2次元画像を取得する 力 または前記被写体を前記被写体中心点を中心として外側力 全周にわたって撮 影機器で撮影して得ることができる複数の 2次元画像と同等の複数の 2次元疑似画 像をコンピュータグラフィックス技術を用 、て作成してこれを前記複数の 2次元画像と して取得する第 1のステップと、
前記複数の 2次元画像から 1つの 2次元画像を選択し、また選択した前記 1つの前 記 2次元画像に対応する視点位置力 見ることができる 1つの前記画素を前記複数 の画素の中力 選択する第 2のステップと、
選択した前記 1つの 2次元画像を貼り付けた仮想面を想定し、前記 1つの 2次元画 像中における前記被写体中心点に対応する画像中心点が前記円筒形のディスプレ ィ面の中心と一致し、かつ前記視点位置と前記ディスプレイ面の円筒中心とを結んだ 直線が前記仮想面となす角度が前記被写体中心点と前記撮影機器のレンズ主点と を結んだ直線と前記撮影機器の撮像面がなす角度と一致するように前記仮想面を配 置する第 3のステップと、
前記視点位置から選択した前記 1つの画素を通って前記仮想面まで延びる仮想延 長線を想定する第 4のステップと、
前記仮想延長線と前記仮想面とが交わる交点に対応する前記仮想面に貼り付けた ものと想定した前記 2次元画像上の色に基づいて、前記 1つの画素から前記視点位 置に向力う方向の前記 1つの画素の表示色を決定する第 5のステップと、
前記視点位置から見える前記複数の画素につ 、て前記第 2乃至第 5のステップを 実行して前記複数の画素につ!、ての表示色を決定する第 6のステップと、
前記複数の 2次元画像の全てにつ 、て、前記第 2乃至第 6のステップを実行する第 7のステップと、 前記複数の画素が、前記複数の 2次元画像に対応する前記複数の視点位置から それぞれ前記ディスプレイ面を見たときに、第 1乃至第 7のステップにより決定された 前記表示色になるように、前記複数の画素が出す光の色を前記光が出る水平方向 の角度に応じて変えるように前記 3次元ディスプレイ装置を制御する第 8のステップと からなる立体画像表示方法。
PCT/JP2005/011738 2004-12-28 2005-06-27 立体画像表示方法 WO2006070499A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US11/722,846 US7961182B2 (en) 2004-12-28 2005-06-27 Stereoscopic image display method
CA2599833A CA2599833C (en) 2004-12-28 2005-06-27 Stereoscopic image display method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004381985A JP4033859B2 (ja) 2004-12-28 2004-12-28 立体画像表示方法
JP2004-381985 2004-12-28

Publications (1)

Publication Number Publication Date
WO2006070499A1 true WO2006070499A1 (ja) 2006-07-06

Family

ID=36614626

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2005/011738 WO2006070499A1 (ja) 2004-12-28 2005-06-27 立体画像表示方法

Country Status (4)

Country Link
US (1) US7961182B2 (ja)
JP (1) JP4033859B2 (ja)
CA (1) CA2599833C (ja)
WO (1) WO2006070499A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010137646A1 (ja) * 2009-05-29 2010-12-02 独立行政法人科学技術振興機構 スリット視を利用した3次元情報提示装置

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005117541A2 (en) * 2004-05-06 2005-12-15 The Regents Of The University Of California Method and system for aligning and classifying images
US20090002289A1 (en) * 2007-06-28 2009-01-01 Boundary Net, Incorporated Composite display
US20090323341A1 (en) * 2007-06-28 2009-12-31 Boundary Net, Incorporated Convective cooling based lighting fixtures
DE102007045834B4 (de) * 2007-09-25 2012-01-26 Metaio Gmbh Verfahren und Vorrichtung zum Darstellen eines virtuellen Objekts in einer realen Umgebung
JP5083052B2 (ja) * 2008-06-06 2012-11-28 ソニー株式会社 立体視画像生成装置、立体視画像生成方法およびプログラム
US20100019993A1 (en) * 2008-07-23 2010-01-28 Boundary Net, Incorporated Calibrating pixel elements
US20100019997A1 (en) * 2008-07-23 2010-01-28 Boundary Net, Incorporated Calibrating pixel elements
US20100020107A1 (en) * 2008-07-23 2010-01-28 Boundary Net, Incorporated Calibrating pixel elements
US8933998B2 (en) * 2008-12-12 2015-01-13 Sony Corporation Three-dimensional image display device, method of manufacturing the same, and three-dimensional image display method
TWI428631B (zh) * 2008-12-12 2014-03-01 Sony Corp Dimensional image display device, a manufacturing method thereof, and a stereoscopic image display method
EP2430112B1 (en) 2009-04-23 2018-09-12 The University of Chicago Materials and methods for the preparation of nanocomposites
JP2011082622A (ja) * 2009-10-02 2011-04-21 Sony Corp 画像信号処理装置、画像信号処理方法、画像表示装置、画像表示方法、プログラム、および画像表示システム
JP2011082675A (ja) * 2009-10-05 2011-04-21 Sony Corp 画像信号処理装置、画像信号処理方法、画像表示装置、画像表示方法、プログラム、および画像表示システム
US8587498B2 (en) * 2010-03-01 2013-11-19 Holovisions LLC 3D image display with binocular disparity and motion parallax
JP2011259373A (ja) * 2010-06-11 2011-12-22 Sony Corp 立体画像表示装置及び立体画像表示方法
JP5398015B2 (ja) * 2010-06-29 2014-01-29 独立行政法人情報通信研究機構 立体ディスプレイおよび立体画像提示方法
JP5593911B2 (ja) * 2010-07-20 2014-09-24 富士通株式会社 映像生成装置、映像生成プログラム及び映像生成方法
US20120162216A1 (en) * 2010-12-22 2012-06-28 Electronics And Telecommunications Research Institute Cylindrical three-dimensional image display apparatus and method
JP2013017006A (ja) * 2011-07-04 2013-01-24 Sony Corp 表示装置
WO2013168503A1 (ja) * 2012-05-07 2013-11-14 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
BE1019941A3 (nl) * 2012-06-05 2013-02-05 Tait Technologies Bvba Inrichting voor de weergave van driedimensionale beelden, systeem voor de creatie van driedimensionale beelden, en werkwijze voor de creatie van driedimensionale beelden.
WO2014144989A1 (en) 2013-03-15 2014-09-18 Ostendo Technologies, Inc. 3d light field displays and methods with improved viewing angle depth and resolution
KR102128395B1 (ko) 2014-02-06 2020-07-01 삼성디스플레이 주식회사 라이트 유닛 및 이를 포함하는 표시 장치
DE102015012662A1 (de) * 2015-10-01 2017-04-06 Martin Mang Bildanzeigevorrichtung
WO2018116580A1 (ja) 2016-12-19 2018-06-28 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
EP3704531B1 (en) 2017-11-02 2023-12-06 InterDigital Madison Patent Holdings, SAS Method and system for aperture expansion in light field displays
KR20210019998A (ko) 2018-05-17 2021-02-23 피씨엠에스 홀딩스, 인크. 회절 소자에 기초한 3d 디스플레이 지향성 백라이트
CN110264905B (zh) * 2019-05-24 2020-08-14 亿信科技发展有限公司 一种光场显示系统
CN114175627B (zh) 2019-06-07 2024-04-12 交互数字Vc控股公司 用于基于分布式光孔的光场显示器的光学方法和系统
EP3990972A1 (en) 2019-06-28 2022-05-04 PCMS Holdings, Inc. Optical method and system for light field (lf) displays based on tunable liquid crystal (lc) diffusers
JPWO2021075118A1 (ja) * 2019-10-15 2021-04-22
CN111261027B (zh) * 2020-01-22 2022-07-12 京东方科技集团股份有限公司 旋转显示设备及其控制方法、旋转显示系统以及存储介质
CN111447433A (zh) * 2020-03-24 2020-07-24 京东方科技集团股份有限公司 显示装置、数据生成装置及方法、显示系统
CN111338097A (zh) * 2020-04-18 2020-06-26 彭昊 一种球形三维显示器
US11977244B2 (en) 2022-04-29 2024-05-07 Sony Interactive Entertainment Inc. Method and system for generating a visual representation of a real-world object in three physical dimensions

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1097013A (ja) * 1996-09-20 1998-04-14 Futaba Corp 立体表示装置
JP2003195214A (ja) * 2001-12-26 2003-07-09 Seiko Epson Corp 立体表示装置
JP2004177709A (ja) * 2002-11-27 2004-06-24 Toshiba Corp 立体画像表示装置及び立体画像表示方法

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3815979A (en) * 1973-05-17 1974-06-11 R Collender Unaided three dimensional aiming point photography and reproduction method and apparatus
US4089597A (en) * 1976-03-11 1978-05-16 Robert Bruce Collender Stereoscopic motion picture scanning reproduction method and apparatus
US4158487A (en) * 1978-02-17 1979-06-19 Collender Robert B Stereoscopic real image scanning reproduction method and apparatus
US4367486A (en) * 1980-03-18 1983-01-04 Jesse B. Eichenlaub Three dimensional imaging system
JPH0918897A (ja) * 1995-07-03 1997-01-17 Canon Inc 立体画像表示装置
GB9513658D0 (en) * 1995-07-05 1995-09-06 Philips Electronics Uk Ltd Autostereoscopic display apparatus
JP2000172878A (ja) * 1998-12-09 2000-06-23 Sony Corp 情報処理装置および情報処理方法、並びに提供媒体
US7271803B2 (en) * 1999-01-08 2007-09-18 Ricoh Company, Ltd. Method and system for simulating stereographic vision
US7525567B2 (en) * 2000-02-16 2009-04-28 Immersive Media Company Recording a stereoscopic image of a wide field of view
US7277121B2 (en) * 2001-08-29 2007-10-02 Sanyo Electric Co., Ltd. Stereoscopic image processing and display system
JP3879510B2 (ja) * 2001-10-11 2007-02-14 セイコーエプソン株式会社 立体表示装置
JP4075418B2 (ja) * 2002-03-15 2008-04-16 ソニー株式会社 画像処理装置及び画像処理方法、印刷物製造装置及び印刷物製造方法、並びに印刷物製造システム
JP3897712B2 (ja) * 2003-02-14 2007-03-28 キヤノン株式会社 立体画像表示装置
US7791638B2 (en) * 2004-09-29 2010-09-07 Immersive Media Co. Rotating scan camera
WO2006096660A2 (en) * 2005-03-05 2006-09-14 Wag Display Corporation, Inc. Display system with moving pixels for 2d and 3d image formation

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1097013A (ja) * 1996-09-20 1998-04-14 Futaba Corp 立体表示装置
JP2003195214A (ja) * 2001-12-26 2003-07-09 Seiko Epson Corp 立体表示装置
JP2004177709A (ja) * 2002-11-27 2004-06-24 Toshiba Corp 立体画像表示装置及び立体画像表示方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
ENDO T. ET AL.: "Jinbutsu Tobu Gazo no Zenshu Rittai Hyoji System", 3D IMAGE CONFERENCE 2004 KOEN RONBUNSHU, 29 June 2004 (2004-06-29), pages 2 - 6, AND 177 - 180, XP002998163 *
ENDO T. ET AL.: "SeeLINDER: Zenshu kara Kansatsu kano na Entogata 3 Jigen Display", THE VIRTUAL REALITY SOCIETY OF JAPAN DAI 9 KAI TAIKAI RONBUNSHU, 8 September 2004 (2004-09-08), pages 613 - 614, XP002999566 *
ENDO T. ET AL.: "Sotai o nasu Kaiten gata Camera-Display-kei ni yoru Enkaku Communication System no Teian", THE VIRTUAL REALITY SOCIETY OF JAPAN DAI 9 KAI TAIKAI RONBUNSHU, 8 September 2004 (2004-09-08), pages 465 - 468, XP002998164 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010137646A1 (ja) * 2009-05-29 2010-12-02 独立行政法人科学技術振興機構 スリット視を利用した3次元情報提示装置
JP5449342B2 (ja) * 2009-05-29 2014-03-19 独立行政法人科学技術振興機構 スリット視を利用した3次元情報提示装置
US9159255B2 (en) 2009-05-29 2015-10-13 Japan Science And Technology Agency Three-dimensional information presentation device using slit viewing

Also Published As

Publication number Publication date
US20080043014A1 (en) 2008-02-21
JP4033859B2 (ja) 2008-01-16
US7961182B2 (en) 2011-06-14
JP2006189962A (ja) 2006-07-20
CA2599833A1 (en) 2006-07-06
CA2599833C (en) 2011-12-06

Similar Documents

Publication Publication Date Title
WO2006070499A1 (ja) 立体画像表示方法
CN107678722B (zh) 多屏幕拼接方法、装置以及多投影拼接大屏幕
JP3948489B2 (ja) 輝度フィルターの作成方法、および仮想空間生成システム
US20100033479A1 (en) Apparatus, method, and computer program product for displaying stereoscopic images
US20080030573A1 (en) Volumetric panoramic sensor systems
US20110216171A1 (en) Screen and method for representing picture information
JP5176718B2 (ja) 空間像表示装置
JPWO2004043079A1 (ja) 立体映像処理方法及び立体映像表示装置
JP2008228199A (ja) 立体画像表示装置及び立体画像表示方法並びに立体画像用データの構造
CN107632403B (zh) 三维立体成像显示仪
JP2005347813A (ja) 画像変換方法および画像変換装置、並びにマルチプロジェクションシステム
KR20070103347A (ko) 360도 파노라마 카메라의 영상컨텐츠를 이용한 고해상도광시야각 대형 디스플레이 방법
WO2015018152A1 (zh) 隐形装置
TW201323928A (zh) 裸眼立體顯示裝置
US20100302136A1 (en) Method and apparatus for displaying three-dimensional stereo images viewable from different angles
TWI516091B (zh) 多視角三維顯示器及其多視角三維圖像資料的產生方法
JP2009003166A (ja) 質感映像表示装置
CN115272047A (zh) 用于产生图像帧的系统、方法和显示系统
US9648314B2 (en) Method of glasses-less 3D display
US20090262181A1 (en) Real-time video signal interweaving for autostereoscopic display
JP2008292666A (ja) 視方向画像データ生成装置、指向性表示用画像データ生成装置、指向性表示ディスプレイ、および、指向性表示システム、並びに、視方向画像データ生成方法、指向性表示用画像データ生成方法
JP5771096B2 (ja) 画像処理方法
WO2001020386A9 (en) An autostereoscopic display and method of displaying three-dimensional images, especially color images
US20130088485A1 (en) Method of storing or transmitting auto-stereoscopic images
JP5249733B2 (ja) 映像信号処理装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application
NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 11722846

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2599833

Country of ref document: CA

122 Ep: pct application non-entry in european phase

Ref document number: 05765157

Country of ref document: EP

Kind code of ref document: A1

WWW Wipo information: withdrawn in national office

Ref document number: 5765157

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 11722846

Country of ref document: US