JP4703635B2 - Stereoscopic image generation method, apparatus thereof, and stereoscopic image display apparatus - Google Patents

Stereoscopic image generation method, apparatus thereof, and stereoscopic image display apparatus Download PDF

Info

Publication number
JP4703635B2
JP4703635B2 JP2007320738A JP2007320738A JP4703635B2 JP 4703635 B2 JP4703635 B2 JP 4703635B2 JP 2007320738 A JP2007320738 A JP 2007320738A JP 2007320738 A JP2007320738 A JP 2007320738A JP 4703635 B2 JP4703635 B2 JP 4703635B2
Authority
JP
Japan
Prior art keywords
stereoscopic image
information
image
storage unit
stereoscopic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007320738A
Other languages
Japanese (ja)
Other versions
JP2009147508A (en
Inventor
美保 礒川
道雄 及川
契 宇都木
崇文 小池
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2007320738A priority Critical patent/JP4703635B2/en
Publication of JP2009147508A publication Critical patent/JP2009147508A/en
Application granted granted Critical
Publication of JP4703635B2 publication Critical patent/JP4703635B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

本発明は、複数のサブピクセルで1ピクセルを構成する形式のフラットパネルディスプレイと光学素子群を組み合わせて構成される立体視画像表示技術に関するものである。   The present invention relates to a stereoscopic image display technique configured by combining a flat panel display of a type in which one pixel is composed of a plurality of subpixels and an optical element group.

近年、ユーザが特殊な眼鏡などの装置を身につけなくても立体映像を視聴できる裸眼立体視画像表示装置の研究開発が行われている。この装置の実装方式には様々な種類があり、多方向の情報を統合した立体視画像をディスプレイに表示し、光学素子等を介して立体像を形成する方法に、二眼式・多眼式・空間像方式などがある。二眼式・多眼式はユーザの視点位置の制約があるが、空間像方式は特定の視点位置を想定せず、空間内に像が存在するような光の状態を擬似的に構成するもので、視点位置に対する制約が少ない。   In recent years, research and development have been conducted on autostereoscopic image display devices that allow a user to view stereoscopic images without wearing special glasses or other devices. There are various types of mounting methods for this device. A method for displaying a stereoscopic image integrating multi-directional information on a display and forming a stereoscopic image via an optical element, etc. -There are aerial image methods. The binocular and multi-view types have restrictions on the user's viewpoint position, but the aerial image method does not assume a specific viewpoint position, but artificially configures the light state where an image exists in space There are few restrictions on the viewpoint position.

視点数が多い多眼式および空間像方式では、立体視画像を生成するために多方向の情報が必要となるため、ユーザ入力に対してインタラクションを行う立体表示アプリケーションでリアルタイムレンダリングを行う場合には、処理能力の低い立体視画像生成装置では表示内容の更新速度が遅くなるという課題があった。   Multi-view and aerial image methods with a large number of viewpoints require multi-directional information to generate a stereoscopic image, so when performing real-time rendering in a stereoscopic display application that interacts with user input In the stereoscopic image generating device with low processing capability, there is a problem that the update speed of the display content is slow.

特許文献1では、二眼式の立体視画像表示装置に関して、あらかじめコンテンツの背景およびキャラクタに対する立体視画像をスプライトとして生成しておき、それらをリアルタイムに重ね合わせることにより立体視画像生成の処理負荷を軽減しながらインタラクティブにキャラクタが動作するコンテンツを実現している。またこの手法を多眼式や、空間像方式の1つであるインテグラルフォトグラフィ(IP)方式へも適用可能であるとしている。   In Patent Document 1, regarding a binocular stereoscopic image display device, a stereoscopic image for a content background and a character is generated in advance as a sprite, and the processing load for generating a stereoscopic image is reduced by superimposing them in real time. Realizes content where characters move interactively while mitigating. This method is also applicable to the multi-view type and the integral photography (IP) method, which is one of the aerial image methods.

特開2003−67782号公報JP 2003-67782 A

特許文献1のように、ユーザ入力に対してインタラクションを行う立体表示アプリケーションを十分な速度で動作させるために、立体視画像にアルファ情報を付加したものを立体視スプライトとして、スプライト方式を適用する場合、複数のスプライトの重ね合わせを行う際に不要な領域を取り除くために、RGB3チャンネルの画像情報に透明度の情報を加えた4チャンネル(R、G、B、アルファ)の画像フォーマットを用いることが一般的である。   In the case where a sprite method is applied as a stereoscopic sprite in which alpha information is added to a stereoscopic image in order to operate a stereoscopic display application that performs an interaction with a user input at a sufficient speed as in Patent Document 1 In order to remove unnecessary areas when superimposing a plurality of sprites, it is common to use a 4-channel (R, G, B, alpha) image format in which transparency information is added to RGB 3-channel image information. Is.

しかし、二眼式や多眼式、空間像方式などの立体視表示装置では、ディスプレイのピクセル群を多方向の情報表示に割り当てる際に、表示される立体映像の精細度や色表現などの面で画質を向上するために、精細度(ピクセル密度)が非常に高いディスプレイを用いることに加えて、サブピクセルごとに異なる方向の情報を割り当てる場合がある。   However, in stereoscopic display devices such as binocular, multi-view, and aerial image systems, when assigning display pixel groups to multi-directional information display, aspects such as the definition and color representation of the displayed stereoscopic video In order to improve the image quality, information in a different direction may be assigned to each sub-pixel in addition to using a display with very high definition (pixel density).

このとき、立体視画像に透明度の情報を付加して4チャンネル(R、G、B、アルファ)のスプライトとして扱うと、重ね合わせ処理を施した立体映像に意図しない境界線のような情報が表示されてしまう場合があるという課題を発見した。   At this time, if transparency information is added to the stereoscopic image and handled as a 4-channel (R, G, B, alpha) sprite, information such as an unintended boundary line is displayed on the superimposed stereoscopic image. I found a problem that might be done.

本発明においては、上記の課題を解決するため、立体視画像をスプライト方式で表示する際に、ディスプレイ上のサブピクセルごとに異なる光線方向の情報を割り当てる場合、カラーチャンネル毎にアルファ情報を用意し、RGBの3つのカラーチャンネルに加えてアルファ情報も3チャンネルで保持し、合計6チャンネルのデータ形式を立体視画像のスプライトとして用いる。   In the present invention, in order to solve the above-described problem, when displaying a stereoscopic image by a sprite method, when assigning information of different light directions for each sub-pixel on the display, alpha information is prepared for each color channel. In addition to the three color channels of RGB, alpha information is also held in three channels, and a data format of a total of six channels is used as a sprite for a stereoscopic image.

すなわち、上記の課題を解決するため、一つの好適な形態として、制御部と記憶部とを有する画像生成装置における立体視画像生成方法であって、記憶部は、画像を立体的に表示するための立体視画像として、複数のカラーチャンネルの輝度情報、および複数のカラーチャンネル各々に対する複数の透明度情報を記憶しており、制御部は、立体視画像を表示するための制御情報に応じて、記憶部に記憶された、複数のカラーチャンネルの輝度情報と透明度情報を用い、重ね合わせ処理を行う立体視画像生成方法を提供する。   That is, in order to solve the above-described problem, as one preferable embodiment, there is provided a stereoscopic image generation method in an image generation apparatus having a control unit and a storage unit, and the storage unit displays an image three-dimensionally. As a stereoscopic image, luminance information of a plurality of color channels and a plurality of transparency information for each of the plurality of color channels are stored, and the control unit stores according to control information for displaying a stereoscopic image. A stereoscopic image generation method for performing superimposition processing using luminance information and transparency information of a plurality of color channels stored in the unit is provided.

また、他の好適な形態として、立体視画像を生成する立体視画像生成装置であって、制御部と記憶部とを有し、記憶部は、画像を立体的に表示するための立体視画像として、赤(R)緑(G)青(B)の3つのカラーチャンネルの輝度情報、およびカラーチャンネル各々に対応する3つの透明度情報を記憶しており、制御部は、立体視画像を表示するための制御情報に応じて、記憶部に記憶された、カラーチャンネル毎の輝度情報と透明度情報を用い、重ね合わせ処理を行う立体視画像生成装置を提供する。   In another preferred embodiment, the stereoscopic image generating device generates a stereoscopic image, and includes a control unit and a storage unit, and the storage unit is a stereoscopic image for displaying the image stereoscopically. Are stored as luminance information of three color channels of red (R), green (G), and blue (B), and three transparency information corresponding to each color channel, and the control unit displays a stereoscopic image. A stereoscopic image generating apparatus that performs superimposition processing using luminance information and transparency information for each color channel stored in a storage unit according to control information for the purpose is provided.

更に、好適な立体視画像表示装置として、上述の立体視画像生成方法、あるいは、立体視画像生成装置によって生成された立体視画像を表示する、RGBの3つのサブピクセルで1ピクセルを構成する形式のフラットパネルディスプレイと偏向光学素子群とからなる立体視画像表示装置を提供する。   Furthermore, as a preferable stereoscopic image display device, a format in which one pixel is formed by three sub-pixels of RGB for displaying the stereoscopic image generation method described above or the stereoscopic image generated by the stereoscopic image generation device. A stereoscopic image display device comprising a flat panel display and a deflection optical element group is provided.

本発明の構成により、ユーザ入力に対してインタラクションを行う立体表示アプリケーションにおいて、スプライト方式によりリアルタイム処理の負荷を軽減しながら、サブピクセル単位の空間分解能を実現し、立体映像の画質を向上することが可能となる。   With the configuration of the present invention, in a stereoscopic display application that interacts with a user input, it is possible to realize sub-pixel unit spatial resolution and improve the quality of stereoscopic video while reducing the load of real-time processing by the sprite method. It becomes possible.

本発明の実施の形態を図面を用いて説明するに先立ち、本発明の前提となる、インテグラルフォトグラフィ(IP)方式の立体視画像表示装置と、IP画像の生成方法、及びIP画像のスプライト(IPスプライト)について図面を用いて説明する。     Prior to the description of embodiments of the present invention with reference to the drawings, an integral photography (IP) type stereoscopic image display apparatus, an IP image generation method, and an IP image sprite are the premise of the present invention. (IP sprite) will be described with reference to the drawings.

図1は、空間像方式の1つであるインテグラルフォトグラフィ(IP)方式の立体視画像表示装置の一模式図である。フラットパネルディスプレイ(FPD)1の前面に、光線方向を制御するための多数の小さな凸レンズが並んだレンズアレイ2を配置している。各凸レンズの下には複数のピクセル群3が存在し、各ピクセルが発する光が凸レンズの偏向により放射状に射出されることを用いて、FPD1の前方空間における光の状態を制御する。ここでFPD1上に立体視画像生成装置6から出力された立体視画像(IP画像)を表示することにより、その空間内に立体物4が存在する場合の光の状態を擬似的に構成し、ユーザ5に立体物4が実在するかのように知覚させることができる。   FIG. 1 is a schematic diagram of an integral photography (IP) type stereoscopic image display apparatus which is one of the aerial image types. On the front surface of a flat panel display (FPD) 1, a lens array 2 in which a large number of small convex lenses for controlling the direction of light rays is arranged. A plurality of pixel groups 3 exist under each convex lens, and the light state in the front space of the FPD 1 is controlled by using the light emitted from each pixel to be emitted radially by the deflection of the convex lens. Here, by displaying the stereoscopic image (IP image) output from the stereoscopic image generating device 6 on the FPD 1, the light state when the three-dimensional object 4 exists in the space is configured in a pseudo manner, The user 5 can perceive as if the three-dimensional object 4 actually exists.

図2と図3を用いて、横方向の光線方向数を模式的に4とした場合の、コンピュータグラフィクス(CG)によるIP画像の生成方法を説明する。このIP画像は実写画像から生成することも可能である。   A method of generating an IP image by computer graphics (CG) when the number of light beam directions in the horizontal direction is schematically set to 4 will be described with reference to FIGS. This IP image can also be generated from a photographed image.

仮想空間7に立体物4のCGモデルを配置し、FPD1の画面に対応する面8を定義する。さらに、レンズアレイ2を介して放射状に広がる光線の延長線上に対応する位置に、仮想視点V1〜V4を設定する。   A CG model of the three-dimensional object 4 is arranged in the virtual space 7 and a surface 8 corresponding to the screen of the FPD 1 is defined. Further, virtual viewpoints V1 to V4 are set at positions corresponding to the extended lines of light rays that spread radially through the lens array 2.

FPD1はP1〜P3のようなRGBの3つのサブピクセルで1ピクセルを構成する方式のディスプレイである。レンズ10はレンズアレイ2の中のひとつを拡大したものであり、IP画像11はFPD1に表示されるIP画像のうち、レンズ10の下にあるサブピクセルP1〜P12に表示される部分を示したものである。FPD1のサブピクセルP1〜P12から射出される光線は、レンズ10を介して光線L1〜L12のように放射状に広がる。   The FPD 1 is a display of a system in which one pixel is composed of three RGB sub-pixels such as P1 to P3. The lens 10 is an enlarged view of one of the lens arrays 2, and the IP image 11 shows a portion displayed on the subpixels P1 to P12 below the lens 10 in the IP image displayed on the FPD1. Is. Light rays emitted from the subpixels P1 to P12 of the FPD 1 spread radially through the lens 10 as light rays L1 to L12.

IP画像11は、立体物4のCGモデルに対して仮想視点V1〜V4からレンダリングした画像21〜24を用いて生成される。図3においては、IP画像11のサブピクセルP1〜P3の値は、光線L1〜L3の延長線に対応する仮想視点V1からレンダリングした画像21のピクセルのRGBそれぞれの輝度値P1〜P3をコピーする。同様に、IP画像11のサブピクセルP4〜P6は、光線L4〜L6の延長線に対応する仮想視点V2からレンダリングした画像22のP4〜P6の値、IP画像11のサブピクセルP7〜LP9は、光線L7〜L9の延長線に対応する仮想視点V3からレンダリングした画像23のP7〜P9の値、IP画像11のサブピクセルP10〜P12は、光線L10〜L12の延長線に対応する仮想視点V4でレンダリングした画像24のP10〜P12の値となる。画像21〜24を用いてレンズアレイ2のすべてのレンズに対して同様の処理を行い、ひとつのIP画像を生成する。   The IP image 11 is generated using images 21 to 24 rendered from the virtual viewpoints V1 to V4 with respect to the CG model of the three-dimensional object 4. In FIG. 3, the values of the subpixels P1 to P3 of the IP image 11 copy the luminance values P1 to P3 of RGB of the pixels of the image 21 rendered from the virtual viewpoint V1 corresponding to the extension lines of the light rays L1 to L3. . Similarly, the subpixels P4 to P6 of the IP image 11 are values of P4 to P6 of the image 22 rendered from the virtual viewpoint V2 corresponding to the extension line of the light rays L4 to L6, and the subpixels P7 to LP9 of the IP image 11 are The values of P7 to P9 of the image 23 rendered from the virtual viewpoint V3 corresponding to the extension line of the rays L7 to L9, the subpixels P10 to P12 of the IP image 11 are the virtual viewpoint V4 corresponding to the extension line of the rays L10 to L12. The values are P10 to P12 of the rendered image 24. The same processing is performed on all the lenses of the lens array 2 using the images 21 to 24 to generate one IP image.

このように生成されたIP画像11をFPD1に表示して、観察者5が光線L1からL12の方向に視点位置を動かすと、他のレンズから射出される光も合わせて、順に仮想視点V1〜V4でレンダリングした視差を持つ映像を知覚することができる。また、右目と左目が仮想視点V1からV4のうちの異なる2つの視点に対応する光線が入射する位置にあるとき、両眼視差により、立体物4の映像が実在するかのような奥行き方向の立体感を知覚することができる。   When the IP image 11 generated in this way is displayed on the FPD 1 and the observer 5 moves the viewpoint position in the direction of the light rays L1 to L12, the virtual viewpoints V1 to V1 are sequentially added together with the light emitted from other lenses. Video with parallax rendered in V4 can be perceived. Further, when the right eye and the left eye are at positions where light rays corresponding to two different viewpoints of the virtual viewpoints V1 to V4 are incident, the binocular parallax causes the depth direction as if the image of the three-dimensional object 4 actually exists. A three-dimensional feeling can be perceived.

空間像方式の立体視画像表示装置では、FPD1からレンズ10を介して放射状に射出される光線の密度が高いほど立体像が鮮明となり、また光線の方向数(サンプリングを行う仮想視点数)が多いほど視差の変化が滑らかになり、立体映像の画質が向上する。図3の場合では、横方向の光線数が12、光線方向数は4方向となる。   In the spatial image type stereoscopic image display device, the higher the density of light rays emitted radially from the FPD 1 through the lens 10, the clearer the stereoscopic image, and the more the number of light ray directions (the number of virtual viewpoints for sampling). As the parallax changes more smoothly, the image quality of the stereoscopic video is improved. In the case of FIG. 3, the number of rays in the horizontal direction is 12, and the number of ray directions is 4.

そのため、図4では仮想視点数をV1〜V12に増やし、各仮想視点でレンダリングした画像21〜25を用いて、サブピクセルP1〜P12のそれぞれに異なる画像からRGBいずれかの輝度値のみをサブピクセル単位で抽出してコピーすることにより、光線方向数を12に増やしている。このように、サブピクセルに対して独立に異なる光線方向の情報を割り当てることにより、光線方向数を3倍に増やし、立体映像の画質を向上することができる。   Therefore, in FIG. 4, the number of virtual viewpoints is increased to V1 to V12, and only the luminance value of any one of RGB from sub-pixels P1 to P12 is used as the subpixel by using the images 21 to 25 rendered at each virtual viewpoint. The number of ray directions is increased to 12 by extracting and copying in units. In this way, by independently assigning information on different light directions to the sub-pixels, the number of light directions can be increased by a factor of 3, and the quality of the stereoscopic image can be improved.

図5はIP画像の生成処理フローである。図4の例のように視点数が増えると、画像21〜25の生成処理(ステップS102)およびIP画像11への合成処理(ステップS104)の負荷が高くなるため、ユーザ5からの入力に対してリアルタイムに映像が変化するインタラクティブコンテンツの場合に、毎フレームにステップS100〜S104を行うことが困難となる。   FIG. 5 is an IP image generation processing flow. As the number of viewpoints increases as in the example of FIG. 4, the load on the generation process of the images 21 to 25 (step S <b> 102) and the synthesis process on the IP image 11 (step S <b> 104) increases. In the case of interactive content whose video changes in real time, it is difficult to perform steps S100 to S104 for each frame.

そこで、従来2次元画像のアニメーションやゲームで用いられてきたスプライト方式を立体視画像に用いる。スプライト方式とは、あらかじめ用意しておいた透明度情報を含む画像群(スプライトと呼ぶ)を背景上の適当な位置に重ね合わせて合成することで、表示画像の生成処理を軽減する手法である。   Therefore, the sprite method that has been conventionally used in two-dimensional image animation and games is used for stereoscopic images. The sprite method is a technique for reducing display image generation processing by superimposing and synthesizing a group of images including transparency information (referred to as sprites) prepared in advance at appropriate positions on the background.

図6において、画像30〜32はキャラクタなどのオブジェクト(白い部分)と不要な地の領域(黒い部分)からなるスプライトである。また、画像36はシーンの背景である。背景画像36の上に画像30〜32を重ね合わせて合成画像34を生成する。このとき、画像30〜32の不要な地の領域を示すために、アルファチャンネルを利用するか、もしくは透過処理を行う色を決めておくことにより透明度の情報を保持し、その領域は下にある画像を透過して表示する。背景画像36と画像30〜32だけでなく、スプライト同士を重ね合わせることも可能である。また、一連の動作アニメーションを複数のスプライトとして用意しておき、背景画像36上に順次重ね合わせていくことにより、オブジェクトの位置の移動だけでなく、様々な動作のアニメーションを表示することもできる。   In FIG. 6, images 30 to 32 are sprites composed of objects such as characters (white portions) and unnecessary ground regions (black portions). The image 36 is a scene background. The composite image 34 is generated by superimposing the images 30 to 32 on the background image 36. At this time, in order to show an unnecessary ground area of the images 30 to 32, transparency information is held by using an alpha channel or by determining a color to be subjected to a transparent process, and the area is below. Display the image transparently. Not only the background image 36 and the images 30 to 32 but also sprites can be overlapped. In addition, by preparing a series of motion animations as a plurality of sprites and sequentially superimposing them on the background image 36, it is possible to display not only the movement of the object position but also various motion animations.

また、スプライトが持つアルファ情報は透過と非透過を表す2値だけに限らず、半透明を表す中間値をとることができる。これにより重ね合わせ処理を行う際に、スプライト内で不要となる背景領域を取り除くだけでなく、物体境界のエッジブレンディングを滑らかに行ったり、ガラスや水などの半透明の質感を実現したり、影を落とすなどの効果を加えたりすることができることとなる。   Further, the alpha information possessed by the sprite is not limited to a binary value indicating transparency and non-transmission, but can take an intermediate value indicating translucency. This not only removes unnecessary background areas in the sprite, but also smoothes the edge blending of the object boundary, realizes a translucent texture such as glass and water, You can add effects such as dropping.

本発明の第一の実施例として、上述したスプライト方式を用いた画像生成方法、その装置、及び立体画像表示装置の実施例を図7〜図12を用いて説明する。   As a first embodiment of the present invention, an embodiment of an image generation method using the sprite method, an apparatus thereof, and a stereoscopic image display apparatus will be described with reference to FIGS.

IP画像のような立体視画像の場合に、透明度の情報を付加することにより、スプライト方式を用いて画像生成処理を軽減することができる。図7はスプライト方式を用いた立体視画像生成処理に関する第一の実施例の処理を説明するための図であり、IP画像形式のスプライト(IPスプライト)の生成処理フローである。   In the case of a stereoscopic image such as an IP image, by adding transparency information, image generation processing can be reduced using a sprite method. FIG. 7 is a diagram for explaining the processing of the first embodiment relating to the stereoscopic image generation processing using the sprite method, and is a generation processing flow of the IP image format sprite (IP sprite).

図7において、ステップS114で透明度の情報を生成する点と、ステップS118で透明度に対するIP画像を生成してステップS120でRGBのIP画像と統合する点が、図5のIP画像生成処理と異なる。事前に生成しておいたIPスプライト同士や、IPスプライトとアルファ情報を持たないIP画像を重ね合わせることにより、複数のオブジェクトを含む合成IP画像を生成することが可能である。また、IPスプライトはFPD1の画面全体に相当する画像サイズである必要はなく、オブジェクトを含む領域のみを切り出した画像サイズで良いため、後で説明する本実施例の立体画像生成装置におけるIPスプライトを記憶する記憶部のメモリ容量を節約することもできる。   7 differs from the IP image generation processing of FIG. 5 in that transparency information is generated in step S114 and an IP image for transparency is generated in step S118 and integrated with an RGB IP image in step S120. It is possible to generate a composite IP image including a plurality of objects by superimposing IP sprites generated in advance or IP sprites and IP images having no alpha information. The IP sprite does not have to have an image size corresponding to the entire screen of the FPD 1 and may be an image size obtained by cutting out only an area including an object. Therefore, the IP sprite in the stereoscopic image generating apparatus according to the present embodiment described later is used. It is also possible to save the memory capacity of the storage unit for storing.

なお、立体視画像ではないスプライトの場合には、重ね合わせる位置をピクセル単位で自由に調整することができるが、IPスプライトの重ね合わせを行う場合は、画像中のサブピクセルの位置に応じてレンズを介して光線を射出する方向が一意に決まっているため、同じ方向に対応しているサブピクセル同士を重ね合わせなければならず、重ね合わせの位置が制限される。   In the case of a sprite that is not a stereoscopic image, the overlapping position can be freely adjusted in units of pixels. However, when IP sprites are overlapped, a lens is selected according to the position of the subpixel in the image. Since the direction in which the light beam is emitted via is uniquely determined, the subpixels corresponding to the same direction must be overlapped, and the position of the overlap is limited.

スプライト方式を用いる立体表示アプリケーションを動作させるためには、事前にコンテンツに含まれるすべてのオブジェクトに対して、必要となるすべての動作アニメーションのIPスプライトを、図7のステップS110〜S120により生成しておく。次にアプリケーションを起動し、リアルタイムにユーザ5からの入力に対するリアクションを示すIPスプライトを呼び出して、背景上の適当な位置に重ね合わせて合成IP画像を生成し、FPD1に表示するという処理を繰り返す。この重ね合わせ処理は高速に行うことができるため、アプリケーションのリアルタイム処理が軽減される。   In order to operate a stereoscopic display application using the sprite method, IP sprites of all necessary motion animations are generated in advance in steps S110 to S120 in FIG. 7 for all objects included in the content. deep. Next, the application is started, an IP sprite indicating a reaction to the input from the user 5 is called in real time, a composite IP image is generated by superimposing it on an appropriate position on the background, and displayed on the FPD 1 is repeated. Since this superposition processing can be performed at high speed, real-time processing of the application is reduced.

そして、本実施例においては、RGB画像のアルファを表す、アルファ画像を生成するステップS114で、カラーチャンネル毎にこのアルファ画像を生成する。   In this embodiment, the alpha image is generated for each color channel in step S114 for generating an alpha image representing the alpha of the RGB image.

通常、スプライトのデータ形式は、RGBの3つのカラーチャンネルに対して透明度を示す1つのアルファチャンネルを持つPNG(Portable Network Graphics)やTGA(Truevision Graphics Adapter)などの画像フォーマットが一般的であり、各ピクセルがR、G、B、アルファの4つの値を持つ。しかし、本実施例におけるIPスプライトの場合には、FPD1のサブピクセルを最小単位として扱い、重ね合わせもサブピクセル単位で行うこととし、カラーチャンネルと同数のアルファチャンネルを保持する。以下、その理由とその効果を図8〜図10を用いて説明する。   Generally, the sprite data format is generally an image format such as PNG (Portable Network Graphics) or TGA (Truevision Graphics Adapter) having one alpha channel indicating transparency for the three color channels of RGB. A pixel has four values, R, G, B, and alpha. However, in the case of the IP sprite in this embodiment, the subpixels of the FPD1 are handled as the minimum unit, and the superposition is also performed in units of subpixels, and the same number of alpha channels as the color channels are held. Hereinafter, the reason and the effect will be described with reference to FIGS.

図8は、上述した一般的なスプライト方式で3チャンネルのカラーチャンネルと1チャンネルのアルファチャンネルというフォーマットのスプライトを重ね合わせる場合の4ピクセル分を例示している。この場合には、スプライトをそれぞれ4チャンネルの画像フォーマットで扱うことが可能である。3チャンネルのカラーチャンネルの値は、FPD1上では隣接する3つのサブピクセルに表示される。スプライト82はカラーチャンネル61とアルファチャンネル62からなり、スプライト84はカラーチャンネル63とアルファチャンネルが66からなる。アルファチャンネル62、66は白が非透過、斜線が透過を表している。スプライト82ではサブピクセルP1〜P6の領域が表示すべき領域であり、境界線80を介したP7〜P12は不要な領域で、対応するアルファ情報A3、A4が透明であることを示している。スプライト82、84を重ね合わせた結果のカラーチャンネル68は、境界線80をはさみ、スプライト82、84の情報が重ね合わされている。このようにして、一般的なスプライト方式ではピクセル単位で重ね合わせを行う。この図8の場合、重ね合わせ処理を施した立体映像に意図しない境界線のような情報が表示されることはない。   FIG. 8 shows an example of four pixels when the sprites in the format of 3 color channels and 1 alpha channel are overlapped by the general sprite method described above. In this case, each sprite can be handled in a 4-channel image format. The values of the three color channels are displayed on three adjacent subpixels on the FPD1. The sprite 82 includes a color channel 61 and an alpha channel 62, and the sprite 84 includes a color channel 63 and an alpha channel 66. In the alpha channels 62 and 66, white represents non-transparent and hatched lines represent transparent. In the sprite 82, the areas of the subpixels P1 to P6 are areas to be displayed, and P7 to P12 via the boundary line 80 are unnecessary areas, indicating that the corresponding alpha information A3 and A4 is transparent. The color channel 68 as a result of superimposing the sprites 82 and 84 sandwiches the boundary 80 and the information of the sprites 82 and 84 is superposed. In this way, in a general sprite method, superposition is performed in units of pixels. In the case of FIG. 8, information such as an unintended boundary line is not displayed on the stereoscopic image that has been subjected to the overlay process.

次に、図9は図8と同様に3チャンネルのカラーチャンネルと、1チャンネルのアルファチャンネルのスプライトの重ね合わせの場合を説明する。カラーチャンネル60、64のデータとしてサブピクセル単位で異なる光線方向を割り当てたIP画像を用いる。このとき、IPスプライト86において表示すべきオブジェクト領域と不要な領域の境界80が、同じピクセルのサブピクセルP5(G)とのP6(B)の間に存在しうる。しかし、図9にあって、P4〜P6に対して同一のアルファ情報A2を用いてカラーチャンネル60の値をカラーチャンネル64の上に重ね合わせると、その結果のカラーチャンネル68のP6がカラーチャンネル60のP6となり、立体映像に意図しない境界線のような情報が表示されてしまうことになる。   Next, FIG. 9 illustrates the case of superimposing three color channels and one alpha channel sprite as in FIG. As the data of the color channels 60 and 64, IP images to which different light directions are assigned in units of subpixels are used. At this time, the boundary 80 between the object area to be displayed and the unnecessary area in the IP sprite 86 may exist between P6 (B) and the subpixel P5 (G) of the same pixel. However, in FIG. 9, when the value of the color channel 60 is superimposed on the color channel 64 using the same alpha information A2 for P4 to P6, the resulting P6 of the color channel 68 becomes the color channel 60. P6, and information such as an unintended boundary line is displayed on the stereoscopic video.

そこで、本実施例においては、上述のようなIPスプライトにおいて特有に発生する問題を、図7のS114で、カラーチャンネル毎にアルファ画像を生成し、図10に示すようにIPスプライト90と92が、3チャンネルのアルファチャンネル70と72を持つようにすることにより解決している。これにより、重ね合わせをサブピクセル単位で行うことができ、結果のカラーチャンネル74のP6にカラーチャンネル64のP6を表示することができる。   Therefore, in the present embodiment, the problem that occurs peculiarly in the IP sprite as described above is that an alpha image is generated for each color channel in S114 of FIG. 7, and the IP sprites 90 and 92 as shown in FIG. This is solved by having three alpha channels 70 and 72. Thereby, the superposition can be performed in units of subpixels, and P6 of the color channel 64 can be displayed on P6 of the color channel 74 as a result.

なお、3チャンネルのカラーチャンネルと3チャンネルのアルファチャンネルを持つ6チャンネルのIPスプライトのフォーマットは、3チャンネルの画像2枚を1組として扱っても良いし、6チャンネルの画像フォーマットを定義して用いても良い。また、6チャンネルとすることでデータ量が増大するが、冗長な情報を多く含むため、何らかの画像圧縮を適用してもよい。また、カラーチャンネルとアルファチャンネルの複数のチャンネル数は3に限定されない。   Note that the 6-channel IP sprite format with 3 color channels and 3 alpha channels may handle two 3-channel images as one set, or define and use a 6-channel image format. May be. Moreover, although the data amount increases by using 6 channels, some image compression may be applied because it includes a lot of redundant information. Further, the number of color channels and alpha channels is not limited to three.

次に図11と図12を用いて、ユーザ入力に対してインタラクションを行う立体表示アプリケーションにおいて、本実施例を適用した、リアルタイムに合成IP画像の生成処理を行う生成装置、および処理フローの詳細を説明する。   Next, with reference to FIG. 11 and FIG. 12, details of a generation apparatus and processing flow for generating a composite IP image in real time, to which the present embodiment is applied, in a stereoscopic display application that interacts with a user input. explain.

図11は本実施例の立体視画像生成・表示装置の構成図である。立体視画像表示装置40は立体視画像生成装置6と立体視画像表示部44からなる装置で、ディスプレイ付の組み込み機器やパーソナルコンピュータ(PC)などを想定している。立体視画像生成装置6は通常の中央処理部(Central Processing System, CPU)からなる制御部46と記憶部48とからなり、入力装置42からの信号に応じて、制御部の処理により合成IP画像を生成し、立体視画像表示部44へ出力する。入力装置42は、センサやポインティングデバイス、キーボード、ボタンなどのさまざまな入力デバイスであり、立体視画像表示装置40に含んでいても良いし、外部にあり、図示されない何らかの通信手段で接続しても良い。   FIG. 11 is a configuration diagram of the stereoscopic image generating / displaying device of the present embodiment. The stereoscopic image display device 40 is a device including a stereoscopic image generation device 6 and a stereoscopic image display unit 44, and is assumed to be an embedded device with a display, a personal computer (PC), or the like. The stereoscopic image generation device 6 includes a control unit 46 and a storage unit 48 each including a normal central processing unit (CPU), and a synthesized IP image is processed by the control unit in accordance with a signal from the input device 42. Is output to the stereoscopic image display unit 44. The input device 42 is various input devices such as a sensor, a pointing device, a keyboard, and a button, and may be included in the stereoscopic image display device 40 or may be externally connected by some communication means (not shown). good.

制御部46は種々の立体表示アプリケーションが動作する部分であり、入力装置42からの信号を処理する入力情報処理部50と、入力情報および現在の状況に応じて適切な次の動作アニメーションに対応するIPスプライトを選択する画像選択部51と、画像選択部51で選択されたIPスプライトを各ピクセルのカラーチャンネルごとに重ね合わせを行う重ね合わせ処理部52と、重ね合わせた結果得られた合成IP画像を立体視画像表示部44へ出力する画像出力部53からなる。これらは、通常、先に述べたCPUで実行されるプログラム、アプリケーションで構成される。   The control unit 46 is a part on which various stereoscopic display applications operate, and corresponds to an input information processing unit 50 that processes a signal from the input device 42 and an appropriate next motion animation depending on the input information and the current situation. An image selection unit 51 that selects an IP sprite, an overlay processing unit 52 that overlays the IP sprite selected by the image selection unit 51 for each color channel of each pixel, and a composite IP image obtained as a result of the overlay Is output to the stereoscopic image display unit 44. These are usually composed of programs and applications executed by the CPU described above.

また立体画像生成装置6の記憶部48は、コンテンツに含まれるオブジェクトが画面内のどの位置にあるかを記憶するオブジェクト座標記憶部54と、入力情報と現在の状況から次の状態への遷移規則を規定したアニメーション遷移規則記憶部55と、図7のステップS110〜S120であらかじめ生成されたIPスプライトを蓄積するIPスプライト記憶部56と、重ね合わせ処理により合成されたIP画像を記憶する合成IP画像記憶部59からなる。   In addition, the storage unit 48 of the stereoscopic image generation device 6 includes an object coordinate storage unit 54 that stores the position in the screen where the object included in the content is located, and rules for transition from the input information and the current state to the next state. Animation transition rule storage unit 55, IP sprite storage unit 56 that stores the IP sprites generated in advance in steps S 110 to S 120 of FIG. 7, and a synthesized IP image that stores an IP image synthesized by the overlay process The storage unit 59 is included.

IPスプライト記憶部56は、図10に図示したような、3チャンネルのカラーチャンネルの値と3チャンネルのアルファチャンネルの情報とをそれぞれ記憶するRGB画像記憶部57とアルファ画像記憶部58からなる。RGB画像記憶部57とアルファ画像記憶部58のメモリ領域は、それぞれ独立していても良いし、IPスプライトごとにまとまっていても良い。すべてのIPスプライトには、どのオブジェクトのどのアニメーションの何フレーム目のスプライトであるかを示す識別子(ID)が割り当てられている。   The IP sprite storage unit 56 includes an RGB image storage unit 57 and an alpha image storage unit 58 that store the values of the 3-channel color channel and the 3-channel alpha channel information as shown in FIG. The memory areas of the RGB image storage unit 57 and the alpha image storage unit 58 may be independent of each other, or may be grouped for each IP sprite. All IP sprites are assigned identifiers (IDs) indicating which frames of which animations of which objects are sprites.

また、立体視画像表示部44は光線方向制御部60とFPD1からなる。光線方向制御部60は図1に示したレンズアレイ2を用いる場合や、1方向の視差だけを実現するレンチキュラレンズなど、さまざまな光学素子を用いる場合がある。FPD1は、液晶ディスプレイや有機ELディスプレイ、プラズマディスプレイなどの、ピクセルがRGB3つのサブピクセルで構成されるディスプレイを用いる。   The stereoscopic image display unit 44 includes a light beam direction control unit 60 and the FPD 1. The light beam direction controller 60 may use various optical elements such as the lens array 2 shown in FIG. 1 or a lenticular lens that realizes parallax only in one direction. The FPD 1 uses a display such as a liquid crystal display, an organic EL display, or a plasma display, in which pixels are composed of three sub-pixels of RGB.

次に、図12は、本実施例における図11の立体視画像生成装置6において動作する立体表示アプリケーションの処理フローである。アプリケーションが開始されると、画像選択部51が、コンテンツ内のオブジェクト数と、初期状態における各オブジェクトのIPスプライトのIDと画面内の表示位置の座標を、アニメーション遷移規則記憶部55に問い合わせる(ステップS200)。表示位置の座標は、FPD1の平面に相当する2次元座標だけでなく、重ね合わせを行う順序の指標となる、画面の奥行き方向の座標も含む。   Next, FIG. 12 is a processing flow of the stereoscopic display application that operates in the stereoscopic image generation apparatus 6 of FIG. 11 in the present embodiment. When the application is started, the image selection unit 51 inquires of the animation transition rule storage unit 55 about the number of objects in the content, the ID of the IP sprite of each object in the initial state, and the coordinates of the display position on the screen (step). S200). The coordinates of the display position include not only the two-dimensional coordinates corresponding to the plane of the FPD 1 but also the coordinates in the depth direction of the screen, which serve as an index for the order of superposition.

次に、入力情報処理部50が入力装置42からの入力を検出し(ステップS202)、画像選択部51が入力情報と現在の各オブジェクトの状態と座標に基づき、アニメーション遷移規則記憶部55に次の動作に対応するIPスプライトのIDと座標を問い合わせる(ステップS204、S206)。次に、重ね合わせ処理部52が、合成IP画像の初期値として背景用IP画像をIPスプライト記憶部56より合成IP画像記憶部59に読み込む(ステップS210)。背景用IP画像は、ユーザ入力に対して変化しない、画面の奥側に存在するオブジェクトについて生成されたIP画像で、画面の最背面に表示されるため、アルファチャンネルの情報は持たない。   Next, the input information processing unit 50 detects an input from the input device 42 (step S202), and the image selection unit 51 stores the next in the animation transition rule storage unit 55 based on the input information and the current state and coordinates of each object. The ID and coordinates of the IP sprite corresponding to the above operation are inquired (steps S204 and S206). Next, the overlay processing unit 52 reads the background IP image from the IP sprite storage unit 56 into the composite IP image storage unit 59 as an initial value of the composite IP image (step S210). The background IP image is an IP image generated for an object existing on the back side of the screen that does not change in response to a user input, and is displayed on the rearmost surface of the screen, and therefore does not have alpha channel information.

次に、シーンに存在する全オブジェクトに対して重ね合わせ処理を行ったかどうかをチェックし(ステップS212)、未処理のオブジェクトがあれば、その時点の合成IP画像を合成IP画像記憶部59から読み込み(ステップS216)、IP画像選択部52により指定された、未処理のオブジェクトの中で一番奥側の座標位置となるオブジェクのIPスプライトのIP画像(RGB)とIP画像(アルファ)をRGB画像記憶部57とアルファ画像記憶部58から順次読み込み(ステップS218)、上述したように、重ね合わせ処理部52において、カラーチャンネルごとにIP画像(アルファ)の値を参照してIP画像(RGB)を合成IP画像上に重ね合わせ、合成IP画像記憶部59に保存する(ステップS220)。   Next, it is checked whether or not the overlay processing has been performed on all objects existing in the scene (step S212). If there is an unprocessed object, the composite IP image at that time is read from the composite IP image storage unit 59. (Step S216), the IP image (RGB) and IP image (alpha) of the IP sprite of the object which is designated by the IP image selection unit 52 and is the innermost coordinate position among the unprocessed objects are converted into RGB images. The storage unit 57 and the alpha image storage unit 58 are sequentially read (step S218), and, as described above, the overlay processing unit 52 refers to the value of the IP image (alpha) for each color channel to obtain the IP image (RGB). The image is superimposed on the synthesized IP image and stored in the synthesized IP image storage unit 59 (step S220).

すべてのオブジェクトに対して重ね合わせ処理(S216〜S220)が終了したら、最終的な合成IP画像を画像出力部53から立体視画像表示部44へ出力する(ステップS214)。表示したらステップS202に戻って繰り返すことにより、ユーザ5からの入力に対してインタラクティブに動作する立体視画像を表示することができる。   When the superimposition process (S216 to S220) is completed for all objects, the final synthesized IP image is output from the image output unit 53 to the stereoscopic image display unit 44 (step S214). Once displayed, the process returns to step S202 and is repeated, whereby a stereoscopic image that operates interactively in response to an input from the user 5 can be displayed.

重ね合わせ処理(S216〜S220)の処理時間は、3Dモデルデータを多視点からレンダリングしてIP画像を生成する処理(ステップS100〜S104)をリアルタイムに行う場合に比べて非常に高速であるため、ユーザ入力に対する表示内容の更新遅延を防ぐことができる。また、サブピクセル単位で重ね合わせを行うことにより滑らかな運動視差を実現し、立体映像の画質向上も実現している。   Since the processing time of the superimposition processing (S216 to S220) is very high compared to the case where the processing (steps S100 to S104) for generating the IP image by rendering 3D model data from multiple viewpoints is performed in real time, It is possible to prevent a delay in updating the display contents in response to user input. Also, smooth motion parallax is realized by superimposing in units of sub-pixels, and the image quality of stereoscopic images is improved.

以上詳述した本発明は、処理性能の低い立体視画像生成装置でも、サブピクセルレベルの分解能を持つ高光線密度の立体映像によるインタラクティブコンテンツの動作を可能にするものである。産業応用としては、ゲームなどのエンタテインメント用途や、携帯端末上のアプリケーション、カーナビゲーション、タッチパネルなど、様々な用途において高画質かつインタラクティブな立体映像を表示し、臨場感やユーザビリティを向上することができる。   The present invention described in detail above enables the operation of interactive content using a high-light-density stereoscopic image having sub-pixel level resolution even in a stereoscopic image generating apparatus with low processing performance. As industrial applications, high-quality and interactive stereoscopic images can be displayed for various uses such as entertainment applications such as games, applications on mobile terminals, car navigation systems, touch panels, etc., thereby improving the sense of reality and usability.

IP方式の模式図である。It is a schematic diagram of an IP system. 仮想空間におけるCGモデルと仮想視点を示す図である。It is a figure which shows the CG model and virtual viewpoint in virtual space. ピクセル単位の光線方向を持つ場合のIP画像の生成方法を示す図である。It is a figure which shows the production | generation method of an IP image in case it has a light ray direction of a pixel unit. サブピクセル単位の光線方向を持つ場合のIP画像の生成方法を示す図である。It is a figure which shows the production | generation method of an IP image in case it has a light beam direction of a sub pixel unit. IP画像の生成処理を示すフローチャートである。It is a flowchart which shows the production | generation process of IP image. スプライト方式の模式図である。It is a schematic diagram of a sprite system. IPスプライトの生成処理を示すフローチャートである。It is a flowchart which shows the production | generation process of IP sprite. スプライトの生成処理を説明するフローチャートである。It is a flowchart explaining the production | generation process of a sprite. 1チャンネルの透明度を持つ場合のIPスプライトの重ね合わせを示す図である。It is a figure which shows the superimposition of the IP sprite in the case of having transparency of 1 channel. 実施例1における3チャンネルの透明度を持つIPスプライトの重ね合わせを示す図である。FIG. 3 is a diagram illustrating overlaying of IP sprites having three-channel transparency according to the first embodiment. 実施例1における立体画像生成装置、及び立体視画像表示装置の構成を示すブロック図である。It is a block diagram which shows the structure of the stereo image production | generation apparatus in Example 1, and a stereoscopic vision image display apparatus. 実施例1におけるインタラクティブコンテンツにおける立体視画像の重ね合わせ処理を示すフローチャートである。4 is a flowchart illustrating a superimposing process of stereoscopic images in interactive content according to the first exemplary embodiment.

符号の説明Explanation of symbols

1…フラットパネルディスプレイ(FPD)
2…レンズアレイ
6…立体視画像生成装置
10…レンズ
40…立体視画像表示装置
44…立体視画像表示部
46…制御部
48…記憶部
56…IPスプライト記憶部
57…RGB情報記憶部
58…アルファ情報記憶部。
1. Flat panel display (FPD)
2 ... Lens array 6 ... Stereoscopic image generation device 10 ... Lens 40 ... Stereoscopic image display device 44 ... Stereoscopic image display unit 46 ... Control unit 48 ... Storage unit 56 ... IP sprite storage unit 57 ... RGB information storage unit 58 ... Alpha information storage unit.

Claims (10)

制御部と記憶部とを有する画像生成装置における立体視画像生成方法であって、
前記記憶部は、画像を立体的に表示するための立体視画像として、複数のカラーチャンネルの輝度情報、および前記複数のカラーチャンネル各々に対する複数の透明度情報を記憶しており、
前記制御部は、前記立体視画像を表示するための制御情報に応じて、前記記憶部に記憶された、前記カラーチャンネルの前記輝度情報と前記透明度情報を用い、重ね合わせ処理を行う、
ことを特徴とする立体視画像生成方法。
A stereoscopic image generation method in an image generation apparatus having a control unit and a storage unit,
The storage unit stores brightness information of a plurality of color channels and a plurality of transparency information for each of the plurality of color channels as a stereoscopic image for stereoscopically displaying an image,
The control unit performs an overlay process using the luminance information and the transparency information of the color channel stored in the storage unit according to control information for displaying the stereoscopic image.
A stereoscopic image generation method characterized by that.
請求項1に記載の立体視画像生成方法であって、
前記複数のカラーチャンネルは、赤(R)緑(G)青(B)の3つのチャンネルである、
ことを特徴とする立体視画像生成方法。
The stereoscopic image generation method according to claim 1,
The plurality of color channels are three channels of red (R), green (G), and blue (B).
A stereoscopic image generation method characterized by that.
請求項1に記載の立体視画像生成方法であって、
前記複数のカラーチャンネルの前記輝度情報と前記透明情報は、インテグラルフォトグラフィ形式のスプライト(IPスプライト)である、
ことを特徴とする立体視画像生成方法。
The stereoscopic image generation method according to claim 1,
The luminance information and the transparency information of the plurality of color channels are integral photography format sprites (IP sprites).
A stereoscopic image generation method characterized by that.
請求項1に記載の立体視画像生成方法であって、
前記複数のカラーチャンネルの前記輝度情報及び前記透明情報は、オブジェクトの相異なる複数の視点からの画像に対応する、
ことを特徴とする立体視画像生成方法。
The stereoscopic image generation method according to claim 1,
The luminance information and the transparency information of the plurality of color channels correspond to images from a plurality of different viewpoints of the object,
A stereoscopic image generation method characterized by that.
立体視画像を生成する立体視画像生成装置であって、
制御部と記憶部とを有し、
前記記憶部は、画像を立体的に表示するための立体視画像として、赤(R)緑(G)青(B)の3つのカラーチャンネルの輝度情報、および前記カラーチャンネル各々に対応する3つの透明度情報を記憶しており、
前記制御部は、前記立体視画像を表示するための制御情報に応じて、前記記憶部に記憶された、前記カラーチャンネル毎の前記輝度情報と前記透明度情報を用い、重ね合わせ処理を行う、
ことを特徴とする立体視画像生成装置。
A stereoscopic image generation device that generates a stereoscopic image,
A control unit and a storage unit;
The storage unit is a stereoscopic image for displaying an image three-dimensionally, luminance information of three color channels of red (R) green (G) blue (B), and three corresponding to each of the color channels Remembers transparency information,
The control unit performs an overlay process using the luminance information and the transparency information for each of the color channels stored in the storage unit in accordance with control information for displaying the stereoscopic image.
A stereoscopic image generating apparatus characterized by that.
請求項5に記載の立体視画像生成装置であって、
前記3つのカラーチャンネルの前記輝度情報と前記透明情報は、インテグラルフォトグラフィ形式のスプライト(IPスプライト)である、
ことを特徴とする立体視画像生成装置。
The stereoscopic image generating device according to claim 5,
The luminance information and the transparency information of the three color channels are integral photography format sprites (IP sprites).
A stereoscopic image generating apparatus characterized by that.
請求項6に記載の立体視画像生成装置であって、
前記制御部は、
入力情報に基づき、前記記憶部から前記IPスプライトを選択する画像選択部と、
前記画像選択部で選択された前記IPスプライトを、前記カラーチャンネル毎に重ね合わせして合成IP画像を得る重ね合わせ処理部と、
前記重ね合わせ処理部によって得られた前記合成IP画像を出力する画像出力部と、
を有することを特徴とする立体視画像生成装置。
The stereoscopic image generation device according to claim 6,
The controller is
An image selection unit that selects the IP sprite from the storage unit based on input information;
An overlay processor that superimposes the IP sprites selected by the image selector for each color channel to obtain a composite IP image;
An image output unit for outputting the synthesized IP image obtained by the overlay processing unit;
A stereoscopic image generating apparatus characterized by comprising:
立体視画像を表示する立体視画像表示装置であって、
制御部と記憶部とを有し、
前記記憶部は、画像を立体的に表示するため、赤(R)緑(G)青(B)の3つのカラーチャンネルの輝度情報および各チャンネルに対応する3チャンネルの透明度情報を保持しており、
前記制御部は、
立体視画像を表示するためのアプリケーションの制御情報に応じて、前記カラーチャンネルごとに前記輝度情報及び透明度情報を用いた重ね合わせ処理を行い、前記立体視画像を生成する立体視画像生成装置と、
前記立体視画像生成装置が生成した前記立体視画像を表示する立体視画像表示部と、
からなることを特徴とする立体視画像表示装置。
A stereoscopic image display device for displaying a stereoscopic image,
A control unit and a storage unit;
In order to display an image three-dimensionally, the storage unit holds luminance information of three color channels of red (R), green (G), and blue (B) and transparency information of three channels corresponding to each channel. ,
The controller is
In accordance with control information of an application for displaying a stereoscopic image, a stereoscopic image generation device that performs superimposition processing using the luminance information and transparency information for each color channel and generates the stereoscopic image;
A stereoscopic image display unit for displaying the stereoscopic image generated by the stereoscopic image generation device;
A stereoscopic image display device comprising:
請求項8に記載の立体視画像表示装置であって、
前記立体視画像生成装置における、前記3つのカラーチャンネルの前記輝度情報と前記透明情報は、インテグラルフォトグラフィ形式のスプライト(IPスプライト)である、
ことを特徴とする立体視画像表示装置。
The stereoscopic image display device according to claim 8,
In the stereoscopic image generation device, the luminance information and the transparency information of the three color channels are integral photography sprites (IP sprites).
A stereoscopic image display device characterized by that.
請求項9に記載の立体視画像表示装置であって、
前記立体視画像表示部は、
生成された前記立体視画像を表示する、RGBの3つのサブピクセルで1ピクセルを構成する形式のフラットパネルディスプレイと、
偏向光学素子群とからなる、
ことを特徴とする立体視画像表示装置。
The stereoscopic image display device according to claim 9,
The stereoscopic image display unit
A flat panel display of a format in which one pixel is composed of three RGB sub-pixels for displaying the generated stereoscopic image;
Consisting of a deflection optical element group,
A stereoscopic image display device characterized by that.
JP2007320738A 2007-12-12 2007-12-12 Stereoscopic image generation method, apparatus thereof, and stereoscopic image display apparatus Expired - Fee Related JP4703635B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007320738A JP4703635B2 (en) 2007-12-12 2007-12-12 Stereoscopic image generation method, apparatus thereof, and stereoscopic image display apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007320738A JP4703635B2 (en) 2007-12-12 2007-12-12 Stereoscopic image generation method, apparatus thereof, and stereoscopic image display apparatus

Publications (2)

Publication Number Publication Date
JP2009147508A JP2009147508A (en) 2009-07-02
JP4703635B2 true JP4703635B2 (en) 2011-06-15

Family

ID=40917646

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007320738A Expired - Fee Related JP4703635B2 (en) 2007-12-12 2007-12-12 Stereoscopic image generation method, apparatus thereof, and stereoscopic image display apparatus

Country Status (1)

Country Link
JP (1) JP4703635B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
BR112012007115A2 (en) * 2009-10-02 2020-02-27 Koninklijke Philips Electronics N.V. METHOD OF ENCODING A 3D VIDEO DATA SIGNAL, METHOD OF DECODING A 3D VIDEO SIGNAL, ENCODER FOR ENCODING A 3D VIDEO DATA SIGNAL, DECODER FOR DECODING A 3D VIDEO DATA SIGNAL, COMPUTER PROGRAM PRODUCT FOR PRODUCT ENCODE A VIDEO DATA SIGNAL, COMPUTER PROGRAM PRODUCT TO DECODE A VIDEO SIGNAL, 3D VIDEO DATA SIGNAL, AND DIGITAL DATA HOLDER
US20120249951A1 (en) * 2011-03-31 2012-10-04 Nidek Co., Ltd. Optotype presenting apparatus
JP5868050B2 (en) * 2011-07-20 2016-02-24 キヤノン株式会社 Display device and control method thereof
ES2398887B1 (en) * 2011-08-04 2014-01-30 Meztura Servicios Premium S.L. METHOD FOR THE SUPERPOSITION OF CONTENTS OF WEB RENDERING ENGINES ON VIDEO SIGNAL
CN102360491B (en) * 2011-10-25 2013-07-31 深圳万兴信息科技股份有限公司 Electronic terminal-based picture processing method and device
KR102240564B1 (en) 2014-07-29 2021-04-15 삼성전자주식회사 Apparatus and method for rendering image

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004187132A (en) * 2002-12-05 2004-07-02 Sophia Co Ltd Stereoscopic image display unit

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0785308A (en) * 1993-07-02 1995-03-31 Sony Corp Picture display method

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004187132A (en) * 2002-12-05 2004-07-02 Sophia Co Ltd Stereoscopic image display unit

Also Published As

Publication number Publication date
JP2009147508A (en) 2009-07-02

Similar Documents

Publication Publication Date Title
US10567741B2 (en) Stereoscopic image display device, terminal device, stereoscopic image display method, and program thereof
CN100483463C (en) System and method for rendering 3-D images on a 3-d image display screen
JP5208767B2 (en) On-the-fly hardware image summary
KR102121389B1 (en) Glassless 3d display apparatus and contorl method thereof
EP2347597B1 (en) Method and system for encoding a 3d image signal, encoded 3d image signal, method and system for decoding a 3d image signal
KR101825759B1 (en) Method for visualizing three-dimensional images on a 3d display device and 3d display device
CN106170084A (en) Multi-view image display device and control method thereof and multi-view image production method
CN101189643A (en) 3D image forming and displaying system
JP4703635B2 (en) Stereoscopic image generation method, apparatus thereof, and stereoscopic image display apparatus
JP2008510408A (en) View mode detection
JP2009516205A (en) Method and mechanism for expressing at least one image area on autostereoscopic display device by monoscope method and information reproducing apparatus having the mechanism
KR20120075829A (en) Apparatus and method for rendering subpixel adaptively
US20130293547A1 (en) Graphics rendering technique for autostereoscopic three dimensional display
CN101491108A (en) Apparatus, method and computer program product for three-dimensional image processing
JP2012047995A (en) Information display device
KR101975246B1 (en) Multi view image display apparatus and contorl method thereof
US8797383B2 (en) Method for stereoscopic illustration
JP2006115151A (en) Stereoscopic display device
JP2006163547A (en) Program, system and apparatus for solid image generation
CN111919437B (en) Stereoscopic knitting for head tracking autostereoscopic displays
JP5881959B2 (en) Intermediate image generation method, intermediate image generation device, stereoscopic image generation method, stereoscopic image generation device, stereoscopic image generation system
JP6604493B2 (en) Stereoscopic image display device and terminal device
KR20220105192A (en) Display device, and control method of display device
CN117176936A (en) Freely-expandable stereoscopic digital sand table system and light field rendering method
KR20120063349A (en) Converting method, device and system for 3d stereoscopic cartoon, recording medium for the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100222

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110128

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110308

LAPS Cancellation because of no payment of annual fees