JP4856534B2 - Image generating apparatus, program, and information storage medium - Google Patents

Image generating apparatus, program, and information storage medium Download PDF

Info

Publication number
JP4856534B2
JP4856534B2 JP2006352344A JP2006352344A JP4856534B2 JP 4856534 B2 JP4856534 B2 JP 4856534B2 JP 2006352344 A JP2006352344 A JP 2006352344A JP 2006352344 A JP2006352344 A JP 2006352344A JP 4856534 B2 JP4856534 B2 JP 4856534B2
Authority
JP
Japan
Prior art keywords
pixel
image
dot
depth
viewpoint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006352344A
Other languages
Japanese (ja)
Other versions
JP2007200307A (en
Inventor
龍一 坂本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Namco Ltd
Bandai Namco Entertainment Inc
Original Assignee
Namco Ltd
Namco Bandai Games Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Ltd, Namco Bandai Games Inc filed Critical Namco Ltd
Priority to JP2006352344A priority Critical patent/JP4856534B2/en
Publication of JP2007200307A publication Critical patent/JP2007200307A/en
Application granted granted Critical
Publication of JP4856534B2 publication Critical patent/JP4856534B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

本発明は、画素を配置した画素パネルと、該画素パネルの各画素の射出光線に指向性を与える光学素子群とを備えた立体視映像表示装置に表示させる三次元仮想空間の立体視画像を生成する画像生成装置等に関する。   The present invention provides a stereoscopic image in a three-dimensional virtual space to be displayed on a stereoscopic video display device that includes a pixel panel in which pixels are arranged and an optical element group that provides directivity to the light emitted from each pixel of the pixel panel. The present invention relates to an image generation apparatus and the like to be generated.

従来から知られているとおり、LCD等のフラットパネルディスプレイとレンズアレイ(例えば、レンチキュラレンズアレイや蝿の目レンズアレイ)やバリアアレイ(例えば、パララックスバリアアレイやピンホールアレイ)等の光学素子群を組み合わせることで立体視映像表示装置を作成することができる。その方式には、多眼方式(2眼を含む)や超多眼方式、IP(Integral Photography)方式、光線再生法等が知られており、例えば非特許文献1や非特許文献2に開示されている。
高木康博,「64眼式三次元カラーディスプレイとコンピュータ合成した三次元物体の表示」,3次元画像コンファレンス2002講演論文集,3次元画像コンファレンス2002実行委員会,2002年7月4日,p.85−88 尾西明洋、武田勉、谷口英之、小林哲郎,「光線再生法による三次元動画ディスプレイ」,3次元画像コンファレンス2001講演論文集,3次元画像コンファレンス2001実行委員会,2001年7月4日,p.173−176
As conventionally known, optical element groups such as flat panel displays such as LCDs and lens arrays (for example, lenticular lens arrays and eyelet lens arrays) and barrier arrays (for example, parallax barrier arrays and pinhole arrays) By combining these, a stereoscopic video display device can be created. As the method, a multi-view method (including two eyes), a super multi-view method, an IP (Integral Photography) method, a light beam reproduction method, and the like are known, and disclosed in Non-Patent Document 1 and Non-Patent Document 2, for example. ing.
Yasuhiro Takagi, “Display of 3D Objects Combining with 64 Eyes 3D Color Display”, 3D Image Conference 2002 Proceedings, 3D Image Conference 2002 Executive Committee, July 4, 2002, p. 85-88 Onishi Akihiro, Takeda Tsutomu, Taniguchi Hideyuki, Kobayashi Tetsuro, “Three-Dimensional Video Display Using Ray Reconstruction”, 3D Image Conference 2001 Proceedings, 3D Image Conference 2001 Executive Committee, July 4, 2001, p. 173-176

多眼方式では、図51に示すように、立体視画像が表示された表示面の各画素から射出され、光学素子群(同図では、レンチキュラレンズアレイ)により指向性が与えられた光線が、設定された複数(同図では、4つ)の視点位置に集まるように設計されている。そして、解像度は光学素子のピッチに依存し、視点(ビュー)の数は画素ピッチと光学素子のピッチとの比に依存している。そのため、視点数が少ない多眼方式においては、各視点での解像度は比較的高いが、視点数が少ないため自然な立体感が得られないという欠点があった。   In the multi-view method, as shown in FIG. 51, light rays emitted from each pixel on the display surface on which a stereoscopic image is displayed and given directivity by an optical element group (in the figure, a lenticular lens array) It is designed to gather at a plurality of set viewpoint positions (four in the figure). The resolution depends on the pitch of the optical element, and the number of viewpoints (views) depends on the ratio between the pixel pitch and the pitch of the optical element. For this reason, the multi-view method with a small number of viewpoints has a drawback that a natural stereoscopic effect cannot be obtained because the number of viewpoints is small although the resolution at each viewpoint is relatively high.

そこで、多眼方式を改良し、左右両目の視差の内側にも非常に多くの視点を設定することで自然な立体感を得られるようにしたものが、図52に示す超多眼方式である。しかし、超多眼方式では、視点数を非常に多くした結果、解像度の低下が著しいという欠点があり、満足な解像度を得るためには非常に高解像度の画素パネルを用いる必要があった。即ち、解像度と視点数とがトレードオフの関係にあった。   Therefore, the super multi-view system shown in FIG. 52 improves the multi-view system so that a natural stereoscopic effect can be obtained by setting very many viewpoints inside the parallax between the left and right eyes. . However, the super multi-view system has a disadvantage that the resolution is remarkably reduced as a result of increasing the number of viewpoints, and it is necessary to use a very high resolution pixel panel in order to obtain a satisfactory resolution. That is, the resolution and the number of viewpoints have a trade-off relationship.

また、多眼方式及び超多眼方式では、想定した複数の視点位置それぞれから描画を行う(画像を生成する)こととしていた。このため、光学素子のピッチと画素ピッチとが正確に合うように設計を行う必要があった。   In the multi-view method and the super-multi-view method, drawing is performed (generating an image) from each of a plurality of assumed viewpoint positions. For this reason, it is necessary to design the optical element so that the pitch of the optical element and the pixel pitch exactly match.

IP(Integral Photography)方式及び光線再生法では、図53、54に示すように、各画素から射出され、光学素子群により指向性を与えられた光線が、物体のサンプリングされた点群に集まるように設計されており、これを、更に遠くの視点から観察することによって立体視を実現している。図53はIP方式の場合を示しており、図54は光線再生法の場合を示している。   In the IP (Integral Photography) method and the ray reproduction method, as shown in FIGS. 53 and 54, rays emitted from each pixel and given directivity by the optical element group are collected at the sampled point group of the object. The stereoscopic view is realized by observing this from a further distant viewpoint. FIG. 53 shows the case of the IP system, and FIG. 54 shows the case of the light beam reproduction method.

そして、解像度は、物体のサンプリング点の数に依存し、各サンプリング点の視線数は、そのサンプリング点に集まる光線の数に依存している。つまり、サンプリング点の数が少ない程、各サンプリング点に多くの光線を集めることができる。即ち自然な立体感の再現が可能となるが、サンプリング点が少ないために解像度が低くなる。また、解像度を高くするためサンプリング点の数を増加させると、各サンプリング点には少数の光線しか集めることができず、自然な立体視が不可能となる。   The resolution depends on the number of sampling points of the object, and the number of lines of sight at each sampling point depends on the number of rays collected at the sampling point. That is, the smaller the number of sampling points, the more rays can be collected at each sampling point. That is, it is possible to reproduce a natural three-dimensional effect, but the resolution is lowered because there are few sampling points. Further, if the number of sampling points is increased in order to increase the resolution, only a small number of light beams can be collected at each sampling point, and natural stereoscopic vision becomes impossible.

特に、IP方式では、図53に示すように、自然な距離感を観察できる位置が描画面(立体視画像の表示面)に平行な結像面に限られ、それ以外の位置での物体の距離感は不自然に観察される。一方、光線再生法は、IP方式に比較して自由な距離で結像を行うことができるものである。   In particular, in the IP method, as shown in FIG. 53, the position at which a natural sense of distance can be observed is limited to the image plane parallel to the drawing plane (stereoscopic image display plane), and the object at other positions can be observed. A sense of distance is observed unnaturally. On the other hand, the light beam reproduction method can form an image at a free distance as compared with the IP method.

また、IP方式には、レンズアレイを用いるものとピンホールアレイを用いるものとがあるが、図53に示したように、レンズアレイを用いた場合には、描画面と結像面との間の距離がレンズの焦点距離に依存する。即ち、図55に示すように、レンズの焦点面と表示面との間の距離をA、レンズの焦点面と結像面との間の距離をB、レンズの焦点距離をFとすると、良く知られているように、次式の関係があるため、結像位置(描画面からの距離)を同時に2つ以上設定することができない。
(1/A)+(1/B)=(1/F)
In addition, IP systems include those using a lens array and those using a pinhole array. As shown in FIG. 53, when a lens array is used, there is a gap between the drawing surface and the imaging surface. Depends on the focal length of the lens. That is, as shown in FIG. 55, if the distance between the focal plane of the lens and the display plane is A, the distance between the focal plane of the lens and the imaging plane is B, and the focal distance of the lens is F, As is known, since there is a relationship represented by the following expression, two or more imaging positions (distances from the drawing surface) cannot be set at the same time.
(1 / A) + (1 / B) = (1 / F)

一方、光線再生法は、図54に示すように、レンズアレイでなくピンホールアレイを用いていることで、結像距離を同時に2つ以上設定することができる(同図では、2つ)が、ピンホールアレイを用いているために画面が暗く、点列が並んだような映像となってしまう欠点がある。   On the other hand, as shown in FIG. 54, the light beam reproduction method uses a pinhole array instead of a lens array, so that two or more imaging distances can be set simultaneously (two in the figure). Since the pinhole array is used, there is a drawback that the screen is dark and the image is like a sequence of dots.

また、IP方式及び光線再生法では、原理上、非常に多くの光線を集める必要があるため、サンプリング点が疎ら、即ち解像度の低いものが一般的である。つまり、満足な解像度を得るためには、超多眼方式の場合と同様に、非常に高解像度な画素パネルを用いる必要があった。即ち、多眼方式や超多眼方式とは尺度が異なるが、解像度と視点数とがトレードオフの関係にあったといえる。   Further, in the IP method and the light beam reproducing method, since it is necessary to collect a very large number of light beams in principle, sampling points are generally sparse, that is, those having low resolution. That is, in order to obtain a satisfactory resolution, it is necessary to use a pixel panel with a very high resolution, as in the super multi-view system. That is, although the scale is different from the multi-view method and the super multi-view method, it can be said that the resolution and the number of viewpoints have a trade-off relationship.

また、IP方式及び光線再生法では、各結像位置と各光学素子の位置関係、或いは、各結像位置と各画素との位置関係によって視線(視点)の位置及び方向を決定していた。具体的には、光学素子群を先に用意し、視線を結像位置と各光学素子の位置関係で決定する場合には、光学素子群に合わせて画素の配置を決定せねばならず、また、画素パネルを先に用意し、視線を各結像位置と各画素との位置関係で決定する場合には、画素パネルに合わせて光学素子群の配置を決定せねばならない。何れにしても、光学素子のピッチと画素のピッチを合わせる設計を行う必要があった。   In the IP method and the light beam reproduction method, the position and direction of the line of sight (viewpoint) are determined based on the positional relationship between each imaging position and each optical element or the positional relationship between each imaging position and each pixel. Specifically, when the optical element group is prepared first and the line of sight is determined by the positional relationship between the imaging position and each optical element, the pixel arrangement must be determined according to the optical element group, and When the pixel panel is prepared in advance and the line of sight is determined by the positional relationship between each imaging position and each pixel, the arrangement of the optical element group must be determined in accordance with the pixel panel. In any case, it is necessary to design to match the pitch of the optical elements with the pitch of the pixels.

何れの方式にせよ、従来の立体視映像表示装置では、光学素子群の光学素子ピッチと画素パネルの画素ピッチとを合わせる必要があり、光学素子群と画素パネルのどちらのピッチを他方に合わせて決定するかは、主に、両者のコスト関係によって決定される。   In any method, in the conventional stereoscopic video display device, it is necessary to match the optical element pitch of the optical element group and the pixel pitch of the pixel panel, and either pitch of the optical element group or the pixel panel is adjusted to the other. The decision is mainly based on the cost relationship between the two.

例えば、古くから知られている、立体視画像を印刷した印刷物(紙やプラスチックカード等)とレンチキュラレンズアレイ等の光学素子を組み合わせた立体視用の印刷加工物においては、立体視画像が印刷された印刷物の印刷面に光学素子群(レンズアレイやバリアアレイ等)を貼付等して装着されており、印刷物に印刷された立体視画像の各ドットの反射光線が光学素子群によって指向性が与えられることで立体視が実現される。このような印刷加工物の場合には、印刷する立体視画像のドットの配置変更が容易であるため、光学素子群に合わせて印刷する立体視画像のドットのピッチが決定される。また、コンピュータのディスプレイ等を画素パネルとして用いる場合には、その画素ピッチに合わせた専用の光学素子群(例えば、レンチキュラレンズアレイ)を設計・製作して用いていた。   For example, a stereoscopic image printed on a combination of a printed material (such as paper or plastic card) on which a stereoscopic image is printed and an optical element such as a lenticular lens array, which has been known for a long time, is printed. An optical element group (such as a lens array or a barrier array) is attached to the printed surface of the printed material, and the reflected light of each dot of the stereoscopic image printed on the printed material is given directivity by the optical element group. As a result, stereoscopic vision is realized. In the case of such a printed product, it is easy to change the arrangement of the dots of the stereoscopic image to be printed, and therefore the pitch of the dots of the stereoscopic image to be printed is determined according to the optical element group. In addition, when a computer display or the like is used as a pixel panel, a dedicated optical element group (for example, a lenticular lens array) that matches the pixel pitch is designed and manufactured.

本発明は上述した課題に鑑みて為されたものであり、その第1の目的は、従来の立体視の方式のような視点の数と映像解像度とのトレードオフの関係を打破し、自然な立体感と高い解像度を両立させることのできる新しい立体視の方式を提供するとともに、画素パネルと光学素子群のどちらか一方を他方に合わせて専用に設計しなくてはならないといった制約を排除することである。また、第2の目的は、新しい立体視の方式による立体視画像生成の処理速度の低下を最小限に抑えると共に、奥行画像を利用することで、一般的な平面視用のCGツールや写真等から、簡易的な立体視画像の生成を可能にすることである。   The present invention has been made in view of the above-mentioned problems, and a first object of the present invention is to overcome the trade-off relationship between the number of viewpoints and the video resolution as in the conventional stereoscopic vision system, Providing a new stereoscopic method that can achieve both stereoscopic effect and high resolution, and eliminate the restriction that one of the pixel panel and the optical element group must be designed exclusively for the other. It is. The second purpose is to minimize a reduction in the processing speed of generating a stereoscopic image by a new stereoscopic method, and to use a depth image, so that a general CG tool or a photograph for planar viewing is used. Therefore, it is possible to generate a simple stereoscopic image.

以上の課題を解決するための手段を以下説明するが、本発明の立体視の方式は、従来の多眼式及び超多眼式の発展形と考えられるので、主に、多眼式及び超多眼式と比較対照してそれらからの優位性について述べる。   Means for solving the above problems will be described below, but the stereoscopic viewing method of the present invention is considered to be a development of the conventional multi-view and super-multi-view methods. Compared with the multi-view type, the superiority from them is described.

立体視映像表示装置の画素パネルに表示することのできる情報量は一定であるため、従来では、解像度と視点数がトレードオフの関係にあるのは当然の前提と考えられていた。つまり、自然な立体感と高い解像度とを両立させるためには、解像度と視点数以外の要素を導入する必要がある。そこで、本発明では、像の正確さという要素を導入した。   Since the amount of information that can be displayed on the pixel panel of the stereoscopic video display device is constant, it has been conventionally assumed that the resolution and the number of viewpoints have a trade-off relationship. That is, in order to achieve both a natural stereoscopic effect and a high resolution, it is necessary to introduce elements other than the resolution and the number of viewpoints. Therefore, in the present invention, an element of image accuracy is introduced.

従来の立体視の方式は、各視点で視認される映像(像)を念頭において立体視画像を生成している。即ち、先ず各視点の映像となる画像(以下、「個別視点画像」という)を生成し、生成した個別視点画像をインターリーブ処理等することで立体視画像を生成するという過程を経る。各視点で視認される映像となる画像を基にして立体視画像が生成されるため、各視点の映像は当然に正確な像となる。   A conventional stereoscopic method generates a stereoscopic image in consideration of an image (image) viewed at each viewpoint. That is, first, an image (hereinafter referred to as “individual viewpoint image”) that is a video of each viewpoint is generated, and a stereoscopic image is generated by interleaving the generated individual viewpoint image. Since a stereoscopic image is generated based on an image that is a video viewed at each viewpoint, the video at each viewpoint is naturally an accurate image.

本発明によって生成される立体視画像を立体視した場合、各視点で視認される映像は、従来の映像に比べて若干正確さに劣る。しかし、以下の実施形態において詳述する原理の通りに、本発明によって生成される立体視画像は十分に像として視認できる明確性を有している。   When the stereoscopic image generated by the present invention is stereoscopically viewed, the video viewed at each viewpoint is slightly inaccurate compared to the conventional video. However, according to the principle described in detail in the following embodiments, the stereoscopic image generated by the present invention has sufficient clarity to be visually recognized as an image.

本発明によって従来方式では実現できなかった、視点の数及び当該各視点での映像解像度の両者の向上を図ることができたとする点、視点の数の増加に伴う処理負担の増加から立体視画像の生成速度が低下することを防止できたとする点を、以下、各発明に沿って説明する。   Stereoscopic images from the point that it was possible to improve both the number of viewpoints and the video resolution at each viewpoint, which could not be realized by the conventional method according to the present invention, and the increased processing load accompanying the increase in the number of viewpoints. Hereinafter, the point that it was possible to prevent the generation rate of the liquid crystal from being lowered will be described along each invention.

上記課題を解決するための第1の発明は、
画素を配置した画素パネル(例えば、図2の画素パネル20)と、該画素パネルの各画素の射出光線に指向性を与える光学素子群(例えば、図2のレンズ板30)とを備えた立体視映像表示装置(例えば、図2の立体視映像表示装置200A、図23の立体視映像表示装置200)に表示させる三次元仮想空間の立体視画像を、前記三次元仮想空間を所与の視点から見た平面視画像である基準画像(例えば、図26の平面視画像データ462)と、前記視点位置を基準とする該基準画像の各ドットの奥行値情報(例えば、図27の奥行画像データ472)とに基づいて生成する画像生成装置(例えば、図23の立体視画像生成装置1)であって、
前記画素パネルの各画素の色情報について、1)当該画素及び当該画素の射出光線に指向性を与える光学素子を通過する光線(例えば、代表光線PR)の方向と、前記三次元仮想空間における前記視点位置(例えば、画素別視点CM)とに基づいて、前記三次元仮想空間における前記光線の方向に対応する方向を求める方向算出ステップ(例えば、図31のステップS39)と、2)前記方向算出ステップで求められた方向と、前記奥行値情報とに基づく所定の収束計算処理により、前記三次元仮想空間中の当該方向における最も視
点寄りの物体の色情報を表すドットを前記基準画像の中から判定するドット判定ステップ(例えば、図31のステップS39〜S49)とを実行し、前記ドット判定ステップにより判定された前記基準画像のドットの色情報を当該画素の色情報とすることで、立体視画像を生成する画像生成装置である。
The first invention for solving the above-described problems is
A stereoscopic panel including a pixel panel (for example, the pixel panel 20 in FIG. 2) on which pixels are arranged, and an optical element group (for example, the lens plate 30 in FIG. 2) that gives directivity to the light emitted from each pixel of the pixel panel. A stereoscopic image in a three-dimensional virtual space to be displayed on a visual image display device (for example, the stereoscopic image display device 200A in FIG. 2 or the stereoscopic image display device 200 in FIG. 23) is displayed on the three-dimensional virtual space in a given viewpoint. And a depth value information (for example, depth image data of FIG. 27) of each dot of the reference image with the viewpoint position as a reference. 472) based on the image generation device (for example, the stereoscopic image generation device 1 in FIG. 23),
Regarding the color information of each pixel of the pixel panel, 1) the direction of a light beam (for example, the representative light beam PR) that passes through the optical element that gives directivity to the pixel and the light beam emitted from the pixel, and the color information in the three-dimensional virtual space A direction calculating step (for example, step S39 in FIG. 31) for obtaining a direction corresponding to the direction of the light ray in the three-dimensional virtual space based on the viewpoint position (for example, the pixel-specific viewpoint CM), and 2) the direction calculation. A dot representing the color information of the object closest to the viewpoint in the direction in the three-dimensional virtual space is selected from the reference image by a predetermined convergence calculation process based on the direction obtained in the step and the depth value information. Dot determination step (for example, steps S39 to S49 in FIG. 31) is executed, and the reference image determined in the dot determination step is deleted. DOO color information by the color information of the pixel, an image generating apparatus for generating a stereoscopic image.

また、第8の発明は、
画素を配置した画素パネル(例えば、図2の画素パネル20)と、該画素パネルの各画素の射出光線に指向性を与える光学素子群(例えば、図2のレンズ板30)とを備えた立体視映像表示装置(例えば、図2の立体視映像表示装置200A、図23の立体視映像表示装置200)に表示させる三次元仮想空間の立体視画像を、前記三次元仮想空間を所与の視点から見た平面視画像である基準画像(例えば、図26の平面視画像データ462)と、前記視点位置を基準とする該基準画像の各ドットの奥行値情報(例えば、図27の奥行画像データ472)とに基づいてコンピュータに生成させるためのプログラム(例えば、図23の立体視画像生成プログラム410)であって、
前記画素パネルの各画素の色情報について、1)当該画素及び当該画素の射出光線に指向性を与える光学素子を通過する光線(例えば、代表光線PR)の方向と、前記三次元仮想空間における前記視点位置(例えば、画素別視点CM)とに基づいて、前記三次元仮想空間における前記光線の方向に対応する方向を求める方向算出ステップ(例えば、図31のステップS39)と、2)前記方向算出ステップで求められた方向と、前記奥行値情報とに基づく所定の収束計算処理により、前記三次元仮想空間中の当該方向における最も視点寄りの物体の色情報を表すドットを前記基準画像の中から判定するドット判定ステップ(例えば、図31のステップS39〜S49)とを前記コンピュータに実行させ、前記ドット判定ステップにより判定された前記基準画像のドットの色情報を当該画素の色情報とすることで、立体視画像を生成するように前記コンピュータに実行させるためのプログラムである。
Further, the eighth invention is
A stereoscopic panel including a pixel panel (for example, the pixel panel 20 in FIG. 2) on which pixels are arranged, and an optical element group (for example, the lens plate 30 in FIG. 2) that gives directivity to the light emitted from each pixel of the pixel panel. A stereoscopic image in a three-dimensional virtual space to be displayed on a visual image display device (for example, the stereoscopic image display device 200A in FIG. 2 or the stereoscopic image display device 200 in FIG. 23) is displayed on the three-dimensional virtual space in a given viewpoint. And a depth value information (for example, depth image data of FIG. 27) of each dot of the reference image with the viewpoint position as a reference. 472), and a program (for example, the stereoscopic image generation program 410 in FIG. 23) for causing the computer to generate the program.
Regarding the color information of each pixel of the pixel panel, 1) the direction of a light beam (for example, the representative light beam PR) that passes through the optical element that gives directivity to the pixel and the light beam emitted from the pixel, and the color information in the three-dimensional virtual space A direction calculating step (for example, step S39 in FIG. 31) for obtaining a direction corresponding to the direction of the light ray in the three-dimensional virtual space based on the viewpoint position (for example, the pixel-specific viewpoint CM), and 2) the direction calculation. A dot representing the color information of the object closest to the viewpoint in the direction in the three-dimensional virtual space is selected from the reference image by a predetermined convergence calculation process based on the direction obtained in the step and the depth value information. Dot determination step (for example, steps S39 to S49 in FIG. 31) is executed by the computer, and is determined by the dot determination step. The color information of the dots of the reference image by the color information of the pixel, a program to be executed by the computer to generate a stereoscopic image.

この第1又は第8の発明によれば、画素パネルの各画素の色情報について、1)当該画素及び当該画素の射出光線に指向性を与える光学素子を通過する光線の方向と、三次元仮想空間における視点位置とに基づいて、三次元仮想空間における光線の方向に対応する方向が求められ、求められた方向と、奥行値情報とに基づく所定の収束計算処理により、三次元仮想空間中の当該方向における最も視点寄りの物体の色情報を表すドットが基準画像の中から判定される。そして、判定された基準画像のドットの色情報を当該画素の色情報とすることで、立体視画像が生成される。   According to the first or eighth invention, for the color information of each pixel of the pixel panel, 1) the direction of the light passing through the pixel and the optical element that gives directivity to the emitted light of the pixel, and the three-dimensional virtual Based on the viewpoint position in the space, a direction corresponding to the direction of the light beam in the three-dimensional virtual space is obtained, and by a predetermined convergence calculation process based on the obtained direction and the depth value information, A dot representing the color information of the object closest to the viewpoint in the direction is determined from the reference image. Then, by using the color information of the determined dot of the reference image as the color information of the pixel, a stereoscopic image is generated.

従って、生成された立体視画像が上記立体視映像表示装置に表示された場合、画素パネルの各画素には、当該画素の上記光線の方向に基づいた三次元仮想空間の色情報が表されるため、該光線の数ほどに視点がある、即ち画素の数ほどに視点があるといえる。故に、従来の多眼方式のように、想定する視点位置に観察者の目が位置しなくてはならないといったことがなく、超多眼方式のように、一定の領域内に観察者が位置すればどの位置に目があっても良好に立体視することができる。   Therefore, when the generated stereoscopic image is displayed on the stereoscopic video display device, each pixel of the pixel panel represents the color information of the three-dimensional virtual space based on the direction of the light beam of the pixel. Therefore, it can be said that there are as many viewpoints as the number of light rays, that is, as many viewpoints as there are pixels. Therefore, the viewer's eyes must be positioned at the assumed viewpoint position as in the conventional multi-view method, and the observer is positioned within a certain area as in the super multi-view method. Even if there is an eye at any position, it is possible to achieve a good stereoscopic view.

一方、画素パネルの各画素の上記光線は画素毎に別個な方向ではある。しかし、その光線の方向を辿った場合、観察者の左目及びその左目の位置近傍を通過する光線はほぼ均一な方向となる。従って、観察者が視認する像は、その目の位置から見た正確な色情報ではないものの、一定の明確性を有して視認される。そして、画素面の位置における像の解像度は光学素子1つの幅程度となるため、超多眼式のような著しい解像度の劣化には至らない。   On the other hand, the light beam of each pixel of the pixel panel is in a separate direction for each pixel. However, when the direction of the light ray is traced, the light ray passing through the observer's left eye and the vicinity of the position of the left eye is in a substantially uniform direction. Therefore, the image visually recognized by the observer is visually accurate with certain clarity although it is not accurate color information viewed from the position of the eyes. Since the resolution of the image at the position of the pixel surface is about the width of one optical element, it does not lead to a significant resolution degradation as in the super multi-view type.

また、三次元仮想空間を所与の視点から見た平面視画像である基準画像と、視点位置を基準とする基準画像の各ドットの奥行値情報とに基づいて、上記立体視画像を生成することができる。従って、例えば、専用のレンダラを使わなくとも、既存の高品位なCGツールで作成した画像を容易に立体化することができ、汎用性の高い画像生成装置を提供することができる。また、実写画像から立体視画像を作成する場合に、一箇所の視点位置からの撮影で済ませることができるため、容易に立体視画像を生成することができる。   Further, the stereoscopic image is generated based on a reference image that is a planar image obtained by viewing the three-dimensional virtual space from a given viewpoint, and depth value information of each dot of the reference image with the viewpoint position as a reference. be able to. Therefore, for example, an image created with an existing high-quality CG tool can be easily three-dimensionalized without using a dedicated renderer, and a highly versatile image generation apparatus can be provided. In addition, when creating a stereoscopic image from a real image, it is possible to shoot from one viewpoint position, so that a stereoscopic image can be easily generated.

また、各画素の色情報を設定する基準画像のドットを所定の収束計算処理によって判定するため、三次元仮想空間に複数の物体が存在するような場合に、上記光線と各物体との交差判定を逐次行う必要がなく、立体視画像を高速に生成することが可能となる。   In addition, since the dots of the reference image for setting the color information of each pixel are determined by a predetermined convergence calculation process, when there are a plurality of objects in a three-dimensional virtual space, the intersection determination between the light ray and each object is performed. Need not be sequentially performed, and a stereoscopic image can be generated at high speed.

尚、以上のように1視点からの平面視画像とそれに対応する奥行値情報とから立体視画像を生成した場合、左右に回り込んだ視点からの情報がないため、大きく左右に回り込んで観察した場合の画像が、不自然なものとなることがある。しかしながら、想定される観察範囲がそれほど広くない場合、即ち、左右両眼視差の内部ないし外部近傍のみである場合には、その影響は少なく、実用上問題のない立体視画像を得ることができる。   As described above, when a stereoscopic image is generated from the planar image from one viewpoint and the depth value information corresponding thereto, there is no information from the viewpoint that wraps around to the left and right. In such a case, the image may become unnatural. However, when the assumed observation range is not so wide, that is, when the left and right binocular parallax is only inside or near the outside, the influence is small and a stereoscopic image having no practical problem can be obtained.

第2の発明は、第1の発明の画像生成装置であって、
前記ドット判定ステップは、前記基準画像を構成するドットの奥行値の微分値である奥行微分情報を算出する奥行微分情報算出ステップ(例えば、図32のステップS51、S57)を含み、前記方向算出ステップで求められた方向と、前記奥行値情報と、前記奥行微分情報算出ステップで算出された奥行微分情報とに基づき、ニュートン法による所定の収束計算処理により前記三次元仮想空間中の当該方向における最も視点寄りの物体の色情報を表すドットを前記基準画像の中から判定するステップであることを特徴とする画像生成装置である。
The second invention is the image generating device of the first invention,
The dot determining step includes a depth differential information calculating step (for example, steps S51 and S57 in FIG. 32) for calculating depth differential information that is a differential value of the depth value of the dots constituting the reference image, and the direction calculating step On the basis of the direction value obtained in step 3, the depth value information, and the depth derivative information calculated in the depth derivative information calculation step, by a predetermined convergence calculation process by Newton's method, the most in the direction in the three-dimensional virtual space An image generating apparatus characterized in that it is a step of determining a dot representing color information of an object closer to the viewpoint from the reference image.

また、第9の発明は、第8の発明のプログラムであって、
前記ドット判定ステップは、前記基準画像を構成するドットの奥行値の微分値である奥行微分情報を算出する奥行微分情報算出ステップ(例えば、図32のステップS51、S57)を含み、前記方向算出ステップで求められた方向と、前記奥行値情報と、前記奥行微分情報算出ステップで算出された奥行微分情報とに基づき、ニュートン法による所定の収束計算処理により前記三次元仮想空間中の当該方向における最も視点寄りの物体の色情報を表すドットを前記基準画像の中から判定するステップであることを特徴とするプログラムである。
The ninth invention is a program according to the eighth invention,
The dot determining step includes a depth differential information calculating step (for example, steps S51 and S57 in FIG. 32) for calculating depth differential information that is a differential value of the depth value of the dots constituting the reference image, and the direction calculating step On the basis of the direction value obtained in step 3, the depth value information, and the depth derivative information calculated in the depth derivative information calculation step, by a predetermined convergence calculation process by Newton's method, the most in the direction in the three-dimensional virtual space The program is a step of determining a dot representing color information of an object closer to the viewpoint from the reference image.

この第2又は第9の発明によれば、ドット判定ステップにおいて、基準画像を構成するドットの奥行微分情報が算出される。そして、方向算出ステップで求められた方向と、奥行値情報と、算出された奥行微分情報とに基づいて、ニュートン法による所定の収束計算処理が行われ、三次元仮想空間中の当該方向における最も視点寄りの物体の色情報を表すドットが基準画像の中から判定される。   According to the second or ninth aspect, in the dot determination step, the depth differential information of the dots constituting the reference image is calculated. Then, based on the direction obtained in the direction calculation step, the depth value information, and the calculated depth derivative information, a predetermined convergence calculation process by Newton's method is performed, and the most in the direction in the three-dimensional virtual space. A dot representing color information of an object closer to the viewpoint is determined from the reference image.

ニュートン法は、解への収束が初期値に依存するアルゴリズムではあるが、二次収束性を有することを特徴としているため、高速に解を求めることが可能となる。従って、最も視点寄りの物体の色情報を表すドットを基準画像の中から短時間で判定することができるため、立体視画像生成の高速化が実現できる。   Although Newton's method is an algorithm whose convergence to the solution depends on the initial value, it is characterized by a quadratic convergence, so that a solution can be obtained at high speed. Therefore, since the dot representing the color information of the object closest to the viewpoint can be determined in a short time from the reference image, it is possible to increase the speed of stereoscopic image generation.

第3の発明は、第1の発明の画像生成装置であって、
前記ドット判定ステップによる判定処理の前に、前記基準画像の各ドットの奥行値の微分値である奥行微分情報を算出する奥行微分情報算出ステップ(例えば、図31のステップS27)を実行し、
前記ドット判定ステップでは、前記方向算出ステップで求められた方向と、前記奥行値情報とに加えて前記奥行微分情報算出ステップで算出された奥行微分情報とを用いて、ニュートン法による所定の収束計算処理により前記三次元仮想空間中の当該方向における最も視点寄りの物体の色情報を表すドットを前記基準画像の中から判定する、
ことを特徴とする画像生成装置である。
A third invention is the image generation device of the first invention,
Before the determination process by the dot determination step, a depth differential information calculation step (for example, step S27 in FIG. 31) for calculating depth differential information that is a differential value of the depth value of each dot of the reference image is executed.
In the dot determination step, a predetermined convergence calculation by the Newton method is performed using the direction obtained in the direction calculation step and the depth derivative information calculated in the depth derivative information calculation step in addition to the depth value information. A dot representing color information of an object closest to the viewpoint in the direction in the three-dimensional virtual space is determined from the reference image by processing.
An image generating apparatus characterized by the above.

また、第10の発明は、第8の発明のプログラムであって、
前記ドット判定ステップによる判定処理の前に、前記基準画像の各ドットの奥行値の微分値である奥行微分情報を算出する奥行微分情報算出ステップ(例えば、図31のステップS27)を前記コンピュータに実行させ、
前記ドット判定ステップでは、前記方向算出ステップで求められた方向と、前記奥行値情報とに加えて前記奥行微分情報算出ステップで算出された奥行微分情報とを用いて、ニュートン法による所定の収束計算処理により前記三次元仮想空間中の当該方向における最も視点寄りの物体の色情報を表すドットを前記基準画像の中から判定する、
ように前記コンピュータを実行させるためのプログラムである。
The 10th invention is the program of the 8th invention,
Before the determination process by the dot determination step, a depth differential information calculation step (for example, step S27 in FIG. 31) for calculating depth differential information that is a differential value of the depth value of each dot of the reference image is executed on the computer. Let
In the dot determination step, a predetermined convergence calculation by the Newton method is performed using the direction obtained in the direction calculation step and the depth derivative information calculated in the depth derivative information calculation step in addition to the depth value information. A dot representing color information of an object closest to the viewpoint in the direction in the three-dimensional virtual space is determined from the reference image by processing.
The program for causing the computer to execute.

この第3又は第10の発明によれば、ドット判定ステップによる判定処理の前に、基準画像の各ドットの奥行微分情報が算出される。そして、ドット判定ステップでは、方向算出ステップで求められた方向と、奥行値情報とに加えて、前もって算出された奥行微分情報を用いたニュートン法による所定の収束計算処理が行われ、三次元仮想空間中の当該方向における最も視点寄りの物体の色情報を表すドットが基準画像の中から判定される。   According to the third or tenth invention, the depth differential information of each dot of the reference image is calculated before the determination process in the dot determination step. In the dot determination step, in addition to the direction obtained in the direction calculation step and the depth value information, a predetermined convergence calculation process is performed by Newton's method using the depth derivative information calculated in advance, and a three-dimensional virtual A dot representing the color information of the object closest to the viewpoint in the direction in the space is determined from the reference image.

ドットの判定処理を行う前に、予め全ての画素についての奥行微分情報を算出しておくことで、ニュートン法による収束計算処理において奥行微分情報を逐次算出する必要がなくなる。   By calculating the depth differential information for all the pixels in advance before performing the dot determination process, it is not necessary to sequentially calculate the depth differential information in the convergence calculation process by the Newton method.

第4の発明は、第2又は第3の発明の画像生成装置であって、
前記奥行微分情報算出ステップは、前記基準画像の各ドットについて、当該ドットの奥行値と、当該ドットに隣接する隣接ドットの奥行値との差分を算出して微分値を求めることで前記奥行微分情報を算出するステップであることを特徴とする画像生成装置である。
The fourth invention is the image generation device of the second or third invention,
The depth derivative information calculating step calculates the difference between the depth value of the dot and the depth value of an adjacent dot adjacent to the dot for each dot of the reference image to obtain a derivative value, thereby calculating the depth derivative information. An image generation apparatus characterized by being a step of calculating.

また、第11の発明は、第9又は第10の発明のプログラムであって、
前記奥行微分情報算出ステップは、前記基準画像の各ドットについて、当該ドットの奥行値と、当該ドットに隣接する隣接ドットの奥行値との差分を算出して微分値を求めることで前記奥行微分情報を算出するステップであることを特徴とするプログラムである。
The eleventh invention is the program of the ninth or tenth invention,
The depth derivative information calculating step calculates the difference between the depth value of the dot and the depth value of an adjacent dot adjacent to the dot for each dot of the reference image to obtain a derivative value, thereby calculating the depth derivative information. A program characterized by being a step of calculating.

この第4又は第11の発明によれば、基準画像の各ドットについて、当該ドットの奥行値と、当該ドットに隣接する隣接ドットの奥行値との差分が微分値として求められることで、奥行微分情報が算出される。   According to the fourth or eleventh invention, for each dot of the reference image, the difference between the depth value of the dot and the depth value of the adjacent dot adjacent to the dot is obtained as a differential value, so that the depth differentiation Information is calculated.

なお、以上各発明の集束計算処理であるが、集束計算を行うに当たっての初期値を次のようにしてもよい。すなわち、第5の発明として、第1〜第4の何れか一の発明の画像生成装置の前記ドット判定ステップを、前記方向算出ステップで求められた方向における最も前記視点寄りのドット位置を初期位置として前記所定の集束計算処理を行うステップとして構成してもよい。また、第12の発明として、第8〜第11の何れか一の発明のプログラムにおいて、前記ドット判定ステップを、前記方向算出ステップで求められた方向における最も前記視点寄りのドット位置を初期位置として前記所定の集束計算処理を行うステップとして構成してもよい。   In addition, although it is the focusing calculation process of each invention above, the initial value in performing the focusing calculation may be as follows. That is, as a fifth invention, the dot determination step of the image generation apparatus according to any one of the first to fourth inventions is performed by setting the dot position closest to the viewpoint in the direction obtained in the direction calculation step to the initial position. As a step of performing the predetermined focusing calculation process. As a twelfth invention, in the program according to any one of the eighth to eleventh inventions, the dot determination step may be performed with the dot position closest to the viewpoint in the direction obtained in the direction calculation step as an initial position. You may comprise as a step which performs the said predetermined | prescribed focusing calculation process.

ここで、「最も前記視点寄りのドット位置」とは、画素面に平行で、奥行モデルの最高点を通る平面と、方向算出ステップで求められた方向との交点の位置である。   Here, “the dot position closest to the viewpoint” is the position of the intersection of a plane parallel to the pixel surface and passing through the highest point of the depth model and the direction obtained in the direction calculation step.

第6の発明は、第1〜第5の何れか一の発明の画像生成装置であって、
前記立体視映像表示装置は、所定の想定観察位置における一の光学素子に対する視角を対光学素子視角λ、前記一の光学素子により指向性が与えられる一の画素に対する視角を対画素視角σ、前記画素パネル中の立体視画像描画領域に対する視角を対描画領域視角Φとしたとき、λ:σ=n:m(但し、nは自然数、mはΦ/λ未満の自然数)が成立しないことを特徴とする画像生成装置である。
A sixth invention is the image generating device according to any one of the first to fifth inventions,
The stereoscopic image display device has a viewing angle with respect to one optical element at a predetermined assumed observation position as a viewing angle with respect to the optical element λ, a viewing angle with respect to one pixel to which directivity is given by the one optical element as a viewing angle with respect to pixel σ, and Λ: σ = n: m (where n is a natural number and m is a natural number less than Φ / λ) is not established when the viewing angle with respect to the stereoscopic image drawing region in the pixel panel is a paired drawing region viewing angle Φ. Is an image generation apparatus.

また、第7の発明は、第1〜第6の何れか一の発明の画像生成装置であって、
前記立体視映像表示装置は、一の光学素子の水平方向幅をL、前記一の光学素子により指向性が与えられる一の画素の水平方向幅をS、前記画素パネル中の立体視画像描画領域の水平方向幅をRとしたとき、L:S=o:p(但し、oは自然数、pはR/L未満の自然数)が成立しないことを特徴とする画像生成装置である。
The seventh invention is the image generation device according to any one of the first to sixth inventions,
The stereoscopic video display device has a horizontal width of one optical element as L, a horizontal width of one pixel provided with directivity by the one optical element as S, and a stereoscopic image drawing area in the pixel panel. Is an image generation device characterized in that L: S = o: p (where o is a natural number and p is a natural number less than R / L) is not established.

この第6又は第7の発明によれば、レンズのレンズピッチと表示装置の画素ピッチとが合わない(いわゆる「ピッチが合わない」)場合における立体視画像生成が実現される。従って、画素パネルと光学素子群のどちらか一方を他方に合わせて専用に設計しなくてはならないといった制約を排除することができるようになる。   According to the sixth or seventh aspect of the invention, stereoscopic image generation is realized when the lens pitch of the lens and the pixel pitch of the display device do not match (so-called “pitch does not match”). Therefore, it is possible to eliminate the restriction that one of the pixel panel and the optical element group must be designed exclusively for the other.

第13の発明は、第8〜第12の何れか一の発明のプログラムを記憶したコンピュータ読み取り可能な情報記憶媒体(例えば、図23の記憶部400)である。   The thirteenth invention is a computer-readable information storage medium (for example, the storage unit 400 in FIG. 23) storing the program of any one of the eighth to twelfth inventions.

この第13の発明によれば、第8〜第12の何れか一の発明と同様の作用効果を奏する情報記憶媒体が実現される。   According to the thirteenth aspect, an information storage medium that achieves the same operational effects as any one of the eighth to twelfth aspects is realized.

本発明によれば、像の正確さを立体視に支障のない程度に劣化させることで、画素パネルの全画素数に相当する視点がありながらも、映像の解像度を光学素子1つ分の幅程度に保つことができる新たな立体視の方式を実現できるとともに、画素パネルと光学素子群のどちらか一方を他方に合わせて専用に設計しなくてはならないといった制約を排除することができる。また、新しい立体視の方式による立体視画像生成の処理速度を高速化することができる。   According to the present invention, the resolution of an image is reduced to the width of one optical element, while there is a viewpoint corresponding to the total number of pixels of the pixel panel by degrading the accuracy of the image to the extent that does not hinder stereoscopic vision. It is possible to realize a new stereoscopic method that can be maintained at a certain level, and to eliminate the restriction that one of the pixel panel and the optical element group must be designed exclusively for the other. In addition, the processing speed of generating a stereoscopic image by a new stereoscopic method can be increased.

以下、図面を参照して本発明の好適な実施形態を説明する。尚、各図面では、光線の方向を明確に示すために敢えてハッチングを描いていない。また、以下では、光学素子群としてレンチキュラレンズアレイを用いた立体視映像表示装置に表示させる立体視画像を生成する場合について説明するが、本発明の適用がこれに限定されるものではない。   Preferred embodiments of the present invention will be described below with reference to the drawings. In each drawing, hatching is not drawn in order to clearly show the direction of light rays. In the following, a case where a stereoscopic image to be displayed on a stereoscopic video display device using a lenticular lens array as an optical element group is generated will be described, but the application of the present invention is not limited to this.

1.立体視画像の生成原理
立体視画像の生成方法には、(I)正確な3次元モデルをレンダリングすると同時に作成する方法、(II)1視点からの平面視画像と奥行画像とから立体視画像を作成する方法、(III)2眼又は多眼分の画像を作成し、それらから中間視点のものを補間して作成する方法などがある。本実施形態では、方法(I),(II)に基づき立体視画像を生成する場合を例に挙げて以下説明する。
1. Principle of generating a stereoscopic image There are three methods for generating a stereoscopic image: (I) a method of rendering an accurate three-dimensional model at the same time, and (II) a stereoscopic image from a perspective image and a depth image from one viewpoint. There are a method of creating, (III) a method of creating images for two eyes or multiple eyes, and interpolating the images of intermediate viewpoints from them. In the present embodiment, a case where a stereoscopic image is generated based on the methods (I) and (II) will be described as an example.

先ず、方法(I)に基づき立体視画像を生成する場合について説明する。
図1は、本実施形態における立体視画像生成の概要を示す図であり、表示面22に対する垂直断面図を示している。同図に示すように、本実施形態では、表示面22の画素PE毎に、(1)該画素PEの代表点(例えば、画素PEの中心)と該画素PEに対応するレンズ(光学素子)の主点とを通過した後の光線の逆方向を視線方向とする視線Vを決定し、(2)決定した視線Vの視線方向にある物体の色情報を該画素PEの色情報とする(レンダリング)、ことで立体視画像を生成する。
First, a case where a stereoscopic image is generated based on the method (I) will be described.
FIG. 1 is a diagram showing an outline of stereoscopic image generation in this embodiment, and shows a vertical sectional view with respect to the display surface 22. As shown in the figure, in this embodiment, for each pixel PE on the display surface 22, (1) a representative point of the pixel PE (for example, the center of the pixel PE) and a lens (optical element) corresponding to the pixel PE (2) The color information of the object in the line-of-sight direction of the determined line-of-sight V is used as the color information of the pixel PE ( Rendering) to generate a stereoscopic image.

(1)視線Vの決定
視線Vは、立体視画像を表示させることとなる立体視映像表示装置の構成パラメータ(後述するように、画素パネルとレンズ板との相対的な配置関係や画素パネルの画素ピッチ、レンズ板のレンズピッチや焦点距離等)と、想定した観察者の位置(以下、「想定観察位置」という)とに基づいて決定する。具体的には、画素PE毎に、立体視映像表示装置の構成パラメータ及び想定観察位置に基づいて該画素PEに対応するレンズ(光学素子)を決定し、該画素PEの代表点と決定した該画素PEに対応するレンズの主点とを通過した後の光線(代表光線)を算出する。そして、その代表光線PRと位置は同じで方向を逆にした視線を該画素の視線Vとして決定する。尚、想定観察位置は、立体視映像表示装置の表示面に対する相対的な観察者の視点の位置とする。
(1) Determination of the line of sight V The line of sight V is a configuration parameter of a stereoscopic video display device that displays a stereoscopic image (as will be described later, the relative arrangement relationship between the pixel panel and the lens plate, The pixel pitch, the lens pitch of the lens plate, the focal length, and the like) and an assumed observer position (hereinafter referred to as “assumed observation position”). Specifically, for each pixel PE, a lens (optical element) corresponding to the pixel PE is determined based on the configuration parameter of the stereoscopic video display device and the assumed observation position, and the representative point of the pixel PE is determined. A ray (representative ray) after passing through the principal point of the lens corresponding to the pixel PE is calculated. Then, the line of sight having the same position as that of the representative light ray PR and having the direction reversed is determined as the line of sight V of the pixel. The assumed observation position is the position of the observer's viewpoint relative to the display surface of the stereoscopic video display device.

ここで、本実施形態で扱う立体視映像表示装置について説明する。本実施形態では、レンチキュラ方式の立体視映像表示装置に表示させる立体視画像を生成する。レンチキュラ方式の立体視映像表示装置とは、光学素子群としてレンチキュラレンズアレイを用いた立体視映像表示装置であり、平面液晶ディスプレイ等のフラットパネルディスプレイの表示面から一定の距離にレンチキュラレンズアレイが装着され、観察者がレンチキュラレンズアレイを介して表示面に表示された画像を見る(観察する)ことで、観察者に立体視を認識せしめる表示装置である。   Here, the stereoscopic video display apparatus handled in this embodiment will be described. In the present embodiment, a stereoscopic image to be displayed on a lenticular stereoscopic image display device is generated. A lenticular stereoscopic image display device is a stereoscopic image display device that uses a lenticular lens array as an optical element group, and the lenticular lens array is mounted at a certain distance from the display surface of a flat panel display such as a flat liquid crystal display. The display device allows the observer to recognize stereoscopic vision by viewing (observing) the image displayed on the display surface via the lenticular lens array.

図2は、垂直レンチキュラ方式の立体視映像表示装置200Aの概略構造を示す図である。同図(a)は、立体視映像表示装置200Aの表示面に対する横方向(水平走査方向)断面図を示し、同図(b)は、観察者側から見た平面図を示している。   FIG. 2 is a diagram showing a schematic structure of a vertical lenticular stereoscopic image display apparatus 200A. FIG. 4A shows a cross-sectional view in the horizontal direction (horizontal scanning direction) with respect to the display surface of the stereoscopic video display apparatus 200A, and FIG. 4B shows a plan view seen from the observer side.

同図によれば、立体視映像表示装置200Aは、主に、バックライト10と、画素パネル20と、レンズ板30とを備えて構成される。バックライト10、画素パネル20及びレンズ板30は、それぞれ板状体であって互いに平行に配置されている。   According to the figure, the stereoscopic video display apparatus 200A is mainly configured to include a backlight 10, a pixel panel 20, and a lens plate 30. The backlight 10, the pixel panel 20, and the lens plate 30 are plate-like bodies and are arranged in parallel to each other.

バックライト10は光を出射し、その光は画素パネル20とレンズ板30とを通過して立体視映像表示装置200Aの外に進行する。即ち、観察者は、レンズ板30を介して画素パネル20に表示される画像を見ることになる。   The backlight 10 emits light, which passes through the pixel panel 20 and the lens plate 30 and travels out of the stereoscopic video display device 200A. That is, the observer sees an image displayed on the pixel panel 20 through the lens plate 30.

画素パネル20は、画素(ピクセル)が一定の配列で配置されたカラー表示可能なディスプレイであり、レンズ板30と組み合わせることで立体視が可能となるものであれば種類は問わない。例えば、カラーフィルタ方式の液晶ディスプレイ、プラズマディスプレイ、無機ELディスプレイ或いは有機ELディスプレイ等がある。また、カラーフィルタを用いないものでも、単色発光素子を配列した有機ELディスプレイやLEDディスプレイのように、赤(R)、緑(G)及び青(B)等の単色に自発光する素子を配置したディスプレイであっても適用可能である。また、いわゆる同色に発光する画素が配置されたモノクロディスプレイであっても構わず、更には、R(赤),G(緑),B(青)以外の色の画素を持ったディスプレイであっても構わない。また、画素の配置については、格子状は勿論、画素の代表点の座標を求めることが可能なものであれば、デルタ配列やその他の配列であっても構わない。   The pixel panel 20 is a display capable of color display in which pixels (pixels) are arranged in a fixed arrangement, and any type can be used as long as it can be stereoscopically combined with the lens plate 30. For example, there are a color filter type liquid crystal display, a plasma display, an inorganic EL display, an organic EL display, and the like. Even if no color filter is used, elements that emit light in a single color such as red (R), green (G), and blue (B) are arranged like an organic EL display or LED display in which single-color light emitting elements are arranged. Even a display that has been used is applicable. Further, it may be a monochrome display in which pixels emitting light of the same color are arranged, and further, a display having pixels of colors other than R (red), G (green), and B (blue). It doesn't matter. Further, the pixel arrangement may be a delta arrangement or other arrangements as long as the coordinates of the representative points of the pixels can be obtained as well as the lattice shape.

レンズ板30は、一方の面が、断面半円筒状(蒲鉾型)若しくはこれと光学的に等価な光学素子であるマイクロレンズ(以下、単に「レンズ」という)32が連接して成る凹凸面であり、他方の面が略平面状のレンチキュラレンズアレイである。レンズ板30の各レンズ32は、表示面22の各画素PEから射出される光線(射出光線)に指向性を与える働きをする。   One surface of the lens plate 30 is a concavo-convex surface formed by connecting a microlens (hereinafter simply referred to as a “lens”) 32 that is a semi-cylindrical cross section (saddle-shaped) or an optical element optically equivalent thereto. There is a lenticular lens array whose other surface is substantially planar. Each lens 32 of the lens plate 30 functions to give directivity to light rays (emitted light rays) emitted from the respective pixels PE of the display surface 22.

また、レンズ板30は、平面が画素パネル20の表示面22に対向し、且つ、レンズ板30の主点面と表示面22との間の距離Gが各レンズ32の焦点距離Fにほぼ一致するように配置されている。尚、この距離Gは、焦点距離Fに完全に一致せず、ある程度の誤差があっても良い。例えば図49(a)は、G=F、とした状態であり、特定の方向から見ると、1つの画素PEがレンズ32いっぱいに広がって観察される。また、距離Gが焦点距離Fから少し離れた位置、即ち同図(b)、(c)に示す状態でも、特定の方向から見ると、1つの画素PEがレンズ32いっぱいに広がって観察される。しかし、距離Gが焦点距離Fからこれ以上離れた位置になると、レンズ32がその隣の画素PEをも映してしまうため、立体視の画質が損なわれる。即ち、画素パネル20のサブピクセル単位での画素ピッチの長さをS、レンズ板30のレンズピッチの長さをLとすると、距離Gが次式(1)を満たすように配置されていれば、そうでない場合よりも画質の良い立体視を実現することができる。
(L−S)・F/L≦G≦(L+S)・F/L ・・・(1)
The lens plate 30 has a flat surface facing the display surface 22 of the pixel panel 20, and the distance G between the principal point surface of the lens plate 30 and the display surface 22 substantially matches the focal length F of each lens 32. Are arranged to be. Note that the distance G does not completely coincide with the focal length F and may have some error. For example, FIG. 49A shows a state in which G = F, and when viewed from a specific direction, one pixel PE extends over the lens 32 and is observed. Further, even when the distance G is slightly away from the focal distance F, that is, in the state shown in FIGS. 5B and 5C, when viewed from a specific direction, one pixel PE is observed to spread over the entire lens 32. . However, when the distance G is further away from the focal distance F, the lens 32 also displays the adjacent pixel PE, so that the stereoscopic image quality is impaired. That is, if the pixel pitch length in the sub-pixel unit of the pixel panel 20 is S and the lens pitch length of the lens plate 30 is L, the distance G is arranged so as to satisfy the following expression (1). Therefore, it is possible to realize a stereoscopic view with better image quality than in other cases.
(LS) · F / L ≦ G ≦ (L + S) · F / L (1)

尚、IP方式では、像を一定距離Cに結像させるため、距離Gが焦点距離Fよりも長くなっている。つまり、次式が成立する。この点において、本実施形態における方式は、IP方式とは原理的に異なる。
1/G+1/C=1/F、即ち、G=(C・F)/(C−F)>F
また、光線再生法では、複数の距離で結像させるため、光学素子にレンズを用いることができず、ピンホールを用いている。この点において、本方式は光線再生法とも原理的に異なる。
In the IP system, the distance G is longer than the focal length F in order to form an image at a constant distance C. That is, the following equation is established. In this respect, the system in this embodiment is different in principle from the IP system.
1 / G + 1 / C = 1 / F, that is, G = (C · F) / (C−F)> F
In the light beam reproduction method, since an image is formed at a plurality of distances, a lens cannot be used as an optical element, and a pinhole is used. In this respect, this method is also different in principle from the light beam reproduction method.

表示パネル20及びレンズ板30をこのように配置させることで、各レンズ32の焦点が画素パネル20の表示面22の一点に位置し、該焦点が位置する画素PEがレンズ32によって拡大されて見えることになる。尚、光学的にほぼ等価であるとみなせる場合には、レンズ板30の凹凸面を画素パネル20の表示面22に対向するように配置しても良い。   By disposing the display panel 20 and the lens plate 30 in this way, the focal point of each lens 32 is located at one point on the display surface 22 of the pixel panel 20, and the pixel PE where the focal point is located appears enlarged by the lens 32. It will be. In addition, when it can be considered that it is optically substantially equivalent, you may arrange | position so that the uneven surface of the lens plate 30 may oppose the display surface 22 of the pixel panel 20. FIG.

また、レンズ板30は、図2(b)に示すように、各レンズ32の主点線36(主点の集合。レンチキュラレンズ板のマイクロレンズは断面円筒形状(蒲鉾型)であるため、主点の集合は直線となる)の方向が画素パネル20の縦方向の画素配列方向(鉛直走査方向)に一致するように配置される。同図(b)において、線32aはレンズ板30の各レンズ32の端部を示している。   Further, as shown in FIG. 2B, the lens plate 30 has a principal dotted line 36 (a set of principal points) of each lens 32. Since the microlens of the lenticular lens plate has a cylindrical cross section (a bowl shape), the principal point Are arranged in such a manner that the direction of the pixel line 20 coincides with the vertical pixel arrangement direction (vertical scanning direction) of the pixel panel 20. In FIG. 2B, a line 32a indicates an end portion of each lens 32 of the lens plate 30.

ところで、従来のレンチキュラ方式の立体視映像表示装置では、レンズ板のレンズピッチと画素パネルの画素ピッチとが合う(以下、単に「ピッチが合う」という)ように設計される。即ち、n眼式の場合には次式(2)が成立する。
L=n・S ・・・(2)
By the way, the conventional lenticular stereoscopic image display device is designed so that the lens pitch of the lens plate matches the pixel pitch of the pixel panel (hereinafter simply referred to as “pitch match”). That is, in the case of the n-eye system, the following expression (2) is established.
L = n · S (2)

しかし、本実施形態では、レンズ板30は、レンズピッチが画素パネル20の画素ピッチと合わない(以下、単に「ピッチが合わない」という)ように設計されている。即ち、次式(3)が成立しない。
L=n・S ・・・(3)
但し、nは自然数である。
However, in the present embodiment, the lens plate 30 is designed such that the lens pitch does not match the pixel pitch of the pixel panel 20 (hereinafter simply referred to as “pitch does not match”). That is, the following equation (3) is not satisfied.
L = n · S (3)
However, n is a natural number.

ところで、実際に観察者が立体視映像表示装置に表示された立体視画像を見る場合には、その観察者の視点は表示面22から有限距離に位置する。即ち、図3に示すように、表示面22の場所によって観察者の視点の視線方向が異なり、このため、レンズ32と画素PEとの対応関係がずれることになる。つまり、実質的なレンズピッチLEは次式(4)で与えられる。尚、同図は、本実施形態の立体視映像表示装置の表示面に対する横方向断面図を示している。
E=L×(D+F)/D ・・・(4)
但し、Dは、観察者の視点と表示面との間の距離である。
By the way, when an observer actually views a stereoscopic image displayed on the stereoscopic video display device, the viewpoint of the observer is located at a finite distance from the display surface 22. That is, as shown in FIG. 3, the line-of-sight direction of the observer's viewpoint differs depending on the location of the display surface 22, and therefore the correspondence between the lens 32 and the pixel PE is shifted. That is, the substantial lens pitch L E is given by the following equation (4). The figure shows a cross-sectional view in the transverse direction with respect to the display surface of the stereoscopic video display device of the present embodiment.
L E = L × (D + F) / D (4)
However, D is the distance between an observer's viewpoint and a display surface.

従って、厳密には、次式(5)が成立することが「ピッチが合う」状態であり、成立しないことが「ピッチが合わない」状態であるといえる。
E=n・S ・・・(5)
Therefore, strictly speaking, it can be said that the following equation (5) is satisfied in the “pitch match” state, and not satisfied is the “pitch mismatch” state.
L E = n · S (5)

また、「ピッチが合う/合わない」ことは、実際(或いは、想定した)の観察者の視点から見た1つの画素PEに対する視角(対画素視角)σと、この画素PEの射出光線に指向性を与える1つのレンズ32に対する視角(対レンズ視角)λとによっても表現される。対画素視角σは式(6a)で与えられ、対レンズ視角λは次式(6b)で与えられる。
tanσ=S/(D+F) ・・・(6a)
tanλ=L/D ・・・(6b)
In addition, “pitch matches / does not match” refers to a viewing angle (versus-pixel viewing angle) σ with respect to one pixel PE viewed from the viewpoint of an actual (or assumed) observer, and an emission ray of the pixel PE. It is also expressed by a viewing angle (a viewing angle with respect to the lens) λ with respect to one lens 32 that imparts a characteristic. The anti-pixel viewing angle σ is given by the equation (6a), and the anti-lens viewing angle λ is given by the following equation (6b).
tan σ = S / (D + F) (6a)
tan λ = L / D (6b)

そして、次式(7)が成立することが「ピッチが合う」状態であり、成立しないことが「ピッチが合わない」状態である。
λ=n・σ ・・・(7)
但し、nは自然数である。
If the following expression (7) is satisfied, the “pitch is matched” state is satisfied, and if not satisfied, the “pitch is not matched” state.
λ = n · σ (7)
However, n is a natural number.

つまり、式(7)が成立するのは、対レンズ視角λのm倍が対画素視角σのn倍に一致する、即ちレンズピッチLEのm倍が画素ピッチSのn倍に一致する場合であり、その場合が「ピッチが合う」状態であるといえる。 That is, the equation (7) is satisfied, m times the pair lens viewing angle λ is equal to n times the pair pixel viewing angle sigma, that is, when the m times the lens pitch L E matches the n multiple of the pixel pitch S In this case, it can be said that the pitch is “matched”.

尚、式(7)の条件は、従来の多眼式或いは超多眼式の立体視において、各視点間の距離を人間の両眼距離と一致させる必要を考慮しない場合の条件である。各視点間の距離を人間の両眼距離と一致させるためには、図50に示すように、観察距離Dと、両眼距離Eと、画素ピッチSと、レンズの焦点距離Fとの間に次式(8)が成立する必要がある。
E/D=S/F ・・・(8)
即ち、従来の各視点間の距離を人間の両眼距離と一致させた多眼式の場合には、式(7)及び式(8)を同時に満たす必要がある。そのため、従来の多眼式では、正確なレンズ設計が必要であった。
The condition of Expression (7) is a condition in the case of not considering the necessity of making the distance between the viewpoints coincide with the binocular distance of the human in the conventional multi-view or super-multi-view stereoscopic view. In order to make the distance between the viewpoints coincide with the binocular distance of the human, as shown in FIG. 50, the distance between the observation distance D, the binocular distance E, the pixel pitch S, and the focal distance F of the lens. The following equation (8) needs to be satisfied.
E / D = S / F (8)
That is, in the case of a multi-lens system in which the distance between the respective viewpoints is matched with the human binocular distance, it is necessary to satisfy the expressions (7) and (8) at the same time. Therefore, an accurate lens design is necessary for the conventional multi-lens system.

このように、従来の多眼式では、水平方向で一定の長さ毎に同じ視点の繰り返しが発生している。また、これらの多眼式では、予め設定されたn個の視点(個別視点)に基づく画像(個別視点画像)を生成し、それらの画像を視点の繰り返しパターンに合わせて再配置(インターリーブ)することで立体視画像を生成している。   As described above, in the conventional multi-view system, the same viewpoint is repeatedly generated for every certain length in the horizontal direction. In addition, in these multi-view systems, images (individual viewpoint images) based on n preset viewpoints (individual viewpoints) are generated, and these images are rearranged (interleaved) according to the viewpoint repetition pattern. Thus, a stereoscopic image is generated.

しかしながら、本実施形態の画像生成方法では、以上のような同じ視点の繰り返しが発生しない場合にこそ、良い立体視画像が得られることを特徴としている。ここで、水平方向に同じ視点の繰り返しが発生する条件とは、前述の対画素視角σと対レンズ視角λとの間に、次式(9)の関係が成立することであるといえる。
λ:σ=n:m ・・・(9)
但し、n、mは自然数である。
However, the image generation method of the present embodiment is characterized in that a good stereoscopic image can be obtained only when the same viewpoint is not repeated as described above. Here, it can be said that the condition that the same viewpoint repeats in the horizontal direction is that the relationship of the following expression (9) is established between the above-described anti-pixel viewing angle σ and the anti-lens viewing angle λ.
λ: σ = n: m (9)
However, n and m are natural numbers.

つまり、式(9)が成立しないときが、「同じ視点の繰り返しが発生しない」、即ち「ピッチが合わない状態となる。但し、この同じ視点の繰り返しは、少なくとも立体視画像の画像表示領域内で発生しなければ良いので、それを考慮した「同じ視点の繰り返しが発生しない」、即ち「ピッチが合わない」条件は、式(9)において、「mがΦ/λ未満の自然数」であることである。但し、Φは、実際の(或いは想定した)観察者の視点から見た表示面22中の立体視画像が表示される領域(立体視画像表示領域)に対する視角(対表示領域視角)である。   That is, when Expression (9) is not satisfied, “the same viewpoint is not repeated”, that is, “the pitch is not matched. However, the repetition of the same viewpoint is at least within the image display area of the stereoscopic image. Therefore, the condition that “the repetition of the same viewpoint does not occur”, that is, “the pitch does not match” is “the natural number where m is less than Φ / λ” in Equation (9). That is. However, Φ is a viewing angle (versus display area viewing angle) with respect to an area (stereoscopic image display area) in which a stereoscopic image on the display surface 22 is viewed from the viewpoint of an actual (or assumed) observer.

しかし、本実施形態は、ピッチが合っていない(即ち、式(7)及び式(8)が成立しない)立体視映像表示装置とし、この立体視映像表示装置に表示させる立体視画像を生成するものとする。つまり、従来のレンチキュラ方式の立体視映像表示装置では、立体視可能とするためにはレンズピッチと画素ピッチが合うように設計する必要があるが、本実施形態は、ピッチが合っていない立体視映像表示装置において立体視を可能ならしめる。従って、個々のディスプレイの画素ピッチに合ったレンチキュラレンズ板を製造する必要が無くなり、既製のレンチキュラレンズ板を種々のディスプレイに適用できることとなって、レンズ板のコストを大幅に下げるという効果が得られる。また、選択可能な複数のレンズ板から最も目的に合ったものを選ぶこともできる。更には、斜めレンチキュラ方式を採用する場合に、斜めの角度θも自由に設定できる。具体的には、新たなレンズを製造することなく、画素パネルに対するレンズ板の斜めの配置角度θを調節するだけで、モアレや色縞を軽減することができる。   However, the present embodiment uses a stereoscopic video display device that does not match the pitch (that is, equations (7) and (8) do not hold), and generates a stereoscopic image to be displayed on this stereoscopic video display device. Shall. In other words, in the conventional lenticular stereoscopic image display device, it is necessary to design the lens pitch and the pixel pitch to be in order to enable stereoscopic viewing. Enables stereoscopic viewing in a video display device. Therefore, it is not necessary to manufacture a lenticular lens plate that matches the pixel pitch of each display, and the ready-made lenticular lens plate can be applied to various displays, so that the cost of the lens plate can be greatly reduced. . It is also possible to select the most suitable one from a plurality of selectable lens plates. Furthermore, when the oblique lenticular method is adopted, the oblique angle θ can be set freely. Specifically, moire and color fringes can be reduced by adjusting the oblique arrangement angle θ of the lens plate with respect to the pixel panel without manufacturing a new lens.

続いて、表示面22の各画素PEの視線Vの決定方法を説明するが、その前に、表示面22の座標系を図6に示すように定義する。即ち、表示面22の水平走査方向(横方向)に沿った方向をx軸方向とし、鉛直走査方向(縦方向)に沿った方向をy軸方向とし、表示面22から観察者側へ垂直に向かう方向をz軸正方向とする。   Next, a method for determining the line of sight V of each pixel PE on the display surface 22 will be described. Before that, the coordinate system of the display surface 22 is defined as shown in FIG. That is, the direction along the horizontal scanning direction (lateral direction) of the display surface 22 is the x-axis direction, the direction along the vertical scanning direction (longitudinal direction) is the y-axis direction, and is perpendicular to the viewer side from the display surface 22. The direction to go is the z-axis positive direction.

先ず、本方式おける視線Vの決定方法の内、最も基本となる方法について説明する。この方法は、観察者の視線が表示面22の「正面」(表示面22の中心Oを通過する観察視線方向が表示面22に対して垂直となる位置)で、且つ「無限遠」にあると想定した方法であり、非立体視画像の描画方法でいえば「平行投影」に相当する。また、ここでは、立体視映像表示装置が上述した垂直/斜めレンチキュラ方式のそれぞれである場合の視線Vの決定方法について説明する。尚、以下では、1つの画素PEについての視線Vの決定方法を説明するが、他の画素PEについても勿論同様に決定できる。   First, the most basic method of determining the line of sight V in this method will be described. In this method, the observer's line of sight is “front” of the display surface 22 (the position where the observation line of sight passing through the center O of the display surface 22 is perpendicular to the display surface 22) and “infinity”. In other words, the non-stereoscopic image drawing method corresponds to “parallel projection”. Here, a method of determining the line of sight V when the stereoscopic video display apparatus is each of the above-described vertical / oblique lenticular methods will be described. In the following, a method for determining the line of sight V for one pixel PE will be described, but it is obvious that other pixels PE can be similarly determined.

立体視映像表示装置が垂直レンチキュラ方式である場合の視線Vの決定方法を、図5を参照して説明する。図5は、垂直レンチキュラ方式の立体視映像表示装置200Aの概略三面図であり、同図(a)は、x−z平面に平行な断面図(水平走査方向断面図)を示し、同図(b)は、y−z平面に平行な断面図(鉛直走査方向断面図)を示し、同図(c)は、x−y平面図を示している。   A method of determining the line of sight V when the stereoscopic video display device is of the vertical lenticular method will be described with reference to FIG. FIG. 5 is a schematic three-view diagram of a vertical lenticular stereoscopic image display apparatus 200A. FIG. 5A shows a cross-sectional view (cross-sectional view in the horizontal scanning direction) parallel to the xz plane. b) shows a cross-sectional view (cross-sectional view in the vertical scanning direction) parallel to the yz plane, and FIG. 5C shows an xy plan view.

先ず、視線Vを決定する画素(以下、「対象画素」という)PEに対応するレンズ32を決定する。図5(a)において、レンズ板30の各レンズ32を画素パネル20の表示面22に平行投影して(即ち、各レンズ32の端部32aを通過する表示面22に垂直な直線によって)、表示面22を各レンズ32の投影領域に分割する。そして、対象画素PEの代表点(ここでは、画素の中心とする)が属する投影領域のレンズ32を対象画素PEに対応するレンズ32とする。但し、同図(a)は、対象画素PEの代表点を通過する断面図である。   First, a lens 32 corresponding to a pixel (hereinafter referred to as “target pixel”) PE that determines the line of sight V is determined. In FIG. 5A, each lens 32 of the lens plate 30 is projected in parallel on the display surface 22 of the pixel panel 20 (that is, by a straight line perpendicular to the display surface 22 passing through the end portion 32a of each lens 32). The display surface 22 is divided into projection areas of the lenses 32. The lens 32 in the projection region to which the representative point of the target pixel PE (here, the center of the pixel) belongs is set as the lens 32 corresponding to the target pixel PE. However, FIG. 4A is a cross-sectional view passing through a representative point of the target pixel PE.

同図(a)では、表示面22は、レンズ32−1の投影領域26−1と、レンズ32−2の投影領域26−2と、・・・、に分割される。そして、対象画素PEの代表点は投影領域26−1に属しているので、対象画素PEに対応するレンズ32はレンズ32−1となる。   In FIG. 5A, the display surface 22 is divided into a projection area 26-1 of the lens 32-1, a projection area 26-2 of the lens 32-2, and so on. Since the representative point of the target pixel PE belongs to the projection area 26-1, the lens 32 corresponding to the target pixel PE is the lens 32-1.

次いで、対象画素PEの代表点と、対象画素PEに対応するレンズ32の主点とを通過した後の光線(以下、「代表光線」という)PRを算出し、その代表光線PRと位置は同じで方向を逆にした視線を対象画素PEの視線Vとする。具体的には、対象画素PEに対応するレンズ32−1の主点線36の内、y座標が対象画素PEの代表点のy座標に等しい点を算出し、これを代表主点36aとする。そして、対象画素PEの代表点と、この代表主点36aとを通過した後の代表光線PRを算出し、この代表光線PRと位置は同じで方向を逆にした視線を対象画素PEに対応する視線Vとする。ここでは、簡明のため、対象画素PEの代表点から対象画素PEに対応するレンズ32の代表主点に向かう方向を代表光線PRの方向とする。   Next, a light ray PR (hereinafter referred to as “representative ray”) PR after passing through the representative point of the target pixel PE and the principal point of the lens 32 corresponding to the target pixel PE is calculated, and the position is the same as that of the representative ray PR. The line of sight whose direction has been reversed is set as the line of sight V of the target pixel PE. Specifically, a point where the y coordinate is equal to the y coordinate of the representative point of the target pixel PE is calculated from the main dotted line 36 of the lens 32-1 corresponding to the target pixel PE, and this is set as the representative main point 36a. Then, a representative ray PR after passing through the representative point of the target pixel PE and the representative principal point 36a is calculated, and the line of sight having the same position and the opposite direction as the representative ray PR corresponds to the target pixel PE. The line of sight is V. Here, for the sake of simplicity, the direction from the representative point of the target pixel PE toward the representative principal point of the lens 32 corresponding to the target pixel PE is defined as the direction of the representative light ray PR.

以上説明した方法は、観察者の視点が無限遠にあることを想定したものだが、実際の立体視画像の観察時には、観察者の視点は無限遠ではないため、後述する方法に対して、特に近距離から観察した場合、遠近法(パース)の掛かり具合に違和感を感じることがある。しかし、各視線Vの決定方法が簡単であるため、計算負荷を軽減することができる等といった利点がある。   The method described above assumes that the observer's viewpoint is at infinity, but when observing an actual stereoscopic image, the observer's viewpoint is not at infinity. When observing from a short distance, you may feel a sense of incongruity in perspective. However, since the method of determining each line of sight V is simple, there is an advantage that the calculation load can be reduced.

次に、上述した方法に比較してより自然な立体視が可能となる視線Vの決定方法を説明する。この方法は、観察者の視点を一定の位置に想定した描画方法であり、非立体画像の描画方法でいえば「透視投影」に相当する。   Next, a method for determining the line of sight V that enables more natural stereoscopic viewing than the above-described method will be described. This method is a drawing method that assumes the observer's viewpoint at a fixed position, and corresponds to “perspective projection” in terms of a non-stereoscopic image drawing method.

ここでは、想定観察位置40を、図6に示すように、立体視映像表示装置の表示面22に対して「正面」に設定する。「正面」の想定観察位置40とは、表示面22の中心Oを通過する観察視線方向が、表示面22に対して垂直となる位置である。以下、この想定観察位置40と表示面22との間の距離Dを「想定観察距離D」という。そして、想定観察位置40を「正面且つ有限距離の定位置」とした場合の視線Vの決定方法を、垂直レンチキュラ方式の立体視映像表示装置に適用した場合について説明する。   Here, as shown in FIG. 6, the assumed observation position 40 is set to “front” with respect to the display surface 22 of the stereoscopic video display device. The “front” assumed observation position 40 is a position where an observation line-of-sight direction passing through the center O of the display surface 22 is perpendicular to the display surface 22. Hereinafter, the distance D between the assumed observation position 40 and the display surface 22 is referred to as “assumed observation distance D”. Then, the case where the method of determining the line of sight V when the assumed observation position 40 is “front position and a fixed position at a finite distance” is applied to a vertical lenticular stereoscopic image display device will be described.

図7は、垂直レンチキュラ方式の立体視映像表示装置200Aの部分概略斜視図である。また、図8は、立体視映像表示装置200Aの概略三面図であり、同図(a)は、図7のx−z平面に平行なA−A位置での断面図(水平走査方向断面図)を示し、図8(b)は、図7のy−z平面に平行なB−B位置での断面図(鉛直方向断面図)を示し、図8(c)は、x−y平面図を示している。尚、レンズ板30及び画素パネル20は、レンズ板30の各レンズ32の焦点距離Fを隔てて平行配置されている。   FIG. 7 is a partial schematic perspective view of a vertical lenticular stereoscopic image display apparatus 200A. FIG. 8 is a schematic three-view diagram of the stereoscopic video display device 200A. FIG. 8A is a cross-sectional view (cross-sectional view in the horizontal scanning direction) at the AA position parallel to the xz plane of FIG. 8 (b) is a cross-sectional view (vertical cross-sectional view) at a BB position parallel to the yz plane of FIG. 7, and FIG. 8 (c) is an xy plan view. Is shown. The lens plate 30 and the pixel panel 20 are arranged in parallel with a focal length F of each lens 32 of the lens plate 30.

先ず、対象画素PEに対応するレンズ32を決定する。具体的には、図8(a)において、想定観察位置40からレンズ板30の各レンズ32を画素パネル20の表示面22に投影して(即ち、想定観察位置40から各レンズ32の端部へと向かう直線によって)、表示面22を各レンズ32の投影領域に分割する。そして、対象画素PEの代表点がどの投影領域に属するかによって対応するレンズ32を決定する。但し、同図(a)は、対象画素PEの代表点を通過する断面図である。   First, the lens 32 corresponding to the target pixel PE is determined. Specifically, in FIG. 8A, each lens 32 of the lens plate 30 is projected from the assumed observation position 40 onto the display surface 22 of the pixel panel 20 (that is, the end of each lens 32 from the assumed observation position 40). The display surface 22 is divided into projection areas of each lens 32 (by a straight line going to). Then, the corresponding lens 32 is determined depending on which projection region the representative point of the target pixel PE belongs to. However, FIG. 4A is a cross-sectional view passing through a representative point of the target pixel PE.

同図(a)では、表示面22は、レンズ32−7の投影領域26−7と、レンズ32−8の投影領域26−8と、レンズ32−9の投影領域26−9と、・・・、に分割される。そして、対象画素PEの代表点は投影領域26−7に属しているので、この対象画素PEに対応するレンズ32はレンズ32−7となる。   In FIG. 6A, the display surface 22 includes a projection area 26-7 of the lens 32-7, a projection area 26-8 of the lens 32-8, a projection area 26-9 of the lens 32-9,.・ It is divided into Since the representative point of the target pixel PE belongs to the projection area 26-7, the lens 32 corresponding to the target pixel PE is the lens 32-7.

次に、対象画素PEの代表点と、対象画素PEに対応するレンズ32の主点とを通過した後の代表光線を算出し、算出した代表光線と位置は同じで方向を逆にした視線を対象画素の視線Vとする。具体的には、図8(b)において、対象画素PEの代表点と想定観察位置40とを結ぶ直線LN1と、レンズ板30の主点面(各レンズ32の主点を含む面。表示面22に平行な平面である)35との交点のy座標を算出する。算出したy座標を「y1」とする。但し、同図(b)は、対象画素PEの代表点を通過する断面図である。次いで、対象画素PEに対応するレンズ32−1の主点線36の内、y座標が「y1」である点を算出し、これを代表主点36cとする。そして、対象画素PEの代表点と、この代表主点36cとを通過した後の代表光線PRを算出し、この代表光線PRと位置は同じで方向を逆にした視線を対象画素PEに対応する視線Vとする。   Next, a representative ray after passing through the representative point of the target pixel PE and the principal point of the lens 32 corresponding to the target pixel PE is calculated. The line of sight V of the target pixel is assumed. Specifically, in FIG. 8B, a straight line LN1 connecting the representative point of the target pixel PE and the assumed observation position 40 and the principal point surface of the lens plate 30 (a surface including the principal point of each lens 32). The y-coordinate of the intersection with 35), which is a plane parallel to 22 is calculated. The calculated y coordinate is assumed to be “y1”. However, FIG. 4B is a cross-sectional view passing through the representative point of the target pixel PE. Next, a point whose y coordinate is “y1” is calculated from the main dotted line 36 of the lens 32-1 corresponding to the target pixel PE, and this is set as a representative main point 36c. Then, a representative ray PR after passing through the representative point of the target pixel PE and the representative principal point 36c is calculated, and the line of sight having the same position and the opposite direction to the representative ray PR corresponds to the target pixel PE. The line of sight is V.

以上、想定観察位置が「正面且つ無限遠」及び「正面且つ有限距離の定位置」のそれぞれである場合の、表示面22の各画素PEの視線Vの決定方法を説明した。尚、以上では、各レンズ32に入射する光線は屈折を起こさない(即ち、対象画素PEの代表点から対象画素PEに対応するレンズ32の代表主点に向かう方向が代表光線PRの方向に一致する)ものとして説明したが、厳密には、図9に示すように、屈折作用によって、代表光線PRは、対象画素PEの代表点と対象画素PEに対応するレンズ32の代表主点とを結ぶ直線に対してy座標位置が僅かにずれて一致しない。そこで、このずれを算出して補正することにより、各画素PEの視線Vを正確に求めることとすればより好適である。   The method for determining the line of sight V of each pixel PE on the display surface 22 when the assumed observation positions are “front and infinity” and “front and finite distance fixed positions” has been described above. In the above, light rays incident on each lens 32 are not refracted (that is, the direction from the representative point of the target pixel PE toward the representative principal point of the lens 32 corresponding to the target pixel PE matches the direction of the representative light ray PR). Strictly speaking, as shown in FIG. 9, the representative ray PR connects the representative point of the target pixel PE and the representative principal point of the lens 32 corresponding to the target pixel PE, as shown in FIG. The y coordinate position slightly deviates from the straight line and does not match. Therefore, it is more preferable that the line of sight V of each pixel PE is accurately obtained by calculating and correcting this shift.

また、各画素PEに対するレンズ32の決定を、図7、8を参照して説明したように、想定観察位置40を「有限距離の定位置」として行うことで、遠近法(パース)の掛かり具合が自然になること以外にも、想定観察位置40周辺での観察範囲が広くなるという効果を得ることができる。   In addition, as described with reference to FIGS. 7 and 8, the determination of the lens 32 for each pixel PE is performed by setting the assumed observation position 40 as “a fixed position at a finite distance”, so that the degree of perspective (perspective) is affected. In addition to becoming natural, the effect of widening the observation range around the assumed observation position 40 can be obtained.

このように、各画素に対応する視線Vを決定した後、図10に示すように、決定した視線Vを基に、仮想カメラに相当する画素別視点CMを画素PE毎に設定する。尚、ここでは、画素PEに該画素PEに対応する画素別視点CMを設定するが、画素別視点CMを特に設定せず、全画素PEについての視線Vに共通なz方向の描画範囲を設定し、各視線Vについて描画を行うこととしても良い。   In this way, after determining the line of sight V corresponding to each pixel, as shown in FIG. 10, a pixel-specific viewpoint CM corresponding to the virtual camera is set for each pixel PE based on the determined line of sight V. Here, the pixel-specific viewpoint CM corresponding to the pixel PE is set for the pixel PE, but the pixel-specific viewpoint CM is not set in particular, and a drawing range in the z direction common to the line of sight V for all the pixels PE is set. However, drawing may be performed for each line of sight V.

図10は、画素別視点CMの設定を説明するための図であり、表示面22の一部横方向断面図を示している。同図に示すように、各画素PE(PE1,PE2,・・・)の画素別視点CM(CM1,CM2,・・・)は、その視線方向が対応する視線V(V1,V2,・・・)となるように設定する。また、各画素別視点CMと表示面22との間の距離は、例えば同図に示すように、表示面22に平行な同一平面上に位置するように設定する。   FIG. 10 is a diagram for explaining the setting of the pixel-specific viewpoint CM, and shows a partial horizontal cross-sectional view of the display surface 22. As shown in the figure, the pixel-specific viewpoints CM (CM1, CM2,...) Of each pixel PE (PE1, PE2,...) Have a line of sight V (V1, V2,. Set so that Further, the distance between each pixel-specific viewpoint CM and the display surface 22 is set so as to be located on the same plane parallel to the display surface 22, for example, as shown in FIG.

同図では、画素PE1,PE2,・・・、のそれぞれの視線Vは視線V1,V2,・・・、である。従って、画素PE1の画素別視点CMは、視線V1がその視線方向の画素別視点CM1となる。また、画素PE2の画素別視点CMは、視線V2がその視線方向の画素別視点CM2となる。更に、画素PE3,PE4,・・・、についても同様に、それぞれの画素別視点CMは、視線V3,V4,・・・、がその視線方向の画素別視点CM3,CM4,・・・、となる。   In the figure, the visual lines V of the pixels PE1, PE2,... Are visual lines V1, V2,. Accordingly, the pixel-specific viewpoint CM of the pixel PE1 has the line of sight V1 as the pixel-specific viewpoint CM1 in the line-of-sight direction. In the pixel-specific viewpoint CM of the pixel PE2, the line of sight V2 is the pixel-specific viewpoint CM2 in the line-of-sight direction. Further, similarly, for the pixels PE3, PE4,..., The viewpoints CM for each pixel have the line of sight V3, V4,. Become.

(2)レンダリング
各画素PEの画素別視点CMを設定した後、設定した各画素別視点CMを基に三次元仮想空間をレンダリングすることで立体視画像を生成する。具体的には、画素PE毎に、該画素PEに対応する画素別視点CMの視線方向のオブジェクト空間の色情報(RGB値やα値等)を算出し、算出した色情報を該画素PEの色情報とすることで立体視画像を生成する。
(2) Rendering After setting the pixel-specific viewpoint CM of each pixel PE, a stereoscopic image is generated by rendering a three-dimensional virtual space based on the set pixel-specific viewpoint CM. Specifically, for each pixel PE, color information (RGB value, α value, etc.) of the object space in the line-of-sight direction of the pixel-specific viewpoint CM corresponding to the pixel PE is calculated, and the calculated color information is calculated for the pixel PE. A stereoscopic image is generated by using color information.

図11は、色情報の算出を説明する図であり、表示面22の一部横方向断面図を示している。同図に示すように、表示面22の各画素PEについて、対応する画素別視点CMの視線方向のオブジェクト空間の色情報を算出し、算出した色情報を該画素PEの色情報とする。色情報の算出方法としては、例えば画素別視点CMからその視線方向に沿った光線を基に決定する、いわゆるレイトレーシング法等によって実現される。   FIG. 11 is a diagram for explaining the calculation of the color information, and shows a partial cross-sectional view of the display surface 22 in the horizontal direction. As shown in the figure, for each pixel PE on the display surface 22, the color information of the object space in the line-of-sight direction of the corresponding pixel-specific viewpoint CM is calculated, and the calculated color information is used as the color information of the pixel PE. The color information calculation method is realized by, for example, a so-called ray-tracing method that is determined based on light rays along the line-of-sight direction from the pixel-specific viewpoint CM.

同図では、画素PE1,PE2,・・・、のそれぞれの画素別視点は画素別視点CM1,CM2,・・・、である。従って、画素PE1の色情報は、画素別視点CM1の視線方向のオブジェクト空間の色情報となり、また、画素PE2の色情報は、画素別視点CM2の視線方向のオブジェクト空間の色情報となる。更に、画素PE3,PE4,・・・、のそれぞれについても同様に、対応する画素別視点CM3,CM4,・・・、の視線方向のオブジェクト空間の色情報が該画素PE3,PE4,・・・、の色情報となる。   In the figure, the pixel-specific viewpoints of the pixels PE1, PE2,... Are pixel-specific viewpoints CM1, CM2,. Therefore, the color information of the pixel PE1 is color information of the object space in the line-of-sight direction of the pixel-by-pixel viewpoint CM1, and the color information of the pixel PE2 is color information of the object space in the line-of-sight direction of the pixel-by-pixel viewpoint CM2. Further, for each of the pixels PE3, PE4,..., The color information of the object space in the line-of-sight direction of the corresponding pixel-specific viewpoints CM3, CM4,. , Color information.

このように、本実施形態では、表示面の画素PE毎に、(1)視線Vを決定し、(2)決定した視線Vの視線方向の色情報を該画素PEの色情報とする(レンダリングする)、ことで立体視画像を生成する。   As described above, in this embodiment, for each pixel PE on the display surface, (1) the line of sight V is determined, and (2) the color information of the line of sight of the determined line of sight V is used as the color information of the pixel PE (rendering). To generate a stereoscopic image.

尚、このように生成した画像を立体視画像として本実施形態の立体視映像表示装置に表示させた場合、観察者によって視認される映像は、従来の立体視映像と比べて若干正確さに欠く像となる。   When the image generated in this way is displayed as a stereoscopic image on the stereoscopic video display apparatus of the present embodiment, the video visually recognized by the observer is slightly less accurate than the conventional stereoscopic video. Become a statue.

図12は、本実施形態の立体視映像が若干正確さに欠けることを説明するための図であり、表示面22の横方向一部断面図を示している。同図において、観察者の右目EY1から立体視映像表示装置を見ると、レンズ32−1を介して画素PE1が見え、レンズ32−2を介して画素PE2が見え、レンズ32−3を介して画素PE3が見える。   FIG. 12 is a diagram for explaining that the stereoscopic image of the present embodiment is slightly inaccurate, and shows a partial cross-sectional view of the display surface 22 in the horizontal direction. In this figure, when the stereoscopic video display device is viewed from the observer's right eye EY1, the pixel PE1 can be seen through the lens 32-1, the pixel PE2 can be seen through the lens 32-2, and the lens 32-3 can be seen. Pixel PE3 is visible.

ところで、画素PE1の色情報は、画素別視点CM1の視線方向のオブジェクト空間の色情報であり、画素PE2の色情報は、画素別視点CM2の視線方向のオブジェクト空間の色情報であり、また、画素PE3の色情報は、画素別視点CM3の視線方向のオブジェクト空間の色情報である。即ち、右目EY1と画素別視点CM1,CM2,CM3とは一致しないため、観察者によって認識される各画素PEの色情報は、その位置から見た正確な色情報とはならない。   By the way, the color information of the pixel PE1 is color information of the object space in the line-of-sight direction of the pixel-specific viewpoint CM1, the color information of the pixel PE2 is color information of the object space in the line-of-sight direction of the pixel-specific viewpoint CM2, The color information of the pixel PE3 is color information of the object space in the viewing direction of the pixel-specific viewpoint CM3. That is, since the right eye EY1 does not match the pixel-specific viewpoints CM1, CM2, and CM3, the color information of each pixel PE recognized by the observer is not accurate color information viewed from the position.

しかしながら、画素別視点CM1,CM2,CM3の位置は右目EY1の近傍であり、また、それらの視線方向は、右目EY1がレンズ32−1,32−2,32−3を介して画素PE1,PE2,PE3を見る視線方向とは僅かにずれる程度である。このため、観察者の右目EY1で視認される像(色情報)は、その位置から見た正確な像(色情報)ではないものの、一定の明確性を有して視認される。   However, the positions of the pixel-specific viewpoints CM1, CM2, and CM3 are in the vicinity of the right eye EY1, and the line-of-sight directions of the pixels PE1, PE2 are determined by the right eye EY1 through the lenses 32-1, 32-2, and 32-3. , PE3 viewing direction is slightly shifted. For this reason, the image (color information) visually recognized by the observer's right eye EY1 is not an accurate image (color information) viewed from the position, but is visually recognized with a certain degree of clarity.

また、本実施形態によれば、視点(ビュー)の数が極めて多く、自然な立体視が可能となる。このことを、従来の多眼方式の立体視と比較した図13、14を参照して説明する。   Further, according to the present embodiment, the number of viewpoints (views) is extremely large, and natural stereoscopic vision is possible. This will be described with reference to FIGS. 13 and 14 compared with the conventional multi-view stereoscopic vision.

図13は、従来の多眼方式の立体視の概略(イメージ)を示す図であり、3眼式の場合を示している。同図上側に示すように、従来の3眼式の立体視では、オブジェクト空間において、適当な距離を隔てて3つの個別視点1,2,3を設定し、個別視点1,2,3のそれぞれから見たオブジェクト空間の個別視点画像1,2,3を生成する。そして、これら3つの個別視点画像1,2,3をインターリーブ処理することで立体視画像を生成する。尚、同図において、立体視画像の各画素の数字は対応する個別視点画像(個別視点)の番号を表している。また、各画素別視点CMの位置及び視線方向は、概略図(イメージ図)であるために大凡であり、正確なものではない。   FIG. 13 is a diagram showing an outline (image) of stereoscopic viewing of a conventional multi-view system, and shows a case of a trinocular system. As shown in the upper side of the figure, in the conventional three-eye stereoscopic view, three individual viewpoints 1, 2, 3 are set at an appropriate distance in the object space, and each of the individual viewpoints 1, 2, 3 is set. The individual viewpoint images 1, 2, and 3 of the object space viewed from the above are generated. Then, a stereoscopic image is generated by interleaving these three individual viewpoint images 1, 2, and 3. In the figure, the number of each pixel of the stereoscopic image represents the number of the corresponding individual viewpoint image (individual viewpoint). Further, the position and the line-of-sight direction of each pixel viewpoint CM are rough because they are schematic diagrams (image diagrams), and are not accurate.

そして、同図下側に示すように、生成した立体視画像を従来の3眼式の立体視映像表示装置に表示させて適視位置1,2,3のそれぞれから見ると、適視位置1では個別視点画像1が見え、適視位置2では個別視点画像2が見え、適視位置3では個別視点画像3が見える。より詳細には、適視位置1をほぼ中心とする適視範囲1では個別視点画像1が見え、適視位置2をほぼ中心とする適視範囲2では個別視点画像2が見え、適視位置3をほぼ中心とする個別視点適視範囲3では画像3が見える。但し、同図において、適視範囲は概略図(イメージ図)であるために大凡のものであり、正確なものではない。   Then, as shown in the lower side of the figure, when the generated stereoscopic image is displayed on a conventional three-lens stereoscopic image display device and viewed from each of the appropriate viewing positions 1, 2, and 3, the suitable viewing position 1 The individual viewpoint image 1 can be seen, the individual viewpoint image 2 can be seen at the appropriate viewing position 2, and the individual viewpoint image 3 can be seen at the suitable viewing position 3. More specifically, the individual viewpoint image 1 can be seen in the suitable viewing range 1 that is substantially centered on the suitable viewing position 1, and the individual viewpoint image 2 can be seen in the suitable viewing range 2 that is substantially centered on the suitable viewing position 2. The image 3 can be seen in the individual viewpoint appropriate viewing range 3 centering on 3. However, in the same figure, the appropriate viewing range is a schematic diagram (image diagram), and is therefore an approximate one and is not accurate.

即ち、観察者OBが、右目EY1が適視位置2にほぼ一致し、左目EY2が適視位置1にほぼ一致する位置で立体視画像を見ると、右目EY1では個別視点画像2が見え、左目EY2では個別視点画像1が見えることで立体視映像を認識する。つまり、右目EY1を個別視点2とし、左目EY2を個別視点1としてオブジェクト空間を見た状態に相当する。   That is, when the observer OB views the stereoscopic image at a position where the right eye EY1 substantially matches the appropriate viewing position 2 and the left eye EY2 substantially matches the appropriate viewing position 1, the right eye EY1 sees the individual viewpoint image 2, and the left eye In EY2, the stereoscopic video is recognized when the individual viewpoint image 1 is seen. That is, this corresponds to a state in which the object space is viewed with the right eye EY1 as the individual viewpoint 2 and the left eye EY2 as the individual viewpoint 1.

また、観察者OBの位置が、立体視画像に対して右方向へ移動すると、右目EY1或いは左目EY2が適視範囲の境界部分を通過する際に、該右目EY1或いは左目EY2で見える画像が急に切り換わる。具体的には、例えば右目EY1が適視範囲2と適視範囲3との境界部分を通過する際に、右目EY1に見える画像が個別視点画像2から個別視点画像3に切り換わる。また、左目EY2が適視範囲1と適視範囲2との境界部分を通過する際に、左目EY2に見える画像が個別視点画像1から個別画像2に切り換わる。   Further, when the position of the observer OB moves to the right with respect to the stereoscopic image, when the right eye EY1 or the left eye EY2 passes through the boundary portion of the appropriate viewing range, an image that can be seen with the right eye EY1 or the left eye EY2 suddenly appears. Switch to. Specifically, for example, when the right eye EY1 passes through the boundary portion between the suitable viewing range 2 and the suitable viewing range 3, the image seen by the right eye EY1 is switched from the individual viewpoint image 2 to the individual viewpoint image 3. In addition, when the left eye EY2 passes through the boundary portion between the appropriate viewing range 1 and the appropriate viewing range 2, the image seen by the left eye EY2 is switched from the individual viewpoint image 1 to the individual image 2.

これは、従来の多眼方式の立体視では、n個の個別視点から見た各個別視点画像をインターリーブ処理して立体視画像を生成し、これを、ピッチが合うように設計されたn眼式の立体視映像表示装置に表示させることで立体視を実現しているためである。即ち、従来の立体視映像表示装置では、立体視画像を、レンチキュラレンズ板によって各個別視点画像に分離しているためである。   This is because in conventional multi-view stereoscopic vision, each individual viewpoint image viewed from n individual viewpoints is interleaved to generate a stereoscopic image, which is designed to match the pitch. This is because the stereoscopic view is realized by displaying the image on a stereoscopic image display device. That is, in the conventional stereoscopic video display device, the stereoscopic image is separated into the individual viewpoint images by the lenticular lens plate.

図14は、本実施形態の立体視の概要(イメージ)を示す図である。本実施形態では、上述のように、画素PE毎に画素別視点CMを設定し、各画素別視点CMの視線方向のオブジェクト空間の色情報を対応する画素PEの色情報とすることで立体視画像を生成している。即ち、同図上側に示すように、画素数に等しい画素別視点CM1,CM2,・・・を設定し、設定した画素別視点CM1,CM2,・・・、のそれぞれの視線方向の色情報を画素PE1,PE2,・・・、の色情報として立体視画像を生成している。尚、同図において、立体視画像の各画素PEの数字は、対応する画素別視点CMの番号を表している。   FIG. 14 is a diagram showing an outline (image) of stereoscopic vision of the present embodiment. In the present embodiment, as described above, a pixel-specific viewpoint CM is set for each pixel PE, and the color information of the object space in the line-of-sight direction of each pixel-specific viewpoint CM is used as the color information of the corresponding pixel PE. An image is generated. That is, as shown in the upper side of the figure, pixel-specific viewpoints CM1, CM2,... Equal to the number of pixels are set, and the color information of the respective line-of-sight directions of the set pixel-specific viewpoints CM1, CM2,. A stereoscopic image is generated as color information of the pixels PE1, PE2,. In the figure, the number of each pixel PE of the stereoscopic image represents the number of the corresponding pixel viewpoint CM.

このように生成された立体視画像を、例えば図2に示した本実施形態の立体視映像表示装置200Aに表示させ、観察者OBが、同図下側に示す位置で立体視画像を見る。すると、左目EY2には、画素PE1,PE2,PE3,・・・、から構成される画像Aが見え、右目EY1には、画素PE11,PE12,PE13,・・・、から構成される画像Bが見える。つまり、左目EY2を、画素別視点CM1,CM2,・・・,CM10、から成る視点群とし、右目EY1を、画素別視点CM11,CM12,・・・,CM20、から成る視点群としてオブジェクト空間を見ている状態に相当する。   The stereoscopic image generated in this way is displayed on the stereoscopic video display device 200A of the present embodiment shown in FIG. 2, for example, and the observer OB views the stereoscopic image at the position shown on the lower side of the figure. Then, the image A composed of the pixels PE1, PE2, PE3,... Can be seen in the left eye EY2, and the image B composed of the pixels PE11, PE12, PE13,. appear. That is, the left eye EY2 is a viewpoint group including pixel-specific viewpoints CM1, CM2,..., CM10, and the right eye EY1 is a viewpoint group including pixel-specific viewpoints CM11, CM12,. It corresponds to the state of watching.

そして、観察者OBの位置が、立体視画像に対して少し右方向に移動すると、観察者の左目EY2に見える画像が、画像Aの一部の画素PEが隣の画素PEに入れ替わった画像A2に変化し、右目EY1に見える画像が、画素Bの一部の画素PEが隣の画素PEに入れ替わった画像B2に変化する。 Then, when the position of the observer OB moves slightly to the right with respect to the stereoscopic image, an image A in which an image seen by the left eye EY2 of the observer is replaced with a pixel PE that is a part of the image A is replaced with an adjacent pixel PE 2 and the image seen by the right eye EY1 changes to an image B 2 in which a part of the pixels PE of the pixel B is replaced with the adjacent pixel PE.

このように、本実施形態では、立体視画像を見る観察者の位置(観察位置)が変化すると、この変化に伴って右目EY1及び左目EY2のそれぞれに見える画像が少しずつ変化する。詳細には、幾つかの画素がその近隣の画素に入れ替わった画像に変化する。従って、観察者OBの右目EY1及び左目EY2のそれぞれに見える画像が少しずつ変化することで、認識される映像が少しずつ変化する。   Thus, in this embodiment, when the position (observation position) of the observer who views the stereoscopic image changes, the images seen in each of the right eye EY1 and the left eye EY2 change little by little with this change. Specifically, the image changes to a pixel in which some pixels are replaced by neighboring pixels. Therefore, the image that is recognized by the observer OB in the right eye EY1 and the left eye EY2 changes little by little, and the recognized video changes little by little.

このため、例えば図13に示した従来の多眼方式の立体視映像のように、適視範囲の境界部分で見える画像が急に切り変わる(即ち、認識される立体視映像が急に変化する)といった現象が生じず、観察位置の変化に伴って少しずつ変化する自然な立体視映像を実現できるとともに、観察者により視認される像の明確性が一定以上に保たれる。   For this reason, for example, an image seen at the boundary portion of the appropriate viewing range suddenly changes like the conventional multi-view stereoscopic image shown in FIG. 13 (that is, the recognized stereoscopic image suddenly changes). ), A natural stereoscopic image that changes little by little as the observation position changes can be realized, and the clarity of the image visually recognized by the observer is maintained above a certain level.

尚、上述のように、観察者OBの右目EY1及び左目FY2の各目に見える画像は、実際の画像とは若干正確さに欠く映像となる。しかし、各目が各画素を見る視線方向は、図14下側に示すように、該画素の画素別視点CMの視線方向にほぼ沿った方向となっている。即ち、左目EY2が画像Aの各画素PE1,PE2,・・・、を見る視線方向は、これら各画素PE1,PE2,・・・、に対応する画素別視点CM1,CM2,・・・、の視線方向にほぼ沿った方向となっている。また、右目EY1についても同様に、画像Bの各画素PE11,PE12,・・・、を見る視線方向は、これら各画素PE11,PE12,・・・、に対応する画素別視点CM11,CM12,・・・、の視線方向にほぼ沿った方向となっている。このため、観察者に視認される映像は、若干正確さに欠くものの、像として視認できる明確性を有したものとなる。また、前述のように、観察者の位置が変化しても、視認される像の明確性が一定以上に保たれる。   Note that, as described above, the images of the right eye EY1 and the left eye FY2 that are visible to the observer OB are images that are slightly inaccurate from the actual images. However, the line-of-sight direction in which each eye views each pixel is substantially along the line-of-sight direction of the pixel-specific viewpoint CM of the pixel, as shown in the lower side of FIG. That is, the line-of-sight direction in which the left eye EY2 views each pixel PE1, PE2,... Of the image A is that of the pixel-specific viewpoints CM1, CM2,. The direction is substantially along the line-of-sight direction. Similarly, for the right eye EY1, the line-of-sight direction for viewing the pixels PE11, PE12,... Of the image B is the pixel-specific viewpoints CM11, CM12,.・ ・ The direction is almost along the line of sight. For this reason, the image visually recognized by the observer has clarity that can be visually recognized as an image, although it is slightly inaccurate. Further, as described above, even if the position of the observer changes, the clarity of the visually recognized image is maintained at a certain level or higher.

また、本実施形態において観察者に認識される立体視映像は、従来の多眼方式の立体視映像と同程度の解像度が得られる。例えば図2に示す立体視映像表示装置200Aでは、レンズピッチLはサブピクセル単位での画素ピッチSの3〜4倍である。従って、かかる立体視映像表示装置200では、画素パネル20の解像度の1/3〜1/4程度の解像度、即ち、従来の3〜4眼式の立体視映像と同程度の解像度が得られることになる。   In addition, the stereoscopic image recognized by the observer in the present embodiment can have the same resolution as the conventional multi-view stereoscopic image. For example, in the stereoscopic video display apparatus 200A shown in FIG. 2, the lens pitch L is 3 to 4 times the pixel pitch S in subpixel units. Therefore, in such a stereoscopic video display device 200, a resolution of about 1/3 to 1/4 of the resolution of the pixel panel 20, that is, a resolution comparable to that of a conventional 3-4 eye stereoscopic video is obtained. become.

このように、本実施形態による立体視では、認識される立体視映像の正確さが僅かに欠けるけれども、従来の多眼方式の立体視映像と同程度の解像度を有しつつ、且つ、視点(ビュー)の数が膨大になったような自然な立体視映像を実現できる。   As described above, in the stereoscopic vision according to the present embodiment, although the accuracy of the recognized stereoscopic video is slightly lacking, it has the same resolution as the conventional multi-view stereoscopic video and has a viewpoint ( It is possible to realize a natural stereoscopic video image with a large number of views.

以上、方法(I)に基づき本実施形態の立体視画像を生成する方法について説明した。次に、方法(II)に基づき1視点からの平面視画像とその奥行画像とから本実施形態の立体視画像を生成する方法について説明する。ここで、方法(II)は、a)専用のレンダラを使わなくとも、既存の高品位なCGツールで作成した画像を容易に立体化できる、b)実写画像から立体視画像を作成する場合に、一箇所の視点位置からの撮影で済ませることができる、c)奥行画像の作成は、CGツールで描画する場合には容易に作成できる、d)実写画像に対応する奥行画像を取得する場合、距離画像カメラ等が必要となり、その精度や解像度は現状では不十分だが、今後向上が期待できる、などの理由からその研究が盛んに進められている。   The method for generating a stereoscopic image according to the present embodiment has been described above based on the method (I). Next, a method for generating a stereoscopic image of the present embodiment from a planar image from one viewpoint and its depth image based on the method (II) will be described. Here, method (II) is a) When an image created with an existing high-quality CG tool can be easily three-dimensionalized without using a dedicated renderer; b) When a stereoscopic image is created from a real image C) Depth image creation can be easily performed when drawing with a CG tool, d) When obtaining a depth image corresponding to a real image, A range image camera is required, and its accuracy and resolution are not sufficient at present, but its research is being actively pursued because it can be expected to improve in the future.

例えば、特開2000−78611号公報に記載されるように、平面視画像と奥行画像とから2眼式の立体視画像を生成する場合、奥行画像の奥行値に基づいて、平面視画像をそれぞれ左右方向にずらすことにより、左目用の視差画像と、右目用の視差画像とを生成し、生成した視差画像をインターリーブして立体視画像を生成する。ここでいう奥行画像とは、平面視画像の対応する位置の奥行値を、白黒の階調で表す画像データである。画素毎の奥行値が既知であれば、平面視画像の各画素が視差画像のどの位置に変換されるかはスクリーンの大きさ、観察者の観察距離及び両眼間の距離から一義的に求まる。   For example, as described in Japanese Patent Application Laid-Open No. 2000-78611, when a binocular stereoscopic image is generated from a planar image and a depth image, the planar image is respectively converted based on the depth value of the depth image. By shifting in the horizontal direction, a parallax image for the left eye and a parallax image for the right eye are generated, and the generated parallax image is interleaved to generate a stereoscopic image. The depth image here is image data representing the depth value at the corresponding position of the planar view image in black and white gradation. If the depth value for each pixel is known, the position in the parallax image where each pixel of the planar image is converted can be uniquely determined from the size of the screen, the observation distance of the observer, and the distance between both eyes. .

例えば、図15に示すように、先ず、平面視画像のドットの位置P0から観察者の視線方向に垂直に伸ばした線と、奥行値とが交差する位置P1を該画素を表示させたい位置として決定する。次いで、左目用の視差画像を生成する場合は、想定観察位置40に相当する左目用視点カメラと位置P1とを結ぶ延長線と表示面とが交差する点を左目用の画素移動位置P2とする。一方、右目用の視差画像を生成する場合は、想定観察位置40に相当する右目用視点カメラと位置P1とを結ぶ線の延長線と表示面とが交差する点を右目用の画素移動位置P3とする。このように、平面視画像の各画素に対して、奥行値に基づき表示させたい位置を決定し、当該位置と、各左右視点カメラの位置とに基づいて、当該画素の移動位置を決定することにより、左目用の視差画像と、右目用の視差画像とを生成する。そして、生成した2つの視差画像をインターリーブすることにより、2眼式の立体視画像を生成することができる。   For example, as shown in FIG. 15, first, a position P1 where a line extending perpendicularly from the dot position P0 of the planar view image in the direction of the observer's line of sight and the depth value intersect is set as a position where the pixel is to be displayed. decide. Next, when generating a parallax image for the left eye, a point where the extension line connecting the left-eye viewpoint camera corresponding to the assumed observation position 40 and the position P1 intersects the display surface is set as the pixel movement position P2 for the left eye. . On the other hand, when generating a parallax image for the right eye, a point where the extension line of the line connecting the right eye viewpoint camera corresponding to the assumed observation position 40 and the position P1 intersects the display surface is the pixel movement position P3 for the right eye. And As described above, for each pixel in the planar view image, a position to be displayed is determined based on the depth value, and the movement position of the pixel is determined based on the position and the positions of the left and right viewpoint cameras. Thus, a parallax image for the left eye and a parallax image for the right eye are generated. Then, a binocular stereoscopic image can be generated by interleaving the generated two parallax images.

一方、本実施形態では、表示面の各画素毎に、(1)該画素の代表点(例えば、画素の中心)及び該画素の射出光線に指向性を与える光学素子(例えば、レンズ)の代表点を通過する光線の方向と、前記三次元仮想空間における前記視点位置とに基づいて、前記三次元仮想空間における前記光線の方向に対応する方向を決定し、(2)決定した方向と奥行画像とに基づき、前記三次元仮想空間中の当該方向における最も手前の物体の色情報を表しているドットを平面視画像の中から判定し、判定した基準画像のドットの色情報を該画素の色情報とすることで立体視画像を生成する。尚、(1)の光線の方向に対応する方向の決定方法は、上述した方法(I)と略重複した説明となるため、以下では、主に(2)決定した方向と奥行画像とに基づき色情報を決定する方法について詳細に説明する。   On the other hand, in this embodiment, for each pixel on the display surface, (1) a representative point of the pixel (for example, the center of the pixel) and a representative of an optical element (for example, a lens) that gives directivity to the emitted light of the pixel. A direction corresponding to the direction of the light beam in the three-dimensional virtual space is determined based on the direction of the light beam passing through the point and the viewpoint position in the three-dimensional virtual space, and (2) the determined direction and depth image Based on the above, the dot representing the color information of the nearest object in the direction in the three-dimensional virtual space is determined from the planar view image, and the color information of the determined reference image dot is the color of the pixel A stereoscopic image is generated by using the information. Since the method for determining the direction corresponding to the direction of the light beam in (1) is substantially the same as the method (I) described above, the following description is mainly based on (2) the determined direction and the depth image. A method for determining the color information will be described in detail.

まず、原理の概要について説明する。
例えば、図16に示すように、表示面の位置P12の画素に着目した場合、該画素に対する視線Vと画素別視点CM11とを方法(I)の場合と同様に決定する。次いで、決定した視線Vに対応する方向の軌跡(図中、位置P12と画素別視点CMとを通過する線、以下、「画素別視線方向軌跡」と呼ぶ)と、奥行値とが交差する位置P11を該画素を表示したい位置として決定する。そして、位置P11から表示面に対して垂直に伸ばした線と、表示面との交点P10の位置を取得し、取得した位置に対応する平面視画像のドットの色情報を、位置P12の画素の色情報として求める。
First, the outline of the principle will be described.
For example, as shown in FIG. 16, when attention is paid to the pixel at the position P12 on the display surface, the line of sight V and the pixel-specific viewpoint CM11 for the pixel are determined in the same manner as in the method (I). Next, the position where the trajectory in the direction corresponding to the determined line of sight V (the line passing through the position P12 and the pixel-specific viewpoint CM in the figure, hereinafter referred to as “pixel-specific line-of-sight direction trajectory”) intersects the depth value. P11 is determined as a position where the pixel is to be displayed. Then, the position of the intersection P10 between the line extending perpendicularly to the display surface from the position P11 and the display surface is acquired, and the color information of the dot of the planar image corresponding to the acquired position is obtained from the pixel at the position P12. Obtained as color information.

次に、画素別視線方向軌跡と、奥行値との交点が複数ある場合について説明する。例えば、表示面の位置P24の画素に着目した場合、画素別視線方向軌跡と奥行値とは、交点P21,交点P22及び交点P23で交差する。この場合、観察者の最も手前の交点、即ち、個別視点CM22に最も近い交点P21を、該画素を表示させたい位置として決定する。そして、交点P21から表示面に対して垂直に伸ばした線と、表示面との交点P20の位置を取得し、取得した位置に対応する平面視画像のドットの色情報を、位置P24の画素の色情報として求める。   Next, a case where there are a plurality of intersections between the per-pixel gaze direction locus and the depth value will be described. For example, when paying attention to the pixel at the position P24 on the display surface, the pixel-specific line-of-sight direction locus and the depth value intersect at the intersection point P21, the intersection point P22, and the intersection point P23. In this case, an intersection point closest to the observer, that is, an intersection point P21 closest to the individual viewpoint CM22 is determined as a position where the pixel is to be displayed. Then, the position of the intersection P20 between the line extending perpendicularly to the display surface from the intersection P21 and the display surface is acquired, and the color information of the dot of the planar image corresponding to the acquired position is obtained from the pixel at the position P24. Obtained as color information.

このように、表示面の各画素に対する視線Vと画素別視点CMとを決定し、視線Vの方向と該画素及び画素別視点CMとから画素別視線方向軌跡を求め、画素別視線方向軌跡と奥行値とが交差する点のうち、画素別視点CMに最も近い交点の位置を該画素を表示させたい位置として決定する。そして、決定した位置から表示面に対して垂直に伸ばした線と、表示面との交点の位置を取得し、取得した位置に対応する平面視画像のドットの色情報を該画素の色情報とすることにより、立体視画像を生成することができる。   In this way, the line of sight V and the pixel-specific viewpoint CM for each pixel on the display surface are determined, and the pixel-specific line-of-sight direction locus is determined from the direction of the line of sight V and the pixel and pixel-specific viewpoint CM. Among the points where the depth value intersects, the position of the intersection closest to the pixel-specific viewpoint CM is determined as the position where the pixel is to be displayed. Then, the position of the intersection of the line extending perpendicularly to the display surface from the determined position and the display surface is acquired, and the color information of the dot of the planar image corresponding to the acquired position is the color information of the pixel. By doing so, a stereoscopic image can be generated.

次に、具体的な平面視画像とその奥行画像とに基づいて、立体視画像を生成する方法について説明する。尚、以下では説明の簡便のため平面視画像がグレースケール画像(モノクロ画像)である場合を例として説明する。図17(a)は、平面視画像の対応する位置の奥行値を、白黒の階調で表す奥行画像であり、同図(d)は、基準となる平面視画像である。同図(b)は、奥行画像の奥行値に基づき生成される奥行情報モデルであり、あるスキャンライン(例えば、Y=y0)におけるZ値をxz座標に変換したものである。この奥行情報モデルは、Z値が大きいほど観察者に近い距離にあることを示し、1ドットは1ピクセルに対応している。尚、奥行画像は、観察者の視点が無限遠であることを想定した平行投影法により作成された画像である。 Next, a method for generating a stereoscopic image based on a specific planar image and its depth image will be described. In the following, for the sake of simplicity of explanation, a case where the planar view image is a gray scale image (monochrome image) will be described as an example. FIG. 17A is a depth image in which the depth value of the corresponding position of the planar image is represented by black and white gradation, and FIG. 17D is a standard planar image. FIG. 6B is a depth information model generated based on the depth value of the depth image, and is obtained by converting the Z value in a certain scan line (for example, Y = y 0 ) into xz coordinates. This depth information model indicates that the greater the Z value, the closer to the observer, and one dot corresponds to one pixel. The depth image is an image created by a parallel projection method assuming that the observer's viewpoint is at infinity.

同図(c)は、表示面22に対する垂直断面を簡略的に示した図であり、画素PE1,PE2の代表点から射出される代表光線PR1,PR2と、奥行情報モデルとの交点X1,X2と、同図(d)に示す平面視画像との対応関係を示す図である。同図(c)に示すように、画素PE1から射出された代表光線PR1(即ち、視線Vと逆方向の光線であり、画素別視線方向軌跡と等価の光線)と、奥行情報モデルとから交点X1(z1,x1)が決定する。この交点X1の位置に対応する平面視画像のドットの色情報を取得する。即ち、交点X1(z1,x1)から、対応する平面視画像の位置座標(x1,y0)が決定され、この位置座標におけるドットから取得される色情報を画素PE1の色情報として求める。同様に、画素PE2から射出された代表光線PR2と、奥行情報モデルとの交点X2(z2,x2)から、対応する平面視画像の位置座標(x2,y0)が決定する。そして、平面視画像の位置座標(x2,y0)のドットから取得される色情報を画素PE2の色情報として求める。 FIG. 4C is a diagram simply showing a vertical cross section with respect to the display surface 22, and the intersections X1, X2 of the representative rays PR1, PR2 emitted from the representative points of the pixels PE1, PE2 and the depth information model. It is a figure which shows the correspondence with the planar view image shown to the same figure (d). As shown in FIG. 6C, the intersection point is obtained from the representative ray PR1 emitted from the pixel PE1 (that is, the ray in the direction opposite to the line of sight V and equivalent to the line-of-sight line direction trajectory) and the depth information model. X1 (z 1 , x 1 ) is determined. The color information of the dot of the planar view image corresponding to the position of this intersection X1 is acquired. That is, the position coordinate (x 1 , y 0 ) of the corresponding planar image is determined from the intersection point X1 (z 1 , x 1 ), and the color information acquired from the dot at this position coordinate is used as the color information of the pixel PE1. Ask. Similarly, the position coordinates (x 2 , y 0 ) of the corresponding planar view image are determined from the intersection X2 (z 2 , x 2 ) between the representative ray PR2 emitted from the pixel PE2 and the depth information model. Then, the color information acquired from the dot at the position coordinates (x 2 , y 0 ) of the planar view image is obtained as the color information of the pixel PE2.

更に、画素別視線方向軌跡と、奥行情報モデルの奥行値との交点が複数ある場合の色情報の求め方について詳細に説明する。図18は、表示面22に対する垂直断面を簡略的に示した図であり、当該垂直断面に応じたスキャンラインにおける奥行情報モデルを示している。また、表示面22の黒丸(●)は各画素の代表点を示し、各代表点のx座標と、奥行値のx座標はそれぞれ一致しているものとする。つまり、1画素は、1ピクセルに対応している。本方式では、各画素の代表点から射出される代表光線の方向を、レンズ及び画素の位置関係から算出し、これを視線Vの方向とする。尚、図中レンズの記載は省略している。   Furthermore, a method for obtaining color information when there are a plurality of intersections between the per-pixel line-of-sight direction trajectory and the depth value of the depth information model will be described in detail. FIG. 18 is a diagram schematically showing a vertical section with respect to the display surface 22, and shows a depth information model in a scan line corresponding to the vertical section. Further, the black circle (●) on the display surface 22 indicates the representative point of each pixel, and the x coordinate of each representative point is the same as the x coordinate of the depth value. That is, one pixel corresponds to one pixel. In this method, the direction of the representative ray emitted from the representative point of each pixel is calculated from the positional relationship between the lens and the pixel, and this is used as the direction of the line of sight V. In addition, description of the lens is abbreviate | omitted in the figure.

図19は、図18に示した各画素のうち画素PE1,PE2,PE3に着目し、該画素PE1〜PE3に対応する代表光線PR1〜PR3を示した図である。代表光線PR1〜PR3は、3つの典型的パターンを示している。つまり、代表光線PR1は、画素PE1から左斜め上方向に射出するパターンであり、代表光線PR2は、画素PE2から右斜め上方向に射出するパターンであり、代表光線PR3は、画素PE3から垂直上方向に射出するパターンを示している。先ず、代表光線が左斜め上方向に射出するパターン、即ち、画素別視線方向軌跡の傾きが負となる場合における画素PE1の色情報の求め方について説明する。   FIG. 19 is a diagram showing representative rays PR1 to PR3 corresponding to the pixels PE1 to PE3 by focusing on the pixels PE1, PE2, and PE3 among the pixels shown in FIG. The representative rays PR1 to PR3 show three typical patterns. That is, the representative ray PR1 is a pattern that is emitted from the pixel PE1 in the diagonally upward left direction, the representative ray PR2 is a pattern that is emitted from the pixel PE2 in the diagonally upward right direction, and the representative ray PR3 is vertically upward from the pixel PE3. The pattern which injects in the direction is shown. First, a description will be given of how to obtain the color information of the pixel PE1 when the pattern in which the representative light beam is emitted obliquely upward to the left, that is, when the inclination of the trajectory direction for each pixel is negative.

図20は、画素別視線方向軌跡をV1とし、V1と奥行情報モデルとの交点を示す図である。尚、レンズ及び画素は省略している。先ず、画素別視線方向軌跡V1と、奥行情報モデルの全ての線分との交差判定を行い、各交点(図中では、3つの交点)を求める。そして、全交点の中から奥行値(Z値)が最も大きい交点(即ち、画素別視点CMから最も手前の交点、以下、「対象交点」と呼ぶ)を色情報を求めるための交点として取得する。そして、図17(c)、(d)を用いて説明した方法と同様に平面視画像のドットのうち対象交点の位置に応じたドットの色情報を取得し、これを画素PE1の色情報とする。同図においては、交点X1が対象交点となる。   FIG. 20 is a diagram illustrating an intersection between V1 and the depth information model, where V1 is the line-of-sight line direction locus for each pixel. In addition, the lens and the pixel are omitted. First, intersection determination between the line-of-sight line direction trajectory V1 for each pixel and all line segments of the depth information model is performed to obtain each intersection (three intersections in the figure). Then, the intersection having the largest depth value (Z value) among all the intersections (that is, the closest intersection from the pixel-specific viewpoint CM, hereinafter referred to as “target intersection”) is acquired as an intersection for obtaining color information. . Then, similarly to the method described with reference to FIGS. 17C and 17D, the color information of the dot corresponding to the position of the target intersection among the dots of the planar image is acquired, and this is used as the color information of the pixel PE1. To do. In the figure, the intersection X1 is the target intersection.

同様に、画素PE2の色情報を求める場合も、画素PE2に対する画素別視線方向軌跡V2と、奥行情報モデルの全ての線分と交差判定を行い、求められた全交点のうちZ値が最も大きい対象交点を取得する。そして、平面視画像のドットのうち対象交点の位置に対応するドットの色情報を取得して、これを画素PE2の色情報とする。また、画素PE3の色情報を求める場合は、視線Vは画素PE3に対して垂直方向であるため、平面視画像のドットのうち画素PE3の位置に対応するドットの色情報を取得し、これを画素PE3の色情報とする。   Similarly, when obtaining the color information of the pixel PE2, a crossing determination is performed with respect to the line-of-sight line direction locus V2 for the pixel PE2 and all line segments of the depth information model, and the Z value is the largest among all obtained intersections. Get the target intersection. And the color information of the dot corresponding to the position of the object intersection among the dots of the planar view image is acquired, and this is used as the color information of the pixel PE2. Further, when obtaining the color information of the pixel PE3, since the line of sight V is perpendicular to the pixel PE3, the color information of the dot corresponding to the position of the pixel PE3 is obtained from the dots of the planar view image, and this is obtained. The color information of the pixel PE3 is used.

以上のように、各画素の色情報を求める場合、各画素に対する画素別視線方向軌跡と、奥行情報モデルの全ての線分との交差判定を行う必要があり、三次元仮想空間の色情報を求めるのに時間を要することが懸念された。つまり、本実施形態では、画素パネルの各画素には、当該画素毎の光線の方向に基づいた三次元仮想空間の色情報が表されるため、当該光線の数ほどに視点がある、即ち画素の数ほどに視点があるといえる。従って、視点の数の増加に伴い、画素毎の計算処理に多大な時間を要するという問題がある。   As described above, when obtaining the color information of each pixel, it is necessary to perform the intersection determination between the line-of-sight line direction trajectory for each pixel and all the line segments of the depth information model, and the color information of the three-dimensional virtual space is obtained. There was concern that it would take time to ask. In other words, in this embodiment, each pixel of the pixel panel represents the color information of the three-dimensional virtual space based on the direction of the light beam for each pixel, and therefore has as many viewpoints as the number of light beams. It can be said that there are as many viewpoints as there are. Therefore, as the number of viewpoints increases, there is a problem that much time is required for calculation processing for each pixel.

リアルタイムに動画像を生成して立体視映像装置に表示させる場合、毎フレーム単位で立体視画像を生成する必要がある。従って、時間的な制約が極めて大きく、毎フレーム単位で立体視画像を生成できない場合、立体視映像表示装置に動画像を表示できない事態(いわゆる処理落ち)が起こり得た。そこで、本発明者は、各画素に対する画素別視線方向軌跡と、奥行値情報とに基づいた収束計算処理により、対象交点を短時間で求める方法を発明した。   When a moving image is generated in real time and displayed on a stereoscopic video apparatus, it is necessary to generate a stereoscopic image for each frame. Therefore, when time constraints are extremely large and a stereoscopic image cannot be generated in units of frames, a situation in which a moving image cannot be displayed on the stereoscopic video display device (so-called processing failure) may occur. In view of this, the present inventors have invented a method for obtaining a target intersection point in a short time by a convergence calculation process based on a pixel-specific line-of-sight direction locus for each pixel and depth value information.

以下、対象交点を求める方法について説明する。
今、あるスキャンラインにおける奥行情報モデルの奥行値(Z値)が、関数z=fz(x)で表され、一の画素における画素別視線方向軌跡が、関数z=ax+b(a、bは定数)で表されるものとする。但し、「x」は、画素パネル20の画素のx座標(画素位置)を示している。
Hereinafter, a method for obtaining the target intersection will be described.
Now, the depth value (Z value) of the depth information model in a certain scan line is represented by the function z = f z (x), and the pixel-specific gaze direction locus in one pixel is the function z = ax + b (a and b are Constant). However, “x” indicates the x coordinate (pixel position) of the pixel of the pixel panel 20.

また、簡単のため、関数z=fz(x)と関数z=ax+bとは、1点でのみ交差するものとする。この場合における関数z=fz(x)及び関数z=ax+bのグラフの一例を、図21に示す。 For simplicity, it is assumed that the function z = f z (x) and the function z = ax + b intersect only at one point. An example of the graph of the function z = f z (x) and the function z = ax + b in this case is shown in FIG.

ここで、f(x)=fz(x)−(ax+b)とおくと、関数z=fz(x)と関数z=ax+bとの交点に対応する画素位置xmは、方程式f(x)=0の解として求めることができるため、数値計算によりf(x)=0の解を求める問題に帰着する。 Here, if f (x) = f z (x) − (ax + b), the pixel position x m corresponding to the intersection of the function z = f z (x) and the function z = ax + b is expressed by the equation f (x ) = 0, it can be obtained as a solution, resulting in a problem of finding a solution of f (x) = 0 by numerical calculation.

ここで、f(x)=0の解を求めることは、一般的に容易ではない。しかし、公知の手法に基づいて近似解を求めることは可能である。そこで、本実施形態では、ニュートン法と呼ばれる手法を用いて、f(x)=0の近似解を算出する。   Here, it is generally not easy to find a solution of f (x) = 0. However, it is possible to obtain an approximate solution based on a known method. Therefore, in this embodiment, an approximate solution with f (x) = 0 is calculated using a method called Newton's method.

図22は、ニュートン法による近似解算出の原理を示す図である。
先ず、任意の画素位置x=x0を初期値に設定し、関数f(x)上の点(x0,f(x0))における接線がx軸と交差する点をx1として算出する。
FIG. 22 is a diagram showing the principle of approximate solution calculation by the Newton method.
First, an arbitrary pixel position x = x 0 is set as an initial value, and a point where a tangent line at a point (x 0 , f (x 0 )) on the function f (x) intersects the x axis is calculated as x 1 . .

次いで、関数f(x)上の点(x1,f(x1))における接線がx軸と交差する点をx2として算出する。以下、同様の手順を繰り返してx3,x4,x5,・・・を算出していくと、初期値が適切である限り、xnは最終的に解であるxmに収束する。ここで、xnの更新式は、次式(10)のように定式化される。
n+1=xn−f(xn)/f´(xn) ・・・(10)
Next, a point at which the tangent line at the point (x 1 , f (x 1 )) on the function f (x) intersects the x axis is calculated as x 2 . Thereafter, when x 3 , x 4 , x 5 ,... Are calculated by repeating the same procedure, x n finally converges to x m as a solution as long as the initial value is appropriate. Here, the update formula of x n is formulated as the following formula (10).
x n + 1 = x n −f (x n ) / f ′ (x n ) (10)

尚、ニュートン法では、次式(11)の条件が満たされた時点で計算を終了するのが一般的である。
|(xn+1−xn)/xn|<ε ・・・(11)
但し、εは、計算精度を決める定数である。
In the Newton method, the calculation is generally terminated when the condition of the following equation (11) is satisfied.
| (X n + 1 −x n ) / x n | <ε (11)
Here, ε is a constant that determines the calculation accuracy.

式(10)から明らかなように、xnを更新する際には、f´(xn)を求める必要がある。ここで、f´(xn)=fz´(xn)−aであり、画素別視線方向軌跡の傾きである「a」の値は定まっているため、fz´(xn)を求めれば良いことになる。 As apparent from the equation (10), when updating x n , it is necessary to obtain f ′ (x n ). Here, since f ′ (x n ) = f z ′ (x n ) −a and the value of “a” that is the inclination of the pixel-specific line-of-sight direction locus is fixed, f z ′ (x n ) is If you ask for it.

この場合、fz´(xn)を逐次算出しても良いが、予め平面視画像の全てのドットについて、奥行値の微分値(以下、「奥行微分値」と呼ぶ。)を算出しておくことにすれば至便である。 In this case, f z ′ (x n ) may be calculated sequentially, but the differential value of the depth value (hereinafter referred to as “depth differential value”) is calculated in advance for all the dots in the planar view image. It's convenient if you keep it.

奥行値を与える関数z=fz(x)が数式として与えられていれば、当該関数を微分することで得られる微分関数z´=fz´(x)から奥行微分値を算出することができる。しかし、一般の画像では、奥行値を与える関数z=fz(x)を数式化できないため、奥行微分値を与える関数を求めることは困難である。そこで、各ドットについて、当該ドットの奥行値と当該ドットに隣接する隣接ドットの奥行値との差分を算出して奥行差分値とし、これを奥行微分値の代わりにする。 If the function z = f z (x) that gives the depth value is given as an equation, the depth differential value can be calculated from the differential function z ′ = f z ′ (x) obtained by differentiating the function. it can. However, in a general image, the function z = f z (x) that gives the depth value cannot be mathematically expressed, so it is difficult to obtain a function that gives the depth differential value. Therefore, for each dot, the difference between the depth value of the dot and the depth value of the adjacent dot adjacent to the dot is calculated as a depth difference value, which is used instead of the depth differential value.

以上のように、本実施形態では、ニュートン法を用いて各画素の画素別視線方向軌跡と奥行値との対象交点を求める。ニュートン法は、解の収束性が初期値に依存するアルゴリズムではあるが、二次収束性を有することを特徴としているため、初期値が適切であれば、解を高速に求めることが可能となる。従って、対象交点を短時間で求めることができるため、立体視画像生成の高速化を実現できる。   As described above, in the present embodiment, the target intersection between the pixel-specific line-of-sight direction locus and the depth value of each pixel is obtained using the Newton method. Newton's method is an algorithm whose solution convergence depends on the initial value, but it is characterized by quadratic convergence. Therefore, if the initial value is appropriate, the solution can be obtained at high speed. . Therefore, since the target intersection can be obtained in a short time, it is possible to increase the speed of stereoscopic image generation.

2.立体視画像生成装置
次に、上述した原理に基づく立体視画像生成装置について説明する。かかる立体視画像生成装置は、動画の立体視を実現する立体視画像を生成するものである。
2. Stereoscopic Image Generation Device Next, a stereoscopic image generation device based on the above-described principle will be described. Such a stereoscopic image generation apparatus generates a stereoscopic image that realizes stereoscopic viewing of a moving image.

2−1.構成
図23は、本実施形態における立体視画像生成装置1の構成を示すブロック図である。
立体視画像生成装置1は、入力部100と、立体視映像表示装置200と、処理部300と、記憶部400とを備えて構成される。
2-1. Configuration FIG. 23 is a block diagram illustrating a configuration of the stereoscopic image generating apparatus 1 according to the present embodiment.
The stereoscopic image generation device 1 includes an input unit 100, a stereoscopic video display device 200, a processing unit 300, and a storage unit 400.

入力部100は、ユーザによる操作指示を受け付け、操作に応じた操作信号を処理部300に出力する。この機能は、例えばボタンスイッチやレバー、ジョイスティック、ダイヤル、マウス、トラックボール、キーボード、タブレット、タッチパネル、各種センサ等の入力装置によって実現される。   The input unit 100 receives an operation instruction from a user and outputs an operation signal corresponding to the operation to the processing unit 300. This function is realized by an input device such as a button switch, lever, joystick, dial, mouse, trackball, keyboard, tablet, touch panel, or various sensors.

立体視映像表示装置200は、立体視画像生成部320により生成された立体視画像を表示して観察者に立体視映像を認識せしめる表示装置である。本実施形態では、例えば図2に示した垂直レンチキュラ方式の立体視映像表示装置により実現される。   The stereoscopic video display device 200 is a display device that displays the stereoscopic image generated by the stereoscopic image generation unit 320 and allows the observer to recognize the stereoscopic video. In the present embodiment, for example, it is realized by the vertical lenticular stereoscopic image display device shown in FIG.

処理部300は、立体視画像生成装置1全体の制御や画像生成等の各種演算処理を行う。この機能は、例えばCPU(CISC型、RISC型)、ASIC(ゲートアレイ等)等の演算装置やその制御プログラムにより実現される。特に、本実施形態では、処理部300は、三次元仮想空間であるオブジェクト空間を設定するオブジェクト空間設定部310と、オブジェクト空間設定部310により設定されたオブジェクト空間の立体視画像を生成する立体視画像生成部320とを含む。   The processing unit 300 performs various arithmetic processes such as control of the entire stereoscopic image generation apparatus 1 and image generation. This function is realized by, for example, an arithmetic device such as a CPU (CISC type, RISC type), ASIC (gate array, etc.) or a control program thereof. In particular, in the present embodiment, the processing unit 300 includes an object space setting unit 310 that sets an object space that is a three-dimensional virtual space, and a stereoscopic view that generates a stereoscopic image of the object space set by the object space setting unit 310. An image generation unit 320.

立体視画像生成部320は、画素別視点設定部322と、レンダリング部324と、モデル生成部325と、色情報設定部326とを含み、記憶部400に記憶されている立体視画像生成プログラム410に従った処理を実行することで、オブジェクト空間設定部310により設定されたオブジェクト空間の立体視画像を生成し、生成した立体視画像を立体視映像表示装置200に表示させる。   The stereoscopic image generation unit 320 includes a pixel-specific viewpoint setting unit 322, a rendering unit 324, a model generation unit 325, and a color information setting unit 326, and the stereoscopic image generation program 410 stored in the storage unit 400. By executing the processing according to the above, a stereoscopic image of the object space set by the object space setting unit 310 is generated, and the generated stereoscopic image is displayed on the stereoscopic video display device 200.

画素別視点設定部322は、表示装置データ430及び想定観察位置データ440を参照してオブジェクト空間に画素別視点CMを設定する。具体的には、立体視映像表示装置200の表示面22の画素PE毎に、表示装置データ430及び想定観察位置データ440を参照して対応するレンズ32を決定する。そして、該画素PEの代表点と、該画素PEに対応するレンズ32の主点(詳細には、代表主点)とを通過した後の代表光線PRを算出し、この代表光線PRと位置は同じで方向を逆にした視線を該画素PEの視線Vとする。このとき、画素PEに対応するレンズ32及び視線Vの決定は、立体視映像表示装置200に応じた方法で行う。即ち、図7、8を参照して説明したように行う。   The pixel-specific viewpoint setting unit 322 sets the pixel-specific viewpoint CM in the object space with reference to the display device data 430 and the assumed observation position data 440. Specifically, for each pixel PE on the display surface 22 of the stereoscopic video display device 200, the corresponding lens 32 is determined with reference to the display device data 430 and the assumed observation position data 440. Then, the representative ray PR after passing through the representative point of the pixel PE and the principal point (specifically, the representative principal point) of the lens 32 corresponding to the pixel PE is calculated. The same line of sight with the direction reversed is set as the line of sight V of the pixel PE. At this time, the lens 32 and the line of sight V corresponding to the pixel PE are determined by a method according to the stereoscopic video display device 200. That is, the process is performed as described with reference to FIGS.

そして、画素別視点設定部322は、各画素PEについて、算出した視線Vを視線方向とする画素別視点CMを設定する。また、画素別視点CMの位置は、立体視画像生成部320によって決定された設定基準位置を基に設定する。具体的には、例えば図11に示したように、表示面22に平行な同一面上に各画素別視点CMを設定する。   The pixel-specific viewpoint setting unit 322 sets a pixel-specific viewpoint CM with the calculated line of sight V as the line-of-sight direction for each pixel PE. Further, the position of the pixel-specific viewpoint CM is set based on the setting reference position determined by the stereoscopic image generation unit 320. Specifically, for example, as illustrated in FIG. 11, each pixel viewpoint CM is set on the same plane parallel to the display surface 22.

ここで、表示装置データ430とは、立体視映像表示装置200の構成パラメータのデータである。図24に、表示装置データ430のデータ構成の一例を示す。表示装置データ430は、立体視映像表示装置200を構成する画素パネル20の画素ピッチ431と、レンズ板30のレンズピッチ432及び焦点距離433と、画素パネル20に対するレンズ板30の配置角度434及び配置基準位置435とを格納する。   Here, the display device data 430 is data of configuration parameters of the stereoscopic video display device 200. FIG. 24 shows an example of the data configuration of the display device data 430. The display device data 430 includes a pixel pitch 431 of the pixel panel 20 constituting the stereoscopic video display device 200, a lens pitch 432 and a focal length 433 of the lens plate 30, an arrangement angle 434 and an arrangement of the lens plate 30 with respect to the pixel panel 20. The reference position 435 is stored.

配置角度434は、画素パネル20の画素ピッチ方向とレンズ板30のレンズピッチ方向とが成す角度θの値を格納する。即ち、配置角度434は、立体視映像表示装置200が垂直/斜めレンチキュラ方式の何れであるかを示すデータであり、垂直レンチキュラ方式の場合には、θ=0゜となり、斜めレンチキュラ方式の場合には、θ=0゜以外となる。配置基準位置435は、レンズ板30の配置位置であり、画素パネル20の基準位置からのレンズ板30の水平方向に対するずれの大きさdxを格納する。尚、この表示装置データ430は、固定的なデータとして予め記憶されていることとするが、入力部100からのユーザ入力に従って設定されることとしても良い。   The arrangement angle 434 stores the value of the angle θ formed by the pixel pitch direction of the pixel panel 20 and the lens pitch direction of the lens plate 30. That is, the arrangement angle 434 is data indicating whether the stereoscopic image display device 200 is a vertical / oblique lenticular method. In the case of the vertical lenticular method, θ = 0 °, and in the case of the oblique lenticular method. Is other than θ = 0 °. The arrangement reference position 435 is the arrangement position of the lens plate 30 and stores the magnitude dx of the displacement of the lens plate 30 with respect to the horizontal direction from the reference position of the pixel panel 20. The display device data 430 is stored in advance as fixed data, but may be set according to a user input from the input unit 100.

また、想定観察位置データ440とは、想定観察位置40のデータであり、具体的には、立体視映像表示装置200の画素パネル20の表示面と、想定した観察者の視点(想定観察位置)40との間の想定観察距離Dの値を格納する。或いは、想定した観察者の視点(想定観察位置)40の位置座標を格納することとしても良い。尚、この想定観察位置データ440は、固定的なデータとして予め記憶されていることとするが、入力部100からのユーザ入力によって設定されることとしても良い。想定観察位置データ440をユーザ入力により設定できるようにすることで、想定視点位置を変更したい場合にも容易に対応できる。また、入力装置としてヘッドトラッキング装置を用いて、観察位置が自動的にフィードバック(入力)されるようにしても良い。   The assumed observation position data 440 is data of the assumed observation position 40. Specifically, the display surface of the pixel panel 20 of the stereoscopic video display device 200 and the assumed observer's viewpoint (assumed observation position). The value of the assumed observation distance D between 40 is stored. Alternatively, the position coordinates of the assumed observer viewpoint (assumed observation position) 40 may be stored. The assumed observation position data 440 is stored in advance as fixed data, but may be set by user input from the input unit 100. By making it possible to set the assumed observation position data 440 by user input, it is possible to easily cope with a case where it is desired to change the assumed viewpoint position. Further, the observation position may be automatically fed back (input) using a head tracking device as an input device.

また、画素別視点設定部322によって設定された各画素PEの画素別視点CMのデータは画素別視点データ450に格納される。図25に、画素別視点データ450のデータ構成の一例を示す。画素別視点データ450は、立体視映像表示装置200の画素パネル20の画素451と、画素別視点ベクトル452とを対応付けて格納している。画素別視点ベクトル452には、対応する画素別視点CMを表すデータとして視線Vのデータが、正規化されたベクトルとして格納される。また、実際の計算時には、視線Vのデータは、画素別視線方向軌跡の関数z=ax+bに変換して用いられる。そのため、予めa、bの値を計算して求めておき、これらを画素別視点データ450に格納しておいても良い。   The pixel-specific viewpoint CM data of each pixel PE set by the pixel-specific viewpoint setting unit 322 is stored in the pixel-specific viewpoint data 450. FIG. 25 shows an example of the data configuration of the pixel-specific viewpoint data 450. The pixel-specific viewpoint data 450 stores the pixel 451 of the pixel panel 20 of the stereoscopic video display device 200 and the pixel-specific viewpoint vector 452 in association with each other. In the per-pixel viewpoint vector 452, the data of the line of sight V as data representing the corresponding per-pixel viewpoint CM is stored as a normalized vector. In actual calculation, the data of the line of sight V is used after being converted into a function z = ax + b of the pixel-specific line-of-sight direction locus. Therefore, the values of a and b may be calculated in advance and stored in the pixel-specific viewpoint data 450.

レンダリング部324は、オブジェクト空間設定部310により設定されたオブジェクト空間に1つの仮想カメラを設定し、該仮想カメラの視点に基づきZバッファ法等によりレンダリングを行って、レンダリングデータ460を生成する。   The rendering unit 324 sets one virtual camera in the object space set by the object space setting unit 310, performs rendering by the Z buffer method or the like based on the viewpoint of the virtual camera, and generates rendering data 460.

モデル生成部325は、レンダリング部324により生成されたレンダリングデータ460に基づいて、平面視画像の各ドットの奥行値の情報である奥行情報モデル470と、奥行微分値の情報である奥行微分情報モデル480とを生成する。尚、レンダリングをZバッファ法によって行った場合には、隠面消去のために各ドットの奥行値がZバッファに残る。そのため、このZバッファの値を利用して奥行情報モデル470を求めることとしても良い。   Based on the rendering data 460 generated by the rendering unit 324, the model generation unit 325 includes a depth information model 470 that is information on the depth value of each dot in the planar view image, and a depth differential information model that is information on the depth differential value. 480. If rendering is performed by the Z buffer method, the depth value of each dot remains in the Z buffer for hidden surface removal. Therefore, the depth information model 470 may be obtained using the value of this Z buffer.

色情報設定部326は、色情報設定プログラム420に従って色情報設定処理を実行して、三次元仮想空間の立体視画像の色情報を設定する。具体的には、各画素PEについて、画素別視点データ450から画素PEと、画素PEに対する画素別視点(視線Vのデータ)とを取得して画素別視線方向軌跡を算出し、この画素別視線方向軌跡と、画素PEの位置に応じたスキャンラインにおける奥行情報モデル470との交点のうち、Z値が最大となる対象交点を収束計算処理により算出する。そして、算出された対象交点の位置に応じた画素位置を取得し、当該画素位置に対応する平面視画像のドットの色情報を画素PEの色情報として求める。求められた各画素PEの色情報は、色情報設定部326により立体視画像データ500の該当位置に書き込まれる。   The color information setting unit 326 executes color information setting processing according to the color information setting program 420, and sets the color information of the stereoscopic image in the three-dimensional virtual space. Specifically, for each pixel PE, the pixel PE and the pixel-specific viewpoint (data of the line of sight V) with respect to the pixel PE are acquired from the pixel-specific viewpoint data 450 to calculate the pixel-specific line-of-sight direction locus, and this pixel-specific line-of-sight is obtained. Among intersection points between the direction locus and the depth information model 470 in the scan line corresponding to the position of the pixel PE, a target intersection point having the maximum Z value is calculated by a convergence calculation process. Then, the pixel position corresponding to the calculated position of the target intersection is acquired, and the color information of the dot of the planar view image corresponding to the pixel position is obtained as the color information of the pixel PE. The obtained color information of each pixel PE is written in the corresponding position of the stereoscopic image data 500 by the color information setting unit 326.

記憶部400は、処理部300に立体視画像生成装置1を統合的に制御させるためのシステムプログラムやデータ等を記憶するとともに、処理部300の作業領域として用いられ、処理部300が各種プログラムに従って実行した演算結果や入力部100から入力される入力データ等を一時的に記憶する。この機能は、例えば各種ICメモリやハードディスク、フロッピー(登録商標)ディスク、CD−ROM、DVD、MO、RAM、VRAM等によって実現される。   The storage unit 400 stores a system program, data, and the like for causing the processing unit 300 to control the stereoscopic image generating apparatus 1 in an integrated manner, and is used as a work area of the processing unit 300. The executed calculation results, input data input from the input unit 100, and the like are temporarily stored. This function is realized by, for example, various IC memories, a hard disk, a floppy (registered trademark) disk, a CD-ROM, a DVD, an MO, a RAM, a VRAM, and the like.

特に、本実施形態では、記憶部400は、処理部300を立体視画像生成部320として機能させるための立体視画像生成プログラム410と、表示装置データ430と、想定観察位置データ440と、画素別視点データ450と、レンダリングデータ460と、奥行情報モデル470と、奥行微分情報モデル480と、画素別対応ドットデータ490と、立体視画像データ500とを記憶している。また、立体視画像生成プログラム410は、立体視画像生成部320を色情報設定部326として機能させるための色情報設定プログラム420をサブルーチンとして含んでいる。   In particular, in the present embodiment, the storage unit 400 includes a stereoscopic image generation program 410 for causing the processing unit 300 to function as the stereoscopic image generation unit 320, display device data 430, assumed observation position data 440, and pixel-by-pixel. The viewpoint data 450, the rendering data 460, the depth information model 470, the depth differential information model 480, the pixel-corresponding dot data 490, and the stereoscopic image data 500 are stored. In addition, the stereoscopic image generation program 410 includes a color information setting program 420 for causing the stereoscopic image generation unit 320 to function as the color information setting unit 326 as a subroutine.

レンダリングデータ460は、レンダリング部324により生成されるデータであり、平面視画像データ462を含んでいる。図26に、平面視画像データ462の一例を示す。平面視画像データ462は、色情報(例えば、RGB値、α値)を記憶した画像データであり、基準画像の一種である。   The rendering data 460 is data generated by the rendering unit 324 and includes planar view image data 462. FIG. 26 shows an example of the planar image data 462. The planar image data 462 is image data in which color information (for example, RGB value, α value) is stored, and is a kind of reference image.

奥行情報モデル470は、モデル生成部325により生成されるデータであり、平面視画像の各ドットの奥行値をスキャンライン毎に格納した奥行画像データ472を含んでいる。図27に、図26の平面視画像データ462に対する奥行画像データ472を示す。図27(b)は、同図(a)に示す奥行画像のスキャンラインA−Aにおける奥行値をxz座標に変換したモデル図である。同図(a)において、Z値が大きい(明るい)ほど観察者に近い位置であることを示している。   The depth information model 470 is data generated by the model generation unit 325, and includes depth image data 472 in which the depth value of each dot of the planar view image is stored for each scan line. FIG. 27 shows depth image data 472 for the planar view image data 462 of FIG. FIG. 27B is a model diagram in which the depth value in the scan line AA of the depth image shown in FIG. In FIG. 9A, the larger the Z value (brighter), the closer to the observer.

奥行微分情報モデル480は、モデル生成部325により生成されるデータであり、平面視画像の各ドットの奥行微分値をスキャンライン毎に格納した奥行微分画像データ482を含んでいる。図28に、図26の平面視画像データ462に対する奥行微分画像データ482を示す。図28(b)は、同図(a)に示す奥行微分画像のスキャンラインB−Bにおける奥行微分値をxz座標に変換したモデル図である。   The depth differential information model 480 is data generated by the model generation unit 325, and includes depth differential image data 482 that stores the depth differential value of each dot of the planar view image for each scan line. FIG. 28 shows depth differential image data 482 with respect to the planar view image data 462 of FIG. FIG. 28B is a model diagram in which the depth differential value in the scan line BB of the depth differential image shown in FIG.

画素別対応ドットデータ490は、各画素PEについて、色情報を設定する平面視画像のドットを記憶したデータであり、そのデータ構成の一例を、図29に示す。画素別対応ドットデータ490は、立体視映像表示装置200の画素パネル20の画素491と、当該画素に対応する平面視画像のドットである対応ドット492とを格納する。   The pixel-corresponding dot data 490 is data in which dots of a planar image for setting color information are stored for each pixel PE, and an example of the data configuration is shown in FIG. The pixel-specific corresponding dot data 490 stores the pixel 491 of the pixel panel 20 of the stereoscopic video display device 200 and the corresponding dot 492 that is a dot of the planar image corresponding to the pixel.

立体視画像データ500は、立体視画像生成部320により生成される1フレーム分の画像データ(詳細には、各画素の色情報)を格納する。   The stereoscopic image data 500 stores image data for one frame (specifically, color information of each pixel) generated by the stereoscopic image generation unit 320.

2−2.処理の流れ
次に、処理の流れを説明する。
図30は、本実施形態における立体視画像生成処理の流れを示すフローチャートである。この処理は、1フレーム毎に立体視画像を生成して表示させる、即ちリアルタイムな動画の立体視を実現させる処理であり、立体視画像生成部320が記憶部400の立体視画像生成プログラム410を実行することで実現される。
2-2. Process Flow Next, the process flow will be described.
FIG. 30 is a flowchart showing a flow of stereoscopic image generation processing in the present embodiment. This process is a process of generating and displaying a stereoscopic image for each frame, that is, realizing a real-time moving image stereoscopic view. The stereoscopic image generation unit 320 loads the stereoscopic image generation program 410 in the storage unit 400. It is realized by executing.

先ず、立体視画像生成部320は、画素別視点CMの設定位置の基準となる基準位置(設定基準位置)を決定する(ステップS11)。次いで、立体視画像生成部320は、表示面22の各画素PEを対象としてループAの処理を実行することで、各画素PEの画素別視点CMをオブジェクト空間に設定する。   First, the stereoscopic image generation unit 320 determines a reference position (set reference position) that serves as a reference for the set position of the pixel-specific viewpoint CM (step S11). Next, the stereoscopic image generation unit 320 sets the viewpoint CM for each pixel PE in the object space by executing the process of loop A for each pixel PE on the display surface 22.

ループAでは、画素別視点設定部322は、表示装置データ430及び想定観察位置データ440を参照して、処理対象となっている画素PE(以下、「該画素」という)に対応するレンズ32を決定する(ステップS13)。   In the loop A, the pixel-specific viewpoint setting unit 322 refers to the display device data 430 and the assumed observation position data 440 to select the lens 32 corresponding to the pixel PE that is the processing target (hereinafter, “the pixel”). Determine (step S13).

次いで、画素別視点設定部322は、該画素PEの代表点と、該画素PE及び観察位置に対応するレンズ32の主点(代表主点)とを通過した後の光線(代表光線)PRを算出し、その代表光線PRと位置は同じで方向を逆にしたベクトルを視線Vとする(ステップS15)。そして、画素別視点設定部322は、その視線Vの方向を視線方向とする画素別視点CMを設定し(ステップS17)、画素別視点データ450として記憶させる。ループAはこのように実行される。   Next, the pixel-specific viewpoint setting unit 322 outputs a ray (representative ray) PR after passing through the representative point of the pixel PE and the principal point (representative principal point) of the lens 32 corresponding to the pixel PE and the observation position. The vector which is calculated and has the same position as that of the representative ray PR and whose direction is reversed is set as the line of sight V (step S15). Then, the pixel-specific viewpoint setting unit 322 sets a pixel-specific viewpoint CM in which the direction of the line of sight V is the line-of-sight direction (step S17), and stores it as pixel-specific viewpoint data 450. Loop A is executed in this way.

表示面22の全画素PEを処理対象としてループAの処理を行うと、立体視画像生成部320は、続いて、1フレーム毎にループBの処理を実行する。   When the loop A process is performed on all the pixels PE on the display surface 22, the stereoscopic image generation unit 320 subsequently executes the loop B process for each frame.

ループBでは、先ず、オブジェクト空間設定部310は、オブジェクト空間を設定し(ステップS19)、設定したオブジェクト空間に仮想カメラを設定する(ステップS21)。そして、レンダリング部324は、設定された仮想カメラに基づきZバッファ法によるレンダリングを行って、レンダリングデータ460を生成する(ステップS23)。   In the loop B, first, the object space setting unit 310 sets an object space (step S19), and sets a virtual camera in the set object space (step S21). Then, the rendering unit 324 performs rendering by the Z buffer method based on the set virtual camera, and generates rendering data 460 (step S23).

次いで、モデル生成部325は、生成されたレンダリングデータ460に基づいて、平面視画像の各ドットの奥行値の情報である奥行情報モデル470を生成する(ステップS25)。   Next, the model generation unit 325 generates a depth information model 470 that is information on the depth value of each dot of the planar view image based on the generated rendering data 460 (step S25).

また、モデル生成部325は、ステップS25で生成した奥行情報モデル470に基づいて、平面視画像の各ドットの奥行微分値の情報である奥行微分情報モデル480を生成する(ステップS27)。具体的には、モデル生成部325は、各ドットについて、当該ドットの奥行値と、当該ドットに隣接する隣接ドットの奥行値との差分を算出して奥行差分値を求め、それを奥行微分値とみなすことで、奥行微分情報モデル480を生成する。尚、奥行値を与える関数z=fz(x)が予め数式として与えられている場合は、モデル生成部325は、当該関数を微分した微分関数z´=fz´(x)から各ドットの奥行微分値を算出することで、奥行微分情報モデル480を生成する。 Further, the model generation unit 325 generates a depth differential information model 480 that is information on the depth differential value of each dot of the planar view image based on the depth information model 470 generated in step S25 (step S27). Specifically, for each dot, the model generation unit 325 calculates a difference between the depth value of the dot and the depth value of an adjacent dot adjacent to the dot to obtain a depth difference value, and obtains the depth differential value. As a result, the depth differential information model 480 is generated. When the function z = f z (x) for giving the depth value is given in advance as a mathematical expression, the model generation unit 325 determines each dot from the differential function z ′ = f z ′ (x) obtained by differentiating the function. The depth differential information model 480 is generated by calculating the depth differential value of.

続いて、色情報設定部326は、処理対象となっている画素PE(該画素)の色情報を設定する色情報設定処理(図31参照)を実行する(ステップS29)。そして、表示面22の全画素PEを対象とした色情報設定処理が終了すると、立体視画像生成部320は、立体視画像データ500に格納されている1フレーム分の画像データを、立体視画像として立体視映像表示装置200に表示させる(ステップS31)。   Subsequently, the color information setting unit 326 executes a color information setting process (see FIG. 31) for setting the color information of the pixel PE (the pixel) to be processed (step S29). When the color information setting process for all the pixels PE on the display surface 22 ends, the stereoscopic image generation unit 320 converts the image data for one frame stored in the stereoscopic image data 500 into the stereoscopic image. Is displayed on the stereoscopic video display device 200 (step S31).

このように、1フレーム毎にループBの処理を繰り返し実行することで、動画の立体視が実現される。そして、例えば入力部100から立体視画像の生成終了指示が入力される等して立体視画像の生成終了が指示されると、立体視画像生成部320はループBを終了し、本実施形態における立体視画像生成処理は終了となる。なお、画像の生成に時間がかかる場合や、生成した動画像を後で再利用したい場合などには、その出力先を、立体視映像表示装置200に代えて、ハードディスク等の記憶媒体としても良い。また、処理時間に余裕がある場合には、立体視映像表示装置200と記憶媒体の両方に出力を行っても良い。   In this manner, the stereoscopic view of the moving image is realized by repeatedly executing the process of Loop B for each frame. Then, for example, when a stereoscopic image generation end instruction is input by inputting a stereoscopic image generation end instruction from the input unit 100, the stereoscopic image generation unit 320 ends the loop B, and in this embodiment The stereoscopic image generation process ends. In addition, when it takes time to generate an image or when it is desired to reuse the generated moving image later, the output destination may be a storage medium such as a hard disk instead of the stereoscopic video display device 200. . In addition, when the processing time is sufficient, output may be performed on both the stereoscopic video display device 200 and the storage medium.

次に、図31を参照して、色情報設定処理の流れについて説明する。
先ず、色情報設定部326は、表示面22の各画素PEに対してループCの処理を実行する。
Next, a flow of color information setting processing will be described with reference to FIG.
First, the color information setting unit 326 executes the process of loop C for each pixel PE on the display surface 22.

ループCでは、色情報設定部326は、該画素に対する画素別視線方向軌跡の傾きが垂直であるか否かを判定する(ステップS33)。画素別視線方向軌跡の傾きが垂直である場合(ステップS33;Yes)、即ち、図19のPE3と同様である場合、色情報設定部326は、当該画素位置のxy座標に対応する平面視画像のドットを該画素の対応ドット492として画素別対応ドットデータ490に記憶させ、当該ドットの色情報を該画素の色情報として設定する(ステップS35)。   In the loop C, the color information setting unit 326 determines whether the inclination of the pixel-specific gaze direction locus with respect to the pixel is vertical (step S33). When the inclination of the trajectory direction trajectory for each pixel is vertical (step S33; Yes), that is, when the same as PE3 in FIG. 19, the color information setting unit 326 is a planar view image corresponding to the xy coordinates of the pixel position. The corresponding dot 492 of the pixel is stored in the corresponding dot data 490 for each pixel, and the color information of the dot is set as the color information of the pixel (step S35).

一方、該画素に対する画素別視線方向軌跡の傾きが垂直でない場合(ステップS33;No)、色情報設定部326は、該画素のx座標を画素位置x0として取得する(ステップS37)。そして、色情報設定部326は、該画素の視線方向と画素別視点CMとに基づいて画素別視線方向軌跡z=ax+bを算出し、奥行情報モデル470から取得される画素位置x0に対応する平面視画像のドットの奥行値「fz(x0)」と、画素別視線方向軌跡から取得される画素位置x0に対応する平面視画像のドットの奥行値「ax0+b」との差「f(x0)=fz(x0)−(ax0+b)」をZaとする(ステップS39)。但し、この場合は、初期値x0を該画素のx座標としているので、z=ax+bが該画素を通過する直線であることにより、「ax0+b=0」となる。即ち、「f(x0)=fz(x0)」をZaとすれば良い。 On the other hand, when the inclination of the pixel-gaze direction path for the pixel is not perpendicular (step S33; No), the color information setting unit 326 obtains the x-coordinate of the pixel as the pixel position x 0 (step S37). Then, the color information setting unit 326 calculates a per-pixel gaze direction locus z = ax + b based on the gaze direction of the pixel and the per-pixel viewpoint CM, and corresponds to the pixel position x 0 acquired from the depth information model 470. Difference between the depth value “f z (x 0 )” of the dot in the planar image and the depth value “ax 0 + b” of the dot in the planar image corresponding to the pixel position x 0 acquired from the pixel-specific gaze direction locus "f (x 0) = f z (x 0) - (ax 0 + b) " it is referred to as Z a (step S39). However, in this case, since the initial value x 0 is the x coordinate of the pixel, z = ax + b is a straight line passing through the pixel, and thus “ax 0 + b = 0”. That is, “f (x 0 ) = f z (x 0 )” may be Z a .

また、色情報設定部326は、奥行微分情報モデル480から取得される画素位置x0に対応する平面視画像のドットの奥行微分値「fz´(x0)」と、画素別視線方向軌跡の傾き「a」との差「f´(x0)=fz´(x0)−a」をZdとする(ステップS41)。そして、色情報設定部326は、「xd=x0−Za/Zd」によりxdを算出した後(ステップS43)、ループDの処理を所定回数実行する。 The color information setting unit 326 also displays the depth differential value “f z ′ (x 0 )” of the dot of the planar view image corresponding to the pixel position x 0 acquired from the depth differential information model 480 and the per-pixel gaze direction locus. The difference “f ′ (x 0 ) = f z ′ (x 0 ) −a” from the slope “a” is set as Z d (step S41). Then, the color information setting unit 326 calculates x d by “x d = x 0 −Z a / Z d ” (step S43), and then executes the process of loop D a predetermined number of times.

尚、ここでは、ニュートン法による収束計算処理を行う際の初期値として、該画素の画素位置x0を与えるものとして説明するが、この値は適宜変更可能である。例えば、画素面に平行で、奥行モデルの最高点を通る平面と、該画素の画素別視線方向軌跡の交点とを求め、このx座標を探索の初期位置としても良い。このようにすることで、奥行情報モデルと画素別視線方向軌跡の交点が複数あった場合に、最も手前の交点を取得できる可能性が高くなり、より精確な立体視画像を得ることが出来る。
また、ループDの処理を所定回数実行するのではなく、式(11)の条件が満たされるまで実行することにしても良い。
Here, as the initial value when performing convergence calculation processing by the Newton method is described as providing a pixel position x 0 of the pixel, the value may be changed as appropriate. For example, a plane parallel to the pixel plane and passing through the highest point of the depth model and the intersection of the pixel-specific gaze direction locus of the pixel may be obtained, and the x coordinate may be used as the initial position of the search. By doing in this way, when there are a plurality of intersections between the depth information model and the pixel-specific gaze direction locus, there is a high possibility that the nearest intersection can be acquired, and a more accurate stereoscopic image can be obtained.
Further, the processing of the loop D may not be executed a predetermined number of times but may be executed until the condition of Expression (11) is satisfied.

ループDでは、色情報設定部326は、奥行情報モデル470から取得される画素位置xdに対応する平面視画像のドットの奥行値「fz(xd)」と、画素別視線方向軌跡から取得される画素位置xdに対応する平面視画像のドットの奥行値「axd+b」との差「f(xd)=fz(xd)−(axd+b)」をZaとする。また、色情報設定部326は、奥行微分情報モデル480から取得される画素位置xdに対応する平面視画像のドットの奥行微分値「fz´(xd)」と、画素別視線方向軌跡の傾き「a」との差「f´(xd)=fz´(xd)−a」をZdとする(ステップS45)。 In loop D, the color information setting unit 326 uses the depth value “f z (x d )” of the dot of the planar view image corresponding to the pixel position x d acquired from the depth information model 470 and the gaze direction locus for each pixel. The difference “f (x d ) = f z (x d ) − (ax d + b)” from the depth value “ax d + b” of the dot in the planar image corresponding to the acquired pixel position x d is Z a To do. Further, the color information setting unit 326 displays the depth differential value “f z ′ (x d )” of the dot of the planar image corresponding to the pixel position x d acquired from the depth differential information model 480 and the per-pixel gaze direction locus. The difference “f ′ (x d ) = f z ′ (x d ) −a” from the slope “a” of Z is defined as Z d (step S45).

そして、色情報設定部326は、「xd←xd−Za/Zd」に従ってxdを更新する(ステップS47)。ループDは、このように実行される。 Then, the color information setting unit 326 updates x d according to “x d ← x d −Z a / Z d ” (step S47). Loop D is executed in this way.

ループDの処理を終了すると、色情報設定部326は、画素位置xdのxy座標に対応する平面視画像のドットを該画素の対応ドット492として画素別対応ドットデータ490に記憶させ、当該ドットの色情報を該画素の色情報として設定して(ステップS49)、次の画素へと処理を移行する。 When the processing of the loop D is completed, the color information setting unit 326 stores the dot of the planar view image corresponding to the xy coordinate of the pixel position xd in the corresponding dot data 490 for each pixel as the corresponding dot 492 of the pixel, and the dot Is set as the color information of the pixel (step S49), and the process proceeds to the next pixel.

このように、各画素毎にループ処理を繰り返して実行することで、1フレーム分の立体視画像の色情報を設定することができる。尚、これらの処理は、1画素毎或いは数画素毎に、並列化して行っても良い。   As described above, the color information of the stereoscopic image for one frame can be set by repeatedly executing the loop process for each pixel. These processes may be performed in parallel for each pixel or every several pixels.

2−3.作用効果
以上のように、本実施形態によれば、表示面22の画素PE毎に画素別視点CMを設定し、設定した画素別視点CMの視線方向のオブジェクト空間の色情報を該画素PEの色情報とすることで立体視画像を生成している。
2-3. As described above, according to the present embodiment, the pixel-specific viewpoint CM is set for each pixel PE on the display surface 22, and the color information of the object space in the line-of-sight direction of the set pixel-specific viewpoint CM is obtained. A stereoscopic image is generated by using color information.

従って、画素PEの数程度の画素別視点CMが設定される、即ち画素PEの数程度の視点(ビュー)が存在するため、従来の多眼方式の立体視のように、想定する観察位置(個別視点)に目が位置しなくてはならないといった必要が無く、従来の超多眼方式のように、一定の領域内であればどの位置に目があっても立体視可能となる。   Accordingly, since the viewpoints for each pixel as many as the number of pixels PE are set, that is, as many viewpoints (views) as the number of pixels PE exist, an assumed observation position (as in conventional multi-view stereoscopic viewing) ( It is not necessary that the eyes have to be positioned at the individual viewpoint), and stereoscopic viewing is possible at any position within a certain area as in the conventional super multi-view system.

また、各画素PEの画素別視点CMは、想定観察位置40を基に該画素PEに対応するレンズ32を決定し、該画素PEの代表点と該画素PEに対応するレンズ32の主点とを通過した後の光線(代表光線)PRの逆方向が視線方向となるように決定している。従って、観察者がレンズ32を介して視認する各画素PEに対応する画素別視点CMの視線方向は、観察者の視線方向にほぼ沿った方向となり、このため、観察者によって視認される像(色情報)は、その位置から見た正確な像(色情報)ではないものの、十分に視認できる程度の明確性を持つ。   Further, the pixel-specific viewpoint CM of each pixel PE determines the lens 32 corresponding to the pixel PE based on the assumed observation position 40, and represents the representative point of the pixel PE and the principal point of the lens 32 corresponding to the pixel PE. It is determined that the reverse direction of the light beam (representative light beam) PR after passing through is the line-of-sight direction. Therefore, the line-of-sight direction of the pixel-specific viewpoint CM corresponding to each pixel PE visually recognized by the observer through the lens 32 is substantially along the observer's line-of-sight direction. The color information) is not an accurate image (color information) viewed from the position, but is clear enough to be sufficiently visually recognized.

また、像の解像度は、レンズ板30で分離される程度の解像度となるため、従来の多眼方式の立体視と同程度の解像度となり、従来の超多眼方式のような著しい解像度の劣化は生じない。   Further, since the resolution of the image is a resolution that can be separated by the lens plate 30, the resolution is comparable to that of the conventional multi-view stereoscopic view, and the remarkably degraded resolution as in the conventional super multi-view method is not observed. Does not occur.

更に、本実施形態は、ピッチが合っていない立体視映像表示装置に表示させる立体視画像を生成するものである。言い換えれば、ピッチが合っていない立体視映像表示装置でも立体視を可能ならしめる。従って、ディスプレイ毎にピッチが合ったレンチキュラレンズ板を製造する必要が無く、1つのレンチキュラレンズ板を画素ピッチが異なる他のディスプレイに適用して立体視映像表示装置を製作できるため、立体視映像表示装置の製造にかかるコストを大幅に削減できる。   Furthermore, the present embodiment generates a stereoscopic image to be displayed on a stereoscopic video display device that does not match the pitch. In other words, stereoscopic viewing is possible even with a stereoscopic video display device that does not match the pitch. Therefore, there is no need to manufacture a lenticular lens plate having the same pitch for each display, and a stereoscopic image display device can be manufactured by applying one lenticular lens plate to another display having a different pixel pitch. The cost for manufacturing the device can be greatly reduced.

また、本実施形態では、各画素の画素別視線方向軌跡と奥行値との対象交点を求める際にニュートン法による収束計算処理を行うが、ニュートン法は二次収束性を有するアルゴリズムであるため、対象交点を短時間で求めることが可能となる。従って、立体視画像生成の高速化を実現することができる。   In the present embodiment, convergence calculation processing by Newton's method is performed when obtaining a target intersection of each pixel's line-of-sight direction trajectory and depth value, but since Newton's method is an algorithm having quadratic convergence, The target intersection can be obtained in a short time. Accordingly, it is possible to realize a high-speed stereoscopic image generation.

更に、予め平面視画像の全てのドットについて奥行微分値を算出・記憶しておくため、ニュートン法の計算において奥行微分値を逐次算出する必要がない。   Furthermore, since the depth differential value is calculated and stored in advance for all the dots of the planar view image, it is not necessary to sequentially calculate the depth differential value in the Newton method calculation.

また、最近のGPU(Graphics Processing Unit)には、数画素単位で並列処理のできる機能が搭載されているものも多い。本実施形態の方法においても、それらのGPUを用いれば、図31の色情報設定処理を並列化することができ、高速に描画を行うことができる。   Further, many recent GPUs (Graphics Processing Units) are equipped with a function capable of parallel processing in units of several pixels. Also in the method of the present embodiment, if these GPUs are used, the color information setting processing of FIG. 31 can be parallelized and drawing can be performed at high speed.

この場合、各画素についての処理は、同程度の時間で完了することが望ましい。というのは、処理が早く完了した画素が、処理時間が最もかかる画素を待たなければならないためである。   In this case, it is desirable that the processing for each pixel is completed in about the same time. This is because a pixel that has completed processing earlier must wait for a pixel that takes the longest processing time.

しかしながら、本実施形態では、ニュートン法の繰り返し回数を、全ての画素について同じ回数かほぼ同じ回数とすることで、各画素についての処理時間を同程度に揃えることができる。即ち、画素毎に並列処理を行う場合に適していると言える。   However, in the present embodiment, the processing time for each pixel can be made equal by setting the number of repetitions of the Newton method to the same number or almost the same number for all pixels. That is, it can be said that it is suitable when performing parallel processing for each pixel.

3.変形例
尚、本発明の適用は上述した実施形態に限定されることなく、本発明の趣旨を逸脱しない範囲で適宜変更可能である。例えば、次の変形例が挙げられる。
3. Modifications The application of the present invention is not limited to the above-described embodiment, and can be appropriately changed without departing from the spirit of the present invention. For example, the following modification is mentioned.

3−1.奥行微分値の算出
本実施形態では、色情報設定処理を行う前に、予め平面視画像の全てのドットの奥行微分値を算出し、奥行微分情報モデルを生成しておくものとして説明した。しかし、奥行微分情報モデルを予め生成しておくのではなく、色情報設定処理においてニュートン法による収束計算処理を行う際に、奥行微分値を逐次算出するようにしても良い。
3-1. Calculation of Depth Derivative Value In the present embodiment, the depth differential value of all the dots in the planar view image is calculated in advance and the depth differential information model is generated before performing the color information setting process. However, instead of generating the depth differential information model in advance, the depth differential value may be calculated sequentially when performing the convergence calculation process by the Newton method in the color information setting process.

図32は、この場合における色情報設定処理の流れを示すフローチャートである。但し、図31の色情報設定処理と同一のステップには、同一の符号を付している。
図32の色情報設定処理では、ステップS39においてZaを取得した後に、奥行情報モデル470に基づいて、画素位置x0に対応する平面視画像のドットの奥行値と、当該ドットに隣接する隣接ドットの奥行値との差分Zsを算出する(ステップS51)。
FIG. 32 is a flowchart showing the flow of color information setting processing in this case. However, the same steps as those in the color information setting process of FIG. 31 are denoted by the same reference numerals.
In the color information setting process in FIG. 32, after acquiring the Z a in step S39, based on the depth information model 470, and the depth value of the dot of the plan view image corresponding to the pixel position x 0, adjacent adjacent to the dots A difference Z s from the depth value of the dot is calculated (step S51).

そして、「xd=x0−Za/(Zs−a)」によりxdを算出した後(ステップS53)、ループEの処理を所定回数実行する。
ループEでは、先ず、奥行情報モデル470から取得される画素位置xdに対応する平面視画像のドットの奥行値「fz(xd)」と、画素別視線方向軌跡から取得される画素位置xdに対応する平面視画像のドットの奥行値「axd+b」との差「f(xd)=fz(xd)−(axd+b)」をZaとする(ステップS55)。
Then, after calculating x d by “x d = x 0 −Z a / (Z s −a)” (step S53), the processing of loop E is executed a predetermined number of times.
In the loop E, first, the depth value “f z (x d )” of the dot in the planar image corresponding to the pixel position x d acquired from the depth information model 470 and the pixel position acquired from the per-pixel gaze direction locus. the difference between the depth value of the dot of the plan view image corresponding to the x d "ax d + b", "f (x d) = f z (x d) - (ax d + b) " is referred to as Z a (step S55) .

次いで、奥行情報モデル470に基づいて、画素位置xdに対応する平面視画像のドットの奥行値と、当該ドットに隣接する隣接ドットの奥行値との差分Zsを算出する(ステップS57)。そして、「xd←xd−Za/(Zs−a)」に従ってxdを更新する(ステップS59)。ループEは、このように実行される。 Next, based on the depth information model 470, a difference Z s between the depth value of the dot of the planar image corresponding to the pixel position xd and the depth value of the adjacent dot adjacent to the dot is calculated (step S57). Then, x d is updated according to “x d ← x d −Z a / (Z s −a)” (step S59). Loop E is executed in this way.

3−2.収束計算処理
本実施形態では、ニュートン法による収束計算処理により対象交点を求めるものとして説明したが、はさみうち法、二分法、割線法等による収束計算処理により対象交点を求めるようにしても良い。この場合は、収束計算処理において奥行微分値は不要であるため、奥行微分情報モデルを生成する必要はない。
3-2. Convergence Calculation Processing In the present embodiment, the target intersection point has been described as being obtained by convergence calculation processing by Newton's method, but the target intersection point may be obtained by convergence calculation processing by the scissors method, bisection method, secant method, or the like. In this case, since the depth differential value is not necessary in the convergence calculation process, it is not necessary to generate the depth differential information model.

3−3.カラー画像
上述した実施形態では、平面視画像とその奥行画像とから立体視画像を生成する場合の例として、平面視画像がグレースケール画像である場合について説明を行ったが、本発明の適用可能なものがこれに限定されるものではない。例えば、平面視画像がRGB値(赤緑青の3原色の輝度値)を有するカラー画像であっても良く、この場合、各サブピクセル毎に、視線Vを決定して画素別視点を設定し、各サブピクセルに対する画素別視線方向軌跡と、奥行情報モデルとの交差判定を行う。そして、各サブピクセル毎の対象交点を取得して、平面視画像から対象交点に応じたサブピクセルの色情報を該サブピクセルの色情報とする。従って、この場合は、奥行画像データはサブピクセル毎に奥行値を有していることが好適である。もちろん、各サブピクセルが、所属しているピクセル毎に、奥行データを共有している形式であっても、(画質は若干低下するが、)立体視画像を生成することができる。
3-3. Color Image In the above-described embodiment, as an example of generating a stereoscopic image from a planar image and its depth image, the case where the planar image is a grayscale image has been described. However, the present invention can be applied. However, this is not a limitation. For example, the planar image may be a color image having RGB values (the luminance values of the three primary colors of red, green, and blue). In this case, for each subpixel, the line of sight V is determined to set a pixel-specific viewpoint, Intersection determination between the line-of-sight line direction trajectory for each subpixel and the depth information model is performed. Then, the target intersection for each subpixel is acquired, and the color information of the subpixel corresponding to the target intersection from the planar view image is used as the color information of the subpixel. Therefore, in this case, the depth image data preferably has a depth value for each subpixel. Of course, a stereoscopic image can be generated (although the image quality is slightly reduced) even if each subpixel has a format in which depth data is shared for each pixel to which the subpixel belongs.

3−4.斜めレンチキュラ方式の立体視映像表示装置
上述した実施形態では、光学素子群として垂直レンチキュラ方式を用いた立体視映像表示装置の場合を説明したが、これを斜めレンチキュラ方式の立体視映像表示装置に適用しても良い。
3-4. Oblique Lenticular Stereoscopic Video Display Device In the above-described embodiment, the case of a stereoscopic video display device using a vertical lenticular method as the optical element group has been described, but this is applied to a diagonal lenticular stereoscopic image display device. You may do it.

図33は、斜めレンチキュラ方式の立体視映像表示装置200Bの概略構造を示す図である。同図(a)は、立体視映像表示装置200Bの表示面に対する横方向(水平走査方向)断面図を示し、同図(b)は、観察者側から見た平面図を示している。   FIG. 33 is a diagram illustrating a schematic structure of an oblique lenticular stereoscopic image display device 200B. FIG. 4A shows a cross-sectional view in the horizontal direction (horizontal scanning direction) with respect to the display surface of the stereoscopic video display apparatus 200B, and FIG. 4B shows a plan view seen from the observer side.

斜めレンチキュラ方式の立体視映像表示装置では、画素パネル20の画素配列方向に対してレンズ板30の主点線36の方向(レンズ32の端部32a)が斜めに配置されるため、レンズ板30を介して画素パネル20を見たときに視認される映像に生じるモアレを分散させて目立たなくさせることが知られている。   In the oblique lenticular stereoscopic image display device, the direction of the principal dotted line 36 of the lens plate 30 (the end portion 32a of the lens 32) is arranged obliquely with respect to the pixel arrangement direction of the pixel panel 20, and thus the lens plate 30 is provided. It is known to disperse moire generated in an image that is visually recognized when the pixel panel 20 is viewed through the pixel panel 20.

同図によれば、立体視映像表示装置200Bは、上述した垂直レンチキュラ方式の立体視映像表示装置200Aと同様に、主に、板状体であって互いに平行配置されたバックライト10と、画素パネル20と、レンズ板30とを備えて構成される。   As shown in the drawing, the stereoscopic video display device 200B is mainly composed of a backlight 10 that is a plate-like body and arranged in parallel to each other, and the pixels, like the vertical lenticular stereoscopic video display device 200A described above. A panel 20 and a lens plate 30 are provided.

そして、斜めレンチキュラ方式の立体視映像表示装置200Bでは、レンズ板30は、同図(b)に示すように、主点線36の方向が画素パネル20の縦方向の画素配列方向(鉛直走査方向)に対して角度θを成すように配置されている。従って、同図(a)に示す断面図におけるレンズピッチ(画素パネル20の画素ピッチ方向に沿ったレンズの幅)Mは、次式(12)で与えられる。
M=L/cosθ ・・(12)
In the oblique lenticular stereoscopic image display device 200B, the lens plate 30 has a pixel array direction (vertical scanning direction) in which the direction of the main dotted line 36 is the vertical direction of the pixel panel 20, as shown in FIG. With respect to the angle θ. Accordingly, the lens pitch (lens width along the pixel pitch direction of the pixel panel 20) M in the cross-sectional view shown in FIG.
M = L / cos θ (12)

また、レンズ板30は、同図(a)に示す断面図におけるレンズピッチMと画素パネル20の画素ピッチSとが合わないように配置されている。即ち、次式(13)が成立しない。
M=n・S ・・・(13)
但し、nは自然数である。
The lens plate 30 is arranged so that the lens pitch M and the pixel pitch S of the pixel panel 20 in the cross-sectional view shown in FIG. That is, the following equation (13) does not hold.
M = n · S (13)
However, n is a natural number.

次に、斜めレンチキュラ方式における表示面22の各画素PEの視線Vの決定方法を、図34、35を参照して説明する。図34は、斜めレンチキュラ方式の立体視映像表示装置200Bの部分概略斜視図である。また、図35は、立体視映像表示装置200Bの概略三面図であり、同図(a)は、図34のx−z平面に平行なC−C位置での断面図(横方向断面図)を示し、図35(b)は、図34のy−z平面に平行なD−D位置での断面図(縦方向断面図)を示し、図35(c)は、x−y平面図を示している。尚、画素パネル20及びレンズ板30は、レンズ板30の各レンズ32の焦点距離Fを隔てて平行配置されている。   Next, a method for determining the line of sight V of each pixel PE on the display surface 22 in the oblique lenticular method will be described with reference to FIGS. FIG. 34 is a partial schematic perspective view of an oblique lenticular stereoscopic image display apparatus 200B. FIG. 35 is a schematic three-view diagram of the stereoscopic video display device 200B. FIG. 35A is a cross-sectional view (transverse cross-sectional view) at the CC position parallel to the xz plane of FIG. 35 (b) shows a cross-sectional view (longitudinal cross-sectional view) at a DD position parallel to the yz plane of FIG. 34, and FIG. 35 (c) shows an xy plan view. Show. The pixel panel 20 and the lens plate 30 are arranged in parallel with a focal length F of each lens 32 of the lens plate 30.

先ず、図35(b)において、対象画素PEの代表点と想定観察位置40とを結ぶ直線LN2と、レンズ板30の主点面35との交点のy座標を算出する。算出したy座標を「y2」とする。但し、同図(b)は、対象画素PEの代表点を通過する断面図である。   First, in FIG. 35B, the y coordinate of the intersection point between the straight line LN2 connecting the representative point of the target pixel PE and the assumed observation position 40 and the principal point surface 35 of the lens plate 30 is calculated. The calculated y coordinate is assumed to be “y2”. However, FIG. 4B is a cross-sectional view passing through the representative point of the target pixel PE.

次いで、図35(a)において、想定観察位置40から各レンズ32を表示面22に投影して、表示面22を各レンズ32の投影領域に分割する。そして、対象画素PEの代表点がどの投影領域に属するかによって対応するレンズ32を決定する。但し、同図(a)は、y座標が先に算出した「y2」である断面図である。   Next, in FIG. 35A, each lens 32 is projected onto the display surface 22 from the assumed observation position 40, and the display surface 22 is divided into projection areas of each lens 32. Then, the corresponding lens 32 is determined depending on which projection region the representative point of the target pixel PE belongs to. However, FIG. 6A is a cross-sectional view in which the y coordinate is “y2” calculated previously.

同図(a)では、表示面22は、レンズ32−10の投影領域26−10と、レンズ32−11の投影領域26−11と、レンズ32−12の投影レンズ32−12と、・・・、に分割される。そして、対象画素PEの代表点は投影領域26−10に属しているので、この対象画素PEに対応するレンズ32はレンズ32−10となる。   In FIG. 6A, the display surface 22 includes a projection area 26-10 of the lens 32-10, a projection area 26-11 of the lens 32-11, a projection lens 32-12 of the lens 32-12,.・ It is divided into Since the representative point of the target pixel PE belongs to the projection area 26-10, the lens 32 corresponding to the target pixel PE is the lens 32-10.

続いて、対象画素PEに対応するレンズ32の主点線36の内、y座標が「y2」である点を算出し、これを代表主点36dとする。そして、対象画素PEの代表点と、この代表主点36dとを通過した後の代表光線PRを算出し、この代表光線PRと位置は同じで方向を逆にした視線を対象画素PEの視線Vとする。そして、決定した視線Vに基づき奥行情報モデルとの交差判定を行うことにより、各画素に対する色情報を設定して、立体視画像データを生成する。   Subsequently, a point whose y coordinate is “y2” is calculated from the main dotted line 36 of the lens 32 corresponding to the target pixel PE, and this is set as a representative main point 36d. Then, the representative ray PR after passing through the representative point of the target pixel PE and the representative principal point 36d is calculated, and the line of sight V having the same position and the opposite direction as the representative ray PR is the line of sight V of the target pixel PE. And Then, by performing intersection determination with the depth information model based on the determined line of sight V, color information for each pixel is set, and stereoscopic image data is generated.

3−5.レンズ板
また、上述した実施形態では、光学素子群としてレンチキュラレンズアレイを用いた立体視映像表示装置の場合を説明したが、これを、(3−5−1)蝿の目レンズアレイを用いた立体視映像表示装置としても良いし、(3−5−2)パララックスバリアアレイを用いた立体視映像表示装置としても良いし、(3−5−3)ピンホールアレイを用いた立体視映像表示装置としても良い。この場合、表示面22の各画素PEの視線Vは次のように決定する。
3-5. Lens Plate In the above-described embodiment, the case of a stereoscopic video display device using a lenticular lens array as an optical element group has been described, but this is performed using a (3-5-1) eyelet lens array. It may be a stereoscopic video display device, (3-5-2) a stereoscopic video display device using a parallax barrier array, or (3-5-3) a stereoscopic video image using a pinhole array. A display device may be used. In this case, the line of sight V of each pixel PE on the display surface 22 is determined as follows.

3−5−1.蝿の目レンズアレイ
蝿の目レンズアレイとは、図36に示すように、格子状の単位レンズが縦横に連続して配置された(連接された)レンズアレイ(レンズ板)のことである。蝿の目レンズアレイを用いた立体視映像表示装置では、蝿の目レンズアレイは、単位レンズの横方向の連接方向が画素パネル20の画素ピッチ方向(水平走査方向)と平行になるように配置される。またこのとき、蝿の目レンズアレイは、単位レンズのレンズピッチと画素パネル20の画素ピッチとが合わないように設計されている。即ち、単位レンズのレンズピッチをLとすると、式(9)が成立しない。
3-5-1. Spider-eye lens array The spider-eye lens array is a lens array (lens plate) in which lattice-shaped unit lenses are continuously arranged (connected) vertically and horizontally as shown in FIG. In the stereoscopic image display device using the eyelid lens array, the eyelet lens array is arranged so that the lateral connection direction of the unit lenses is parallel to the pixel pitch direction (horizontal scanning direction) of the pixel panel 20. Is done. At this time, the eyelet lens array is designed so that the lens pitch of the unit lens and the pixel pitch of the pixel panel 20 do not match. That is, if the lens pitch of the unit lens is L, Expression (9) does not hold.

図37は、蝿の目レンズアレイを用いた立体視映像表示装置200Cでの視線Vの決定方法を説明するための図であり、立体視映像表示装置200Cの概略三面図を示している。同図(a)は、対象画素PEの代表点を通るx−z平面に平行な水平走査方向断面図を示し、同図(b)は、対象画素PEの代表点を通るy−z平面に平行な鉛直走査方向断面図を示し、同図(c)は、x−y平面図を示している。尚、想定観察位置40は「正面」である。   FIG. 37 is a diagram for explaining a method of determining the line of sight V in the stereoscopic video display device 200C using the eyelet lens array, and shows a schematic three-view diagram of the stereoscopic video display device 200C. FIG. 4A shows a horizontal scanning direction sectional view parallel to the xz plane passing through the representative point of the target pixel PE, and FIG. 4B shows the yz plane passing through the representative point of the target pixel PE. A parallel sectional view in the vertical scanning direction is shown, and FIG. 8C shows an xy plan view. The assumed observation position 40 is “front”.

先ず、同図(a)、(b)に示すように、想定観察位置40から、蝿の目レンズアレイで実現されるレンズ板60の各単位レンズ62を画素パネル20の表示面22に投影して(即ち、想定観察位置40から各単位レンズ62の端部へ向かう直線によって)、表示面22を各単位レンズ62の投影領域に分割する。そして、対象画素PEの代表点が属する投影領域の単位レンズ62−1を、該対象画素PEに対応する単位レンズとする。そして、対象画素PEの代表点と、対象画素PEに対応する単位レンズ62−1の主点(単位レンズの中心)とを通過した後の光線(代表光線)PRと位置は同じで方向を逆にした視線を対象画素PEの視線Vとする。   First, as shown in FIGS. 2A and 2B, from the assumed observation position 40, each unit lens 62 of the lens plate 60 realized by the eyelet lens array is projected onto the display surface 22 of the pixel panel 20. (Ie, by a straight line from the assumed observation position 40 toward the end of each unit lens 62), the display surface 22 is divided into projection areas of each unit lens 62. The unit lens 62-1 in the projection area to which the representative point of the target pixel PE belongs is set as a unit lens corresponding to the target pixel PE. Then, the light beam (representative light beam) PR after passing through the representative point of the target pixel PE and the principal point (center of the unit lens) of the unit lens 62-1 corresponding to the target pixel PE has the same position and reverse direction. The line of sight that is set as the line of sight V of the target pixel PE.

尚、同図では、レンズ板60を、単位レンズ62の横方向の連接方向が画素パネル20の画素ピッチ方向と平行になるように配置することとしたが、これを、図38に示すように、蝿の目レンズアレイの横方向の連接方向と画素パネル20の画素ピッチ方向とが角度θを成すよう、斜めに配置することとしても良い。   In FIG. 38, the lens plate 60 is arranged so that the lateral connection direction of the unit lenses 62 is parallel to the pixel pitch direction of the pixel panel 20, as shown in FIG. The horizontal connecting direction of the eyelet lens array and the pixel pitch direction of the pixel panel 20 may be arranged obliquely so as to form an angle θ.

また、蝿の目レンズを構成する単位レンズを、格子形状(四角形)ではなく、例えば三角形や、図39に示す六角形等の多角形としても良い。何れの場合も、表示面22の各画素PEの視線Vの決定方法は、図37に示した場合と同様である。   Further, the unit lens constituting the eyelet lens may be a triangle or a polygon such as a hexagon shown in FIG. 39 instead of the lattice shape (square). In any case, the method of determining the line of sight V of each pixel PE on the display surface 22 is the same as that shown in FIG.

3−5−2.パララックスバリアアレイ
パララックスバリアアレイとは、図40に示すように、光を遮蔽する遮光板(バリア)に光を透過させるためのスリット状のバリア開口部(光学素子)が等間隔で多数設けられたものである。即ち、スリット状のバリア開口部を有する単位パララックスバリアを連接させたバリアアレイであり、バリア開口部によって画素パネル20の各画素PEから射出される光線(射出光線)に指向性を与える。これによって、レンチキュラレンズアレイを用いた立体視映像表示装置と同様に立体視映像を認識させることが可能となる。尚、同図中、黒い或いは灰色の部分がバリア部分(遮光部分)である。このとき、パララックスバリアアレイは、バリア開口部が画素パネル20の鉛直走査方向と平行になるように配置される。また、パララックスバリアアレイは、単位パララックスバリアのピッチをLとしたとき、上述した式(9)が成立しない(即ち、ピッチが合わない)ように設計されている。
3-5-2. As shown in FIG. 40, the parallax barrier array is provided with a large number of slit-like barrier openings (optical elements) at equal intervals for transmitting light to a light shielding plate (barrier) that shields light. It is what was done. That is, it is a barrier array in which unit parallax barriers having slit-like barrier openings are connected, and directivity is given to light rays (emitted light rays) emitted from each pixel PE of the pixel panel 20 by the barrier openings. As a result, it is possible to recognize a stereoscopic image in the same manner as a stereoscopic image display device using a lenticular lens array. In the figure, a black or gray portion is a barrier portion (light-shielding portion). At this time, the parallax barrier array is arranged so that the barrier opening is parallel to the vertical scanning direction of the pixel panel 20. Further, the parallax barrier array is designed so that the above-described formula (9) is not satisfied (that is, the pitch does not match) when the unit parallax barrier pitch is L.

従って、この場合、各画素PEの視線Vの決定は、上述した実施形態におけるレンチキュラレンズアレイの場合と同様に実現できる。具体的には、パララックスバリアアレイを、バリア開口部が画素パネル20の鉛直走査方向と平行になるように配置した場合には、上述した実施形態における垂直レンチキュラ方式の立体視映像表示装置200に相当する。また、パララックスバリアアレイを、バリア開口部が画素パネル20の鉛直走査方向に対して角度θを成すように斜めに配置した場合には、斜めレンチキュラ方式の立体視映像表示装置200Bに相当する。   Therefore, in this case, the line of sight V of each pixel PE can be determined in the same manner as in the lenticular lens array in the above-described embodiment. Specifically, when the parallax barrier array is arranged so that the barrier opening is parallel to the vertical scanning direction of the pixel panel 20, the vertical lenticular stereoscopic image display device 200 in the above-described embodiment is used. Equivalent to. Further, when the parallax barrier array is arranged obliquely so that the barrier opening forms an angle θ with respect to the vertical scanning direction of the pixel panel 20, it corresponds to the oblique lenticular stereoscopic image display device 200B.

また、パララックスバリアアレイを、図41に示すように、バリア開口部が斜めに形成された斜めパララックスバリアとしても良い。このような斜めパララックスバリアを用いた場合は、上述したパララックスバリアアレイ(図40参照)を画素パネル20に対して斜めに配置した場合に相当する。   Also, the parallax barrier array may be an oblique parallax barrier in which barrier openings are formed obliquely as shown in FIG. When such an oblique parallax barrier is used, it corresponds to the case where the above-described parallax barrier array (see FIG. 40) is arranged obliquely with respect to the pixel panel 20.

また、パララックスバリアアレイを、図42に示すように、横方向に連接された複数の単位パララックスバリアが、縦方向に所定量ずつずらして階段状に配置された階段パララックスバリアアレイとしても良い。このような階段パララックスバリアを用いた立体視映像表示装置では、階段パララックスバリアは、バリア開口部が画素パネル20の鉛直走査方向と平行になるように配置される。   Further, as shown in FIG. 42, the parallax barrier array may be a staircase parallax barrier array in which a plurality of unit parallax barriers connected in the horizontal direction are arranged in a staircase pattern with a predetermined amount shifted in the vertical direction. good. In the stereoscopic video display device using such a staircase parallax barrier, the staircase parallax barrier is arranged so that the barrier opening is parallel to the vertical scanning direction of the pixel panel 20.

3−5−3.ピンホールアレイ
ピンホールアレイとは、図43に示すように、光を遮断する遮断板(バリア)に光を透過させる孔状のピンホール(光学素子)が等間隔で多数設けられたものである。即ち、ピンホールを有する格子状の単位ピンホールバリアを縦横に連続して配置させた(連接させた)バリアアレイであり、ピンホールによって画素パネル20の各画素PEの射出光線に指向性を与える。尚、同図中、灰色の部分が遮光部分(バリア部分)である。このとき、ピンホールアレイは、単位ピンホールバリアの横方向が画素パネル20の画素ピッチ方向(水平走査方向)と平行になるように配置される。また、ピンホールアレイは、単位ピンホールバリアのピッチをLとすると、式(9)が成立しないように設計されている。
3-5-3. As shown in FIG. 43, the pinhole array has a large number of hole-shaped pinholes (optical elements) that allow light to pass through a blocking plate (barrier) that blocks light. . That is, it is a barrier array in which lattice-shaped unit pinhole barriers having pinholes are continuously arranged (connected) vertically and horizontally, and directivity is given to the emitted light of each pixel PE of the pixel panel 20 by the pinhole. . In the figure, the gray portion is a light shielding portion (barrier portion). At this time, the pinhole array is arranged so that the horizontal direction of the unit pinhole barrier is parallel to the pixel pitch direction (horizontal scanning direction) of the pixel panel 20. Further, the pinhole array is designed so that equation (9) does not hold when the pitch of the unit pinhole barrier is L.

そして、ピンホールアレイを用いた立体視映像表示装置では、次のように画素パネル20の各画素PEの視線Vが決定される。即ち、想定観察位置40からピンホールアレイの各単位ピンホールバリアを画素パネル20の表示面22に投影して、表示面22を各単位ピンホールバリアの投影領域に分割する。そして、各画素PEの代表点が属する投影領域の単位ピンホールバリアを該画素PEに対応する単位ピンホールバリアとする。そして、各画素PEについて、該画素PEの代表点と、該画素PEに対応する単位ピンホールバリアのピンホールを通過した後の光線(代表光線)と位置は同じで方向を逆にした視線を該画素PEの視線Vとする。   In the stereoscopic video display apparatus using the pinhole array, the line of sight V of each pixel PE of the pixel panel 20 is determined as follows. That is, each unit pinhole barrier of the pinhole array is projected onto the display surface 22 of the pixel panel 20 from the assumed observation position 40, and the display surface 22 is divided into projection regions of each unit pinhole barrier. A unit pinhole barrier in the projection area to which the representative point of each pixel PE belongs is set as a unit pinhole barrier corresponding to the pixel PE. For each pixel PE, the line of sight is the same as the representative point of the pixel PE and the light ray (representative ray) after passing through the pinhole of the unit pinhole barrier corresponding to the pixel PE, and the direction is reversed. The line of sight V of the pixel PE is assumed.

また、ピンホールアレイを構成する単位ピンホールバリアを、格子形状(四角形)ではなく、三角形や、例えば図44に示す六角形等の多角形としても良い。何れの場合も、各画素PEの視線Vの決定方法は、上述した格子形状の場合と同様である。   In addition, the unit pinhole barrier constituting the pinhole array may be a triangle or a polygon such as a hexagon shown in FIG. In any case, the method of determining the line of sight V of each pixel PE is the same as in the case of the lattice shape described above.

尚、パララックスバリアアレイやピンホールアレイは、通常、単位バリアを示す境界線が明示されていないが、バリアアレイ上の任意の点から最も距離の近いスリット或いはピンホールを求め、そのスリット或いはピンホールによってバリア板を領域分割することで、単位バリア毎の境界線を設定することができる。   The parallax barrier array or pinhole array usually does not clearly indicate the boundary line indicating the unit barrier. However, the slit or pinhole closest to any point on the barrier array is obtained, and the slit or pinhole is obtained. A boundary line for each unit barrier can be set by dividing the barrier plate into regions by holes.

3−6.立体視映像表示装置を別装置とする
また、上述した実施形態では、立体視映像表示装置200は、立体視画像生成装置1の一部として説明したが、立体視映像表示装置200を別装置として構成し、生成した立体視画像を、接続されている立体視映像表示装置200に出力して表示させることとしても良い。
3-6. In the above-described embodiment, the stereoscopic video display device 200 has been described as a part of the stereoscopic image generation device 1, but the stereoscopic video display device 200 is a separate device. The configured and generated stereoscopic image may be output and displayed on the connected stereoscopic video display device 200.

図45は、立体視映像表示装置を別装置とした立体視画像生成装置3の構成を示すブロック図である。立体視画像生成装置3は、入力部100と、処理部300と、記憶部400とを備えて構成される。かかる立体視画像生成装置3では、接続される立体視映像表示装置200に合わせて表示装置データ430を設定する必要がある。   FIG. 45 is a block diagram illustrating a configuration of a stereoscopic image generation device 3 in which the stereoscopic video display device is a separate device. The stereoscopic image generation device 3 includes an input unit 100, a processing unit 300, and a storage unit 400. In the stereoscopic image generation device 3, it is necessary to set the display device data 430 according to the connected stereoscopic video display device 200.

従って、立体視画像生成部320は、画像生成の際には、先ず、例えばユーザにより入力部100から入力された立体視映像表示装置200の型番(詳細には、画素パネル20やその上面に配置されているレンズ板30の型番)に基づいて、記憶部400に記憶されている画素パネルデータ510及びレンズ板データ520のそれぞれから適切なデータを選択し、表示装置データ430として設定する。   Therefore, when generating an image, the stereoscopic image generation unit 320 firstly includes, for example, the model number of the stereoscopic video display device 200 input from the input unit 100 by the user (specifically, the pixel image is arranged on the pixel panel 20 or the upper surface thereof). Appropriate data is selected from each of the pixel panel data 510 and the lens plate data 520 stored in the storage unit 400 based on the model number of the lens plate 30 that is stored, and set as display device data 430.

画素パネルデータ510とは、立体視映像表示装置200に用いられ得る画素パネル20の物理パラメータを格納したデータテーブルである。図46に、画素パネルデータ510のデータ構成の一例を示す。画素パネルデータ510は、立体視映像表示装置200に用いられ得る画素パネル20の種類(種別)毎に、その型番511と、画素ピッチ512とを対応付けて格納している。   The pixel panel data 510 is a data table that stores physical parameters of the pixel panel 20 that can be used in the stereoscopic video display device 200. FIG. 46 shows an example of the data configuration of the pixel panel data 510. The pixel panel data 510 stores a model number 511 and a pixel pitch 512 in association with each type (type) of the pixel panel 20 that can be used in the stereoscopic video display device 200.

また、レンズ板データ520とは、立体視映像表示装置200に用いられ得るレンズ板30の物理パラメータを格納したデータテーブルである。図47に、レンズ板データ520のデータ構成の一例を示す。レンズ板データ520は、立体視映像表示装置200に用いられ得るレンズ板30の種類(種別)毎に、その型番521と、レンズピッチ522と、焦点距離523と、配置角度524と、配置基準位置525とを対応付けて格納している。   The lens plate data 520 is a data table storing physical parameters of the lens plate 30 that can be used in the stereoscopic video display device 200. FIG. 47 shows an example of the data configuration of the lens plate data 520. The lens plate data 520 includes, for each type (type) of the lens plate 30 that can be used in the stereoscopic video display device 200, the model number 521, the lens pitch 522, the focal length 523, the arrangement angle 524, and the arrangement reference position. 525 are stored in association with each other.

また、入力部100を、立体視画像生成装置と別装置としても良い。例えば、図48に示すように、入力部100及び立体視映像表示装置200を立体視映像生成装置と別装置とする。即ち、立体視画像生成装置5は、処理部300と、記憶部400とを備えて構成される。このような構成には、例えば携帯電話機等の通信端末装置のディスプレイに立体視画像を表示させたい場合等が考えられる。即ち、入力部100及び立体視映像表示装置200を備えた通信端末装置等の外部装置7から、レンズピッチLやディスプレイ(画素パネル20)に対する光学素子群(レンズ板30)の配置角度θ、焦点距離F等のレンズに関する情報と、画素ピッチS等のディスプレイに関する情報と、想定観察位置40等の観察者に関する情報とを立体視画像生成装置5に送信する。そして、立体視画像生成装置5では、受信したそれらの情報に基づいて立体視画像を生成し、生成した立体視画像を外部装置7に送信する、或いは、生成した画像を蓄積記憶した後、動画として外部装置7に送信する。   The input unit 100 may be a separate device from the stereoscopic image generation device. For example, as shown in FIG. 48, the input unit 100 and the stereoscopic video display device 200 are separate from the stereoscopic video generation device. That is, the stereoscopic image generation apparatus 5 includes a processing unit 300 and a storage unit 400. As such a configuration, for example, a case where a stereoscopic image is desired to be displayed on a display of a communication terminal device such as a mobile phone can be considered. That is, the lens pitch L, the arrangement angle θ of the optical element group (lens plate 30) with respect to the display (pixel panel 20), the focal point from the external device 7 such as a communication terminal device including the input unit 100 and the stereoscopic video display device 200. Information relating to the lens such as the distance F, information relating to the display such as the pixel pitch S, and information relating to the observer such as the assumed observation position 40 are transmitted to the stereoscopic image generating device 5. Then, the stereoscopic image generation device 5 generates a stereoscopic image based on the received information, transmits the generated stereoscopic image to the external device 7, or stores and stores the generated image, To the external device 7.

3−7.画像データの保存
画像データを、予め記憶媒体等に保存しておいても良い。具体的には、平面視画像データ462及び奥行画像データ472を、予め作成して記憶媒体等に保存しておく。そして、それらのデータを記憶媒体等からフレーム毎に読み出して奥行微分画像データ482を求め、立体視画像を生成するようにする。また、奥行微分画像データ482についても、予め作成して記憶媒体等に保存しておくこととしても良い。
3-7. Storage of Image Data Image data may be stored in advance in a storage medium or the like. Specifically, the planar image data 462 and the depth image data 472 are created in advance and stored in a storage medium or the like. Then, these data are read from the storage medium or the like for each frame to obtain depth differential image data 482, and a stereoscopic image is generated. Further, the depth differential image data 482 may be created in advance and stored in a storage medium or the like.

また、平面視画像データ462及び奥行画像データ472を保存する際に、動画像データとして圧縮をかけた状態で保存しておいても良い。この場合は、動画像データをフレーム毎に読み出して展開することで、平面視画像データ462及び奥行画像データ472を再現する。そして、奥行微分画像データ482を求めて、立体視画像を生成するようにする。また、奥行微分画像データ482についても、予め作成した上で、動画像データとして圧縮をかけた状態で記憶媒体等に保存しておくこととしても良い。   Further, when the planar view image data 462 and the depth image data 472 are stored, they may be stored in a compressed state as moving image data. In this case, the plane image data 462 and the depth image data 472 are reproduced by reading out and expanding the moving image data for each frame. Then, the depth differential image data 482 is obtained and a stereoscopic image is generated. The depth differential image data 482 may also be created in advance and stored in a storage medium or the like in a compressed state as moving image data.

このような構成とすることで、画素パネルやレンズ板の構成が異なる様々なディスプレイに対しても、予め作成・保存された平面視画像データ462及び奥行画像データ472を流用して、高速に立体視画像を生成することができるようになる。   By adopting such a configuration, the stereoscopic image data 462 and the depth image data 472 that have been created and stored in advance are diverted to a variety of displays having different pixel panel and lens plate configurations. A visual image can be generated.

3−8.印刷加工物
また、上述した実施形態では、フラットパネルディスプレイ等の画素パネル20を備えた立体視映像表示装置に表示させる立体視画像を生成する場合を説明したが、画素パネル20の代わりに立体視画像が印刷された紙やプラスチックカード等の印刷物を用いた印刷加工物についても同様に適用可能である。かかる印刷加工物では、立体視画像が印刷された印刷物の印刷面に、光学素子群(レンズアレイやピンホールアレイ等)が貼付等によって装着されており、印刷されている画像の各ドットの反射光線が光学素子群によって指向性が与えられることで、立体視が実現される。
3-8. In addition, in the above-described embodiment, the case of generating a stereoscopic image to be displayed on a stereoscopic video display device including the pixel panel 20 such as a flat panel display has been described. The present invention can be similarly applied to a printed product using a printed material such as paper or a plastic card on which an image is printed. In such a printed product, an optical element group (lens array, pinhole array, etc.) is attached to the printing surface of the printed material on which the stereoscopic image is printed, and reflection of each dot of the printed image is performed. Stereopsis is realized by the directivity of the light beams provided by the optical element group.

このような立体視用の印刷加工物に印刷する画像を生成する場合、従来の方法では、従来の多眼式の立体視映像表示装置の場合と同様に、一定数の視点を設定してその視点毎に画像(画素別視点)を生成し、それらの画像を一定のパターンに応じて再配置(インターリーブ)することで印刷する画像を生成している。   When generating an image to be printed on such a stereoscopic print processed product, the conventional method sets a certain number of viewpoints as in the case of a conventional multi-view stereoscopic image display device, and An image to be printed is generated by generating an image (per-pixel viewpoint) for each viewpoint and rearranging (interleaving) the images according to a certain pattern.

印刷加工物では、既製の光学素子に合わせて、生成・印刷する立体視画像の解像度(即ち、画像の各ドットの位置や大きさ)を自由に設定・変更できる。また、生成・印刷する立体視画像の解像度を大きくすることで、視点が比較的多い場合であっても、視認される立体視映像の解像度を充分な大きさにすることができる。但しその場合、立体視画像のデータサイズが、解像度に比例して大きなものとなってしまうという問題はある。   In the printed product, the resolution (that is, the position and size of each dot of the image) of the stereoscopic image to be generated / printed can be freely set / changed according to the ready-made optical element. Further, by increasing the resolution of the stereoscopic image to be generated / printed, the resolution of the visually recognized stereoscopic video image can be made sufficiently large even when there are relatively many viewpoints. However, in that case, there is a problem that the data size of the stereoscopic image becomes large in proportion to the resolution.

このような印刷加工物に本実施形態を適用する場合には、印刷の対象である立体視画像の各ドットを画素パネル20の各画素PEとして扱うことで、上述した実施形態と同様に立体視画像を生成できる。具体的には、印刷加工物における立体視画像の印刷領域の大きさ、及び、印刷する立体視画像の解像度が決まっていれば、印刷対象の立体視画像の各ドットの位置及び大きさは一意に決まる。このため、立体視画像の各ドットを、上述した実施形態における表示パネル20の各画素PEと同様に扱うことができる。   When the present embodiment is applied to such a printed product, each dot of the stereoscopic image to be printed is treated as each pixel PE of the pixel panel 20 so that the stereoscopic view is similar to the above-described embodiment. An image can be generated. Specifically, if the size of the print area of the stereoscopic image on the printed product and the resolution of the stereoscopic image to be printed are determined, the position and size of each dot of the stereoscopic image to be printed are unique. It is decided. For this reason, each dot of the stereoscopic image can be handled in the same manner as each pixel PE of the display panel 20 in the above-described embodiment.

つまり、例えば光学素子群としてレンチキュラレンズアレイを用いる場合には、先ず、立体視画像のドット毎に対応するレンズ(光学素子)を決定する。次いで、各ドットについて、該ドットの代表点(例えば、中心)と、該ドットに対応するレンズの主点とを通過した後の光線(代表光線PR)を算出し、その光線と位置が同じで方向が逆の視線を該ドットの視線Vとして決定する。その後、各ドットについて、画素別視線方向軌跡と、奥行情報モデルとに基づいた収束計算処理により対象交点を取得し、平面視画像から対象交点に対応する画ドットの色情報を該ドットの色情報とすることで、立体視画像を生成する。   That is, for example, when using a lenticular lens array as the optical element group, first, a lens (optical element) corresponding to each dot of the stereoscopic image is determined. Next, for each dot, a ray (representative ray PR) after passing through the representative point (for example, the center) of the dot and the principal point of the lens corresponding to the dot is calculated, and the position of the ray is the same. A line of sight in the opposite direction is determined as the line of sight V of the dot. Thereafter, for each dot, a target intersection is obtained by a convergence calculation process based on the pixel-specific line-of-sight direction locus and the depth information model, and color information of the image dot corresponding to the target intersection is obtained from the planar view image. By doing so, a stereoscopic image is generated.

また、印刷加工物は、光学素子群としてレンズアレイを用いている場合には、印刷されている立体視画像の各ドットのピッチをSとすると、印刷面とレンズアレイの主点面との間の距離Gが上式(1)を満たすように構成されることで、より画質の良い立体視を実現できる。   Further, when the printed product uses a lens array as the optical element group, the pitch between each dot of the printed stereoscopic image is S, and the distance between the print surface and the principal point surface of the lens array is Is configured so that the distance G satisfies the above equation (1), it is possible to realize stereoscopic viewing with better image quality.

本実施形態の描画方法によれば、従来の方法よりも低い解像度で、即ち従来の方法よりも小さい画像データサイズで、上述した作用効果を奏する立体視印刷加工物に印刷する立体視画像を生成することができる。   According to the drawing method of the present embodiment, a stereoscopic image to be printed on a stereoscopic print processed product having the above-described effects is generated with a resolution lower than that of the conventional method, that is, with an image data size smaller than that of the conventional method. can do.

3−9.投影法
本実施形態では、平行投影法により生成された平面視画像及び奥行画像に基づいて立体視画像を生成する例について説明したが、これに限らず、透視投影法により生成された平面視画像及び奥行画像に基づいて立体視画像を生成する構成であっても良い。この場合、平面視画像及び奥行画像を生成する場合に用いるのと同じ射影変換行列によって、画素別視線ベクトルを射影変換しておくことで、上述した平行投影法による場合と同様に、立体視画像を生成することができる。
3-9. Projection Method In this embodiment, an example in which a stereoscopic image is generated based on a planar image and a depth image generated by a parallel projection method has been described. However, the present invention is not limited thereto, and a planar image generated by a perspective projection method is described. And the structure which produces | generates a stereoscopic vision image based on a depth image may be sufficient. In this case, a stereoscopic image is obtained by performing projective transformation of the line-of-sight vector for each pixel using the same projective transformation matrix used for generating a planar image and a depth image, as in the case of the parallel projection method described above. Can be generated.

3−10.多眼式への適用
本実施形態では、レンズと画素のピッチが合わない方式による立体視画像生成について説明したが、レンズと画素のピッチを合わせた方式、即ち多眼式や超多眼式における立体視画像生成に適用しても良いことは勿論である。最近では、多眼式や超多眼式のような視点ベースの立体視方式においても、設定される視点の数が多くなってきている傾向にあるため、かかる場合に上述した立体視画像生成方法を用いることで、高速な描画が期待できる。また、IP方式においても、上述した立体視画像生成方法を適用することで、高速な描画を期待できる。
3-10. Application to multi-view type In this embodiment, stereoscopic image generation by a method in which the pitch of the lens and the pixel does not match has been described. However, a method in which the pitch of the lens and the pixel is matched, that is, in multi-view type or super multi-view type Of course, it may be applied to stereoscopic image generation. Recently, even in viewpoint-based stereoscopic viewing methods such as multi-view and super-multi-view, there is a tendency that the number of set viewpoints is increasing. By using, high-speed drawing can be expected. Also in the IP method, high-speed drawing can be expected by applying the above-described stereoscopic image generation method.

実施形態における立体視画像生成の概要図。The schematic diagram of the stereoscopic vision image generation in an embodiment. 垂直レンチキュラ方式の立体視映像表示装置の概略構成図。1 is a schematic configuration diagram of a vertical lenticular stereoscopic image display device. 「ピッチが合う/合わない」ことの説明図。Explanatory drawing of "pitch does not fit / does not fit". 表示面に対する座標系設定の説明図。Explanatory drawing of the coordinate system setting with respect to a display surface. 垂直レンチキュラ方式の立体視映像表示装置における想定観察位置が「正面且つ無限遠」での視線決定の説明図。Explanatory drawing of the gaze determination in the assumption observing position "front and infinity" in the vertical lenticular system stereoscopic image display device. 想定観察位置が「正面」の状態を示す図。The figure which shows the state whose assumption observation position is a "front". 垂直レンチキュラ方式の立体視映像表示装置における想定観察位置が「有限距離の定位置」での視線決定の説明図。Explanatory drawing of the gaze determination in the vertical lenticular system stereoscopic vision video display apparatus in case the assumption observation position is "the fixed position of a finite distance." 垂直レンチキュラ方式の立体視映像表示装置における想定観察位置が「有限距離の定位置」での視線決定の説明図。Explanatory drawing of the gaze determination in the vertical lenticular system stereoscopic vision video display apparatus in case the assumption observation position is "the fixed position of a finite distance." レンズ板による屈折作用の説明図。Explanatory drawing of the refractive action by a lens plate. 画素別視点設定の説明図。Explanatory drawing of the viewpoint setting according to pixel. 画素の色情報算出の説明図。Explanatory drawing of color information calculation of a pixel. 視認される画素の色情報が若干正確さに欠けることの説明図。Explanatory drawing that the color information of the visually recognized pixel is slightly inaccurate. 従来の多眼方式(n眼式)の立体視の概要図。The schematic diagram of the stereoscopic view of the conventional multi-view method (n eye type). 本実施形態での立体視の概要図。The schematic diagram of the stereoscopic view in this embodiment. 平面視画像と奥行画像とから2眼式の立体視画像を生成する説明図。Explanatory drawing which produces | generates a binocular stereoscopic vision image from a planar view image and a depth image. 画素の色情報算出の説明図。Explanatory drawing of color information calculation of a pixel. 平面視画像と奥行画像とに基づく画素の色情報算出の説明図。Explanatory drawing of the color information calculation of the pixel based on a planar view image and a depth image. 表示面と奥行情報モデルとの関係の説明図。Explanatory drawing of the relationship between a display surface and a depth information model. 表示面と各画素と奥行情報モデルとの関係の説明図。Explanatory drawing of the relationship between a display surface, each pixel, and depth information model. 奥行情報モデルと画素別視線方向軌跡との交点の説明図。Explanatory drawing of the intersection of a depth information model and a gaze direction locus according to pixel. 奥行情報モデルと画素別視線方向軌跡との交点の説明図。Explanatory drawing of the intersection of a depth information model and a gaze direction locus according to pixel. ニュートン法による対象交点算出の説明図。Explanatory drawing of object intersection calculation by Newton method. 立体視画像生成装置の構成図。1 is a configuration diagram of a stereoscopic image generation apparatus. 表示装置データのデータ構成例。The data structural example of display apparatus data. 画素別視点データのデータ構成例。The data structural example of viewpoint data classified by pixel. 平面視画像データの一例を示す図。The figure which shows an example of planar view image data. 奥行画像データの一例を示す図。The figure which shows an example of depth image data. 奥行微分画像データの一例を示す図。The figure which shows an example of depth differential image data. 画素別対応ドットデータの一例を示す図。The figure which shows an example of the dot data according to pixel. 立体視画像生成処理の流れを示すフローチャート。The flowchart which shows the flow of a stereoscopic vision image generation process. 色情報設定処理の流れを示すフローチャート。6 is a flowchart showing a flow of color information setting processing. 変形例における色情報設定処理の流れを示すフローチャート。The flowchart which shows the flow of the color information setting process in a modification. 斜めレンチキュラ方式の立体視映像表示装置の概略構成図。1 is a schematic configuration diagram of an oblique lenticular stereoscopic image display device. FIG. 斜めレンチキュラ方式の立体視映像表示装置における想定観察位置が「有限距離の定位置」での視線決定の説明図。FIG. 4 is an explanatory diagram of line-of-sight determination when the assumed observation position is “a fixed position at a finite distance” in an oblique lenticular stereoscopic image display device. 斜めレンチキュラ方式の立体視映像表示装置における想定観察位置が「有限距離の定位置」での視線決定の説明図。FIG. 4 is an explanatory diagram of line-of-sight determination when the assumed observation position is “a fixed position at a finite distance” in an oblique lenticular stereoscopic image display device. 蝿の眼レンズアレイの平面図。The top view of an eye lens array of an eyelid. 蝿の目レンズアレイを用いた立体視映像表示装置における視線決定の説明図。Explanatory drawing of the gaze determination in the stereoscopic vision video display apparatus using a moth-eye lens array. 蝿の眼レンズアレイを斜め配置した場合の平面図。The top view at the time of arranging the eye lens array of an eyelid diagonally. 単位レンズを六角形とした蝿の眼レンズアレイの平面図。The top view of the eye lens array of the eyelid which made the unit lens hexagon. パララックスバリアの平面図。The top view of a parallax barrier. 斜めパララックスバリアの平面図。The top view of a diagonal parallax barrier. 階段パララックスバリアの平面図。The top view of a staircase parallax barrier. ピンホールバリアの平面図。The top view of a pinhole barrier. 単位ピンホールバリアを六角形としたピンホールバリアの平面図。The top view of the pinhole barrier which made the unit pinhole barrier hexagonal. 立体視映像表示装置を別装置とした立体視画像生成装置の構成図。The block diagram of the stereoscopic image production | generation apparatus which used the stereoscopic vision video display apparatus as another apparatus. 画素パネルデータの一例を示す図。The figure which shows an example of pixel panel data. レンズ板データの一例を示す図。The figure which shows an example of lens plate data. 入力部及び立体視映像表示装置を別装置(外部装置)とした立体視画像生成装置の構成図。The block diagram of the stereoscopic image production | generation apparatus which used the input part and the stereoscopic vision video display apparatus as another apparatus (external device). 適切な画素パネルとレンズ板との間の距離の説明図。Explanatory drawing of the distance between a suitable pixel panel and a lens board. 両眼距離を考慮した場合の説明図。Explanatory drawing at the time of considering the binocular distance. 多眼式の立体視の概念図。The conceptual diagram of multi-view type stereoscopic vision. 超多眼式の立体視の概念図。The conceptual diagram of super multi-view type stereoscopic vision. IP方式の立体視の概念図。FIG. 3 is a conceptual diagram of IP system stereoscopic vision. 光線再生法の立体視の概念図。The conceptual diagram of the stereoscopic vision of the ray reproduction method. 表示面と結像面との間の距離がレンズの焦点距離に依存することの説明図。Explanatory drawing of the distance between a display surface and an image formation surface being dependent on the focal distance of a lens.

符号の説明Explanation of symbols

1、3、5 立体視画像生成装置
100 入力部
300 処理部
310 オブジェクト空間設定部
320 立体視画像生成部
322 画素別視点設定部
324 レンダリング部
325 モデル生成部
326 色情報設定部
400 記憶部
410 立体視画像生成プログラム
420 色情報設定プログラム
430 表示装置データ
440 想定観察位置データ
450 画素別視点データ
460 レンダリングデータ
462 平面視画像データ
470 奥行情報モデル
472 奥行画像データ
480 奥行微分情報モデル
482 奥行微分画像データ
490 画素別対応ドットデータ
500 立体視画像データ
200 立体視映像表示装置
10 バックライト
20 画素パネル
22 表示面
30 レンズ板(レンチキュラレンズ板)
32 レンズ(マイクロレンズ)
40 想定観察位置
PE 画素
V 視線
CM 画素別視点
1, 3, 5 Stereoscopic image generation device 100 Input unit 300 Processing unit 310 Object space setting unit 320 Stereoscopic image generation unit 322 Per-pixel viewpoint setting unit 324 Rendering unit 325 Model generation unit 326 Color information setting unit 400 Storage unit 410 Stereo Visual image generation program 420 Color information setting program 430 Display device data 440 Assumed observation position data 450 Per-pixel viewpoint data 460 Rendering data 462 Plane view image data 470 Depth information model 472 Depth image data 480 Depth differential information model 482 Depth differential image data 490 Corresponding dot data for each pixel 500 Stereoscopic image data 200 Stereoscopic image display device 10 Backlight 20 Pixel panel 22 Display surface 30 Lens plate (lenticular lens plate)
32 Lens (micro lens)
40 Assumed observation position PE Pixel V Line-of-sight CM Per-pixel viewpoint

Claims (11)

画素を配置した画素パネルと、該画素パネルの各画素の射出光線に指向性を与える光学素子群とを備えた立体視映像表示装置に表示させる三次元仮想空間の立体視画像を、前記三次元仮想空間を所与の視点から見た平面視画像である基準画像と、前記視点位置を基準とする該基準画像の各ドットの奥行値情報とに基づいて生成する画像生成装置であって、
前記画素パネルの各画素の色情報について、1)当該画素及び当該画素の射出光線に指向性を与える光学素子を通過する光線の方向と、前記三次元仮想空間における前記視点位置とに基づいて、前記三次元仮想空間における前記光線の方向に対応する方向を求める方向算出ステップと、2)前記方向算出ステップで求められた方向と、前記奥行値情報とに基づく所定の収束計算処理により、前記三次元仮想空間中の当該方向における最も視点寄りの物体の色情報を表すドットを前記基準画像の中から判定するドット判定ステップとを実行し、前記ドット判定ステップにより判定された前記基準画像のドットの色情報を当該画素の色情報とすることで、立体視画像を生成するとともに、
前記ドット判定ステップは、前記基準画像を構成するドットの奥行値の微分値である奥行微分情報を算出する奥行微分情報算出ステップを含み、前記方向算出ステップで求められた方向と、前記奥行値情報と、前記奥行微分情報算出ステップで算出された奥行微分情報とに基づき、ニュートン法による所定の収束計算処理により前記三次元仮想空間中の当該方向における最も視点寄りの物体の色情報を表すドットを前記基準画像の中から判定するステップであることを特徴とする画像生成装置。
A stereoscopic image in a three-dimensional virtual space to be displayed on a stereoscopic video display device comprising a pixel panel in which pixels are arranged and an optical element group that directs the emitted light of each pixel of the pixel panel. An image generation device that generates a reference image that is a planar image when the virtual space is viewed from a given viewpoint, and depth value information of each dot of the reference image that is based on the viewpoint position,
Regarding the color information of each pixel of the pixel panel, 1) based on the direction of the light beam passing through the optical element that directs the pixel and the emitted light beam of the pixel, and the viewpoint position in the three-dimensional virtual space, A direction calculation step for obtaining a direction corresponding to the direction of the light beam in the three-dimensional virtual space; and 2) a predetermined convergence calculation process based on the direction obtained in the direction calculation step and the depth value information. A dot determination step of determining, from the reference image, a dot representing color information of an object closest to the viewpoint in the direction in the original virtual space, and the dot of the reference image determined by the dot determination step By generating the stereoscopic image by using the color information as the color information of the pixel ,
The dot determination step includes a depth differential information calculation step of calculating depth differential information that is a differential value of a depth value of dots constituting the reference image, and the direction obtained in the direction calculation step and the depth value information And a dot representing the color information of the object closest to the viewpoint in the direction in the three-dimensional virtual space by a predetermined convergence calculation process based on the Newton method based on the depth derivative information calculated in the depth derivative information calculating step. An image generating apparatus comprising the step of determining from among the reference images .
画素を配置した画素パネルと、該画素パネルの各画素の射出光線に指向性を与える光学素子群とを備えた立体視映像表示装置に表示させる三次元仮想空間の立体視画像を、前記三次元仮想空間を所与の視点から見た平面視画像である基準画像と、前記視点位置を基準とする該基準画像の各ドットの奥行値情報とに基づいて生成する画像生成装置であって、
前記画素パネルの各画素の色情報について、1)当該画素及び当該画素の射出光線に指向性を与える光学素子を通過する光線の方向と、前記三次元仮想空間における前記視点位置とに基づいて、前記三次元仮想空間における前記光線の方向に対応する方向を求める方向算出ステップと、2)前記方向算出ステップで求められた方向と、前記奥行値情報とに基づく所定の収束計算処理により、前記三次元仮想空間中の当該方向における最も視点寄りの物体の色情報を表すドットを前記基準画像の中から判定するドット判定ステップとを実行し、前記ドット判定ステップにより判定された前記基準画像のドットの色情報を当該画素の色情報とすることで、立体視画像を生成するとともに、
前記ドット判定ステップによる判定処理の前に、前記基準画像の各ドットの奥行値の微分値である奥行微分情報を算出する奥行微分情報算出ステップを実行し、
前記ドット判定ステップでは、前記方向算出ステップで求められた方向と、前記奥行値情報とに加えて前記奥行微分情報算出ステップで算出された奥行微分情報とを用いて、ニュートン法による所定の収束計算処理により前記三次元仮想空間中の当該方向における最も視点寄りの物体の色情報を表すドットを前記基準画像の中から判定する、
ことを特徴とする画像生成装置。
A stereoscopic image in a three-dimensional virtual space to be displayed on a stereoscopic video display device comprising a pixel panel in which pixels are arranged and an optical element group that directs the emitted light of each pixel of the pixel panel. An image generation device that generates a reference image that is a planar image when the virtual space is viewed from a given viewpoint, and depth value information of each dot of the reference image that is based on the viewpoint position,
Regarding the color information of each pixel of the pixel panel, 1) based on the direction of the light beam passing through the optical element that directs the pixel and the emitted light beam of the pixel, and the viewpoint position in the three-dimensional virtual space, A direction calculation step for obtaining a direction corresponding to the direction of the light beam in the three-dimensional virtual space; and 2) a predetermined convergence calculation process based on the direction obtained in the direction calculation step and the depth value information. A dot determination step of determining, from the reference image, a dot representing color information of an object closest to the viewpoint in the direction in the original virtual space, and the dot of the reference image determined by the dot determination step By generating the stereoscopic image by using the color information as the color information of the pixel ,
Before the determination process by the dot determination step, execute a depth differential information calculation step of calculating depth differential information that is a differential value of the depth value of each dot of the reference image,
In the dot determination step, a predetermined convergence calculation by the Newton method is performed using the direction obtained in the direction calculation step and the depth derivative information calculated in the depth derivative information calculation step in addition to the depth value information. A dot representing color information of an object closest to the viewpoint in the direction in the three-dimensional virtual space is determined from the reference image by processing.
An image generation apparatus characterized by that .
前記奥行微分情報算出ステップは、前記基準画像の各ドットについて、当該ドットの奥行値と、当該ドットに隣接する隣接ドットの奥行値との差分を算出して微分値を求めることで前記奥行微分情報を算出するステップであることを特徴とする請求項又はに記載の画像生成装置。 The depth derivative information calculating step calculates the difference between the depth value of the dot and the depth value of an adjacent dot adjacent to the dot for each dot of the reference image to obtain a derivative value, thereby calculating the depth derivative information. the image generating apparatus according to claim 1 or 2, characterized in that the step of calculating the. 前記ドット判定ステップは、前記方向算出ステップで求められた方向における最も前記視点寄りのドット位置を初期位置として前記所定の収束計算処理を行う請求項1〜の何れか一項に記載の画像生成装置。 The dot determination step, the image generation according to any one of claim 1 to 3 for the predetermined convergence calculation process most dot position of the viewpoint closer as the initial position in a direction determined by the direction calculation step apparatus. 前記立体視映像表示装置は、所定の想定観察位置における一の光学素子に対する視角を対光学素子視角λ、前記一の光学素子により指向性が与えられる一の画素に対する視角を対画素視角σ、前記画素パネル中の立体視画像描画領域に対する視角を対描画領域視角Φとしたとき、λ:σ=n:m(但し、nは自然数、mはΦ/λ未満の自然数)が成立しないことを特徴とする請求項1〜の何れか一項に記載の画像生成装置。 The stereoscopic image display apparatus has a viewing angle with respect to one optical element at a predetermined assumed observation position as a viewing angle with respect to the optical element λ, a viewing angle with respect to one pixel given directivity by the one optical element as a viewing angle with respect to pixel σ, and Λ: σ = n: m (where n is a natural number and m is a natural number less than Φ / λ) is not established when the viewing angle with respect to the stereoscopic image drawing region in the pixel panel is a paired drawing region viewing angle Φ. The image generation device according to any one of claims 1 to 4 . 前記立体視映像表示装置は、一の光学素子の水平方向幅をL、前記一の光学素子により指向性が与えられる一の画素の水平方向幅をS、前記画素パネル中の立体視画像描画領域の水平方向幅をRとしたとき、L:S=o:p(但し、oは自然数、pはR/L未満の自然数)が成立しないことを特徴とする請求項1〜の何れか一項に記載の画像生成装置。 The stereoscopic video display device has a horizontal width of one optical element as L, a horizontal width of one pixel provided with directivity by the one optical element as S, and a stereoscopic image drawing area in the pixel panel. when the horizontal width is set to R in, L: S = o: p ( where, o is a natural number, p is a natural number less than R / L) to any one of claims 1-5, characterized in that is not established The image generation apparatus according to item. 画素を配置した画素パネルと、該画素パネルの各画素の射出光線に指向性を与える光学素子群とを備えた立体視映像表示装置に表示させる三次元仮想空間の立体視画像を、前記三次元仮想空間を所与の視点から見た平面視画像である基準画像と、前記視点位置を基準とする該基準画像の各ドットの奥行値情報とに基づいて生成する画像生成装置であって、
前記立体視映像表示装置は、所定の想定観察位置における一の光学素子に対する視角を対光学素子視角λ、前記一の光学素子により指向性が与えられる一の画素に対する視角を対画素視角σ、前記画素パネル中の立体視画像描画領域に対する視角を対描画領域視角Φとしたとき、λ:σ=n:m(但し、nは自然数、mはΦ/λ未満の自然数)が成立しない表示装置であり、
前記画素パネルの各画素の色情報について、1)当該画素及び当該画素の射出光線に指向性を与える光学素子を通過する光線の方向と、前記三次元仮想空間における前記視点位置とに基づいて、前記三次元仮想空間における前記光線の方向に対応する方向を求める方向算出ステップと、2)前記方向算出ステップで求められた方向と、前記奥行値情報とに基づく所定の収束計算処理により、前記三次元仮想空間中の当該方向における最も視点寄りの物体の色情報を表すドットを前記基準画像の中から判定するドット判定ステップとを実行し、前記ドット判定ステップにより判定された前記基準画像のドットの色情報を当該画素の色情報とすることで、立体視画像を生成する画像生成装置。
A stereoscopic image in a three-dimensional virtual space to be displayed on a stereoscopic video display device comprising a pixel panel in which pixels are arranged and an optical element group that directs the emitted light of each pixel of the pixel panel. An image generation device that generates a reference image that is a planar image when the virtual space is viewed from a given viewpoint, and depth value information of each dot of the reference image that is based on the viewpoint position,
The stereoscopic image display device has a viewing angle with respect to one optical element at a predetermined assumed observation position as a viewing angle with respect to the optical element λ, a viewing angle with respect to one pixel to which directivity is given by the one optical element as a viewing angle with respect to pixel σ, and A display device in which λ: σ = n: m (where n is a natural number and m is a natural number less than Φ / λ) is not established when the viewing angle with respect to the stereoscopic image drawing region in the pixel panel is a paired drawing region viewing angle Φ. Yes,
Regarding the color information of each pixel of the pixel panel, 1) based on the direction of the light beam passing through the optical element that directs the pixel and the emitted light beam of the pixel, and the viewpoint position in the three-dimensional virtual space, A direction calculation step for obtaining a direction corresponding to the direction of the light beam in the three-dimensional virtual space; and 2) a predetermined convergence calculation process based on the direction obtained in the direction calculation step and the depth value information. A dot determination step of determining, from the reference image, a dot representing color information of an object closest to the viewpoint in the direction in the original virtual space, and the dot of the reference image determined by the dot determination step An image generation apparatus that generates a stereoscopic image by using color information as color information of the pixel.
画素を配置した画素パネルと、該画素パネルの各画素の射出光線に指向性を与える光学素子群とを備えた立体視映像表示装置に表示させる三次元仮想空間の立体視画像を、前記三次元仮想空間を所与の視点から見た平面視画像である基準画像と、前記視点位置を基準とする該基準画像の各ドットの奥行値情報とに基づいて生成する画像生成装置であって、
前記立体視映像表示装置は、一の光学素子の水平方向幅をL、前記一の光学素子により指向性が与えられる一の画素の水平方向幅をS、前記画素パネル中の立体視画像描画領域の水平方向幅をRとしたとき、L:S=o:p(但し、oは自然数、pはR/L未満の自然数)が成立しない表示装置であり、
前記画素パネルの各画素の色情報について、1)当該画素及び当該画素の射出光線に指向性を与える光学素子を通過する光線の方向と、前記三次元仮想空間における前記視点位置とに基づいて、前記三次元仮想空間における前記光線の方向に対応する方向を求める方向算出ステップと、2)前記方向算出ステップで求められた方向と、前記奥行値情報とに基づく所定の収束計算処理により、前記三次元仮想空間中の当該方向における最も視点寄りの物体の色情報を表すドットを前記基準画像の中から判定するドット判定ステップとを実行し、前記ドット判定ステップにより判定された前記基準画像のドットの色情報を当該画素の色情報とすることで、立体視画像を生成する画像生成装置。
A stereoscopic image in a three-dimensional virtual space to be displayed on a stereoscopic video display device comprising a pixel panel in which pixels are arranged and an optical element group that directs the emitted light of each pixel of the pixel panel. An image generation device that generates a reference image that is a planar image when the virtual space is viewed from a given viewpoint, and depth value information of each dot of the reference image that is based on the viewpoint position,
The stereoscopic video display device has a horizontal width of one optical element as L, a horizontal width of one pixel provided with directivity by the one optical element as S, and a stereoscopic image drawing area in the pixel panel. Is a display device in which L: S = o: p (where o is a natural number and p is a natural number less than R / L) is not established.
Regarding the color information of each pixel of the pixel panel, 1) based on the direction of the light beam passing through the optical element that directs the pixel and the emitted light beam of the pixel, and the viewpoint position in the three-dimensional virtual space, A direction calculation step for obtaining a direction corresponding to the direction of the light beam in the three-dimensional virtual space; and 2) a predetermined convergence calculation process based on the direction obtained in the direction calculation step and the depth value information. A dot determination step of determining, from the reference image, a dot representing color information of an object closest to the viewpoint in the direction in the original virtual space, and the dot of the reference image determined by the dot determination step An image generation apparatus that generates a stereoscopic image by using color information as color information of the pixel.
画素を配置した画素パネルと、該画素パネルの各画素の射出光線に指向性を与える光学素子群とを備えた立体視映像表示装置に表示させる三次元仮想空間の立体視画像を、前記三次元仮想空間を所与の視点から見た平面視画像である基準画像と、前記視点位置を基準とする該基準画像の各ドットの奥行値情報とに基づいてコンピュータに生成させるためのプログラムであって、
前記画素パネルの各画素の色情報について、1)当該画素及び当該画素の射出光線に指向性を与える光学素子を通過する光線の方向と、前記三次元仮想空間における前記視点位置とに基づいて、前記三次元仮想空間における前記光線の方向に対応する方向を求める方向算出ステップと、2)前記方向算出ステップで求められた方向と、前記奥行値情報とに基づく所定の収束計算処理により、前記三次元仮想空間中の当該方向における最も視点寄りの物体の色情報を表すドットを前記基準画像の中から判定するドット判定ステップとを前記コンピュータに実行させ、前記ドット判定ステップにより判定された前記基準画像のドットの色情報を当該画素の色情報とすることで、立体視画像を生成するように前記コンピュータに実行させるとともに、
前記ドット判定ステップは、前記基準画像を構成するドットの奥行値の微分値である奥行微分情報を算出する奥行微分情報算出ステップを含み、前記方向算出ステップで求められた方向と、前記奥行値情報と、前記奥行微分情報算出ステップで算出された奥行微分情報とに基づき、ニュートン法による所定の収束計算処理により前記三次元仮想空間中の当該方向における最も視点寄りの物体の色情報を表すドットを前記基準画像の中から判定するステップであることを特徴とするプログラム。
A stereoscopic image in a three-dimensional virtual space to be displayed on a stereoscopic video display device comprising a pixel panel in which pixels are arranged and an optical element group that directs the emitted light of each pixel of the pixel panel. A program for causing a computer to generate a reference image, which is a planar image when a virtual space is viewed from a given viewpoint, and depth value information of each dot of the reference image with respect to the viewpoint position. ,
Regarding the color information of each pixel of the pixel panel, 1) based on the direction of the light beam passing through the optical element that directs the pixel and the emitted light beam of the pixel, and the viewpoint position in the three-dimensional virtual space, A direction calculation step for obtaining a direction corresponding to the direction of the light beam in the three-dimensional virtual space; and 2) a predetermined convergence calculation process based on the direction obtained in the direction calculation step and the depth value information. The reference image determined by the dot determination step is executed by causing the computer to execute a dot determination step of determining, from the reference image, a dot representing color information of an object closest to the viewpoint in the direction in the original virtual space. the color information of the dots by the color information of the pixel, causes the computer to perform to produce a stereoscopic image
The dot determination step includes a depth differential information calculation step of calculating depth differential information that is a differential value of a depth value of dots constituting the reference image, and the direction obtained in the direction calculation step and the depth value information And a dot representing the color information of the object closest to the viewpoint in the direction in the three-dimensional virtual space by a predetermined convergence calculation process based on the Newton method based on the depth derivative information calculated in the depth derivative information calculating step. A program characterized in that it is a step of judging from the reference image .
画素を配置した画素パネルと、該画素パネルの各画素の射出光線に指向性を与える光学素子群とを備えた立体視映像表示装置に表示させる三次元仮想空間の立体視画像を、前記三次元仮想空間を所与の視点から見た平面視画像である基準画像と、前記視点位置を基準とする該基準画像の各ドットの奥行値情報とに基づいてコンピュータに生成させるためのプログラムであって、
前記画素パネルの各画素の色情報について、1)当該画素及び当該画素の射出光線に指向性を与える光学素子を通過する光線の方向と、前記三次元仮想空間における前記視点位置とに基づいて、前記三次元仮想空間における前記光線の方向に対応する方向を求める方向算出ステップと、2)前記方向算出ステップで求められた方向と、前記奥行値情報とに基づく所定の収束計算処理により、前記三次元仮想空間中の当該方向における最も視点寄りの物体の色情報を表すドットを前記基準画像の中から判定するドット判定ステップとを前記コンピュータに実行させ、前記ドット判定ステップにより判定された前記基準画像のドットの色情報を当該画素の色情報とすることで、立体視画像を生成するように前記コンピュータに実行させるとともに、
前記ドット判定ステップによる判定処理の前に、前記基準画像の各ドットの奥行値の微分値である奥行微分情報を算出する奥行微分情報算出ステップを前記コンピュータに実行させ、
前記ドット判定ステップでは、前記方向算出ステップで求められた方向と、前記奥行値情報とに加えて前記奥行微分情報算出ステップで算出された奥行微分情報とを用いて、ニュートン法による所定の収束計算処理により前記三次元仮想空間中の当該方向における最も視点寄りの物体の色情報を表すドットを前記基準画像の中から判定する、
ように前記コンピュータを実行させるためのプログラム。
A stereoscopic image in a three-dimensional virtual space to be displayed on a stereoscopic video display device comprising a pixel panel in which pixels are arranged and an optical element group that directs the emitted light of each pixel of the pixel panel. A program for causing a computer to generate a reference image, which is a planar image when a virtual space is viewed from a given viewpoint, and depth value information of each dot of the reference image with respect to the viewpoint position. ,
Regarding the color information of each pixel of the pixel panel, 1) based on the direction of the light beam passing through the optical element that directs the pixel and the emitted light beam of the pixel, and the viewpoint position in the three-dimensional virtual space, A direction calculation step for obtaining a direction corresponding to the direction of the light beam in the three-dimensional virtual space; and 2) a predetermined convergence calculation process based on the direction obtained in the direction calculation step and the depth value information. The reference image determined by the dot determination step is executed by causing the computer to execute a dot determination step of determining, from the reference image, a dot representing color information of an object closest to the viewpoint in the direction in the original virtual space. the color information of the dots by the color information of the pixel, causes the computer to perform to produce a stereoscopic image
Before the determination process by the dot determination step, the computer executes a depth differential information calculation step for calculating depth differential information that is a differential value of the depth value of each dot of the reference image,
In the dot determination step, a predetermined convergence calculation by the Newton method is performed using the direction obtained in the direction calculation step and the depth derivative information calculated in the depth derivative information calculation step in addition to the depth value information. A dot representing color information of an object closest to the viewpoint in the direction in the three-dimensional virtual space is determined from the reference image by processing.
Program for causing the computer to execute .
請求項9又は10に記載のプログラムを記憶したコンピュータ読み取り可能な情報記憶媒体。 A computer-readable information storage medium storing the program according to claim 9 or 10 .
JP2006352344A 2005-12-27 2006-12-27 Image generating apparatus, program, and information storage medium Expired - Fee Related JP4856534B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006352344A JP4856534B2 (en) 2005-12-27 2006-12-27 Image generating apparatus, program, and information storage medium

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2005376074 2005-12-27
JP2005376074 2005-12-27
JP2006352344A JP4856534B2 (en) 2005-12-27 2006-12-27 Image generating apparatus, program, and information storage medium

Publications (2)

Publication Number Publication Date
JP2007200307A JP2007200307A (en) 2007-08-09
JP4856534B2 true JP4856534B2 (en) 2012-01-18

Family

ID=38454803

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006352344A Expired - Fee Related JP4856534B2 (en) 2005-12-27 2006-12-27 Image generating apparatus, program, and information storage medium

Country Status (1)

Country Link
JP (1) JP4856534B2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5215615B2 (en) * 2007-08-28 2013-06-19 三菱プレシジョン株式会社 Three-dimensional position information restoration apparatus and method
JP4995672B2 (en) * 2007-09-03 2012-08-08 富士フイルム株式会社 Stereoscopic image display device and method of creating stereoscopic image display
US20090282429A1 (en) * 2008-05-07 2009-11-12 Sony Ericsson Mobile Communications Ab Viewer tracking for displaying three dimensional views
JP5222033B2 (en) * 2008-06-13 2013-06-26 スリーエム イノベイティブ プロパティズ カンパニー Stereoscopic image playback device
JP5398015B2 (en) * 2010-06-29 2014-01-29 独立行政法人情報通信研究機構 3D display and 3D image presentation method
DE112010005947T5 (en) * 2010-10-20 2013-08-08 Mitsubishi Electric Corporation Stereoscopic three-dimensional display device
JP5752638B2 (en) 2012-04-26 2015-07-22 株式会社東芝 Image processing apparatus, method, program, and stereoscopic image display apparatus
JP7424786B2 (en) * 2019-02-27 2024-01-30 三星電子株式会社 3D image display device, 3D image display method, and 3D image generation and display system
CN111275803B (en) * 2020-02-25 2023-06-02 北京百度网讯科技有限公司 3D model rendering method, device, equipment and storage medium

Also Published As

Publication number Publication date
JP2007200307A (en) 2007-08-09

Similar Documents

Publication Publication Date Title
JP4856534B2 (en) Image generating apparatus, program, and information storage medium
JP4832833B2 (en) Arrangement lens specification deriving method, program, information storage medium, and arrangement lens specification deriving device
JP2006287592A (en) Image generating device, electronic equipment, and image generation method and program
CN101529310B (en) Autostereoscopic system
JP6050373B2 (en) Video processing apparatus and method for rendering subpixels
JP5208767B2 (en) On-the-fly hardware image summary
JP4227076B2 (en) Display device for displaying stereoscopic image and display method for displaying stereoscopic image
JP5306275B2 (en) Display device and stereoscopic image display method
JP4672461B2 (en) Image generating apparatus, electronic device, printed material, image generating method and program
JP2009080578A (en) Multiview-data generating apparatus, method, and program
WO2013074753A1 (en) Display apparatuses and methods for simulating an autostereoscopic display device
US11694302B2 (en) Dynamic uniformity correction
JP7358448B2 (en) Image generation device, head mounted display, and image generation method
JP5182505B2 (en) Image display device
CN105744253A (en) Autostereoscopic 3D Display Device
JP2008244835A (en) Device and method for displaying three-dimensional image
JP5058689B2 (en) Texture video display device
CN105430369A (en) Autostereoscopic 3d display device
CN114096985A (en) System and method for hiding bad pixels
KR20140115854A (en) Three dimensional image display device and method of displaying three dimensional image
JP2007271751A (en) Print product, container, cylindrical object, image forming apparatus, and image forming method
JP4703635B2 (en) Stereoscopic image generation method, apparatus thereof, and stereoscopic image display apparatus
KR102271171B1 (en) Glass-free multiview autostereoscopic display device and method for image processing thereof
JP4695470B2 (en) Image generating apparatus, image generating method, and program
JP2020134679A (en) Display

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091130

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110719

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110802

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111003

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111025

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111028

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141104

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4856534

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141104

Year of fee payment: 3

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees