JP2006287592A - Image generating device, electronic equipment, and image generation method and program - Google Patents

Image generating device, electronic equipment, and image generation method and program Download PDF

Info

Publication number
JP2006287592A
JP2006287592A JP2005104408A JP2005104408A JP2006287592A JP 2006287592 A JP2006287592 A JP 2006287592A JP 2005104408 A JP2005104408 A JP 2005104408A JP 2005104408 A JP2005104408 A JP 2005104408A JP 2006287592 A JP2006287592 A JP 2006287592A
Authority
JP
Japan
Prior art keywords
pixel
dot
image
color information
optical element
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005104408A
Other languages
Japanese (ja)
Inventor
Motohisa Ishii
源久 石井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bandai Namco Entertainment Inc
Original Assignee
Namco Bandai Games Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Bandai Games Inc filed Critical Namco Bandai Games Inc
Priority to JP2005104408A priority Critical patent/JP2006287592A/en
Publication of JP2006287592A publication Critical patent/JP2006287592A/en
Pending legal-status Critical Current

Links

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a new stereoscopic view system capable of attaining both a natural stereoscopic effect and a high resolution and to achieve the acceleration of generating a stereoscopic image by the new stereoscopic view system. <P>SOLUTION: A visual line V and a viewpoint for each pixel are set for each pixel PE of a display surface 22, and a locus in the direction of a viewpoint for each pixel is calculated from the the visual line V and the viewpoint for each pixel CM to the pixel PE. Intersections between the locus in the direction of the viewpoint for each pixel and a depth information model are determined, the intersection that is the closest to an observer among intersections between the locus in the direction of the viewpoint for each pixel and the depth information model is acquired as a target intersection, and the color information of a dot corresponding to the target intersection of a plane view image is determined to be the color information of the pixel. In addition, at determining an intersection. a search range for performing intersection determination is limited on the basis of the maximum value and the minimum value of a depth value of the depth information model to thereby reduce a processing load of the intersection determination, then, the acceleration of the intersection determination is achieved. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、画素が配置された画素パネルと、該画素パネルの各画素に指向性を与える光学素子群とを備えた立体視映像表示装置に表示させる三次元仮想空間の立体視画像を生成する画像生成装置等に関する。   The present invention generates a stereoscopic image in a three-dimensional virtual space to be displayed on a stereoscopic video display device that includes a pixel panel in which pixels are arranged and an optical element group that provides directivity to each pixel of the pixel panel. The present invention relates to an image generation device and the like.

従来から知られているとおり、LCD等のフラットパネルディスプレイとレンズアレイ(例えば、レンチキュラレンズアレイや蝿の目レンズアレイ)やバリアアレイ(例えば、パララックスバリアアレイやピンホールアレイ)等の光学素子群を組み合わせることで立体視映像表示装置を作成することができる。その方式には、多眼方式(2眼を含む)や超多眼方式、IP(Integral Photography)方式、光線再生法等が知られており、例えば非特許文献1や非特許文献2に開示されている。
高木康博,「64眼式三次元カラーディスプレイとコンピュータ合成した三次元物体の表示」,3次元画像コンファレンス2002講演論文集,3次元画像コンファレンス2002実行委員会,2002年7月4日,p.85−88 尾西明洋、武田勉、谷口英之、小林哲郎,「光線再生法による三次元動画ディスプレイ」,3次元画像コンファレンス2001講演論文集,3次元画像コンファレンス2001実行委員会,2001年7月4日,p.173−176
As conventionally known, optical element groups such as flat panel displays such as LCDs and lens arrays (for example, lenticular lens arrays and eyelet lens arrays) and barrier arrays (for example, parallax barrier arrays and pinhole arrays) By combining these, a stereoscopic video display device can be created. As the method, a multi-view method (including two eyes), a super multi-view method, an IP (Integral Photography) method, a light beam reproduction method, and the like are known, and disclosed in Non-Patent Document 1 and Non-Patent Document 2, for example. ing.
Yasuhiro Takagi, “Display of 3D Objects Combining with 64 Eyes 3D Color Display”, 3D Image Conference 2002 Proceedings, 3D Image Conference 2002 Executive Committee, July 4, 2002, p. 85-88 Onishi Akihiro, Takeda Tsutomu, Taniguchi Hideyuki, Kobayashi Tetsuro, “Three-Dimensional Video Display by Ray Reproduction”, Three-dimensional Image Conference 2001 Proceedings, Three-Dimensional Image Conference 2001 Executive Committee, July 4, 2001, p. 173-176

多眼方式では、図51に示すように、立体視画像が表示された表示面の各画素から射出され、光学素子群(同図では、レンチキュラレンズアレイ)により指向性が与えられた光線が、設定された複数(同図では、4つ)の視点位置に集まるように設計されている。そして、解像度は光学素子のピッチに依存し、視点(ビュー)の数は画素ピッチと光学素子のピッチとの比に依存している。そのため、視点数が少ない多眼方式においては、各視点での解像度は比較的高いが、視点数が少ないため自然な立体感が得られないという欠点があった。   In the multi-view method, as shown in FIG. 51, light rays emitted from each pixel on the display surface on which a stereoscopic image is displayed and given directivity by an optical element group (in the figure, a lenticular lens array) It is designed to gather at a plurality of set viewpoint positions (four in the figure). The resolution depends on the pitch of the optical element, and the number of viewpoints (views) depends on the ratio between the pixel pitch and the pitch of the optical element. For this reason, the multi-view method with a small number of viewpoints has a drawback that a natural stereoscopic effect cannot be obtained because the number of viewpoints is small although the resolution at each viewpoint is relatively high.

そこで、多眼方式を改良し、左右両目の視差の内側にも非常に多くの視点を設定することで自然な立体感を得られるようにしたものが、図52に示す超多眼方式である。しかし、超多眼方式では、視点数を非常に多くした結果、解像度の低下が著しいという欠点があり、満足な解像度を得るためには非常に高解像度の画素パネルを用いる必要があった。即ち、解像度と視点数とがトレードオフの関係にあった。   Therefore, the super multi-view system shown in FIG. 52 improves the multi-view system so that a natural stereoscopic effect can be obtained by setting very many viewpoints inside the parallax between the left and right eyes. . However, the super multi-view system has a disadvantage that the resolution is remarkably reduced as a result of increasing the number of viewpoints, and it is necessary to use a very high resolution pixel panel in order to obtain a satisfactory resolution. That is, the resolution and the number of viewpoints have a trade-off relationship.

また、多眼方式及び超多眼方式では、想定した複数の視点位置それぞれから描画を行う(画像を生成する)こととしていた。このため、光学素子のピッチと画素ピッチとが正確に合うように設計を行う必要があった。   In the multi-view method and the super-multi-view method, drawing is performed (generating an image) from each of a plurality of assumed viewpoint positions. For this reason, it is necessary to design the optical element so that the pitch of the optical element and the pixel pitch exactly match.

IP(Integral Photography)方式及び光線再生法では、図53、54に示すように、各画素から射出され、光学素子群により指向性を与えられた光線が、物体のサンプリングされた点群に集まるように設計されており、これを、更に遠くの視点から観察することによって立体視を実現している。図53はIP方式の場合を示しており、図54は光線再生法の場合を示している。   In the IP (Integral Photography) method and the ray reproduction method, as shown in FIGS. 53 and 54, rays emitted from each pixel and given directivity by the optical element group are collected at the sampled point group of the object. The stereoscopic view is realized by observing this from a further distant viewpoint. FIG. 53 shows the case of the IP system, and FIG. 54 shows the case of the light beam reproduction method.

そして、解像度は、物体のサンプリング点の数に依存し、各サンプリング点の視線数は、そのサンプリング点に集まる光線の数に依存している。つまり、サンプリング点の数が少ない程、各サンプリング点に多くの光線を集めることができる、即ち自然な立体感の再現が可能となるが、サンプリング点が少ないために解像度が低くなる。また、解像度を高くするためサンプリング点の数を増加させると、各サンプリング点には少数の光線しか集めることができず、自然な立体視が不可能となる。   The resolution depends on the number of sampling points of the object, and the number of lines of sight at each sampling point depends on the number of rays collected at the sampling point. That is, the smaller the number of sampling points, the more light rays can be collected at each sampling point, that is, a natural three-dimensional effect can be reproduced. However, since the sampling points are small, the resolution is lowered. Further, if the number of sampling points is increased in order to increase the resolution, only a small number of light beams can be collected at each sampling point, and natural stereoscopic vision becomes impossible.

特に、IP方式では、図53に示すように、自然な距離感を観察できる位置が描画面(立体視画像の表示面)に平行な結像面に限られ、それ以外の位置での物体の距離感は不自然に観察される。一方、光線再生法は、IP方式に比較して自由な距離で結像を行うことができるものである。   In particular, in the IP method, as shown in FIG. 53, the position at which a natural sense of distance can be observed is limited to the image plane parallel to the drawing plane (stereoscopic image display plane), and the object at other positions can be observed. A sense of distance is observed unnaturally. On the other hand, the light beam reproduction method can form an image at a free distance as compared with the IP method.

また、IP方式には、レンズアレイを用いるものとピンホールアレイを用いるものとがあるが、図53に示したように、レンズアレイを用いた場合には、描画面と結像面との間の距離がレンズの焦点距離に依存する。即ち、図55に示すように、レンズの焦点面と表示面との間の距離をA、レンズの焦点面と結像面との間の距離をB、レンズの焦点距離をFとすると、良く知られているように、次式の関係があるため、結像位置(描画面からの距離)を同時に2つ以上設定することができない。
(1/A)+(1/B)=(1/F)
In addition, IP systems include those using a lens array and those using a pinhole array. As shown in FIG. 53, when a lens array is used, there is a gap between the drawing surface and the imaging surface. Depends on the focal length of the lens. That is, as shown in FIG. 55, if the distance between the focal plane of the lens and the display plane is A, the distance between the focal plane of the lens and the imaging plane is B, and the focal distance of the lens is F, As is known, since there is a relationship represented by the following expression, two or more imaging positions (distances from the drawing surface) cannot be set at the same time.
(1 / A) + (1 / B) = (1 / F)

一方、光線再生法は、図54に示すように、レンズアレイでなくピンホールアレイを用いていることで、結像距離を同時に2つ以上設定することができる(同図では、2つ)が、ピンホールアレイを用いているために画面が暗く、点列が並んだような映像となってしまう欠点がある。   On the other hand, as shown in FIG. 54, the light beam reproduction method uses a pinhole array instead of a lens array, so that two or more imaging distances can be set simultaneously (two in the figure). Since the pinhole array is used, there is a drawback that the screen is dark and the image is like a sequence of dots.

また、IP方式及び光線再生法では、原理上、非常に多くの光線を集める必要があるため、サンプリング点が疎ら、即ち解像度の低いものが一般的である。つまり、満足な解像度を得るためには、超多眼方式の場合と同様に、非常に高解像度な画素パネルを用いる必要があった。即ち、多眼方式や超多眼方式とは尺度が異なるが、解像度と視点数とがトレードオフの関係にあったといえる。   Further, in the IP method and the light beam reproducing method, since it is necessary to collect a very large number of light beams in principle, sampling points are generally sparse, that is, those having low resolution. That is, in order to obtain a satisfactory resolution, it is necessary to use a pixel panel with a very high resolution, as in the super multi-view system. That is, although the scale is different from the multi-view method and the super multi-view method, it can be said that the resolution and the number of viewpoints have a trade-off relationship.

また、IP方式及び光線再生法では、各結像位置と各光学素子の位置関係、或いは、各結像位置と各画素との位置関係によって視線(視点)の位置及び方向を決定していた。具体的には、光学素子群を先に用意し、視線を結像位置と各光学素子の位置関係で決定する場合には、光学素子群に合わせて画素の配置を決定せねばならず、また、画素パネルを先に用意し、視線を各結像位置と各画素との位置関係で決定する場合には、画素パネルに合わせて光学素子群の配置を決定せねばならない。何れにしても、光学素子のピッチと画素のピッチを合わせる設計を行う必要があった。   In the IP method and the light beam reproduction method, the position and direction of the line of sight (viewpoint) are determined based on the positional relationship between each imaging position and each optical element or the positional relationship between each imaging position and each pixel. Specifically, when the optical element group is prepared first and the line of sight is determined by the positional relationship between the imaging position and each optical element, the pixel arrangement must be determined according to the optical element group, and When the pixel panel is prepared in advance and the line of sight is determined by the positional relationship between each imaging position and each pixel, the arrangement of the optical element group must be determined in accordance with the pixel panel. In any case, it is necessary to design to match the pitch of the optical elements with the pitch of the pixels.

何れの方式にせよ、従来の立体視映像表示装置では、光学素子群の光学素子ピッチと画素パネルの画素ピッチとを合わせる必要があり、光学素子群と画素パネルのどちらのピッチを他方に合わせて決定するかは、主に、両者のコスト関係によって決定される。   In any method, in the conventional stereoscopic video display device, it is necessary to match the optical element pitch of the optical element group and the pixel pitch of the pixel panel, and either pitch of the optical element group or the pixel panel is adjusted to the other. The decision is mainly based on the cost relationship between the two.

例えば、古くから知られている、立体視画像を印刷した印刷物(紙やプラスチックカード等)とレンチキュラレンズアレイ等の光学素子を組み合わせた立体視用の印刷加工物においては、立体視画像が印刷された印刷物の印刷面に光学素子群(レンズアレイやバリアアレイ等)を貼付等して装着されており、印刷物に印刷された立体視画像の各ドットの反射光線が光学素子群によって指向性が与えられることで立体視が実現される。このような印刷加工物の場合には、印刷する立体視画像のドットの配置変更が容易であるため、光学素子群に合わせて印刷する立体視画像のドットのピッチが決定される。また、コンピュータのディスプレイ等を画素パネルとして用いる場合には、その画素ピッチに合わせた専用の光学素子群(例えば、レンチキュラレンズアレイ)を設計・製作して用いていた。   For example, a stereoscopic image printed on a combination of a printed material (such as paper or plastic card) on which a stereoscopic image is printed and an optical element such as a lenticular lens array, which has been known for a long time, is printed. An optical element group (such as a lens array or a barrier array) is attached to the printed surface of the printed material, and the reflected light of each dot of the stereoscopic image printed on the printed material is given directivity by the optical element group. As a result, stereoscopic vision is realized. In the case of such a printed product, it is easy to change the arrangement of the dots of the stereoscopic image to be printed, and therefore the pitch of the dots of the stereoscopic image to be printed is determined according to the optical element group. In addition, when a computer display or the like is used as a pixel panel, a dedicated optical element group (for example, a lenticular lens array) that matches the pixel pitch is designed and manufactured.

本発明は上述した課題に鑑みて為されたものであり、その第1の目的は、従来の立体視の方式のような視点の数と映像解像度とのトレードオフの関係を打破し、自然な立体感と高い解像度を両立させることのできる新しい立体視の方式を提供するとともに、画素パネルと光学素子群のどちらか一方を他方に合わせて専用に設計しなくてはならないといった制約を排除することである。また、第2の目的は、新しい立体視の方式による立体視画像生成の処理速度の低下を最小限に抑えると共に、奥行画像を利用することで、一般的な平面視用のCGツールや写真等から、簡易的な立体視画像の生成を可能にすることである。   The present invention has been made in view of the above-mentioned problems, and a first object of the present invention is to overcome the trade-off relationship between the number of viewpoints and the video resolution as in the conventional stereoscopic vision system, Providing a new stereoscopic method that can achieve both stereoscopic effect and high resolution, and eliminate the restriction that one of the pixel panel and the optical element group must be designed exclusively for the other. It is. The second purpose is to minimize a reduction in the processing speed of generating a stereoscopic image by a new stereoscopic method, and to use a depth image, so that a general CG tool or a photograph for planar viewing is used. Therefore, it is possible to generate a simple stereoscopic image.

以上の課題を解決するための手段を以下説明するが、本発明の立体視の方式は、従来の多眼式及び超多眼式の発展形と考えられるので、主に、多眼式及び超多眼式と比較対照してそれらからの優位性について述べる。   Means for solving the above problems will be described below, but the stereoscopic viewing method of the present invention is considered to be a development of the conventional multi-view and super-multi-view methods. Compared with the multi-view type, the superiority from them is described.

立体視映像表示装置の画素パネルに表示することのできる情報量は一定であるため、従来では、解像度と視点数がトレードオフの関係にあるのは当然の前提と考えられていた。つまり、自然な立体感と高い解像度とを両立させるためには、解像度と視点数以外の要素を導入する必要がある。そこで、本発明では、像の正確さという要素を導入した。   Since the amount of information that can be displayed on the pixel panel of the stereoscopic video display device is constant, it has been conventionally assumed that the resolution and the number of viewpoints have a trade-off relationship. That is, in order to achieve both a natural stereoscopic effect and a high resolution, it is necessary to introduce elements other than the resolution and the number of viewpoints. Therefore, in the present invention, an element of image accuracy is introduced.

従来の立体視の方式は、各視点で視認される映像(像)を念頭において立体視画像を生成している。即ち、先ず各視点の映像となる画像(以下、「個別視点画像」という)を生成し、生成した個別視点画像をインターリーブ処理等することで立体視画像を生成するという過程を経る。各視点で視認される映像となる画像を基にして立体視画像が生成されるため、各視点の映像は当然に正確な像となる。   A conventional stereoscopic method generates a stereoscopic image in consideration of an image (image) viewed at each viewpoint. That is, first, an image (hereinafter referred to as “individual viewpoint image”) that is a video of each viewpoint is generated, and a stereoscopic image is generated by interleaving the generated individual viewpoint image. Since a stereoscopic image is generated based on an image that is a video viewed at each viewpoint, the video at each viewpoint is naturally an accurate image.

本発明によって生成される立体視画像を立体視した場合、各視点で視認される映像は、従来の映像に比べて若干正確さに劣る。しかし、以下の実施形態において詳述する原理の通りに、本発明によって生成される立体視画像は十分に像として視認できる明確性を有している。   When the stereoscopic image generated by the present invention is stereoscopically viewed, the video viewed at each viewpoint is slightly inaccurate compared to the conventional video. However, according to the principle described in detail in the following embodiments, the stereoscopic image generated by the present invention has sufficient clarity to be visually recognized as an image.

一方、本発明によって従来方式では実現できなかった、視点の数及び当該各視点での映像解像度の両者の向上を図ることができたとする点、視点の数の増加に伴う処理負担の増加から立体視画像の生成速度が低下することを防止できたとする点は、以下、各発明に沿って説明する。   On the other hand, it is possible to improve both the number of viewpoints and the video resolution at each viewpoint, which could not be realized by the conventional method according to the present invention, and the increase in processing load accompanying the increase in the number of viewpoints. The point that it was possible to prevent the generation speed of the visual image from being lowered will be described below according to each invention.

上記課題を解決するために、第1の発明は、
画素を配置した画素パネル(例えば、図2の画素パネル20)と、該画素パネルの各画素の射出光線に指向性を与える光学素子群(例えば、図2のレンズ板30)とを備え、所定の想定観察位置における一の光学素子に対する視角を対光学素子視角λ、前記一の光学素子により指向性が与えられる一の画素に対する視角を対画素視角σ、前記画素パネル中の立体視画像描画領域(例えば、図2の表示面22)に対する視角を対描画領域視角Φとしたとき、λ:σ=n:m(但し、nは自然数、mはΦ/λ未満の自然数)が成立しない立体視映像表示装置(例えば、図2の立体視映像表示装置200A、図26の立体視映像表示装置200)に表示させる三次元仮想空間の立体視画像を、前記三次元仮想空間を所与の視点から見た平面視画像である基準画像(例えば、図29の平面視画像)と、前記視点位置を基準とする該基準画像の各ドットの奥行値情報(例えば、図30の奥行画像、図31(b)の奥行情報モデル)とに基づき生成する画像生成装置(例えば、図26の立体視画像生成装置1)であって、
前記立体視画像描画領域内の各画素の色情報について、1)当該画素の代表点及び当該画素の射出光線に指向性を与える光学素子の代表点を通過する光線の方向(例えば、実施形態での代表光線PR)と、前記三次元仮想空間における前記視点位置(例えば、実施形態での画素別視点CM)とに基づいて、前記三次元仮想空間における前記光線の方向に対応する方向を求める方向算出工程(例えば、図32のステップS15,S17)と、2)前記方向算出工程で求められた方向と前記奥行値情報とに基づき、前記三次元仮想空間中の当該方向における最も手前の物体の色情報を表しているドットを前記基準画像の中から判定するドット判定工程(例えば、図33のステップS35〜S61)とを実行し、前記ドット判定工程で判定された前記基準画像のドットの色情報を当該画素の色情報とすることで、立体視画像を生成する画像生成装置である。
In order to solve the above problem, the first invention is:
A pixel panel (for example, the pixel panel 20 in FIG. 2) on which the pixels are arranged, and an optical element group (for example, the lens plate 30 in FIG. 2) that gives directivity to the light emitted from each pixel of the pixel panel. The viewing angle with respect to the one optical element at the assumed observation position is the viewing angle λ with respect to the optical element, the viewing angle with respect to one pixel to which directivity is given by the one optical element is the viewing angle σ with respect to the pixel, and the stereoscopic image drawing area in the pixel panel When the viewing angle with respect to (for example, the display surface 22 in FIG. 2) is a pair-drawing region viewing angle Φ, stereoscopic viewing in which λ: σ = n: m (where n is a natural number and m is a natural number less than Φ / λ) is not established. A stereoscopic image in a three-dimensional virtual space displayed on a video display device (for example, the stereoscopic video display device 200A in FIG. 2 or the stereoscopic video display device 200 in FIG. 26) is displayed from the given viewpoint in the three-dimensional virtual space. It is a planar view image A quasi-image (for example, a planar view image of FIG. 29) and depth value information of each dot of the reference image with the viewpoint position as a reference (for example, a depth image of FIG. 30 and a depth information model of FIG. 31B) An image generation device (for example, the stereoscopic image generation device 1 in FIG. 26) generated based on
Regarding the color information of each pixel in the stereoscopic image drawing region, 1) the direction of the light beam passing through the representative point of the pixel and the representative point of the optical element that gives directivity to the emitted light beam of the pixel (for example, in the embodiment) Of the representative ray PR) and a direction corresponding to the direction of the ray in the three-dimensional virtual space based on the viewpoint position in the three-dimensional virtual space (for example, the pixel-specific viewpoint CM in the embodiment). Calculation step (for example, steps S15 and S17 in FIG. 32) and 2) Based on the direction obtained in the direction calculation step and the depth value information, the closest object in the direction in the three-dimensional virtual space A dot determination step (for example, steps S35 to S61 in FIG. 33) for determining dots representing color information from the reference image is executed, and before the dot determination step is performed. The color information of the reference image dots by the color information of the pixel, an image generating apparatus for generating a stereoscopic image.

第11の発明は、
画素を配置した画素パネル(例えば、図2の画素パネル20)と、該画素パネルの各画素の射出光線に指向性を与える光学素子群(例えば、図2のレンズ板30)とを備え、所定の想定観察位置における一の光学素子に対する視角を対光学素子視角λ、前記一の光学素子により指向性が与えられる一の画素に対する視角を対画素視角σ、前記画素パネル中の立体視画像描画領域(例えば、図2の表示面22)に対する視角を対描画領域視角Φとしたとき、λ:σ=n:m(但し、nは自然数、mはΦ/λ未満の自然数)が成立しない立体視映像表示装置(例えば、図2の立体視映像表示装置200A、図26の立体視映像表示装置200)に表示させる三次元仮想空間の立体視画像を、前記三次元仮想空間を所与の視点から見た平面視画像である基準画像(例えば、図29の平面視画像)と、前記視点位置を基準とする該基準画像の各ドットの奥行値情報(例えば、図30の奥行画像、図31(b)の奥行情報モデル)とに基づき生成する画像生成方法であって、
前記立体視画像描画領域内の各画素の色情報について、1)当該画素の代表点及び当該画素の射出光線に指向性を与える光学素子の代表点を通過する光線の方向(例えば、実施形態での代表光線PR)と、前記三次元仮想空間における前記視点位置(例えば、実施形態での画素別視点CM)とに基づいて、前記三次元仮想空間における前記光線の方向に対応する方向を求める方向算出工程(例えば、図32のステップS15,S17)と、2)前記方向算出工程で求められた方向と前記奥行値情報とに基づき、前記三次元仮想空間中の当該方向における最も手前の物体の色情報を表しているドットを前記基準画像の中から判定するドット判定工程(例えば、図33のステップS35〜S61)とを含み、前記ドット判定工程で判定された前記基準画像のドットの色情報を当該画素の色情報とすることで、立体視画像を生成する画像生成方法である。
The eleventh invention is
A pixel panel (for example, the pixel panel 20 in FIG. 2) on which the pixels are arranged, and an optical element group (for example, the lens plate 30 in FIG. 2) that gives directivity to the light emitted from each pixel of the pixel panel. The viewing angle with respect to the one optical element at the assumed observation position is the viewing angle λ with respect to the optical element, the viewing angle with respect to one pixel to which directivity is given by the one optical element is the viewing angle σ with respect to the pixel, and the stereoscopic image drawing area in the pixel panel When the viewing angle with respect to the display area viewing angle Φ (for example, the display surface 22 in FIG. 2) is Φ: σ = n: m (where n is a natural number and m is a natural number less than Φ / λ) A stereoscopic image in a three-dimensional virtual space displayed on a video display device (for example, the stereoscopic video display device 200A in FIG. 2 or the stereoscopic video display device 200 in FIG. 26) is displayed from the given viewpoint in the three-dimensional virtual space. It is a planar view image A quasi-image (for example, a planar view image of FIG. 29) and depth value information of each dot of the reference image with the viewpoint position as a reference (for example, a depth image of FIG. 30 and a depth information model of FIG. 31B) An image generation method generated based on
Regarding the color information of each pixel in the stereoscopic image drawing region, 1) the direction of the light beam passing through the representative point of the pixel and the representative point of the optical element that gives directivity to the emitted light beam of the pixel (for example, in the embodiment) Of the representative ray PR) and a direction corresponding to the direction of the ray in the three-dimensional virtual space based on the viewpoint position in the three-dimensional virtual space (for example, the pixel-specific viewpoint CM in the embodiment). Calculation step (for example, steps S15 and S17 in FIG. 32) and 2) Based on the direction obtained in the direction calculation step and the depth value information, the closest object in the direction in the three-dimensional virtual space A dot determination step (for example, steps S35 to S61 in FIG. 33) for determining dots representing color information from the reference image, and the dot determination step determines the dot The color information of the dots of the quasi image by the color information of the pixel is an image generating method for generating a stereoscopic image.

第16の発明は、
画素を配置した画素パネル(例えば、図2の画素パネル20)と、該画素パネルの各画素の射出光線に指向性を与える光学素子群(例えば、図2のレンズ板30)とを備え、所定の想定観察位置における一の光学素子に対する視角を対光学素子視角λ、前記一の光学素子により指向性が与えられる一の画素に対する視角を対画素視角σ、前記画素パネル中の立体視画像描画領域(例えば、図2の表示面22)に対する視角を対描画領域視角Φとしたとき、λ:σ=n:m(但し、nは自然数、mはΦ/λ未満の自然数)が成立しない立体視映像表示装置(例えば、図2の立体視映像表示装置200A、図26の立体視映像表示装置200)に表示させる三次元仮想空間の立体視画像を、前記三次元仮想空間を所与の視点から見た平面視画像である基準画像(例えば、図29の平面視画像)と、前記視点位置を基準とする該基準画像の各ドットの奥行値情報(例えば、図30の奥行画像、図31(b)の奥行情報モデル)とに基づきコンピュータ(例えば、図26の立体視画像生成装置1)に生成させるプログラムであって、
前記立体視画像描画領域内の各画素の色情報について、1)当該画素の代表点及び当該画素の射出光線に指向性を与える光学素子の代表点を通過する光線の方向(例えば、実施形態での代表光線PR)と、前記三次元仮想空間における前記視点位置(例えば、実施形態での画素別視点CM)とに基づいて、前記三次元仮想空間における前記光線の方向に対応する方向を求める方向算出工程(例えば、図32のステップS15,S17)と、2)前記方向算出工程で求められた方向と前記奥行値情報とに基づき、前記三次元仮想空間中の当該方向における最も手前の物体の色情報を表しているドットを前記基準画像の中から判定するドット判定工程(例えば、図33のステップS35〜S61)とを実行させ、前記ドット判定工程で判定された前記基準画像のドットの色情報を当該画素の色情報とすることで、立体視画像を生成する手段として、コンピュータを機能させるためのプログラムである。
The sixteenth invention is
A pixel panel (for example, the pixel panel 20 in FIG. 2) on which the pixels are arranged, and an optical element group (for example, the lens plate 30 in FIG. 2) that gives directivity to the light emitted from each pixel of the pixel panel. The viewing angle with respect to the one optical element at the assumed observation position is the viewing angle λ with respect to the optical element, the viewing angle with respect to one pixel to which directivity is given by the one optical element is the viewing angle σ with respect to the pixel, and the stereoscopic image drawing area in the pixel panel When the viewing angle with respect to (for example, the display surface 22 in FIG. 2) is a pair-drawing region viewing angle Φ, stereoscopic viewing in which λ: σ = n: m (where n is a natural number and m is a natural number less than Φ / λ) is not established. A stereoscopic image in a three-dimensional virtual space displayed on a video display device (for example, the stereoscopic video display device 200A in FIG. 2 or the stereoscopic video display device 200 in FIG. 26) is displayed from the given viewpoint in the three-dimensional virtual space. It is a planar view image A quasi-image (for example, a planar view image of FIG. 29) and depth value information of each dot of the reference image with the viewpoint position as a reference (for example, a depth image of FIG. 30 and a depth information model of FIG. 31B) A program (for example, the stereoscopic image generating apparatus 1 in FIG. 26) to generate based on
Regarding the color information of each pixel in the stereoscopic image drawing region, 1) the direction of the light beam passing through the representative point of the pixel and the representative point of the optical element that gives directivity to the emitted light beam of the pixel (for example, in the embodiment) Of the representative ray PR) and a direction corresponding to the direction of the ray in the three-dimensional virtual space based on the viewpoint position in the three-dimensional virtual space (for example, the pixel-specific viewpoint CM in the embodiment). Calculation step (for example, steps S15 and S17 in FIG. 32) and 2) Based on the direction obtained in the direction calculation step and the depth value information, the closest object in the direction in the three-dimensional virtual space A dot determination step (for example, steps S35 to S61 in FIG. 33) for determining dots representing color information from the reference image is executed, and the dot determination step is performed. The color information of the dot of the serial reference image by the color information of the pixel, as a means for generating a stereoscopic image, a program for causing a computer to function.

第1、第11又は第16の発明によれば、いわゆる「ピッチが合わない」立体視映像表示装置に表示させる立体視画像が次のように生成される。即ち、立体視映像表示装置の画素パネル中の立体視画像描画領域内の各画素の色情報を、当該画素の代表点と当該画素の射出光線に指向性を与える光学素子の代表点とを通過する光線の方向に基づいて三次元仮想空間をレンダリング処理して求めることで生成される。   According to the first, eleventh, or sixteenth invention, a stereoscopic image to be displayed on a so-called “pitch mismatched” stereoscopic video display device is generated as follows. That is, the color information of each pixel in the stereoscopic image drawing area in the pixel panel of the stereoscopic video display device passes through the representative point of the pixel and the representative point of the optical element that gives directivity to the emitted light of the pixel. The three-dimensional virtual space is generated by rendering processing based on the direction of the ray to be generated.

従って、生成された立体視画像が上記立体視映像表示装置に表示された場合、画素パネルの各画素には、当該画素の上記光線の方向に基づいた三次元仮想空間の色情報が表されるため、該光線の数ほどに視点がある、即ち画素の数ほどに視点があるといえる。故に、従来の多眼方式のように、想定する視点位置に観察者の目が位置しなくてはならないといったことがなく、超多眼方式のように、一定の領域内に観察者が位置すればどの位置に目があっても良好に立体視することができる。   Therefore, when the generated stereoscopic image is displayed on the stereoscopic video display device, each pixel of the pixel panel represents the color information of the three-dimensional virtual space based on the direction of the light beam of the pixel. Therefore, it can be said that there are as many viewpoints as the number of light rays, that is, as many viewpoints as there are pixels. Therefore, the viewer's eyes must be positioned at the assumed viewpoint position as in the conventional multi-view method, and the observer is positioned within a certain area as in the super multi-view method. Even if there is an eye at any position, it is possible to achieve a good stereoscopic view.

一方、画素パネルの各画素の上記光線は画素毎に別個な方向ではある。しかし、その光線の方向を辿った場合、観察者の左目及びその左目の位置近傍を通過する光線はほぼ均一な方向となる。従って、観察者が視認する像は、その目の位置から見た正確な色情報ではないものの、一定の明確性を有して視認される。そして、画素面の位置における像の解像度は光学素子1つの幅程度となるため、超多眼式のような著しい解像度の劣化には至らない。   On the other hand, the light beam of each pixel of the pixel panel is in a separate direction for each pixel. However, when the direction of the light ray is traced, the light ray passing through the observer's left eye and the vicinity of the position of the left eye is in a substantially uniform direction. Therefore, the image visually recognized by the observer is visually accurate with certain clarity although it is not accurate color information viewed from the position of the eyes. Since the resolution of the image at the position of the pixel surface is about the width of one optical element, it does not lead to a significant resolution degradation as in the super multi-view type.

また、三次元仮想空間を所与の視点から見た平面視画像である基準画像と、視点位置を基準とする基準画像の各ドットの奥行値情報とに基づいて、上記立体視画像を生成することができる。従って、例えば、専用のレンダラを使わなくとも、既存の高品位なCGツールで作成した画像を容易に立体化することができ、汎用性の高い画像生成装置を提供することができる。また、実写画像から立体視画像を作成する場合に、一箇所の視点位置からの撮影で済ませることができるため、容易に立体視画像を生成することができる。   Further, the stereoscopic image is generated based on a reference image that is a planar image obtained by viewing the three-dimensional virtual space from a given viewpoint, and depth value information of each dot of the reference image with the viewpoint position as a reference. be able to. Therefore, for example, an image created with an existing high-quality CG tool can be easily three-dimensionalized without using a dedicated renderer, and a highly versatile image generation apparatus can be provided. In addition, when creating a stereoscopic image from a real image, it is possible to shoot from one viewpoint position, so that a stereoscopic image can be easily generated.

尚、以上のように1視点からの平面視画像とそれに対応する奥行値情報とから立体視画像を生成した場合、左右に回り込んだ視点からの情報がないため、大きく左右に回り込んで観察した場合の画像が、不自然なものとなることがある。しかしながら、想定される観察範囲がそれほど広くない場合、即ち、左右両眼視差の内部ないし外部近傍のみである場合には、その影響は少なく、実用上問題のない立体視画像を得ることができる。   As described above, when a stereoscopic image is generated from the planar image from one viewpoint and the depth value information corresponding thereto, there is no information from the viewpoint that wraps around to the left and right. In such a case, the image may become unnatural. However, when the assumed observation range is not so wide, that is, when the left and right binocular parallax is only inside or near the outside, the influence is small and a stereoscopic image having no practical problem can be obtained.

第2の発明は、
画素を配置した画素パネル(例えば、図2の画素パネル20)と、該画素パネルの各画素の射出光線に指向性を与える光学素子群(例えば、図2のレンズ板30)とを備え、所定の想定観察位置における一の光学素子に対する視角を対光学素子視角λ、前記一の光学素子により指向性が与えられる一の画素に対する視角を対画素視角σ、前記画素パネル中の立体視画像描画領域(例えば、図2の表示面22)に対する視角を対描画領域視角Φとしたとき、λ:σ=n:m(但し、nは自然数、mはΦ/λ未満の自然数)が成立しない立体視映像表示装置(例えば、図2の立体視映像表示装置200A、図26の立体視映像表示装置200)に表示させる三次元仮想空間の立体視画像を、前記三次元仮想空間を所与の視点から見た平面視画像である基準画像(例えば、図29の平面視画像)と、前記視点位置を基準とする該基準画像の各ドットの奥行値情報(例えば、図30の奥行画像、図31(b)の奥行情報モデル)とに基づき生成する画像生成装置(例えば、図26の立体視画像生成装置1)であって、
前記立体視画像描画領域内の各画素の色情報について、1)当該画素の代表点及び当該画素の射出光線に指向性を与える光学素子の代表点を通過する光線の方向(例えば、実施形態での代表光線PR)と、前記三次元仮想空間における前記視点位置(例えば、実施形態での画素別視点CM)とに基づいて、前記三次元仮想空間における前記光線の方向に対応する方向を求める方向算出工程(例えば、図32のステップS15,S17)と、2)前記方向算出工程で求められた方向の軌跡を前記基準画像上に投影して描画する場合に当該軌跡を描くこととなる前記基準画像中のドットのうち、奥行値が最大のドットと最小のドットとの間のドット群を前記奥行値情報に基づいて検出するドット群検出工程(例えば、図33のステップS33)と、3)前記方向算出工程で求めた方向と前記ドット群検出工程で検出されたドット群の各ドットの奥行値とに基づき、当該ドット群の中から、前記三次元仮想空間中の当該方向における最も手前の物体の色情報を表しているドットを判定するドット判定工程(例えば、図33のステップS35〜S61)とを実行し、前記ドット判定工程で判定されたドットの色情報を当該画素の色情報とすることで、立体視画像を生成する画像生成装置である。
The second invention is
A pixel panel (for example, the pixel panel 20 in FIG. 2) on which the pixels are arranged, and an optical element group (for example, the lens plate 30 in FIG. 2) that gives directivity to the light emitted from each pixel of the pixel panel. The viewing angle with respect to the one optical element at the assumed observation position is the viewing angle λ with respect to the optical element, the viewing angle with respect to one pixel to which directivity is given by the one optical element is the viewing angle σ with respect to the pixel, and the stereoscopic image drawing area in the pixel panel When the viewing angle with respect to the display area viewing angle Φ (for example, the display surface 22 in FIG. 2) is Φ: σ = n: m (where n is a natural number and m is a natural number less than Φ / λ) A stereoscopic image in a three-dimensional virtual space displayed on a video display device (for example, the stereoscopic video display device 200A in FIG. 2 or the stereoscopic video display device 200 in FIG. 26) is displayed from the given viewpoint in the three-dimensional virtual space. It is a planar view image A quasi-image (for example, a planar view image of FIG. 29) and depth value information of each dot of the reference image with the viewpoint position as a reference (for example, a depth image of FIG. 30 and a depth information model of FIG. 31B) An image generation device (for example, the stereoscopic image generation device 1 in FIG. 26) generated based on
Regarding the color information of each pixel in the stereoscopic image drawing region, 1) the direction of the light beam passing through the representative point of the pixel and the representative point of the optical element that gives directivity to the emitted light beam of the pixel (for example, in the embodiment) Of the representative ray PR) and a direction corresponding to the direction of the ray in the three-dimensional virtual space based on the viewpoint position in the three-dimensional virtual space (for example, the pixel-specific viewpoint CM in the embodiment). Calculation step (for example, steps S15 and S17 in FIG. 32) and 2) The reference for drawing the locus when the locus of the direction obtained in the direction calculation step is projected and drawn on the reference image. A dot group detection step (for example, step S33 in FIG. 33) for detecting a dot group between a dot having a maximum depth value and a dot having a minimum depth value among the dots in the image based on the depth value information; 3) Based on the direction obtained in the direction calculation step and the depth value of each dot of the dot group detected in the dot group detection step, the most in the direction in the three-dimensional virtual space from the dot group A dot determination step (for example, steps S35 to S61 in FIG. 33) for determining a dot representing the color information of the near object, and the dot color information determined in the dot determination step is used as the color of the pixel. It is an image generation device that generates a stereoscopic image by using information.

第12の発明は、
画素を配置した画素パネル(例えば、図2の画素パネル20)と、該画素パネルの各画素の射出光線に指向性を与える光学素子群(例えば、図2のレンズ板30)とを備え、所定の想定観察位置における一の光学素子に対する視角を対光学素子視角λ、前記一の光学素子により指向性が与えられる一の画素に対する視角を対画素視角σ、前記画素パネル中の立体視画像描画領域(例えば、図2の表示面22)に対する視角を対描画領域視角Φとしたとき、λ:σ=n:m(但し、nは自然数、mはΦ/λ未満の自然数)が成立しない立体視映像表示装置(例えば、図2の立体視映像表示装置200A、図26の立体視映像表示装置200)に表示させる三次元仮想空間の立体視画像を、前記三次元仮想空間を所与の視点から見た平面視画像である基準画像(例えば、図29の平面視画像)と、前記視点位置を基準とする該基準画像の各ドットの奥行値情報(例えば、図30の奥行画像、図31(b)の奥行情報モデル)とに基づき生成する画像生成方法であって、
前記立体視画像描画領域内の各画素の色情報について、1)当該画素の代表点及び当該画素の射出光線に指向性を与える光学素子の代表点を通過する光線の方向(例えば、実施形態での代表光線PR)と、前記三次元仮想空間における前記視点位置(例えば、実施形態での画素別視点CM)とに基づいて、前記三次元仮想空間における前記光線の方向に対応する方向を求める方向算出工程(例えば、図32のステップS15,S17)と、2)前記方向算出工程で求められた方向の軌跡を前記基準画像上に投影して描画する場合に当該軌跡を描くこととなる前記基準画像中のドットのうち、奥行値が最大のドットと最小のドットとの間のドット群を前記奥行値情報に基づいて検出するドット群検出工程(例えば、図33のステップS33)と、3)前記方向算出工程で求めた方向と前記ドット群検出工程で検出されたドット群の各ドットの奥行値とに基づき、当該ドット群の中から、前記三次元仮想空間中の当該方向における最も手前の物体の色情報を表しているドットを判定するドット判定工程(例えば、図33のステップS35〜S61)とを含み、前記ドット判定工程で判定されたドットの色情報を当該画素の色情報とすることで、立体視画像を生成する画像生成方法である。
The twelfth invention
A pixel panel (for example, the pixel panel 20 in FIG. 2) on which the pixels are arranged, and an optical element group (for example, the lens plate 30 in FIG. 2) that gives directivity to the light emitted from each pixel of the pixel panel. The viewing angle with respect to the one optical element at the assumed observation position is the viewing angle λ with respect to the optical element, the viewing angle with respect to one pixel to which directivity is given by the one optical element is the viewing angle σ with respect to the pixel, and the stereoscopic image drawing area in the pixel panel When the viewing angle with respect to (for example, the display surface 22 in FIG. 2) is a pair-drawing region viewing angle Φ, stereoscopic viewing in which λ: σ = n: m (where n is a natural number and m is a natural number less than Φ / λ) is not established. A stereoscopic image in a three-dimensional virtual space displayed on a video display device (for example, the stereoscopic video display device 200A in FIG. 2 or the stereoscopic video display device 200 in FIG. 26) is displayed from the given viewpoint in the three-dimensional virtual space. It is a planar view image A quasi-image (for example, a planar view image of FIG. 29) and depth value information of each dot of the reference image with the viewpoint position as a reference (for example, a depth image of FIG. 30 and a depth information model of FIG. 31B) An image generation method generated based on
Regarding the color information of each pixel in the stereoscopic image drawing region, 1) the direction of the light beam passing through the representative point of the pixel and the representative point of the optical element that gives directivity to the emitted light beam of the pixel (for example, in the embodiment) Of the representative ray PR) and a direction corresponding to the direction of the ray in the three-dimensional virtual space based on the viewpoint position in the three-dimensional virtual space (for example, the pixel-specific viewpoint CM in the embodiment). Calculation step (for example, steps S15 and S17 in FIG. 32) and 2) When the locus of the direction obtained in the direction calculation step is projected on the reference image and drawn, the reference is drawn. A dot group detection step (for example, step S33 in FIG. 33) for detecting a dot group between a dot having a maximum depth value and a dot having a minimum depth value among the dots in the image based on the depth value information; 3) Based on the direction obtained in the direction calculation step and the depth value of each dot of the dot group detected in the dot group detection step, the most in the direction in the three-dimensional virtual space from the dot group A dot determination step (for example, steps S35 to S61 in FIG. 33) for determining a dot representing the color information of the near object, and the dot color information determined in the dot determination step is used as the color information of the pixel. This is an image generation method for generating a stereoscopic image.

第17の発明は、
画素を配置した画素パネル(例えば、図2の画素パネル20)と、該画素パネルの各画素の射出光線に指向性を与える光学素子群(例えば、図2のレンズ板30)とを備え、所定の想定観察位置における一の光学素子に対する視角を対光学素子視角λ、前記一の光学素子により指向性が与えられる一の画素に対する視角を対画素視角σ、前記画素パネル中の立体視画像描画領域(例えば、図2の表示面22)に対する視角を対描画領域視角Φとしたとき、λ:σ=n:m(但し、nは自然数、mはΦ/λ未満の自然数)が成立しない立体視映像表示装置(例えば、図2の立体視映像表示装置200A、図26の立体視映像表示装置200)に表示させる三次元仮想空間の立体視画像を、前記三次元仮想空間を所与の視点から見た平面視画像である基準画像(例えば、図29の平面視画像)と、前記視点位置を基準とする該基準画像の各ドットの奥行値情報(例えば、図30の奥行画像、図31(b)の奥行情報モデル)とに基づきコンピュータ(例えば、図26の立体視画像生成装置1)に生成させるためのプログラムであって、
前記立体視画像描画領域内の各画素の色情報について、1)当該画素の代表点及び当該画素の射出光線に指向性を与える光学素子の代表点を通過する光線の方向(例えば、実施形態での代表光線PR)と、前記三次元仮想空間における前記視点位置(例えば、実施形態での画素別視点CM)とに基づいて、前記三次元仮想空間における前記光線の方向に対応する方向を求める方向算出工程(例えば、図32のステップS15,S17)と、2)前記方向算出工程で求められた方向の軌跡を前記基準画像上に投影して描画する場合に当該軌跡を描くこととなる前記基準画像中のドットのうち、奥行値が最大のドットと最小のドットとの間のドット群を前記奥行値情報に基づいて検出するドット群検出工程(例えば、図33のステップS33)と、3)前記方向算出工程で求めた方向と前記ドット群検出工程で検出されたドット群の各ドットの奥行値とに基づき、当該ドット群の中から、前記三次元仮想空間中の当該方向における最も手前の物体の色情報を表しているドットを判定するドット判定工程(例えば、図33のステップS35〜S61)とを実行させ、前記ドット判定工程で判定されたドットの色情報を当該画素の色情報とすることで、立体視画像を生成する手段としてコンピュータを機能させるためのプログラムである。
The seventeenth invention
A pixel panel (for example, the pixel panel 20 in FIG. 2) on which the pixels are arranged, and an optical element group (for example, the lens plate 30 in FIG. 2) that gives directivity to the light emitted from each pixel of the pixel panel. The viewing angle with respect to the one optical element at the assumed observation position is the viewing angle λ with respect to the optical element, the viewing angle with respect to one pixel to which directivity is given by the one optical element is the viewing angle σ with respect to the pixel, and the stereoscopic image drawing area in the pixel panel When the viewing angle with respect to (for example, the display surface 22 in FIG. 2) is a pair-drawing region viewing angle Φ, stereoscopic viewing in which λ: σ = n: m (where n is a natural number and m is a natural number less than Φ / λ) is not established. A stereoscopic image in a three-dimensional virtual space displayed on a video display device (for example, the stereoscopic video display device 200A in FIG. 2 or the stereoscopic video display device 200 in FIG. 26) is displayed from the given viewpoint in the three-dimensional virtual space. It is a planar view image A quasi-image (for example, a planar view image of FIG. 29) and depth value information of each dot of the reference image with the viewpoint position as a reference (for example, a depth image of FIG. 30 and a depth information model of FIG. 31B) A program for causing a computer (for example, the stereoscopic image generating apparatus 1 in FIG. 26) to generate a program based on
Regarding the color information of each pixel in the stereoscopic image drawing region, 1) the direction of the light beam passing through the representative point of the pixel and the representative point of the optical element that gives directivity to the emitted light beam of the pixel (for example, in the embodiment) Of the representative ray PR) and a direction corresponding to the direction of the ray in the three-dimensional virtual space based on the viewpoint position in the three-dimensional virtual space (for example, the pixel-specific viewpoint CM in the embodiment). Calculation step (for example, steps S15 and S17 in FIG. 32) and 2) When the locus of the direction obtained in the direction calculation step is projected on the reference image and drawn, the reference is drawn. A dot group detection step (for example, step S33 in FIG. 33) for detecting a dot group between a dot having a maximum depth value and a dot having a minimum depth value among the dots in the image based on the depth value information; 3) Based on the direction obtained in the direction calculation step and the depth value of each dot of the dot group detected in the dot group detection step, the most in the direction in the three-dimensional virtual space from the dot group A dot determination step (for example, steps S35 to S61 in FIG. 33) for determining a dot representing the color information of the near object, and the dot color information determined in the dot determination step is used as the color of the pixel. By using the information, it is a program for causing a computer to function as means for generating a stereoscopic image.

第2、第12又は第17の発明によれば、従来の多眼方式のように、想定する視点位置に観察者の目が位置しなくてはならないといったことがなく、超多眼方式のように、一定の領域内に観察者が位置すればどの位置に目があっても良好に立体視することができる。また、観察者が視認する像は、その目の位置から見た正確な色情報ではないものの、一定の明確性を有して視認されるため、画素面の位置における像の解像度は光学素子1つの幅程度となり、超多眼式のような著しい解像度の劣化には至らない。さらに、このような立体視画像を、その生成速度を低下させることなく生成することができる。   According to the second, twelfth, or seventeenth invention, unlike the conventional multi-view system, the observer's eyes have to be positioned at the assumed viewpoint position, as in the super multi-view system. In addition, as long as the observer is located within a certain region, stereoscopic viewing can be satisfactorily performed regardless of where the eyes are. In addition, although the image visually recognized by the observer is not accurate color information viewed from the position of the eyes, the image is visually recognized with a certain degree of clarity. Therefore, the resolution of the image at the position of the pixel surface is the optical element 1. However, the resolution is not significantly reduced as in the super multi-view type. Furthermore, such a stereoscopic image can be generated without reducing its generation speed.

つまり、立体視画像描画領域内の各画素には、当該画素の上記光線の方向に基づいた三次元仮想空間の色情報が表されるため、該光線の数ほどに視点がある、即ち画素の数ほどに視点があるといえる。従って、視点の数の増加に伴い計算工程が増加するため、従来の立体視画像の生成速度と比較して、立体視画像の生成速度が低下することが懸念された。そこで、基準画像中のドットから、奥行値が最大のドットと最小のドットとの間のドット群を奥行値情報に基づいて検出し、検出されたドット群の中から、三次元仮想空間中の上記方向における最も手前の物体の色情報を表しているドットを判定することとした。これにより、奥行値が最大のドットと最小のドットとの間のドット群に関してのみ判定を行えば良いため、計算工程を省略して、高速に立体視画像を生成することができる。   That is, since each pixel in the stereoscopic image drawing area represents the color information of the three-dimensional virtual space based on the direction of the light ray of the pixel, there are as many viewpoints as the number of light rays. It can be said that there are as many perspectives. Therefore, since the number of viewpoints increases as the number of viewpoints increases, there is a concern that the generation speed of the stereoscopic image is reduced as compared with the generation speed of the conventional stereoscopic image. Therefore, from the dots in the reference image, a dot group between the dot with the largest depth value and the dot with the smallest depth value is detected based on the depth value information, and from the detected dot group, in the three-dimensional virtual space The dot representing the color information of the foremost object in the above direction is determined. Thereby, since it is only necessary to make a determination regarding the dot group between the dot having the largest depth value and the dot having the smallest depth value, the calculation step can be omitted and a stereoscopic image can be generated at high speed.

第3の発明は、
画素を配置した画素パネル(例えば、図2の画素パネル20)と、該画素パネルの各画素の射出光線に指向性を与える光学素子群(例えば、図2のレンズ板30)とを備えた立体視映像表示装置(例えば、図2の立体視映像表示装置200A、図26の立体視映像表示装置200)に表示させる三次元仮想空間の立体視画像を、前記三次元仮想空間を所与の視点から見た平面視画像である基準画像(例えば、図29の平面視画像)と、前記視点位置を基準とする該基準画像の各ドットの奥行値情報(例えば、図30の奥行画像、図31(b)の奥行情報モデル)とに基づき生成する画像生成装置(例えば、図26の立体視画像生成装置1)であって、
前記立体視画像描画領域内の各画素の色情報について、1)当該画素及び当該画素の射出光線に指向性を与える光学素子を通過する光線の方向(例えば、実施形態での代表光線PR)と、前記三次元仮想空間における前記視点位置(例えば、実施形態での画素別視点CM)とに基づいて、前記三次元仮想空間における前記光線の方向に対応する方向を求める方向算出工程(例えば、図32のステップS15,S17)と、2)前記方向算出工程で求められた方向の軌跡を前記基準画像上に投影して描画する場合に当該軌跡を描くこととなる前記基準画像中のドットのうち、奥行値が最大のドットと最小のドットとの間のドット群を前記奥行値情報に基づいて検出するドット群検出工程(例えば、図33のステップS33)と、3)前記方向算出工程で求めた方向と前記ドット群検出工程で検出されたドット群の各ドットの奥行値とに基づき、当該ドット群の中から、前記三次元仮想空間中の当該方向における最も手前の物体の色情報を表しているドットを判定するドット判定工程(例えば、図33のステップS35〜S61)とを実行し、前記ドット判定工程で判定されたドットの色情報を当該画素の色情報とすることで、立体視画像を生成する画像生成装置である。
The third invention is
A stereoscopic panel including a pixel panel (for example, the pixel panel 20 in FIG. 2) on which pixels are arranged, and an optical element group (for example, the lens plate 30 in FIG. 2) that gives directivity to the light emitted from each pixel of the pixel panel. A stereoscopic image in a three-dimensional virtual space to be displayed on a visual image display device (for example, the stereoscopic image display device 200A in FIG. 2 or the stereoscopic image display device 200 in FIG. 26) is displayed on the three-dimensional virtual space in a given viewpoint. A reference image (for example, the planar view image of FIG. 29) that is a planar view viewed from the viewpoint, and depth value information (for example, the depth image of FIG. 30, FIG. 31) of each dot of the reference image relative to the viewpoint position. (B) depth information model) and an image generation device (for example, the stereoscopic image generation device 1 in FIG. 26),
Regarding the color information of each pixel in the stereoscopic image drawing region, 1) the direction of the light beam passing through the optical element that gives directivity to the pixel and the emitted light beam of the pixel (for example, the representative light beam PR in the embodiment) and And a direction calculating step for obtaining a direction corresponding to the direction of the light beam in the three-dimensional virtual space based on the viewpoint position in the three-dimensional virtual space (for example, the pixel-specific viewpoint CM in the embodiment) (for example, FIG. 32 of steps S15, S17) and 2) among the dots in the reference image that will draw the locus when the locus in the direction obtained in the direction calculating step is projected onto the reference image and drawn. A dot group detection step (for example, step S33 in FIG. 33) for detecting a dot group between a dot having a maximum depth value and a dot having a minimum depth value based on the depth value information; and 3) calculating the direction. Based on the direction obtained in the step and the depth value of each dot of the dot group detected in the dot group detection step, the color of the nearest object in the direction in the three-dimensional virtual space from the dot group A dot determination step (for example, steps S35 to S61 in FIG. 33) for determining a dot representing information is executed, and the color information of the dot determined in the dot determination step is used as the color information of the pixel. An image generation apparatus that generates a stereoscopic image.

第13の発明は、
画素を配置した画素パネル(例えば、図2の画素パネル20)と、該画素パネルの各画素の射出光線に指向性を与える光学素子群(例えば、図2のレンズ板30)とを備えた立体視映像表示装置(例えば、図2の立体視映像表示装置200A、図26の立体視映像表示装置200)に表示させる三次元仮想空間の立体視画像を、前記三次元仮想空間を所与の視点から見た平面視画像である基準画像(例えば、図29の平面視画像)と、前記視点位置を基準とする該基準画像の各ドットの奥行値情報(例えば、図30の奥行画像、図31(b)の奥行情報モデル)とに基づき生成する画像生成方法であって、
前記立体視画像描画領域内の各画素の色情報について、1)当該画素及び当該画素の射出光線に指向性を与える光学素子を通過する光線の方向(例えば、実施形態での代表光線PR)と、前記三次元仮想空間における前記視点位置(例えば、実施形態での画素別視点CM)とに基づいて、前記三次元仮想空間における前記光線の方向に対応する方向を求める方向算出工程(例えば、図32のステップS15,S17)と、2)前記方向算出工程で求められた方向の軌跡を前記基準画像上に投影して描画する場合に当該軌跡を描くこととなる前記基準画像中のドットのうち、奥行値が最大のドットと最小のドットとの間のドット群を前記奥行値情報に基づいて検出するドット群検出工程(例えば、図33のステップS33)と、3)前記方向算出工程で求めた方向と前記ドット群検出工程で検出されたドット群の各ドットの奥行値とに基づき、当該ドット群の中から、前記三次元仮想空間中の当該方向における最も手前の物体の色情報を表しているドットを判定するドット判定工程(例えば、図33のステップS35〜S61)とを含み、前記ドット判定工程で判定されたドットの色情報を当該画素の色情報とすることで、立体視画像を生成する画像生成方法である。
The thirteenth invention is
A stereoscopic panel including a pixel panel (for example, the pixel panel 20 in FIG. 2) on which pixels are arranged, and an optical element group (for example, the lens plate 30 in FIG. 2) that gives directivity to the light emitted from each pixel of the pixel panel. A stereoscopic image in a three-dimensional virtual space to be displayed on a visual image display device (for example, the stereoscopic image display device 200A in FIG. 2 or the stereoscopic image display device 200 in FIG. 26) is displayed on the three-dimensional virtual space in a given viewpoint. A reference image (for example, the planar view image of FIG. 29) that is a planar view viewed from the viewpoint, and depth value information (for example, the depth image of FIG. 30, FIG. 31) of each dot of the reference image relative to the viewpoint position. (B) a depth information model) and an image generation method that generates the
Regarding the color information of each pixel in the stereoscopic image drawing region, 1) the direction of the light beam passing through the optical element that gives directivity to the pixel and the emitted light beam of the pixel (for example, the representative light beam PR in the embodiment) and And a direction calculating step for obtaining a direction corresponding to the direction of the light beam in the three-dimensional virtual space based on the viewpoint position in the three-dimensional virtual space (for example, the pixel-specific viewpoint CM in the embodiment) (for example, FIG. 32 of steps S15, S17) and 2) among the dots in the reference image that will draw the locus when the locus in the direction obtained in the direction calculating step is projected onto the reference image and drawn. A dot group detection step (for example, step S33 in FIG. 33) for detecting a dot group between a dot having a maximum depth value and a dot having a minimum depth value based on the depth value information; and 3) calculating the direction. Based on the direction obtained in the step and the depth value of each dot of the dot group detected in the dot group detection step, the color of the nearest object in the direction in the three-dimensional virtual space from the dot group A dot determination step (for example, steps S35 to S61 in FIG. 33) for determining a dot representing information, and the color information of the dot determined in the dot determination step is used as the color information of the pixel. This is an image generation method for generating a stereoscopic image.

第18の発明は、
画素を配置した画素パネル(例えば、図2の画素パネル20)と、該画素パネルの各画素の射出光線に指向性を与える光学素子群(例えば、図2のレンズ板30)とを備えた立体視映像表示装置(例えば、図2の立体視映像表示装置200A、図26の立体視映像表示装置200)に表示させる三次元仮想空間の立体視画像を、前記三次元仮想空間を所与の視点から見た平面視画像である基準画像(例えば、図29の平面視画像)と、前記視点位置を基準とする該基準画像の各ドットの奥行値情報(例えば、図30の奥行画像、図31(b)の奥行情報モデル)とに基づきコンピュータ(例えば、図26の立体視画像生成装置1)に生成させるためのプログラムであって、
前記立体視画像描画領域内の各画素の色情報について、1)当該画素及び当該画素の射出光線に指向性を与える光学素子を通過する光線の方向(例えば、実施形態での代表光線PR)と、前記三次元仮想空間における前記視点位置(例えば、実施形態での画素別視点CM)とに基づいて、前記三次元仮想空間における前記光線の方向に対応する方向を求める方向算出工程(例えば、図32のステップS15,S17)と、2)前記方向算出工程で求められた方向の軌跡を前記基準画像上に投影して描画する場合に当該軌跡を描くこととなる前記基準画像中のドットのうち、奥行値が最大のドットと最小のドットとの間のドット群を前記奥行値情報に基づいて検出するドット群検出工程(例えば、図33のステップS33)と、3)前記方向算出工程で求めた方向と前記ドット群検出工程で検出されたドット群の各ドットの奥行値とに基づき、当該ドット群の中から、前記三次元仮想空間中の当該方向における最も手前の物体の色情報を表しているドットを判定するドット判定工程(例えば、図33のステップS35〜S61)とを実行させ、前記ドット判定工程で判定されたドットの色情報を当該画素の色情報とすることで、立体視画像を生成する手段としてコンピュータを機能させるためのプログラムである。
The eighteenth invention
A stereoscopic panel including a pixel panel (for example, the pixel panel 20 in FIG. 2) on which pixels are arranged, and an optical element group (for example, the lens plate 30 in FIG. 2) that gives directivity to the light emitted from each pixel of the pixel panel. A stereoscopic image in a three-dimensional virtual space to be displayed on a visual image display device (for example, the stereoscopic image display device 200A in FIG. 2 or the stereoscopic image display device 200 in FIG. 26) is displayed on the three-dimensional virtual space in a given viewpoint. A reference image (for example, the planar view image of FIG. 29) that is a planar view viewed from the viewpoint, and depth value information (for example, the depth image of FIG. 30, FIG. 31) of each dot of the reference image relative to the viewpoint position. (B) a depth information model) and a program for causing a computer (for example, the stereoscopic image generation apparatus 1 in FIG. 26) to generate the program,
Regarding the color information of each pixel in the stereoscopic image drawing region, 1) the direction of the light beam passing through the optical element that gives directivity to the pixel and the emitted light beam of the pixel (for example, the representative light beam PR in the embodiment) and And a direction calculating step for obtaining a direction corresponding to the direction of the light beam in the three-dimensional virtual space based on the viewpoint position in the three-dimensional virtual space (for example, the pixel-specific viewpoint CM in the embodiment) (for example, FIG. 32 of steps S15, S17) and 2) among the dots in the reference image that will draw the locus when the locus in the direction obtained in the direction calculating step is projected onto the reference image and drawn. A dot group detection step (for example, step S33 in FIG. 33) for detecting a dot group between a dot having a maximum depth value and a dot having a minimum depth value based on the depth value information; and 3) calculating the direction. Based on the direction obtained in the step and the depth value of each dot of the dot group detected in the dot group detection step, the color of the nearest object in the direction in the three-dimensional virtual space from the dot group By executing a dot determination step (for example, steps S35 to S61 in FIG. 33) for determining dots representing information, the color information of the dots determined in the dot determination step is used as the color information of the pixel. A program for causing a computer to function as means for generating a stereoscopic image.

第3、第13又は第18の発明によれば、三次元仮想空間を所与の視点から見た平面視画像である基準画像と、視点位置を基準とする該基準画像の各ドットの奥行値情報とに基づき立体視画像を生成する場合に、ドット群検出工程で、奥行値が最大のドットと最小のドットとの間のドット群を奥行値情報に基づいて検出し、検出されたドット群の中からドット判定工程の判定を行う。これにより、ドット判定行程における計算工程を省略して、高速に立体視画像を生成することができる。   According to the third, thirteenth, or eighteenth invention, a reference image that is a planar image when the three-dimensional virtual space is viewed from a given viewpoint, and a depth value of each dot of the reference image with the viewpoint position as a reference When generating a stereoscopic image based on the information, the dot group detection step detects the dot group between the dot with the largest depth value and the dot with the smallest depth value based on the depth value information, and the detected dot group The dot determination step is determined from among the above. Thereby, the calculation process in the dot determination process can be omitted, and a stereoscopic image can be generated at high speed.

第4の発明は、第3の発明の画像生成装置であって、
前記ドット判定工程は、a)前記ドット群検出工程で検出されたドット群の各ドットの奥行値と、b)前記方向算出工程で求められた方向を軌跡とした場合の前記視点位置を基準とする当該軌跡上の当該ドットに対応する位置の奥行値との対比を、b)の奥行値が手前側のドットから順に行い、対比する2つの奥行値の前後関係が入れ替わったか否かに基づいて、前記三次元仮想空間中の当該方向における最も手前の物体の色情報を表しているドットを判定する工程であることを特徴とする画像生成装置である。
A fourth invention is the image generating device of the third invention,
The dot determination step is based on a) the depth value of each dot of the dot group detected in the dot group detection step, and b) the viewpoint position when the direction obtained in the direction calculation step is a trajectory. The depth value of the position corresponding to the dot on the locus is compared with the depth value of b) in order from the dot on the near side, and based on whether the context of the two depth values to be compared is switched. The image generating apparatus is a step of determining a dot representing color information of the closest object in the direction in the three-dimensional virtual space.

第14の発明は、第13の発明の画像生成方法であって、
前記ドット判定工程は、a)前記ドット群検出工程で検出されたドット群の各ドットの奥行値と、b)前記方向算出工程で求められた方向を軌跡とした場合の前記視点位置を基準とする当該軌跡上の当該ドットに対応する位置の奥行値との対比を、b)の奥行値が手前側のドットから順に行い、対比する2つの奥行値の前後関係が入れ替わったか否かに基づいて、前記三次元仮想空間中の当該方向における最も手前の物体の色情報を表しているドットを判定する工程であることを特徴とする画像生成方法である。
A fourteenth aspect of the invention is an image generation method of the thirteenth aspect of the invention,
The dot determination step is based on a) the depth value of each dot of the dot group detected in the dot group detection step, and b) the viewpoint position when the direction obtained in the direction calculation step is a trajectory. The depth value of the position corresponding to the dot on the locus is compared with the depth value of b) in order from the dot on the near side, and based on whether the context of the two depth values to be compared is switched. The image generating method is a step of determining a dot representing the color information of the closest object in the direction in the three-dimensional virtual space.

第19の発明は、第18の発明のプログラムであって、
前記ドット判定工程は、a)前記ドット群検出工程で検出されたドット群の各ドットの奥行値と、b)前記方向算出工程で求められた方向を軌跡とした場合の前記視点位置を基準とする当該軌跡上の当該ドットに対応する位置の奥行値との対比を、b)の奥行値が手前側のドットから順に行い、対比する2つの奥行値の前後関係が入れ替わったか否かに基づいて、前記三次元仮想空間中の当該方向における最も手前の物体の色情報を表しているドットを判定する行程であることを特徴とするプログラムである。
The nineteenth invention is the program of the eighteenth invention,
The dot determination step is based on a) the depth value of each dot of the dot group detected in the dot group detection step, and b) the viewpoint position when the direction obtained in the direction calculation step is a trajectory. The depth value of the position corresponding to the dot on the locus is compared with the depth value of b) in order from the dot on the near side, and based on whether the context of the two depth values to be compared is switched. A program for determining a dot representing color information of the closest object in the direction in the three-dimensional virtual space.

第4、第14又は第19の発明によれば、a)ドット群検出工程で検出されたドット群の各ドットの奥行値と、b)方向算出工程で求められた方向を軌跡とした場合の視点位置を基準とする当該軌跡上の当該ドットに対応する位置の奥行値との対比を、b)の奥行値が手前側のドットから順に行い、対比する2つの奥行値の前後関係が入れ替わったか否かに基づいて、三次元仮想空間中の当該方向における最も手前の物体の色情報を表しているドットを判定する。つまり、ドット群の奥行値が手前側のドットから順に、最も手前の物体の色情報を表しているドットを判定していくため、速やかに目的とするドットの判定に到達することができる。また、対比する奥行値の前後関係の入れ替わりに基づいて、最も手前の物体の色情報を表しているドットの判定を行うため、簡単な演算でドットの判定を行うことができ、計算処理を高速化することができる。   According to the fourth, fourteenth, or nineteenth invention, a) the depth value of each dot of the dot group detected in the dot group detection step, and b) the direction obtained in the direction calculation step as a locus. Whether the depth value of b) is compared with the depth value of the position on the locus on the basis of the viewpoint position in order from the dot on the near side, and the context of the two depth values to be compared is switched. Based on whether or not, the dot representing the color information of the closest object in the direction in the three-dimensional virtual space is determined. That is, since the dot representing the color information of the closest object is determined in order from the dot with the depth value of the dot group in order, the target dot determination can be reached quickly. In addition, because the dot representing the color information of the nearest object is determined based on the change in the context of the depth value to be compared, the dot can be determined with a simple calculation and the calculation process can be performed at high speed. Can be

第5の発明は、第4の発明の画像生成装置であって、
前記ドット判定工程は、対比する2つの奥行値の前後関係が入れ替わらなかった場合、b)の奥行値が最も奥側の端部のドットの当該ドット群とは反対側に隣接するドットを、前記三次元仮想空間中の当該方向における最も手前の物体の色情報を表しているドットとして判定する工程であることを特徴とする画像生成装置である。
The fifth invention is the image generating device of the fourth invention,
In the dot determination step, when the contexts of the two depth values to be compared are not interchanged, the depth value of b) is a dot adjacent to the opposite side of the dot group of the end dot on the farthest side, The image generating apparatus is a step of determining as a dot representing color information of the closest object in the direction in the three-dimensional virtual space.

第15の発明は、第14の発明の画像生成方法であって、
前記ドット判定工程は、対比する2つの奥行値の前後関係が入れ替わらなかった場合、b)の奥行値が最も奥側の端部のドットの当該ドット群とは反対側に隣接するドットを、前記三次元仮想空間中の当該方向における最も手前の物体の色情報を表しているドットとして判定する工程であることを特徴とする画像生成方法である。
A fifteenth aspect of the invention is the image generation method of the fourteenth aspect of the invention,
In the dot determination step, when the contexts of the two depth values to be compared are not interchanged, the depth value of b) is a dot adjacent to the opposite side of the dot group of the end dot on the farthest side, The image generation method is a step of determining as a dot representing the color information of the foremost object in the direction in the three-dimensional virtual space.

第20の発明は、第19の発明のプログラムであって、
前記ドット判定工程は、対比する2つの奥行値の前後関係が入れ替わらなかった場合、b)の奥行値が最も奥側の端部のドットの当該ドット群とは反対側に隣接するドットを、前記三次元仮想空間中の当該方向における最も手前の物体の色情報を表しているドットとして判定する工程であることを特徴とするプログラムである。
The twentieth invention is the program of the nineteenth invention,
In the dot determination step, when the contexts of the two depth values to be compared are not interchanged, the depth value of b) is a dot adjacent to the opposite side of the dot group of the end dot on the farthest side, The program is a step of determining as a dot representing the color information of the closest object in the direction in the three-dimensional virtual space.

第5、第15又は第20の発明によれば、対比する2つの奥行値の前後関係が入れ替わらなかった場合、b)の奥行値が最も奥側の端部のドットの当該ドット群とは反対側に隣接するドットを、前記三次元仮想空間中の当該方向における最も手前の物体の色情報を表しているドットとして判定する。つまり、対比する2つの奥行値の前後関係が入れ替わらなかった場合は、b)の奥行値が最も奥側の端部のドットと、ドット群と反対側でこのドットに隣接するドットとの間で、対比する2つの奥行値の前後関係が入れ替わるため、ドット群と反対側でこのドットに隣接するドットを最も手前の物体の色情報を表しているドットとして判定することができる。これにより、ドット群検出工程で検出されたドット群の中に最も手前の物体の色情報を表しているドットが含まれない場合であっても、容易に最も手前の物体の色情報を表しているドットを判定して、迅速に立体視画像を生成することができる。   According to the fifth, fifteenth, or twentieth invention, when the order of the two depth values to be compared is not interchanged, the depth group in b) is the dot group of the dot at the end on the farthest side. A dot adjacent to the opposite side is determined as a dot representing the color information of the closest object in the direction in the three-dimensional virtual space. That is, if the context of the two depth values to be compared is not interchanged, the depth value in b) is the distance between the dot at the end on the farthest side and the dot adjacent to this dot on the side opposite to the dot group. Thus, since the order of the two depth values to be compared changes, the dot adjacent to this dot on the side opposite to the dot group can be determined as the dot representing the color information of the closest object. Thus, even when the dot group detected in the dot group detection step does not include the dot representing the color information of the foremost object, the color information of the foremost object is easily represented. It is possible to quickly determine a stereoscopic image by determining the dot that is present.

第6の発明として、第1〜第5の何れか一つの発明の画像生成装置の前記光学素子群を、レンチキュラレンズアレイ、蝿の目レンズアレイ、パララックスバリアアレイ、又はピンホールアレイとしても良い。   As a sixth aspect of the invention, the optical element group of the image generation apparatus according to any one of the first to fifth aspects may be a lenticular lens array, an eyelet lens array, a parallax barrier array, or a pinhole array. .

第7の発明として、第1〜第5の何れか一つの発明の画像生成装置の前記光学素子群を、光学素子としてレンズが複数連接されたレンチキュラレンズアレイ又は蝿の目レンズアレイとし、
当該光学素子群を、前記画素パネルの表示面と前記光学素子群の主点面との間の距離が前記レンズの焦点距離に一致するように前記画素パネルと観察者との間に設置することとしても良い。
As a seventh invention, the optical element group of the image generation apparatus according to any one of the first to fifth inventions is a lenticular lens array in which a plurality of lenses are connected as an optical element, or an eyelet lens array,
The optical element group is installed between the pixel panel and an observer so that the distance between the display surface of the pixel panel and the principal point plane of the optical element group matches the focal length of the lens. It is also good.

第8の発明として、第1〜第5の何れか一つ記載の画像生成装置の前記光学素子群を、光学素子としてレンズが複数連接されたレンチキュラレンズアレイ又は蝿の目レンズアレイとし、
当該光学素子群を、前記画素パネルの表示面と前記光学素子群の主点面との間の距離をD、前記レンズの焦点距離をF、前記画素の水平走査方向のピッチをS、前記レンズの水平走査方向のピッチをLとしたとき、(L−S)・F/L≦D≦(L+S)・F/L、が成立するように前記画素パネルと観察者との間に設置することとしても良い。
As an eighth invention, the optical element group of the image generation apparatus according to any one of the first to fifth is a lenticular lens array in which a plurality of lenses are connected as an optical element or an eyelet lens array,
In this optical element group, the distance between the display surface of the pixel panel and the principal point plane of the optical element group is D, the focal length of the lens is F, the pitch of the pixels in the horizontal scanning direction is S, and the lens Is set between the pixel panel and the viewer so that (LS) .multidot.F / L.ltoreq.D.ltoreq. (L + S) .multidot.F / L. It is also good.

第9の発明として、第6〜第8の何れか一つの発明の画像生成装置の前記光学素子群を、光学素子配列方向が前記画素パネルの画素配列方向に対して斜めとなるように配置することとしても良い。   As a ninth invention, the optical element group of the image generating apparatus according to any one of the sixth to eighth inventions is arranged so that an optical element arrangement direction is oblique with respect to a pixel arrangement direction of the pixel panel. It's also good.

第10の発明は、
画素を配置した画素パネルと、
前記画素パネルの各画素の射出光線に指向性を与える光学素子群と、
前記画素パネルに表示させる三次元仮想空間の立体視画像を生成する第1〜第9の発明の画像生成装置と、
を備える電子機器である。
The tenth invention is
A pixel panel in which pixels are arranged;
An optical element group that gives directivity to the emitted light of each pixel of the pixel panel;
An image generating device according to any of the first to ninth inventions for generating a stereoscopic image of a three-dimensional virtual space to be displayed on the pixel panel;
Is an electronic device.

第10の発明によれば、第1〜第9の何れかの発明と同様の作用効果を有する電子機器を実現できる。   According to the tenth invention, an electronic apparatus having the same function and effect as any one of the first to ninth inventions can be realized.

像の正確さを立体視に支障のない程度に劣化させることで、画素パネルの全画素数に相当する視点がありながらも、映像の解像度を光学素子1つ分の幅程度に保つことができる新たな立体視の方式を実現できるとともに、画素パネルと光学素子群のどちらか一方を他方に合わせて専用に設計しなくてはならないといった制約を排除することができる。また、新しい立体視の方式による立体視画像生成の処理速度を高速化することができる。   By degrading the accuracy of the image to such an extent that it does not hinder stereoscopic vision, the resolution of the image can be maintained at the width of one optical element, although there is a viewpoint corresponding to the total number of pixels of the pixel panel. A new stereoscopic method can be realized, and the restriction that one of the pixel panel and the optical element group must be designed exclusively for the other can be eliminated. In addition, the processing speed of generating a stereoscopic image by a new stereoscopic method can be increased.

以下、図面を参照して本発明の好適な実施形態を説明する。尚、各図面では、光線の方向を明確に示すためにあえてハッチングを描いていない。また、以下では、光学素子群としてレンチキュラレンズアレイを用いた立体視映像表示装置に表示させる立体視画像を生成する場合について説明するが、本発明の適用がこれに限定されるものではない。   Preferred embodiments of the present invention will be described below with reference to the drawings. In each drawing, hatching is not drawn in order to clearly show the direction of light rays. In the following, a case where a stereoscopic image to be displayed on a stereoscopic video display device using a lenticular lens array as an optical element group is generated will be described, but the application of the present invention is not limited to this.

[立体視画像の生成原理]
立体視画像の生成方法には、(I)正確な3次元モデルから、レンダリングと同時に作成する方法、(II)1視点からの平面視画像と奥行画像とから立体視画像を作成する方法、(III)2眼又は多眼分の画像を作成し、それらから中間視点のものを補間して作成する方法などがある。本実施形態では、方法(I),(II)に基づき立体視画像を生成する場合を一例として以下説明する。
[Generation principle of stereoscopic images]
Stereo image generation methods include (I) a method of creating an accurate 3D model at the same time as rendering, (II) a method of creating a stereoscopic image from a planar image and a depth image from one viewpoint, III) There is a method of creating an image for two eyes or multiple eyes and interpolating an intermediate viewpoint from them. In the present embodiment, a case where a stereoscopic image is generated based on the methods (I) and (II) will be described below as an example.

先ず、方法(I)に基づき立体視画像を生成する場合について説明する。
図1は、本実施形態における立体視画像生成の概要を示す図であり、表示面22に対する垂直断面図を示している。同図に示すように、本実施形態では、表示面22の画素PE毎に、(1)該画素PEの代表点(例えば、画素PEの中心)と該画素PEに対応するレンズ(光学素子)の主点とを通過した後の光線の逆方向を視線方向とする視線Vを決定し、(2)決定した視線Vの視線方向にある物体の色情報を該画素PEの色情報とする(レンダリング)、ことで立体視画像を生成する。
First, a case where a stereoscopic image is generated based on the method (I) will be described.
FIG. 1 is a diagram showing an outline of stereoscopic image generation in this embodiment, and shows a vertical sectional view with respect to the display surface 22. As shown in the figure, in this embodiment, for each pixel PE on the display surface 22, (1) a representative point of the pixel PE (for example, the center of the pixel PE) and a lens (optical element) corresponding to the pixel PE (2) The color information of the object in the line-of-sight direction of the determined line-of-sight V is used as the color information of the pixel PE ( Rendering) to generate a stereoscopic image.

(1)視線Vの決定
視線Vは、立体視画像を表示させることとなる立体視映像表示装置の構成パラメータ(後述するように、画素パネルとレンズ板との相対的な配置関係や画素パネルの画素ピッチ、レンズ板のレンズピッチや焦点距離等)と、想定した観察者の位置(以下、「想定観察位置」という)とに基づいて決定する。具体的には、画素PE毎に、立体視映像表示装置の構成パラメータ及び想定観察位置に基づいて該画素PEに対応するレンズ(光学素子)を決定し、該画素PEの代表点と決定した該画素PEに対応するレンズの主点とを通過した後の光線(代表光線)を算出する。そして、その代表光線PRと位置は同じで方向を逆にした視線を該画素の視線Vとして決定する。尚、想定観察位置は、立体視映像表示装置の表示面に対する相対的な観察者の視点の位置とする。
(1) Determination of the line of sight V The line of sight V is a configuration parameter of a stereoscopic video display device that displays a stereoscopic image (as will be described later, the relative arrangement relationship between the pixel panel and the lens plate, The pixel pitch, the lens pitch of the lens plate, the focal length, and the like) and an assumed observer position (hereinafter referred to as “assumed observation position”). Specifically, for each pixel PE, a lens (optical element) corresponding to the pixel PE is determined based on the configuration parameter of the stereoscopic video display device and the assumed observation position, and the representative point of the pixel PE is determined. A ray (representative ray) after passing through the principal point of the lens corresponding to the pixel PE is calculated. Then, the line of sight having the same position as that of the representative light ray PR and having the direction reversed is determined as the line of sight V of the pixel. The assumed observation position is the position of the observer's viewpoint relative to the display surface of the stereoscopic video display device.

ここで、本実施形態で扱う立体視映像表示装置について説明する。本実施形態では、レンチキュラ方式の立体視映像表示装置に表示させる立体視画像を生成する。レンチキュラ方式の立体視映像表示装置とは、光学素子群としてレンチキュラレンズアレイを用いた立体視映像表示装置であり、平面液晶ディスプレイ等のフラットパネルディスプレイの表示面から一定の距離にレンチキュラレンズアレイが装着され、観察者がレンチキュラレンズアレイを介して表示面に表示された画像を見る(観察する)ことで、観察者に立体視を認識せしめる表示装置である。   Here, the stereoscopic video display apparatus handled in this embodiment will be described. In the present embodiment, a stereoscopic image to be displayed on a lenticular stereoscopic image display device is generated. A lenticular stereoscopic image display device is a stereoscopic image display device that uses a lenticular lens array as an optical element group, and the lenticular lens array is mounted at a certain distance from the display surface of a flat panel display such as a flat liquid crystal display. The display device allows the observer to recognize stereoscopic vision by viewing (observing) the image displayed on the display surface via the lenticular lens array.

図2は、垂直レンチキュラ方式の立体視映像表示装置200Aの概略構造を示す図である。同図(a)は、立体視映像表示装置200Aの表示面に対する横方向(水平走査方向)断面図を示し、同図(b)は、観察者側から見た平面図を示している。   FIG. 2 is a diagram showing a schematic structure of a vertical lenticular stereoscopic image display apparatus 200A. FIG. 4A shows a cross-sectional view in the horizontal direction (horizontal scanning direction) with respect to the display surface of the stereoscopic video display apparatus 200A, and FIG. 4B shows a plan view seen from the observer side.

同図によれば、立体視映像表示装置200Aは、主に、バックライト10と、画素パネル20と、レンズ板30とを備えて構成される。バックライト10、画素パネル20及びレンズ板30は、それぞれ板状体であって互いに平行に配置されている。   According to the figure, the stereoscopic video display apparatus 200A is mainly configured to include a backlight 10, a pixel panel 20, and a lens plate 30. The backlight 10, the pixel panel 20, and the lens plate 30 are plate-like bodies and are arranged in parallel to each other.

バックライト10は光を出射し、その光は画素パネル20とレンズ板30とを通過して立体視映像表示装置200Aの外に進行する。即ち、観察者は、レンズ板30を介して画素パネル20に表示される画像を見ることになる。   The backlight 10 emits light, which passes through the pixel panel 20 and the lens plate 30 and travels out of the stereoscopic video display device 200A. That is, the observer sees an image displayed on the pixel panel 20 through the lens plate 30.

画素パネル20は、画素(ピクセル)が一定の配列で配置されたカラー表示可能なディスプレイであり、レンズ板30と組み合わせることで立体視が可能となるものであれば種類は問わない。例えば、カラーフィルタ方式の液晶ディスプレイ、プラズマディスプレイ、無機ELディスプレイ或いは有機ELディスプレイ等がある。また、カラーフィルタを用いないものでも、単色発光素子を配列した有機ELディスプレイやLEDディスプレイのように、赤(R)、緑(G)及び青(B)等の単色に自発光する素子を配置したディスプレイであっても適用可能である。また、いわゆる同色に発光する画素が配置されたモノクロディスプレイであっても構わず、更には、R(赤),G(緑),B(青)以外の色の画素を持ったディスプレイであっても構わない。また、画素の配置については、格子状は勿論、画素の代表点の座標を求めることが可能なものであれば、デルタ配列やその他の配列であっても構わない。   The pixel panel 20 is a display capable of color display in which pixels (pixels) are arranged in a fixed arrangement, and any type can be used as long as it can be stereoscopically combined with the lens plate 30. For example, there are a color filter type liquid crystal display, a plasma display, an inorganic EL display, an organic EL display, and the like. Even if no color filter is used, elements that emit light in a single color such as red (R), green (G), and blue (B) are arranged like an organic EL display or LED display in which single-color light emitting elements are arranged. Even a display that has been used is applicable. Further, it may be a monochrome display in which pixels emitting light of the same color are arranged, and further, a display having pixels of colors other than R (red), G (green), and B (blue). It doesn't matter. Further, the pixel arrangement may be a delta arrangement or other arrangements as long as the coordinates of the representative points of the pixels can be obtained as well as the lattice shape.

レンズ板30は、一方の面が、断面半円筒状(蒲鉾型)若しくはこれと光学的に等価な光学素子であるマイクロレンズ(以下、単に「レンズ」という)32が連接して成る凹凸面であり、他方の面が略平面状のレンチキュラレンズアレイである。レンズ板30の各レンズ32は、表示面22の各画素PEから射出される光線(射出光線)に指向性を与える働きをする。   One surface of the lens plate 30 is a concavo-convex surface formed by connecting a microlens (hereinafter simply referred to as a “lens”) 32 that is a semi-cylindrical cross section (saddle-shaped) or an optical element optically equivalent thereto. There is a lenticular lens array whose other surface is substantially planar. Each lens 32 of the lens plate 30 functions to give directivity to light rays (emitted light rays) emitted from the respective pixels PE of the display surface 22.

また、レンズ板30は、平面が画素パネル20の表示面22に対向し、且つ、レンズ板30の主点面と表示面22との間の距離Gが各レンズ32の焦点距離Fにほぼ一致するように配置されている。尚、この距離Gは、焦点距離Fに完全に一致せず、ある程度の誤差があっても良い。例えば図49(a)は、G=F、とした状態であり、特定の方向から見ると、1つの画素PEがレンズ32いっぱいに広がって観察される。また、距離Gが焦点距離Fから少し離れた位置、即ち同図(b)、(c)に示す状態でも、特定の方向から見ると、1つの画素PEがレンズ32いっぱいに広がって観察される。しかし、距離Gが焦点距離Fからこれ以上離れた位置になると、レンズ32がその隣の画素PEをも映してしまうため、立体視の画質が損なわれる。即ち、画素パネル20のサブピクセル単位での画素ピッチの長さをS、レンズ板30のレンズピッチの長さをLとすると、距離Gが次式(1)を満たすように配置されていれば、そうでない場合よりも画質の良い立体視を実現することができる。
(L−S)・F/L≦G≦(L+S)・F/L ・・・(1)
The lens plate 30 has a flat surface facing the display surface 22 of the pixel panel 20, and the distance G between the principal point surface of the lens plate 30 and the display surface 22 substantially matches the focal length F of each lens 32. Are arranged to be. Note that the distance G does not completely coincide with the focal length F and may have some error. For example, FIG. 49A shows a state in which G = F, and when viewed from a specific direction, one pixel PE extends over the lens 32 and is observed. Further, even when the distance G is slightly away from the focal distance F, that is, in the state shown in FIGS. 5B and 5C, when viewed from a specific direction, one pixel PE is observed to spread over the entire lens 32. . However, when the distance G is further away from the focal distance F, the lens 32 also displays the adjacent pixel PE, so that the stereoscopic image quality is impaired. That is, if the pixel pitch length in the sub-pixel unit of the pixel panel 20 is S and the lens pitch length of the lens plate 30 is L, the distance G is arranged so as to satisfy the following expression (1). Therefore, it is possible to realize a stereoscopic view with better image quality than in other cases.
(LS) · F / L ≦ G ≦ (L + S) · F / L (1)

尚、IP方式では、像を一定距離Cに結像させるため、距離Gが焦点距離Fよりも長くなっている。つまり、次式が成立する。この点において、本実施形態における方式は、IP方式とは原理的に異なる。
1/G+1/C=1/F、即ち、G=(C・F)/(C−F)>F
また、光線再生法では、複数の距離で結像させるため、光学素子にレンズを用いることができず、ピンホールを用いている。この点において、本方式は光線再生法とも原理的に異なる。
In the IP system, the distance G is longer than the focal length F in order to form an image at a constant distance C. That is, the following equation is established. In this respect, the system in this embodiment is different in principle from the IP system.
1 / G + 1 / C = 1 / F, that is, G = (C · F) / (C−F)> F
In the light beam reproduction method, since an image is formed at a plurality of distances, a lens cannot be used as an optical element, and a pinhole is used. In this respect, this method is also different in principle from the light beam reproduction method.

表示パネル20及びレンズ板30をこのように配置させることで、各レンズ32の焦点が画素パネル20の表示面22の一点に位置し、該焦点が位置する画素PEがレンズ32によって拡大されて見えることになる。尚、光学的にほぼ等価であるとみなせる場合には、レンズ板30の凹凸面を画素パネル20の表示面22に対向するように配置しても良い。   By disposing the display panel 20 and the lens plate 30 in this way, the focal point of each lens 32 is located at one point on the display surface 22 of the pixel panel 20, and the pixel PE where the focal point is located appears enlarged by the lens 32. It will be. In addition, when it can be considered that it is optically substantially equivalent, you may arrange | position so that the uneven surface of the lens plate 30 may oppose the display surface 22 of the pixel panel 20. FIG.

また、レンズ板30は、図2(b)に示すように、各レンズ32の主点線36(主点の集合。レンチキュラレンズ板のマイクロレンズは断面円筒形状(蒲鉾型)であるため、主点の集合は直線となる)の方向が画素パネル20の縦方向の画素配列方向(鉛直走査方向)に一致するように配置される。同図(b)において、線32aはレンズ板30の各レンズ32の端部を示している。   Further, as shown in FIG. 2B, the lens plate 30 has a principal dotted line 36 (a set of principal points) of each lens 32. Since the microlens of the lenticular lens plate has a cylindrical cross section (a bowl shape), the principal point Are arranged in such a manner that the direction of the pixel line 20 coincides with the vertical pixel arrangement direction (vertical scanning direction) of the pixel panel 20. In FIG. 2B, a line 32a indicates an end portion of each lens 32 of the lens plate 30.

ところで、従来のレンチキュラ方式の立体視映像表示装置では、レンズ板のレンズピッチと画素パネルの画素ピッチとが合う(以下、単に「ピッチが合う」という)ように設計される。即ち、n眼式の場合には次式(2)が成立する。
L=n・S ・・・(2)
By the way, the conventional lenticular stereoscopic image display device is designed so that the lens pitch of the lens plate matches the pixel pitch of the pixel panel (hereinafter simply referred to as “pitch match”). That is, in the case of the n-eye system, the following expression (2) is established.
L = n · S (2)

しかし、本実施形態では、レンズ板30は、レンズピッチが画素パネル20の画素ピッチとが合わない(以下、単に「ピッチが合わない」という)ように設計されている。即ち、次式(3)が成立しない。
L=n・S ・・・(3)
但し、nは自然数である。
However, in the present embodiment, the lens plate 30 is designed such that the lens pitch does not match the pixel pitch of the pixel panel 20 (hereinafter simply referred to as “pitch does not match”). That is, the following equation (3) is not satisfied.
L = n · S (3)
However, n is a natural number.

ところで、実際に観察者が立体視映像表示装置に表示された立体視画像を見る場合には、その観察者の視点は表示面22から有限距離に位置する。即ち、図3に示すように、表示面22の場所によって観察者の視点の視線方向が異なり、このため、レンズ32と画素PEとの対応関係がずれることになる。つまり、実質的なレンズピッチL´は次式(4)で与えられる。尚、同図は、本実施形態の立体視映像表示装置の表示面に対する横方向断面図を示している。
L´=L×(D+F)/D ・・・(4)
但し、Dは、観察者の視点と表示面との間の距離である。
By the way, when an observer actually views a stereoscopic image displayed on the stereoscopic video display device, the viewpoint of the observer is located at a finite distance from the display surface 22. That is, as shown in FIG. 3, the line-of-sight direction of the observer's viewpoint differs depending on the location of the display surface 22, and therefore the correspondence between the lens 32 and the pixel PE is shifted. That is, the substantial lens pitch L ′ is given by the following equation (4). The figure shows a cross-sectional view in the transverse direction with respect to the display surface of the stereoscopic video display device of the present embodiment.
L ′ = L × (D + F) / D (4)
However, D is the distance between an observer's viewpoint and a display surface.

従って、厳密には、次式(5)が成立することが「ピッチが合う」状態であり、成立しないことが「ピッチが合わない」状態であるといえる。
L´=n・S ・・・(5)
Therefore, strictly speaking, it can be said that the following equation (5) is satisfied in the “pitch match” state, and not satisfied is the “pitch mismatch” state.
L ′ = n · S (5)

また、「ピッチが合う/合わない」ことは、実際(或いは、想定した)の観察者の視点から見た1つの画素PEに対する視角(対画素視角)σと、この画素PEの射出光線に指向性を与える1つのレンズ32に対する視角(対レンズ視角)λとによっても表現される。対画素視角σは式(6a)で与えられ、対レンズ視角λは次式(6b)で与えられる。
tanσ=S/(D+F) ・・・(6a)
tanλ=L/D ・・・(6b)
In addition, “pitch matches / does not match” refers to a viewing angle (versus-pixel viewing angle) σ with respect to one pixel PE viewed from the viewpoint of an actual (or assumed) observer, and an emission ray of the pixel PE. It is also expressed by a viewing angle (a viewing angle with respect to the lens) λ with respect to one lens 32 that imparts a characteristic. The anti-pixel viewing angle σ is given by the equation (6a), and the anti-lens viewing angle λ is given by the following equation (6b).
tanσ = S / (D + F) (6a)
tanλ = L / D (6b)

そして、次式(7)が成立することが「ピッチが合う」状態であり、成立しないことが「ピッチが合わない」状態である。
λ=n・σ ・・・(7)
但し、nは自然数である。
If the following expression (7) is satisfied, the “pitch is matched” state is satisfied, and if not satisfied, the “pitch is not matched” state.
λ = n · σ (7)
However, n is a natural number.

つまり、式(7)が成立するのは、対レンズ視角λのm倍が対画素視角σのn倍に一致する、即ちレンズピッチL´のm倍が画素ピッチSのn倍に一致する場合であり、その場合が「ピッチが合う」状態であるといえる。   That is, Expression (7) is satisfied when m times the viewing angle λ of the lens matches n times viewing angle σ of the pixel, that is, m times the lens pitch L ′ matches n times the pixel pitch S. In this case, it can be said that the pitch is “matched”.

尚、式(7)の条件は、従来の多眼式或いは超多眼式の立体視において、各視点間の距離を人間の両眼距離と一致させる必要を考慮しない場合の条件である。各視点間の距離を人間の両眼距離と一致させるためには、図50に示すように、観察距離Dと、両眼距離Eと、画素ピッチSと、レンズの焦点距離Fとの間に次式(8)が成立する必要がある。
E/D=S/F ・・・(8)
即ち、従来の各視点間の距離を人間の両眼距離と一致させた多眼式の場合には、式(7)及び式(8)を同時に満たす必要がある。そのため、従来の多眼式では、正確なレンズ設計が必要であった。
The condition of Expression (7) is a condition in the case of not considering the necessity of making the distance between the viewpoints coincide with the binocular distance of the human in the conventional multi-view or super-multi-view stereoscopic view. In order to make the distance between the viewpoints coincide with the binocular distance of the human, as shown in FIG. 50, the distance between the observation distance D, the binocular distance E, the pixel pitch S, and the focal distance F of the lens. The following equation (8) needs to be satisfied.
E / D = S / F (8)
That is, in the case of a multi-lens system in which the distance between the respective viewpoints is matched with the human binocular distance, it is necessary to satisfy the expressions (7) and (8) at the same time. Therefore, an accurate lens design is necessary for the conventional multi-lens system.

このように、従来の多眼式では、水平方向で一定の長さ毎に同じ視点の繰り返しが発生している。また、これらの多眼式では、予め設定されたn個の視点(個別視点)に基づく画像(個別視点画像)を生成し、それらの画像を視点の繰り返しパターンに合わせて再配置(インターリーブ)することで立体視画像を生成している。   As described above, in the conventional multi-view system, the same viewpoint is repeatedly generated for every certain length in the horizontal direction. In addition, in these multi-view systems, images (individual viewpoint images) based on n preset viewpoints (individual viewpoints) are generated, and these images are rearranged (interleaved) according to the viewpoint repetition pattern. Thus, a stereoscopic image is generated.

しかしながら、本実施形態の画像生成方法では、以上のような同じ視点の繰り返しが発生しない場合にこそ、良い立体視画像が得られることを特徴としている。ここで、水平方向に同じ視点の繰り返しが発生する条件とは、前述の対画素視角σと対レンズ視角λとの間に、次式(9)の関係が成立することであるといえる。
λ:σ=n:m ・・・(9)
但し、n、mは自然数である。
However, the image generation method of the present embodiment is characterized in that a good stereoscopic image can be obtained only when the same viewpoint is not repeated as described above. Here, it can be said that the condition that the same viewpoint repeats in the horizontal direction is that the relationship of the following expression (9) is established between the above-described anti-pixel viewing angle σ and the anti-lens viewing angle λ.
λ: σ = n: m (9)
However, n and m are natural numbers.

つまり、式(9)が成立しないときが、「同じ視点の繰り返しが発生しない」、即ち「ピッチが合わない状態となる。但し、この同じ視点の繰り返しは、少なくとも立体視画像の画像表示領域内で発生しなければ良いので、それを考慮した「同じ視点の繰り返しが発生しない」、即ち「ピッチが合わない」条件は、式(9)において、「mがΦ/λ未満の自然数」であることである。但し、Φは、実際の(或いは想定した)観察者の視点から見た表示面22中の立体視画像が表示される領域(立体視画像表示領域)に対する視角(対表示領域視角)である。   That is, when Expression (9) is not satisfied, “the same viewpoint is not repeated”, that is, “the pitch is not matched. However, the repetition of the same viewpoint is at least within the image display area of the stereoscopic image. Therefore, the condition that “the repetition of the same viewpoint does not occur”, that is, “the pitch does not match” is “the natural number where m is less than Φ / λ” in Equation (9). That is. However, Φ is a viewing angle (versus display area viewing angle) with respect to an area (stereoscopic image display area) in which a stereoscopic image on the display surface 22 is viewed from the viewpoint of an actual (or assumed) observer.

しかし、本実施形態は、ピッチが合っていない(即ち、式(7)及び式(8)が成立しない)立体視映像表示装置とし、この立体視映像表示装置に表示させる立体視画像を生成するものとする。つまり、従来のレンチキュラ方式の立体視映像表示装置では、立体視可能とするためにはレンズピッチと画素ピッチが合うように設計する必要があるが、本実施形態は、ピッチが合っていない立体視映像表示装置において立体視を可能ならしめる。従って、個々のディスプレイの画素ピッチに合ったレンチキュラレンズ板を製造する必要が無くなり、既製のレンチキュラレンズ板を種々のディスプレイに適用できることとなって、レンズ板のコストを大幅に下げるという効果が得られる。また、選択可能な複数のレンズ板から最も目的に合ったものを選ぶこともできる。更には、斜めレンチキュラ方式を採用する場合に、斜めの角度θも自由に設定できる。具体的には、新たなレンズを製造することなく、画素パネルに対するレンズ板の斜めの配置角度θを調節するだけで、モアレや色縞を軽減することができる。   However, the present embodiment uses a stereoscopic video display device that does not match the pitch (that is, equations (7) and (8) do not hold), and generates a stereoscopic image to be displayed on this stereoscopic video display device. Shall. In other words, in the conventional lenticular stereoscopic image display device, it is necessary to design the lens pitch and the pixel pitch to be in order to enable stereoscopic viewing. Enables stereoscopic viewing in a video display device. Therefore, it is not necessary to manufacture a lenticular lens plate that matches the pixel pitch of each display, and the ready-made lenticular lens plate can be applied to various displays, so that the cost of the lens plate can be greatly reduced. . It is also possible to select the most suitable one from a plurality of selectable lens plates. Furthermore, when the oblique lenticular method is adopted, the oblique angle θ can be set freely. Specifically, moire and color fringes can be reduced by adjusting the oblique arrangement angle θ of the lens plate with respect to the pixel panel without manufacturing a new lens.

続いて、表示面22の各画素PEの視線Vの決定方法を説明するが、その前に、表示面22の座標系を図6に示すように定義する。即ち、表示面22の水平走査方向(横方向)に沿った方向をx軸方向とし、鉛直走査方向(縦方向)に沿った方向をy軸方向とし、表示面22から観察者側へ垂直に向かう方向をz軸正方向とする。   Next, a method for determining the line of sight V of each pixel PE on the display surface 22 will be described. Before that, the coordinate system of the display surface 22 is defined as shown in FIG. That is, the direction along the horizontal scanning direction (lateral direction) of the display surface 22 is the x-axis direction, the direction along the vertical scanning direction (longitudinal direction) is the y-axis direction, and is perpendicular to the viewer side from the display surface 22. The direction to go is the z-axis positive direction.

先ず、本方式おける視線Vの決定方法の内、最も基本となる方法について説明する。この方法は、観察者の視線が表示面22の「正面」(表示面22の中心Oを通過する観察視線方向が表示面22に対して垂直となる位置)で、且つ「無限遠」にあると想定した方法であり、非立体視画像の描画方法でいえば「平行投影」に相当する。また、ここでは、立体視映像表示装置が上述した垂直/斜めレンチキュラ方式のそれぞれである場合の視線Vの決定方法について説明する。尚、以下では、1つの画素PEについての視線Vの決定方法を説明するが、他の画素PEについても勿論同様に決定できる。   First, the most basic method of determining the line of sight V in this method will be described. In this method, the observer's line of sight is “front” of the display surface 22 (the position where the observation line of sight passing through the center O of the display surface 22 is perpendicular to the display surface 22) and “infinity”. In other words, the non-stereoscopic image drawing method corresponds to “parallel projection”. Here, a method of determining the line of sight V when the stereoscopic video display apparatus is each of the above-described vertical / oblique lenticular methods will be described. In the following, a method for determining the line of sight V for one pixel PE will be described, but it is obvious that other pixels PE can be similarly determined.

立体視映像表示装置が垂直レンチキュラ方式である場合の視線Vの決定方法を、図5を参照して説明する。図5は、垂直レンチキュラ方式の立体視映像表示装置200Aの概略三面図であり、同図(a)は、x−z平面に平行な断面図(水平走査方向断面図)を示し、同図(b)は、y−z平面に平行な断面図(鉛直走査方向断面図)を示し、同図(c)は、x−y平面図を示している。   A method of determining the line of sight V when the stereoscopic video display device is of the vertical lenticular method will be described with reference to FIG. FIG. 5 is a schematic three-view diagram of a vertical lenticular stereoscopic image display apparatus 200A. FIG. 5A shows a cross-sectional view (cross-sectional view in the horizontal scanning direction) parallel to the xz plane. b) shows a cross-sectional view (cross-sectional view in the vertical scanning direction) parallel to the yz plane, and FIG. 5C shows an xy plan view.

先ず、視線Vを決定する画素(以下、「対象画素」という)PEに対応するレンズ32を決定する。図5(a)において、レンズ板30の各レンズ32を画素パネル20の表示面22に平行投影して(即ち、各レンズ32の端部32aを通過する表示面22に垂直な直線によって)、表示面22を各レンズ32の投影領域に分割する。そして、対象画素PEの代表点(ここでは、画素の中心とする)が属する投影領域のレンズ32を対象画素PEに対応するレンズ32とする。但し、同図(a)は、対象画素PEの代表点を通過する断面図である。   First, a lens 32 corresponding to a pixel (hereinafter referred to as “target pixel”) PE that determines the line of sight V is determined. In FIG. 5A, each lens 32 of the lens plate 30 is projected in parallel on the display surface 22 of the pixel panel 20 (that is, by a straight line perpendicular to the display surface 22 passing through the end portion 32a of each lens 32). The display surface 22 is divided into projection areas of the lenses 32. The lens 32 in the projection region to which the representative point of the target pixel PE (here, the center of the pixel) belongs is set as the lens 32 corresponding to the target pixel PE. However, FIG. 4A is a cross-sectional view passing through a representative point of the target pixel PE.

同図(a)では、表示面22は、レンズ32−1の投影領域26−1と、レンズ32−2の投影領域26−2と、・・・、に分割される。そして、対象画素PEの代表点は投影領域26−1に属しているので、対象画素PEに対応するレンズ32はレンズ32−1となる。   In FIG. 5A, the display surface 22 is divided into a projection area 26-1 of the lens 32-1, a projection area 26-2 of the lens 32-2, and so on. Since the representative point of the target pixel PE belongs to the projection area 26-1, the lens 32 corresponding to the target pixel PE is the lens 32-1.

次いで、対象画素PEの代表点と、対象画素PEに対応するレンズ32の主点とを通過した後の光線(以下、「代表光線」という)PRを算出し、その代表光線PRと位置は同じで方向を逆にした視線を対象画素PEの視線Vとする。具体的には、対象画素PEに対応するレンズ32−1の主点線36の内、y座標が対象画素PEの代表点のy座標に等しい点を算出し、これを代表主点36aとする。そして、対象画素PEの代表点と、この代表主点36aとを通過した後の代表光線PRを算出し、この代表光線PRと位置は同じで方向を逆にした視線を対象画素PEに対応する視線Vとする。ここでは、簡明のため、対象画素PEの代表点から対象画素PEに対応するレンズ32の代表主点に向かう方向を代表光線PRの方向とする。   Next, a light ray PR (hereinafter referred to as “representative ray”) PR after passing through the representative point of the target pixel PE and the principal point of the lens 32 corresponding to the target pixel PE is calculated, and the position is the same as that of the representative ray PR. The line of sight whose direction has been reversed is set as the line of sight V of the target pixel PE. Specifically, a point where the y coordinate is equal to the y coordinate of the representative point of the target pixel PE is calculated from the main dotted line 36 of the lens 32-1 corresponding to the target pixel PE, and this is set as the representative main point 36a. Then, a representative ray PR after passing through the representative point of the target pixel PE and the representative principal point 36a is calculated, and the line of sight having the same position and the opposite direction as the representative ray PR corresponds to the target pixel PE. The line of sight is V. Here, for the sake of simplicity, the direction from the representative point of the target pixel PE toward the representative principal point of the lens 32 corresponding to the target pixel PE is defined as the direction of the representative light ray PR.

以上説明した方法は、観察者の視点が無限遠にあることを想定したものだが、実際の立体視画像の観察時には、観察者の視点は無限遠ではないため、後述する方法に対して、特に近距離から観察した場合、遠近法(パース)の掛かり具合に違和感を感じることがある。しかし、各視線Vの決定方法が簡単であるため、計算負荷を軽減することができる等といった利点がある。   The method described above assumes that the observer's viewpoint is at infinity, but when observing an actual stereoscopic image, the observer's viewpoint is not at infinity. When observing from a short distance, you may feel a sense of incongruity in perspective. However, since the method of determining each line of sight V is simple, there is an advantage that the calculation load can be reduced.

次に、上述した方法に比較してより自然な立体視が可能となる視線Vの決定方法を説明する。この方法は、観察者の視点を一定の位置に想定した描画方法であり、非立体画像の描画方法でいえば「透視投影」に相当する。   Next, a method for determining the line of sight V that enables more natural stereoscopic viewing than the above-described method will be described. This method is a drawing method that assumes the observer's viewpoint at a fixed position, and corresponds to “perspective projection” in terms of a non-stereoscopic image drawing method.

ここでは、想定観察位置40を、図6に示すように、立体視映像表示装置の表示面22に対して「正面」に設定する。「正面」の想定観察位置40とは、表示面22の中心Oを通過する観察視線方向が、表示面22に対して垂直となる位置である。以下、この想定観察位置40と表示面22との間の距離Dを「想定観察距離D」という。そして、想定観察位置40を「正面且つ有限距離の定位置」とした場合の視線Vの決定方法を、垂直レンチキュラ方式の立体視映像表示装置に適用した場合について説明する。   Here, as shown in FIG. 6, the assumed observation position 40 is set to “front” with respect to the display surface 22 of the stereoscopic video display device. The “front” assumed observation position 40 is a position where an observation line-of-sight direction passing through the center O of the display surface 22 is perpendicular to the display surface 22. Hereinafter, the distance D between the assumed observation position 40 and the display surface 22 is referred to as “assumed observation distance D”. Then, the case where the method of determining the line of sight V when the assumed observation position 40 is “front position and a fixed position at a finite distance” is applied to a vertical lenticular stereoscopic image display device will be described.

図7は、垂直レンチキュラ方式の立体視映像表示装置200Aの部分概略斜視図である。また、図8は、立体視映像表示装置200Aの概略三面図であり、同図(a)は、図7のx−z平面に平行なA−A´位置での断面図(水平走査方向断面図)を示し、図8(b)は、図7のy−z平面に平行なB−B´位置での断面図(鉛直方向断面図)を示し、図8(c)は、x−y平面図を示している。尚、レンズ板30及び画素パネル20は、レンズ板30の各レンズ32の焦点距離Fを隔てて平行配置されている。   FIG. 7 is a partial schematic perspective view of a vertical lenticular stereoscopic image display apparatus 200A. 8 is a schematic three-view diagram of the stereoscopic video display device 200A. FIG. 8A is a cross-sectional view (cross-section in the horizontal scanning direction) at the position AA ′ parallel to the xz plane of FIG. 8 (b) is a cross-sectional view (vertical cross-sectional view) at a position BB ′ parallel to the yz plane of FIG. 7, and FIG. 8 (c) is an xy diagram. A plan view is shown. The lens plate 30 and the pixel panel 20 are arranged in parallel with a focal length F of each lens 32 of the lens plate 30.

先ず、対象画素PEに対応するレンズ32を決定する。具体的には、図8(a)において、想定観察位置40からレンズ板30の各レンズ32を画素パネル20の表示面22に投影して(即ち、想定観察位置40から各レンズ32の端部へと向かう直線によって)、表示面22を各レンズ32の投影領域に分割する。そして、対象画素PEの代表点がどの投影領域に属するかによって対応するレンズ32を決定する。但し、同図(a)は、対象画素PEの代表点を通過する断面図である。   First, the lens 32 corresponding to the target pixel PE is determined. Specifically, in FIG. 8A, each lens 32 of the lens plate 30 is projected from the assumed observation position 40 onto the display surface 22 of the pixel panel 20 (that is, the end of each lens 32 from the assumed observation position 40). The display surface 22 is divided into projection areas of each lens 32 (by a straight line going to). Then, the corresponding lens 32 is determined depending on which projection region the representative point of the target pixel PE belongs to. However, FIG. 4A is a cross-sectional view passing through a representative point of the target pixel PE.

同図(a)では、表示面22は、レンズ32−7の投影領域26−7と、レンズ32−8の投影領域26−8と、レンズ32−9の投影領域26−9と、・・・、に分割される。そして、対象画素PEの代表点は投影領域26−7に属しているので、この対象画素PEに対応するレンズ32はレンズ32−7となる。   In FIG. 6A, the display surface 22 includes a projection area 26-7 of the lens 32-7, a projection area 26-8 of the lens 32-8, a projection area 26-9 of the lens 32-9,.・ It is divided into Since the representative point of the target pixel PE belongs to the projection area 26-7, the lens 32 corresponding to the target pixel PE is the lens 32-7.

次に、対象画素PEの代表点と、対象画素PEに対応するレンズ32の主点とを通過した後の代表光線を算出し、算出した代表光線と位置は同じで方向を逆にした視線を対象画素の視線Vとする。具体的には、図8(b)において、対象画素PEの代表点と想定観察位置40とを結ぶ直線LN1と、レンズ板30の主点面(各レンズ32の主点を含む面。表示面22に平行な平面である)35との交点のy座標を算出する。算出したy座標を「y1」とする。但し、同図(b)は、対象画素PEの代表点を通過する断面図である。次いで、対象画素PEに対応するレンズ32−1の主点線36の内、y座標が「y1」である点を算出し、これを代表主点36cとする。そして、対象画素PEの代表点と、この代表主点36cとを通過した後の代表光線PRを算出し、この代表光線PRと位置は同じで方向を逆にした視線を対象画素PEに対応する視線Vとする。   Next, a representative ray after passing through the representative point of the target pixel PE and the principal point of the lens 32 corresponding to the target pixel PE is calculated, and a line of sight with the same position as the calculated representative ray but in the opposite direction is calculated. The line of sight V of the target pixel is assumed. Specifically, in FIG. 8B, a straight line LN1 connecting the representative point of the target pixel PE and the assumed observation position 40 and the principal point surface of the lens plate 30 (a surface including the principal point of each lens 32). The y-coordinate of the intersection with 35), which is a plane parallel to 22 is calculated. The calculated y coordinate is assumed to be “y1”. However, FIG. 4B is a cross-sectional view passing through the representative point of the target pixel PE. Next, a point whose y coordinate is “y1” is calculated from the main dotted line 36 of the lens 32-1 corresponding to the target pixel PE, and this is set as a representative main point 36c. Then, a representative ray PR after passing through the representative point of the target pixel PE and the representative principal point 36c is calculated, and the line of sight having the same position and the opposite direction to the representative ray PR corresponds to the target pixel PE. The line of sight is V.

以上、想定観察位置が「正面且つ無限遠」及び「正面且つ有限距離の定位置」のそれぞれである場合の、表示面22の各画素PEの視線Vの決定方法を説明した。尚、以上では、各レンズ32に入射する光線は屈折を起こさない(即ち、対象画素PEの代表点から対象画素PEに対応するレンズ32の代表主点に向かう方向が代表光線PRの方向に一致する)ものとして説明したが、厳密には、図9に示すように、屈折作用によって、代表光線PRは、対象画素PEの代表点と対象画素PEに対応するレンズ32の代表主点とを結ぶ直線に対してy座標位置が僅かにずれて一致しない。そこで、このずれを算出して補正することにより、各画素PEの視線Vを正確に求めることとすればより好適である。   The method for determining the line of sight V of each pixel PE on the display surface 22 when the assumed observation positions are “front and infinity” and “front and finite distance fixed positions” has been described above. In the above, light rays incident on each lens 32 are not refracted (that is, the direction from the representative point of the target pixel PE toward the representative principal point of the lens 32 corresponding to the target pixel PE matches the direction of the representative light ray PR). Strictly speaking, as shown in FIG. 9, the representative ray PR connects the representative point of the target pixel PE and the representative principal point of the lens 32 corresponding to the target pixel PE, as shown in FIG. The y coordinate position slightly deviates from the straight line and does not match. Therefore, it is more preferable that the line of sight V of each pixel PE is accurately obtained by calculating and correcting this shift.

また、各画素PEに対するレンズ32の決定を、図7、8を参照して説明したように、想定観察位置40を「有限距離の定位置」として行うことで、遠近法(パース)の掛かり具合が自然になること以外にも、想定観察位置40周辺での観察範囲が広くなるという効果を得ることができる。   In addition, as described with reference to FIGS. 7 and 8, the determination of the lens 32 for each pixel PE is performed by setting the assumed observation position 40 as “a fixed position at a finite distance”, so that the degree of perspective (perspective) is affected. In addition to becoming natural, the effect of widening the observation range around the assumed observation position 40 can be obtained.

このように、各画素に対応する視線Vを決定した後、図10に示すように、決定した視線Vを基に、仮想カメラに相当する画素別視点CMを画素PE毎に設定する。尚、ここでは、画素PEに該画素PEに対応する画素別視点CMを設定するが、画素別視点CMを特に設定せず、全画素PEについての視線Vに共通なz方向の描画範囲を設定し、各視線Vについて描画を行うこととしても良い。   In this way, after determining the line of sight V corresponding to each pixel, as shown in FIG. 10, a pixel-specific viewpoint CM corresponding to the virtual camera is set for each pixel PE based on the determined line of sight V. Here, the pixel-specific viewpoint CM corresponding to the pixel PE is set for the pixel PE, but the pixel-specific viewpoint CM is not set in particular, and a drawing range in the z direction common to the line of sight V for all the pixels PE is set. However, drawing may be performed for each line of sight V.

図10は、画素別視点CMの設定を説明するための図であり、表示面22の一部横方向断面図を示している。同図に示すように、各画素PE(PE1,PE2,・・・)の画素別視点CM(CM1,CM2,・・・)は、その視線方向が対応する視線V(V1,V2,・・・)となるように設定する。また、各画素別視点CMと表示面22との間の距離は、例えば同図に示すように、表示面22に平行な同一平面上に位置するように設定する。   FIG. 10 is a diagram for explaining the setting of the pixel-specific viewpoint CM, and shows a partial horizontal cross-sectional view of the display surface 22. As shown in the figure, the pixel-specific viewpoints CM (CM1, CM2,...) Of each pixel PE (PE1, PE2,...) Have a line of sight V (V1, V2,. Set so that Further, the distance between each pixel-specific viewpoint CM and the display surface 22 is set so as to be located on the same plane parallel to the display surface 22, for example, as shown in FIG.

同図では、画素PE1,PE2,・・・、のそれぞれの視線Vは視線V1,V2,・・・、である。従って、画素PE1の画素別視点CMは、視線V1がその視線方向の画素別視点CM1となる。また、画素PE2の画素別視点CMは、視線V2がその視線方向の画素別視点CM2となる。更に、画素PE3,PE4,・・・、についても同様に、それぞれの画素別視点CMは、視線V3,V4,・・・、がその視線方向の画素別視点CM3,CM4,・・・、となる。   In the figure, the visual lines V of the pixels PE1, PE2,... Are visual lines V1, V2,. Accordingly, the pixel-specific viewpoint CM of the pixel PE1 has the line of sight V1 as the pixel-specific viewpoint CM1 in the line-of-sight direction. In the pixel-specific viewpoint CM of the pixel PE2, the line of sight V2 is the pixel-specific viewpoint CM2 in the line-of-sight direction. Further, similarly, for the pixels PE3, PE4,..., The viewpoints CM for each pixel have the line of sight V3, V4,. Become.

(2)レンダリング
各画素PEの画素別視点CMを設定した後、設定した各画素別視点CMを基に三次元仮想空間をレンダリングすることで立体視画像を生成する。具体的には、画素PE毎に、該画素PEに対応する画素別視点CMの視線方向のオブジェクト空間の色情報(RGB値やα値等)を算出し、算出した色情報を該画素PEの色情報とすることで立体視画像を生成する。
(2) Rendering After setting the pixel-specific viewpoint CM of each pixel PE, a stereoscopic image is generated by rendering a three-dimensional virtual space based on the set pixel-specific viewpoint CM. Specifically, for each pixel PE, color information (RGB value, α value, etc.) of the object space in the line-of-sight direction of the pixel-specific viewpoint CM corresponding to the pixel PE is calculated, and the calculated color information is calculated for the pixel PE. A stereoscopic image is generated by using color information.

図11は、色情報の算出を説明する図であり、表示面22の一部横方向断面図を示している。同図に示すように、表示面22の各画素PEについて、対応する画素別視点CMの視線方向のオブジェクト空間の色情報を算出し、算出した色情報を該画素PEの色情報とする。色情報の算出方法としては、例えば画素別視点CMからその視線方向に沿った光線を基に決定する、いわゆるレイトレーシング法等によって実現される。   FIG. 11 is a diagram for explaining the calculation of the color information, and shows a partial cross-sectional view of the display surface 22 in the horizontal direction. As shown in the figure, for each pixel PE on the display surface 22, the color information of the object space in the line-of-sight direction of the corresponding pixel-specific viewpoint CM is calculated, and the calculated color information is used as the color information of the pixel PE. The color information calculation method is realized by, for example, a so-called ray-tracing method that is determined based on light rays along the line-of-sight direction from the pixel-specific viewpoint CM.

同図では、画素PE1,PE2,・・・、のそれぞれの画素別視点は画素別視点CM1,CM2,・・・、である。従って、画素PE1の色情報は、画素別視点CM1の視線方向のオブジェクト空間の色情報となり、また、画素PE2の色情報は、画素別視点CM2の視線方向のオブジェクト空間の色情報となる。更に、画素PE3,PE4,・・・、のそれぞれについても同様に、対応する画素別視点CM3,CM4,・・・、の視線方向のオブジェクト空間の色情報が該画素PE3,PE4,・・・、の色情報となる。   In the figure, the pixel-specific viewpoints of the pixels PE1, PE2,... Are pixel-specific viewpoints CM1, CM2,. Therefore, the color information of the pixel PE1 is color information of the object space in the line-of-sight direction of the pixel-by-pixel viewpoint CM1, and the color information of the pixel PE2 is color information of the object space in the line-of-sight direction of the pixel-by-pixel viewpoint CM2. Further, for each of the pixels PE3, PE4,..., The color information of the object space in the line-of-sight direction of the corresponding pixel-specific viewpoints CM3, CM4,. , Color information.

このように、本実施形態では、表示面の画素PE毎に、(1)視線Vを決定し、(2)決定した視線Vの視線方向の色情報を該画素PEの色情報とする(レンダリングする)、ことで立体視画像を生成する。   As described above, in this embodiment, for each pixel PE on the display surface, (1) the line of sight V is determined, and (2) the color information of the line of sight of the determined line of sight V is used as the color information of the pixel PE (rendering). To generate a stereoscopic image.

尚、このように生成した画像を立体視画像として本実施形態の立体視映像表示装置に表示させた場合、観察者によって視認される映像は、従来の立体視映像と比べて若干正確さに欠く像となる。   When the image generated in this way is displayed as a stereoscopic image on the stereoscopic video display apparatus of the present embodiment, the video visually recognized by the observer is slightly less accurate than the conventional stereoscopic video. Become a statue.

図12は、本実施形態の立体視映像が若干正確さに欠けることを説明するための図であり、表示面22の横方向一部断面図を示している。同図において、観察者の右目EY1から立体視映像表示装置を見ると、レンズ32−1を介して画素PE1が見え、レンズ32−2を介して画素PE2が見え、レンズ32−3を介して画素PE3が見える。   FIG. 12 is a diagram for explaining that the stereoscopic image of the present embodiment is slightly inaccurate, and shows a partial cross-sectional view of the display surface 22 in the horizontal direction. In this figure, when the stereoscopic video display device is viewed from the observer's right eye EY1, the pixel PE1 can be seen through the lens 32-1, the pixel PE2 can be seen through the lens 32-2, and the lens 32-3 can be seen. Pixel PE3 is visible.

ところで、画素PE1の色情報は、画素別視点CM1の視線方向のオブジェクト空間の色情報であり、画素PE2の色情報は、画素別視点CM2の視線方向のオブジェクト空間の色情報であり、また、画素PE3の色情報は、画素別視点CM3の視線方向のオブジェクト空間の色情報である。即ち、右目EY1と画素別視点CM1,CM2,CM3とは一致しないため、観察者によって認識される各画素PEの色情報は、その位置から見た正確な色情報とはならない。   By the way, the color information of the pixel PE1 is color information of the object space in the line-of-sight direction of the pixel-specific viewpoint CM1, the color information of the pixel PE2 is color information of the object space in the line-of-sight direction of the pixel-specific viewpoint CM2, The color information of the pixel PE3 is color information of the object space in the viewing direction of the pixel-specific viewpoint CM3. That is, since the right eye EY1 does not match the pixel-specific viewpoints CM1, CM2, and CM3, the color information of each pixel PE recognized by the observer is not accurate color information viewed from the position.

しかしながら、画素別視点CM1,CM2,CM3の位置は右目EY1の近傍であり、また、それらの視線方向は、右目EY1がレンズ32−1,32−2,32−3を介して画素PE1,PE2,PE3を見る視線方向とは僅かにずれる程度である。このため、観察者の右目EY1で視認される像(色情報)は、その位置から見た正確な像(色情報)ではないものの、一定の明確性を有して視認される。   However, the positions of the pixel-specific viewpoints CM1, CM2, and CM3 are in the vicinity of the right eye EY1, and the line-of-sight directions of the pixels PE1, PE2 are determined by the right eye EY1 through the lenses 32-1, 32-2, and 32-3. , PE3 viewing direction is slightly shifted. For this reason, the image (color information) visually recognized by the observer's right eye EY1 is not an accurate image (color information) viewed from the position, but is visually recognized with a certain degree of clarity.

また、本実施形態によれば、視点(ビュー)の数が極めて多く、自然な立体視が可能となる。このことを、従来の多眼方式の立体視と比較した図13、14を参照して説明する。   Further, according to the present embodiment, the number of viewpoints (views) is extremely large, and natural stereoscopic vision is possible. This will be described with reference to FIGS. 13 and 14 compared with the conventional multi-view stereoscopic vision.

図13は、従来の多眼方式の立体視の概略(イメージ)を示す図であり、3眼式の場合を示している。同図上側に示すように、従来の3眼式の立体視では、オブジェクト空間において、適当な距離を隔てて3つの個別視点1,2,3を設定し、個別視点1,2,3のそれぞれから見たオブジェクト空間の個別視点画像1,2,3を生成する。そして、これら3つの個別視点画像1,2,3をインターリーブ処理することで立体視画像を生成する。尚、同図において、立体視画像の各画素の数字は対応する個別視点画像(個別視点)の番号を表している。また、各画素別視点CMの位置及び視線方向は、概略図(イメージ図)であるために大凡であり、正確なものではない。   FIG. 13 is a diagram showing an outline (image) of stereoscopic viewing of a conventional multi-view system, and shows a case of a trinocular system. As shown in the upper side of the figure, in the conventional three-eye stereoscopic view, three individual viewpoints 1, 2, 3 are set at an appropriate distance in the object space, and each of the individual viewpoints 1, 2, 3 is set. The individual viewpoint images 1, 2, and 3 of the object space viewed from the above are generated. Then, a stereoscopic image is generated by interleaving these three individual viewpoint images 1, 2, and 3. In the figure, the number of each pixel of the stereoscopic image represents the number of the corresponding individual viewpoint image (individual viewpoint). Further, the position and the line-of-sight direction of each pixel viewpoint CM are rough because they are schematic diagrams (image diagrams), and are not accurate.

そして、同図下側に示すように、生成した立体視画像を従来の3眼式の立体視映像表示装置に表示させて適視位置1,2,3のそれぞれから見ると、適視位置1では個別視点画像1が見え、適視位置2では個別視点画像2が見え、適視位置3では個別視点画像3が見える。より詳細には、適視位置1をほぼ中心とする適視範囲1では個別視点画像1が見え、適視位置2をほぼ中心とする適視範囲2では個別視点画像2が見え、適視位置3をほぼ中心とする個別視点適視範囲3では画像3が見える。但し、同図において、適視範囲は概略図(イメージ図)であるために大凡のものであり、正確なものではない。   Then, as shown in the lower side of the figure, when the generated stereoscopic image is displayed on a conventional three-lens stereoscopic image display device and viewed from each of the appropriate viewing positions 1, 2, and 3, the suitable viewing position 1 The individual viewpoint image 1 can be seen, the individual viewpoint image 2 can be seen at the appropriate viewing position 2, and the individual viewpoint image 3 can be seen at the suitable viewing position 3. More specifically, the individual viewpoint image 1 can be seen in the suitable viewing range 1 that is substantially centered on the suitable viewing position 1, and the individual viewpoint image 2 can be seen in the suitable viewing range 2 that is substantially centered on the suitable viewing position 2. The image 3 can be seen in the individual viewpoint appropriate viewing range 3 centering on 3. However, in the same figure, the appropriate viewing range is a schematic diagram (image diagram), and is therefore an approximate one and is not accurate.

即ち、観察者OBが、右目EY1が適視位置2にほぼ一致し、左目EY2が適視位置1にほぼ一致する位置で立体視画像を見ると、右目EY1では個別視点画像2が見え、左目EY2では個別視点画像1が見えることで立体視映像を認識する。つまり、右目EY1を個別視点2とし、左目EY2を個別視点1としてオブジェクト空間を見た状態に相当する。   That is, when the observer OB views the stereoscopic image at a position where the right eye EY1 substantially matches the appropriate viewing position 2 and the left eye EY2 substantially matches the appropriate viewing position 1, the right eye EY1 sees the individual viewpoint image 2, and the left eye In EY2, the stereoscopic video is recognized when the individual viewpoint image 1 is seen. That is, this corresponds to a state in which the object space is viewed with the right eye EY1 as the individual viewpoint 2 and the left eye EY2 as the individual viewpoint 1.

また、観察者OBの位置が、立体視画像に対して右方向へ移動すると、右目EY1或いは左目EY2が適視範囲の境界部分を通過する際に、該右目EY1或いは左目EY2で見える画像が急に切り換わる。具体的には、例えば右目EY1が適視範囲2と適視範囲3との境界部分を通過する際に、右目EY1に見える画像が個別視点画像2から個別視点画像3に切り換わる。また、左目EY2が適視範囲1と適視範囲2との境界部分を通過する際に、左目EY2に見える画像が個別視点画像1から個別画像2に切り換わる。   Further, when the position of the observer OB moves to the right with respect to the stereoscopic image, when the right eye EY1 or the left eye EY2 passes through the boundary portion of the appropriate viewing range, an image that can be seen with the right eye EY1 or the left eye EY2 suddenly appears. Switch to. Specifically, for example, when the right eye EY1 passes through the boundary portion between the suitable viewing range 2 and the suitable viewing range 3, the image seen by the right eye EY1 is switched from the individual viewpoint image 2 to the individual viewpoint image 3. In addition, when the left eye EY2 passes through the boundary portion between the appropriate viewing range 1 and the appropriate viewing range 2, the image seen by the left eye EY2 is switched from the individual viewpoint image 1 to the individual image 2.

これは、従来の多眼方式の立体視では、n個の個別視点から見た各個別視点画像をインターリーブ処理して立体視画像を生成し、これを、ピッチが合うように設計されたn眼式の立体視映像表示装置に表示させることで立体視を実現しているためである。即ち、従来の立体視映像表示装置では、立体視画像を、レンチキュラレンズ板によって各個別視点画像に分離しているためである。   This is because in conventional multi-view stereoscopic vision, each individual viewpoint image viewed from n individual viewpoints is interleaved to generate a stereoscopic image, which is designed to match the pitch. This is because the stereoscopic view is realized by displaying the image on a stereoscopic image display device. That is, in the conventional stereoscopic video display device, the stereoscopic image is separated into the individual viewpoint images by the lenticular lens plate.

図14は、本実施形態の立体視の概要(イメージ)を示す図である。本実施形態では、上述のように、画素PE毎に画素別視点CMを設定し、各画素別視点CMの視線方向のオブジェクト空間の色情報を対応する画素PEの色情報とすることで立体視画像を生成している。即ち、同図上側に示すように、画素数に等しい画素別視点CM1,CM2,・・・を設定し、設定した画素別視点CM1,CM2,・・・、のそれぞれの視線方向の色情報を画素PE1,PE2,・・・、の色情報として立体視画像を生成している。尚、同図において、立体視画像の各画素PEの数字は、対応する画素別視点CMの番号を表している。   FIG. 14 is a diagram showing an outline (image) of stereoscopic vision of the present embodiment. In the present embodiment, as described above, a pixel-specific viewpoint CM is set for each pixel PE, and the color information of the object space in the line-of-sight direction of each pixel-specific viewpoint CM is used as the color information of the corresponding pixel PE. An image is generated. That is, as shown in the upper side of the figure, pixel-specific viewpoints CM1, CM2,... Equal to the number of pixels are set, and the color information of the respective line-of-sight directions of the set pixel-specific viewpoints CM1, CM2,. A stereoscopic image is generated as color information of the pixels PE1, PE2,. In the figure, the number of each pixel PE of the stereoscopic image represents the number of the corresponding pixel viewpoint CM.

このように生成された立体視画像を、例えば図2に示した本実施形態の立体視映像表示装置200Aに表示させ、観察者OBが、同図下側に示す位置で立体視画像を見る。すると、左目EY2には、画素PE1,PE2,PE3,・・・、から構成される画像Aが見え、右目EY1には、画素PE11,PE12,PE13,・・・、から構成される画像Bが見える。つまり、左目EY2を、画素別視点CM1,CM2,・・・,CM10、から成る視点群とし、右目EY1を、画素別視点CM11,CM12,・・・,CM20、から成る視点群としてオブジェクト空間を見ている状態に相当する。   The stereoscopic image generated in this way is displayed on the stereoscopic video display device 200A of the present embodiment shown in FIG. 2, for example, and the observer OB views the stereoscopic image at the position shown on the lower side of the figure. Then, the image A composed of the pixels PE1, PE2, PE3,... Can be seen in the left eye EY2, and the image B composed of the pixels PE11, PE12, PE13,. appear. That is, the left eye EY2 is a viewpoint group including pixel-specific viewpoints CM1, CM2,..., CM10, and the right eye EY1 is a viewpoint group including pixel-specific viewpoints CM11, CM12,. It corresponds to the state of watching.

そして、観察者OBの位置が、立体視画像に対して少し右方向に移動すると、観察者の左目EY2に見える画像が、画像Aの一部の画素PEが隣の画素PEに入れ替わった画像A´に変化し、右目EY1に見える画像が、画素Bの一部の画素PEが隣の画素PEに入れ替わった画像B´に変化する。   Then, when the position of the observer OB moves slightly to the right with respect to the stereoscopic image, an image A in which an image seen by the left eye EY2 of the observer is replaced with a pixel PE that is a part of the image A is replaced with an adjacent pixel PE. The image that changes to 'and appears to the right eye EY1 changes to an image B' in which some of the pixels PE of the pixel B are replaced with the adjacent pixels PE.

このように、本実施形態では、立体視画像を見る観察者の位置(観察位置)が変化すると、この変化に伴って右目EY1及び左目EY2のそれぞれに見える画像が少しずつ変化する。詳細には、幾つかの画素がその近隣の画素に入れ替わった画像に変化する。従って、観察者OBの右目EY1及び左目EY2のそれぞれに見える画像が少しづつ変化することで、認識される映像が少しずつ変化する。   Thus, in this embodiment, when the position (observation position) of the observer who views the stereoscopic image changes, the images seen in each of the right eye EY1 and the left eye EY2 change little by little with this change. Specifically, the image changes to a pixel in which some pixels are replaced by neighboring pixels. Therefore, the recognized image changes little by little as the images seen by each of the right eye EY1 and left eye EY2 of the observer OB change little by little.

このため、例えば図13に示した従来の多眼方式の立体視映像のように、適視範囲の境界部分で見える画像が急に切り変わる(即ち、認識される立体視映像が急に変化する)といった現象が生じず、観察位置の変化に伴って少しづつ変化する自然な立体視映像を実現できるとともに、観察者により視認される像の明確性が一定以上に保たれる。   For this reason, for example, an image seen at the boundary portion of the appropriate viewing range suddenly changes like the conventional multi-view stereoscopic image shown in FIG. 13 (that is, the recognized stereoscopic image suddenly changes). ), A natural stereoscopic image that changes little by little as the observation position changes can be realized, and the clarity of the image visually recognized by the observer is maintained above a certain level.

尚、上述のように、観察者OBの右目EY1及び左目FY2の各目に見える画像は、実際の画像とは若干正確さに欠く映像となる。しかし、各目が各画素を見る視線方向は、図14下側に示すように、該画素の画素別視点CMの視線方向にほぼ沿った方向となっている。即ち、左目EY2が画像Aの各画素PE1,PE2,・・・、を見る視線方向は、これら各画素PE1,PE2,・・・、に対応する画素別視点CM1,CM2,・・・、の視線方向にほぼ沿った方向となっている。また、右目EY1についても同様に、画像Bの各画素PE11,PE12,・・・、を見る視線方向は、これら各画素PE11,PE12,・・・、に対応する画素別視点CM11,CM12,・・・、の視線方向にほぼ沿った方向となっている。このため、観察者に視認される映像は、若干正確さに欠くものの、像として視認できる明確性を有したものとなる。また、前述のように、観察者の位置が変化しても、視認される像の明確性が一定以上に保たれる。   Note that, as described above, the images of the right eye EY1 and the left eye FY2 that are visible to the observer OB are images that are slightly inaccurate from the actual images. However, the line-of-sight direction in which each eye views each pixel is substantially along the line-of-sight direction of the pixel-specific viewpoint CM of the pixel, as shown in the lower side of FIG. That is, the line-of-sight direction in which the left eye EY2 views each pixel PE1, PE2,... Of the image A is that of the pixel-specific viewpoints CM1, CM2,. The direction is substantially along the line-of-sight direction. Similarly, for the right eye EY1, the line-of-sight direction for viewing the pixels PE11, PE12,... Of the image B is the pixel-specific viewpoints CM11, CM12,.・ ・ The direction is almost along the line of sight. For this reason, the image visually recognized by the observer has clarity that can be visually recognized as an image, although it is slightly inaccurate. Further, as described above, even if the position of the observer changes, the clarity of the visually recognized image is maintained at a certain level or higher.

また、本実施形態において観察者に認識される立体視映像は、従来の多眼方式の立体視映像と同程度の解像度が得られる。例えば図2に示す立体視映像表示装置200Aでは、レンズピッチLはサブピクセル単位での画素ピッチSの3〜4倍である。従って、かかる立体視映像表示装置200では、画素パネル20の解像度の1/3〜1/4程度の解像度、即ち、従来の3〜4眼式の立体視映像と同程度の解像度が得られることになる。   In addition, the stereoscopic image recognized by the observer in the present embodiment can have the same resolution as the conventional multi-view stereoscopic image. For example, in the stereoscopic video display apparatus 200A shown in FIG. 2, the lens pitch L is 3 to 4 times the pixel pitch S in subpixel units. Therefore, in such a stereoscopic video display device 200, a resolution of about 1/3 to 1/4 of the resolution of the pixel panel 20, that is, a resolution comparable to that of a conventional 3-4 eye stereoscopic video is obtained. become.

このように、本実施形態による立体視では、認識される立体視映像の正確さが僅かに欠けるけれども、従来の多眼方式の立体視映像と同程度の解像度を有しつつ、且つ、視点(ビュー)の数が膨大になったような自然な立体視映像を実現できる。   As described above, in the stereoscopic vision according to the present embodiment, although the accuracy of the recognized stereoscopic video is slightly lacking, it has the same resolution as the conventional multi-view stereoscopic video and has a viewpoint ( It is possible to realize a natural stereoscopic video image with a large number of views.

以上、方法(I)に基づき本実施形態の立体視画像を生成する方法について説明した。次に、方法(II)に基づき1視点からの平面視画像とその奥行画像とから本実施形態の立体視画像を生成する方法について説明する。ここで、方法(II)は、a)専用のレンダラを使わなくとも、既存の高品位なCGツールで作成した画像を容易に立体化できる、b)実写画像から立体視画像を作成する場合に、一箇所の視点位置からの撮影で済ませることができる、c)奥行画像の作成は、CGツールで描画する場合には容易に作成できる、d)実写画像に対応する奥行画像を取得する場合、距離画像カメラ等が必要となり、その精度や解像度は現状では不十分だが、今後向上が期待できる、などの理由からその研究が盛んに進められている。   The method for generating a stereoscopic image according to the present embodiment has been described above based on the method (I). Next, a method for generating a stereoscopic image of this embodiment from a planar image from one viewpoint and its depth image based on the method (II) will be described. Here, method (II) is a) When an image created with an existing high-quality CG tool can be easily three-dimensionalized without using a dedicated renderer. B) When a stereoscopic image is created from a photographed image. C) Depth image creation can be easily created when drawing with a CG tool, d) Depth image corresponding to a real image, A range image camera is required, and its accuracy and resolution are not sufficient at present, but its research is being actively pursued because it can be expected to improve in the future.

例えば、特開2000−78611号公報に記載されるように、平面視画像と奥行画像とから2眼式の立体視画像を生成する場合、奥行画像の奥行値に基づいて、平面視画像をそれぞれ左右方向にずらすことにより、左目用の視差画像と、右目用の視差画像とを生成し、生成した視差画像をインターリーブして立体視画像を生成する。ここでいう奥行画像とは、平面視画像の対応する位置の奥行値を、白黒の階調で表す画像データである。画素毎の奥行値が既知であれば、平面視画像の各画素が視差画像のどの位置に変換されるかはスクリーンの大きさ、観察者の観察距離及び両眼間の距離から一義的に求まる。   For example, as described in Japanese Patent Application Laid-Open No. 2000-78611, when a binocular stereoscopic image is generated from a planar image and a depth image, the planar image is respectively converted based on the depth value of the depth image. By shifting in the horizontal direction, a parallax image for the left eye and a parallax image for the right eye are generated, and the generated parallax image is interleaved to generate a stereoscopic image. The depth image here is image data representing the depth value at the corresponding position of the planar view image in black and white gradation. If the depth value for each pixel is known, the position in the parallax image where each pixel of the planar image is converted can be uniquely determined from the size of the screen, the observation distance of the observer, and the distance between both eyes. .

例えば、図15に示すように、先ず、平面視画像のドットの位置P0から観察者の視線方向に垂直に伸ばした線と、奥行値とが交差する位置P1を該画素を表示させたい位置として決定する。次いで、左目用の視差画像を生成する場合は、想定観察位置40に相当する左目用視点カメラと位置P1とを結ぶ延長線と表示面とが交差する点を左目用の画素移動位置P2とする。一方、右目用の視差画像を生成する場合は、想定観察位置40に相当する右目用視点カメラと位置P1とを結ぶ線の延長線と表示面とが交差する点を右目用の画素移動位置P3とする。このように、平面視画像の各画素に対して、奥行値に基づき表示させたい位置を決定し、当該位置と、各左右視点カメラの位置とに基づいて、当該画素の移動位置を決定することにより、左目用の視差画像と、右目用の視差画像とを生成する。そして、生成した2つの視差画像をインターリーブすることにより、2眼式の立体視画像を生成することができる。   For example, as shown in FIG. 15, first, a position P1 where a line extending perpendicularly from the dot position P0 of the planar view image in the direction of the observer's line of sight and the depth value intersect is set as a position where the pixel is to be displayed. decide. Next, when generating a parallax image for the left eye, a point where the extension line connecting the left-eye viewpoint camera corresponding to the assumed observation position 40 and the position P1 intersects the display surface is set as the pixel movement position P2 for the left eye. . On the other hand, when generating a parallax image for the right eye, a point where the extension line of the line connecting the right eye viewpoint camera corresponding to the assumed observation position 40 and the position P1 intersects the display surface is the pixel movement position P3 for the right eye. And As described above, for each pixel in the planar view image, a position to be displayed is determined based on the depth value, and the movement position of the pixel is determined based on the position and the positions of the left and right viewpoint cameras. Thus, a parallax image for the left eye and a parallax image for the right eye are generated. Then, a binocular stereoscopic image can be generated by interleaving the generated two parallax images.

一方、本実施形態では、表示面の各画素毎に、(1)該画素の代表点(例えば、画素の中心)及び該画素の射出光線に指向性を与える光学素子(例えば、レンズ)の代表点を通過する光線の方向と、前記三次元仮想空間における前記視点位置とに基づいて、前記三次元仮想空間における前記光線の方向に対応する方向を決定し、(2)決定した方向と奥行画像とに基づき、前記三次元仮想空間中の当該方向における最も手前の物体の色情報を表しているドットを平面視画像の中から判定し、判定した基準画像のドットの色情報を該画素の色情報とすることで立体視画像を生成する。尚、(1)の光線の方向に対応する方向の決定方法は、上述した方法(I)と略重複した説明となるため、以下では、主に(2)決定した方向と奥行画像とに基づき色情報を決定する方法について詳細に説明する。   On the other hand, in this embodiment, for each pixel on the display surface, (1) a representative point of the pixel (for example, the center of the pixel) and a representative of an optical element (for example, a lens) that gives directivity to the emitted light of the pixel. A direction corresponding to the direction of the light beam in the three-dimensional virtual space is determined based on the direction of the light beam passing through the point and the viewpoint position in the three-dimensional virtual space, and (2) the determined direction and depth image Based on the above, the dot representing the color information of the nearest object in the direction in the three-dimensional virtual space is determined from the planar view image, and the color information of the determined reference image dot is the color of the pixel A stereoscopic image is generated by using the information. Since the method for determining the direction corresponding to the direction of the light beam in (1) is substantially the same as the method (I) described above, the following description is mainly based on (2) the determined direction and the depth image. A method for determining the color information will be described in detail.

まず、原理の概要について説明する。
例えば、図16に示すように、表示面の位置P12の画素に着目した場合、該画素に対する視線Vと画素別視点CM11とを方法(I)の場合と同様に決定する。次いで、決定した視線Vに対応する方向の軌跡(図中、位置P12と画素別視点CMとを通過する線、以下、「画素別視線方向軌跡」と呼ぶ)と、奥行値とが交差する位置P11を該画素を表示したい位置として決定する。そして、位置P11から表示面に対して垂直に伸ばした線と、表示面との交点P10の位置を取得し、取得した位置に対応する平面視画像のドットの色情報を、位置P12の画素の色情報として求める。
First, the outline of the principle will be described.
For example, as shown in FIG. 16, when attention is paid to the pixel at the position P12 on the display surface, the line of sight V and the pixel-specific viewpoint CM11 for the pixel are determined in the same manner as in the method (I). Next, the position at which the trajectory in the direction corresponding to the determined line of sight V (the line passing through the position P12 and the pixel-specific viewpoint CM in the figure, hereinafter referred to as “pixel-specific line-of-sight direction trajectory”) intersects the depth value. P11 is determined as a position where the pixel is to be displayed. Then, the position of the intersection P10 between the line extending perpendicularly to the display surface from the position P11 and the display surface is acquired, and the color information of the dot of the planar image corresponding to the acquired position is obtained from the pixel at the position P12. Obtained as color information.

次に、画素別視線方向軌跡と、奥行値との交点が複数ある場合について説明する。例えば、表示面の位置P24の画素に着目した場合、画素別視線方向軌跡と奥行値とは、交点P21,交点P22,交点P23とで交差する。この場合、観察者の最も手前の交点、即ち、個別視点CM22に最も近い交点P21を、該画素を表示させたい位置として決定する。そして、交点P21から表示面に対して垂直に伸ばした線と、表示面との交点P20の位置を取得し、取得した位置に対応する平面視画像のドットの色情報を、位置P24の画素の色情報として求める。   Next, a case where there are a plurality of intersections between the per-pixel gaze direction locus and the depth value will be described. For example, when attention is paid to the pixel at the position P24 on the display surface, the pixel-specific line-of-sight direction locus and the depth value intersect at the intersection point P21, the intersection point P22, and the intersection point P23. In this case, an intersection point closest to the observer, that is, an intersection point P21 closest to the individual viewpoint CM22 is determined as a position where the pixel is to be displayed. Then, the position of the intersection P20 between the line extending perpendicularly to the display surface from the intersection P21 and the display surface is acquired, and the color information of the dot of the planar image corresponding to the acquired position is obtained from the pixel at the position P24. Obtained as color information.

このように、表示面の各画素に対する視線Vと画素別視点CMとを決定し、視線Vの方向と該画素及び画素別視点CMとから画素別視線方向軌跡を求め、画素別視線方向軌跡と奥行値とが交差する点のうち、画素別視点CMに最も近い交点の位置を該画素を表示させたい位置として決定する。そして、決定した位置から表示面に対して垂直に伸ばした線と、表示面との交点の位置を取得し、取得した位置に対応する平面視画像のドットの色情報を該画素の色情報とすることにより、立体視画像を生成することができる。   In this way, the line of sight V and the pixel-specific viewpoint CM for each pixel on the display surface are determined, and the pixel-specific line-of-sight direction locus is determined from the direction of the line of sight V and the pixel and pixel-specific viewpoint CM. Among the points where the depth value intersects, the position of the intersection closest to the pixel-specific viewpoint CM is determined as the position where the pixel is to be displayed. Then, the position of the intersection of the line extending perpendicularly to the display surface from the determined position and the display surface is acquired, and the color information of the dot of the planar image corresponding to the acquired position is the color information of the pixel. By doing so, a stereoscopic image can be generated.

次に、具体的な平面視画像とその奥行画像とに基づいて、立体視画像を生成する方法について説明する。尚、以下では説明の簡便のため平面視画像がグレースケール画像(モノクロ画像)である場合を例として説明する。図17(a)は、平面視画像の対応する位置の奥行値を、白黒の階調で表す奥行画像であり、同図(d)は、基準となる平面視画像である。同図(b)は、奥行画像の奥行値に基づき作成される奥行情報モデルであり、あるスキャンライン(例えば、Y=y0)におけるZ値をxy座標に変換したものである。この奥行情報モデルは、Z値が大きいほど観察者に近い距離にあることを示し、1ドットは1ピクセルに対応している。尚、奥行画像は、観察者の視点が無限遠であることを想定した平行投影法により作成された画像である。 Next, a method for generating a stereoscopic image based on a specific planar image and its depth image will be described. In the following, for the sake of simplicity of explanation, a case where the planar view image is a gray scale image (monochrome image) will be described as an example. FIG. 17A is a depth image in which the depth value of the corresponding position of the planar image is represented by black and white gradation, and FIG. 17D is a standard planar image. FIG. 6B is a depth information model created based on the depth value of the depth image, and is obtained by converting the Z value in a certain scan line (for example, Y = y 0 ) into xy coordinates. This depth information model indicates that the greater the Z value, the closer to the observer, and one dot corresponds to one pixel. The depth image is an image created by a parallel projection method assuming that the observer's viewpoint is at infinity.

同図(c)は、表示面22に対する垂直断面を簡略的に示した図であり、画素PE1,PE2の代表点から射出される代表光線PR1,PR2と、奥行情報モデルとの交点X1,X2と、同図(a)に示す平面視画像との対応関係を示す図である。同図(c)に示すように、画素PE1から射出された代表光線PR1(即ち、視線Vと逆方向の光線であり、画素別視線方向軌跡と等価の光線)と、奥行情報モデルとから交点X1(z1,x1)が決定する。この交点X1の位置に対応する平面視画像のドットの色情報を取得する。即ち、交点X1(z1,x1)から、対応する平面視画像の位置座標(x1,y0)が決定され、この位置座標におけるドットから取得される色情報を画素PE1の色情報として求める。同様に、画素PE2から射出された代表光線PR2と、奥行情報モデルとの交点X2(z2,x2)から、対応する平面視画像の位置座標(x2,y0)が決定する。そして、平面視画像の位置座標(x2,y0)のドットから取得される色情報を画素PE2の色情報として求める。 FIG. 4C is a diagram simply showing a vertical cross section with respect to the display surface 22, and the intersections X1, X2 of the representative rays PR1, PR2 emitted from the representative points of the pixels PE1, PE2 and the depth information model. It is a figure which shows the correspondence with the planar view image shown to the same figure (a). As shown in FIG. 6C, the intersection point is obtained from the representative ray PR1 emitted from the pixel PE1 (that is, the ray in the direction opposite to the line of sight V and equivalent to the line-of-sight line direction trajectory) and the depth information model. X1 (z 1 , x 1 ) is determined. The color information of the dot of the planar view image corresponding to the position of this intersection X1 is acquired. That is, the position coordinate (x 1 , y 0 ) of the corresponding planar view image is determined from the intersection X1 (z 1 , x 1 ), and the color information acquired from the dot at this position coordinate is used as the color information of the pixel PE1. Ask. Similarly, the position coordinates (x 2 , y 0 ) of the corresponding planar view image are determined from the intersection X2 (z 2 , x 2 ) between the representative ray PR2 emitted from the pixel PE2 and the depth information model. Then, the color information acquired from the dot at the position coordinates (x 2 , y 0 ) of the planar view image is obtained as the color information of the pixel PE2.

更に、画素別視線方向軌跡と、奥行情報モデルの奥行値との交点が複数ある場合の色情報の求め方について詳細に説明する。図18は、表示面22に対する垂直断面を簡略的に示した図であり、当該垂直断面に応じたスキャンラインにおける奥行情報モデルを示している。また、表示面22の黒丸(●)は各画素の代表点を示し、各代表点のx座標と、奥行値のx座標はそれぞれ一致しているものとする。つまり、1画素は、1ピクセルに対応している。本方式では、各画素の代表点から射出される代表光線の方向を、レンズと画素の位置関係から算出し、これを視線Vの方向とする。尚、図中レンズの記載は省略している。   Furthermore, a method for obtaining color information when there are a plurality of intersections between the per-pixel line-of-sight direction trajectory and the depth value of the depth information model will be described in detail. FIG. 18 is a diagram schematically showing a vertical section with respect to the display surface 22, and shows a depth information model in a scan line corresponding to the vertical section. Also, the black circle (●) on the display surface 22 represents the representative point of each pixel, and the x coordinate of each representative point is the same as the x coordinate of the depth value. That is, one pixel corresponds to one pixel. In this method, the direction of the representative ray emitted from the representative point of each pixel is calculated from the positional relationship between the lens and the pixel, and this is used as the direction of the line of sight V. In addition, description of the lens is abbreviate | omitted in the figure.

図19は、図18に示した各画素のうち画素PE1,PE2,PE3に着目し、該画素PE1〜PE3に対応する代表光線PR1〜PR3を示した図である。代表光線PR1〜PR3は、3つの典型的パターンを示している。つまり、代表光線PR1は、画素PE1から左斜め上方向に射出するパターンであり、代表光線PR2は、画素PE2から右斜め上方向に射出するパターンであり、代表光線PR3は、画素PE3から垂直上方向に射出するパターンを示している。先ず、代表光線が左斜め上方向に射出するパターン、即ち、画素別視線方向軌跡の傾きが負となる場合における画素PE1の色情報の求め方について説明する。   FIG. 19 is a diagram showing representative rays PR1 to PR3 corresponding to the pixels PE1 to PE3 by focusing on the pixels PE1, PE2, and PE3 among the pixels shown in FIG. The representative rays PR1 to PR3 show three typical patterns. That is, the representative ray PR1 is a pattern that is emitted from the pixel PE1 in an obliquely upward left direction, the representative ray PR2 is a pattern that is emitted from the pixel PE2 in an obliquely upward right direction, and the representative ray PR3 is vertically upward from the pixel PE3. The pattern which injects in the direction is shown. First, a description will be given of how to obtain the color information of the pixel PE1 when the pattern in which the representative light beam is emitted obliquely upward to the left, that is, when the inclination of the trajectory direction for each pixel is negative.

図20は、画素別視線方向軌跡をV1とし、V1と奥行情報モデルとの交点を示す図である。尚、レンズ及び画素は省略している。先ず、画素別視線方向軌跡V1と、奥行情報モデルの全ての線分との交差判定を行い、各交点(図中では、5つの交点)を求める。そして、全交点の中から奥行値(Z値)が最も大きい交点(即ち、画素別視点CMから最も手前の交点、以下、「対象交点」と呼ぶ)を色情報を求めるための交点として取得する。そして、図17(c)、(d)を用いて説明した方法と同様に平面視画像のドットのうち対象交点の位置に応じたドットの色情報を取得し、これを画素PE1の色情報とする。同図においては、交点X1が対象交点となる。   FIG. 20 is a diagram illustrating an intersection between V1 and the depth information model, where V1 is the line-of-sight line direction locus for each pixel. In addition, the lens and the pixel are omitted. First, intersection determination between the line-of-sight line direction trajectory V1 for each pixel and all line segments of the depth information model is performed to obtain each intersection (five intersections in the figure). Then, the intersection having the largest depth value (Z value) among all the intersections (that is, the closest intersection from the pixel-specific viewpoint CM, hereinafter referred to as “target intersection”) is acquired as an intersection for obtaining color information. . Then, similarly to the method described with reference to FIGS. 17C and 17D, the color information of the dot corresponding to the position of the target intersection among the dots of the planar image is acquired, and this is used as the color information of the pixel PE1. To do. In the figure, the intersection X1 is the target intersection.

同様に、画素PE2の色情報を求める場合も、画素PE2に対する画素別視線方向軌跡V2と、奥行情報モデルの全ての線分と交差判定を行い、求められた全交点のうちZ値が最も大きい対象交点を取得する。そして、平面視画像のドットのうち対象交点の位置に対応するドットの色情報を取得して、これを画素PE2の色情報とする。また、画素PE3の色情報を求める場合は、視線Vは画素PE3に対して垂直方向であるため、平面視画像のドットのうち画素PE3の位置に対応するドットの色情報を取得し、これを画素PE3の色情報とする。   Similarly, when obtaining the color information of the pixel PE2, a crossing determination is performed with respect to the line-of-sight line direction locus V2 for the pixel PE2 and all line segments of the depth information model, and the Z value is the largest among all obtained intersections. Get the target intersection. And the color information of the dot corresponding to the position of the object intersection among the dots of the planar view image is acquired, and this is used as the color information of the pixel PE2. Further, when obtaining the color information of the pixel PE3, since the line of sight V is perpendicular to the pixel PE3, the color information of the dot corresponding to the position of the pixel PE3 is obtained from the dots of the planar view image, and this is obtained. The color information of the pixel PE3 is used.

以上のように、各画素の色情報を求める場合、各画素に対する画素別視点方向軌跡と、奥行情報モデルの全ての線分との交差判定を行う必要があり、三次元仮想空間の色情報を求めるのに時間を要することが懸念された。つまり、本実施形態では、画素パネルの各画素には、当該画素毎の光線の方向に基づいた三次元仮想空間の色情報が表されるため、当該光線の数ほどに視点がある、即ち画素の数ほどに視点があるといえる。従って、視点の数の増加に伴い、画素毎の計算処理に多大な時間を要するという問題があった。リアルタイムに動画像を生成して、立体視映像装置に表示させる場合、毎フレーム単位で立体視画像を生成する必要がある。従って、時間的な制約がかなり大きく、毎フレーム単位で立体視画像を生成できない場合、立体視映像表示装置に動画像を表示できない事態(いわゆる処理落ち)が起こり得た。そこで、本発明者は、各画素に対する画素別視線方向軌跡と、奥行情報モデルの線分との交差判定から対象交点を算出する工程を短時間で行う方法を発明した。   As described above, when obtaining the color information of each pixel, it is necessary to perform intersection determination between the viewpoint direction trajectory for each pixel and all line segments of the depth information model, and the color information of the three-dimensional virtual space is obtained. There was concern that it would take time to ask. In other words, in this embodiment, each pixel of the pixel panel represents the color information of the three-dimensional virtual space based on the direction of the light beam for each pixel, and therefore has as many viewpoints as the number of light beams. It can be said that there are as many viewpoints as there are. Therefore, there has been a problem that a great deal of time is required for calculation processing for each pixel as the number of viewpoints increases. When a moving image is generated in real time and displayed on a stereoscopic video apparatus, it is necessary to generate a stereoscopic image for each frame. Therefore, when the time restriction is considerably large and a stereoscopic image cannot be generated in units of frames, a situation in which a moving image cannot be displayed on the stereoscopic video display device (so-called processing failure) may occur. In view of this, the present inventors have invented a method of performing the process of calculating the target intersection in a short time from the intersection determination between the line-of-sight line direction trajectory for each pixel and the line segment of the depth information model.

以下、対象交点をより短時間で算出する方法について説明する。
先ず、図21に示すように、あるスキャンラインにおける奥行情報モデルの奥行値(Z値)の最大値Zmax及び最小値Zminを求める。続いて、図22に示すように、Zmax及びZminを通る表示面と平行な面と、画素PE1に対する画素別視線方向軌跡であるV1との交点Qmax(zmax,xmax),Qmin(zmin,xmin)をそれぞれ求める。そして、xmax≦x≦xminを探索範囲として、画素別視線方向軌跡V1と、奥行情報モデルの線分との交差判定を行う。尚、同図中、V1の傾きが負であるため、xmax<xminとなっている。
Hereinafter, a method for calculating the target intersection in a shorter time will be described.
First, as shown in FIG. 21, the maximum value Zmax and the minimum value Zmin of the depth value (Z value) of the depth information model in a certain scan line are obtained. Subsequently, as shown in FIG. 22, intersections Qmax (z max , x max ), Qmin (z min ) between a plane parallel to the display plane passing through Zmax and Zmin and V1 which is a pixel-specific line-of-sight direction locus for the pixel PE1. , X min ). Then, with x max ≦ x ≦ x min as a search range, intersection determination between the line-of-sight line direction locus V1 for each pixel and the line segment of the depth information model is performed. In the figure, since the slope of V1 is negative, x max <x min .

これにより、画素別視線方向軌跡V1と、奥行情報モデルの線分群との交点は、xmax≦x≦xminの範囲に限定される。つまり、xmax>x,xmin<xの範囲における交差判定を省略することができるため、計算処理の速度を向上させることができる。 Thereby, the intersection of the line-of-sight line direction locus V1 for each pixel and the line segment group of the depth information model is limited to a range of x max ≦ x ≦ x min . That is, since the intersection determination in the ranges of x max > x and x min <x can be omitted, the calculation processing speed can be improved.

さらに、計算処理の時間を短縮する方法について説明する。先ず、画素PE1についての交差判定の方法を図23を参照して説明する。画素PE1に対する画素別視線方向軌跡をV1=f(x)とし、V1の傾きが負である場合、Qmax(x=xmax)に近い位置にある画素、即ち、探索範囲の図中左端にある画素から順に交差判定を行っていく。 Further, a method for shortening the calculation processing time will be described. First, the method of intersection determination for the pixel PE1 will be described with reference to FIG. When the line-of-sight direction trajectory for the pixel PE1 is V1 = f (x) and the slope of V1 is negative, the pixel is close to Qmax (x = xmax ), that is, at the left end of the search range in the figure. The intersection determination is performed in order from the pixel.

例えば、図23に示すように、xmax≦x≦xminの範囲内に含まれる各画素PEの位置を左端から順にx1,x2,x3,x4,x5,x6,x7とする。この場合、先ず、左端の画素位置x1を取得し、画素位置x1におけるV1のZ値をZaとして求める。ここで、画素位置x1は、画素PE1(即ち、画素位置x4)から3画素左に移動した位置にあるため、Za=−3(dz/dx)として求まる。ここで、dz/dxは、x座標が画素1つに対応した長さだけ正の方向に増加したときの、V1のZ値の増分であり、画素別視線方向を求めるとき、同時に求めておくことができる。また、画素位置x1における奥行モデル情報のZ値を参照してZdとし、ZaとZdの大小を比較する。そして、ZaとZdの大小関係が初めてZd≧Zaとなったとき、画素位置x1が求める位置となる。 For example, as shown in FIG. 23, the positions of the respective pixels PE included in the range of x max ≦ x ≦ x min are arranged in order from the left end, x 1 , x 2 , x 3 , x 4 , x 5 , x 6 , x 7 In this case, first, it obtains the leftmost pixel position x 1, obtains the Z value of V1 at the pixel position x 1 as Za. Here, the pixel position x 1, the pixel PE1 (i.e., the pixel position x 4) because it is in a position moved three pixels left, obtained as Za = -3 (dz / dx) . Here, dz / dx is the increment of the Z value of V1 when the x coordinate increases in the positive direction by a length corresponding to one pixel, and is obtained simultaneously when obtaining the line-of-sight direction for each pixel. be able to. Further, the Zd with reference to Z values of depth model information at the pixel position x 1, compares the magnitude of Za and Zd. When the magnitude relationship between Za and Zd is the first time Zd ≧ Za, a position where a pixel position x 1 is determined.

つまり、V1と、奥行情報モデルの各線分とが一度も交差していない段階においては、Za>Zdであり、V1と、奥行情報モデルの線分の何れかが一度交差すれば、その前後でZaとZdの大小が入れ替わりZd≧Zaとなる。また、奥行値は1画素に対応しているため、画素間で2回以上V1と交差することは起こり得ない。従って、ZaとZdの大小をQmax側から順番に比較していくだけで、最もZ値が大きくなる交点を速やかに求めることができる。また、求める位置は、V1と、奥行情報モデルの線分との対象交点とは必ずしも一致しない。これは、Za=Zd以外の場合、V1と、奥行情報モデルの線分との交点は、画素の代表点に一致しないからである。そこで、求める位置を画素の代表点と正確に一致させ、且つZ値が最も大きくなる位置として、当該交点の右側に隣接する画素位置を求める位置とする。   That is, at a stage where V1 and each line segment of the depth information model have never intersected, Za> Zd, and if V1 and any line segment of the depth information model intersect once, before and after that The magnitudes of Za and Zd are interchanged to satisfy Zd ≧ Za. Further, since the depth value corresponds to one pixel, it is not possible to intersect V1 more than once between pixels. Therefore, by simply comparing the magnitudes of Za and Zd in order from the Qmax side, it is possible to quickly find the intersection where the Z value is the largest. Further, the obtained position does not necessarily match the target intersection of V1 and the line segment of the depth information model. This is because the intersection of V1 and the line segment of the depth information model does not coincide with the representative point of the pixel except for Za = Zd. Therefore, the position to be obtained is made to coincide with the representative point of the pixel accurately, and the position where the pixel value adjacent to the right side of the intersection is obtained is set as the position where the Z value becomes the largest.

一方、Za>Zdであるときは、次の画素PEの位置、図中では画素位置x2におけるZaを算出する。この場合、画素が1つ右にずれただけなので、画素位置x2におけるZaは、画素位置x1におけるZaに(dz/dx)を加算することで求められる。そして、画素位置x2における奥行情報モデルのZ値を参照し、ZaとZdとを比較する。図中の例では、画素位置x2において、Zd≧Zaとなるため、求める位置は、画素位置x2となり、この時点で交差判定の計算を終了する。 On the other hand, when it is Za> Zd, the position of the next pixel PE, in the figure to calculate the Za at the pixel position x 2. In this case, since the pixel is shifted to the right by one, Za at the pixel position x 2 can be obtained by adding (dz / dx) to Za at the pixel position x 1 . Then, with reference to the Z value of the depth information model in the pixel position x 2, compares the Za and Zd. In the example of the figure, the pixel position x 2, since the Zd ≧ Za, seek position is the pixel position x 2, and the ends the calculation of the intersection determination at this time.

次に、画素PE2についての交差判定の方法を図24を参照して説明する。先ず、画素PE2に対する画素別視線方向軌跡をV2=f(x)とし、V2と、奥行画像モデルのZ値の最大値及び最小値の水平線との交点Qmax(zmax,xmax),Qmin(zmin,xmin)をそれぞれ求める。そして、この場合のように、V2の傾きが正である場合は、Qmax(x=xmax)に近い位置から、即ち、探索範囲の図中右端から順に交差判定を行っていく。 Next, an intersection determination method for the pixel PE2 will be described with reference to FIG. First, the pixel-line-of-sight direction trajectory for the pixel PE2 and V2 = f (x), V2 and intersection Qmax of the horizontal lines of the maximum and minimum values of Z values of the depth image model (z max, x max), Qmin ( z min , x min ) are obtained. Then, as in this case, when the slope of V2 is positive, intersection determination is performed in order from a position close to Qmax (x = xmax ), that is, from the right end of the search range in the figure.

例えば、図24に示すように、xmin≦x≦xmaxの範囲内に含まれる各画素PEの位置を左端から順にx3,x4,x5とする。そして、先ず、右端の画素位置x5を取得し、画素位置x5におけるV2のZ値をZaとして求める。ここで、画素位置x5は、画素PE2(即ち、画素位置x4)から1画素右に移動した位置にあるため、Za=(dz/dx)である。また、画素位置x5における奥行モデル情報のZ値を参照してZdとし、ZaとZdの大小を比較する。図中では、Za>Zdであるため、次の画素PE2の位置、図中では画素位置x4におけるZaを算出し、画素位置x4における奥行情報モデルのZ値を参照して、ZaとZdを比較する。そして、Zd≧Zaとなるか、探索範囲xmax≧x≧xminを超えるまで、ZaとZdとの比較を繰り返す。 For example, as shown in FIG. 24, the positions of the pixels PE included in the range of x min ≦ x ≦ x max are set to x 3 , x 4 , x 5 in order from the left end. Then, first, it obtains the pixel position x 5 rightmost obtains the Z value of V2 at the pixel position x 5 as Za. Here, the pixel position x 5, since in the pixel PE2 (i.e., the pixel position x 4) has moved from one pixel right position, a Za = (dz / dx). Further, the Zd with reference to Z values of depth model information at the pixel position x 5, compares the magnitude of Za and Zd. In the figure, because it is Za> Zd, the position of the next pixel PE2, calculates Za at the pixel position x 4 in the figure, with reference to the Z value of the depth information model in the pixel position x 4, Za and Zd Compare The comparison between Za and Zd is repeated until Zd ≧ Za or until the search range x max ≧ x ≧ x min is exceeded.

ここで、Za>Zdのまま探索範囲xmax≧x≧xminを超えた場合、探索範囲の左隣の画素位置を求める位置とする。つまり、探索範囲内においてZaとZdの大小が変わらない場合は、探索範囲のxmin側の境界区間(図中では、x3からx2の区間)において、V2と、奥行情報モデルの線分とが必ず交差することとなる。そこで、V2と、奥行情報モデルの線分との交点に隣接し、且つ最もZ値が大きくなる画素として、探索範囲の左隣の画素位置、図中では画素位置x2を求める位置とする。 Here, when the search range x max ≧ x ≧ x min is exceeded while Za> Zd, the pixel position on the left side of the search range is determined. In other words, when in the search range does not change the magnitude of Za and Zd, the search range of x min side of the boundary section (in the figure, the x 3 x 2 sections) in the V2, the depth information model line And will definitely intersect. Therefore, a V2, adjacent the intersection of the line segment of the depth information model, and most Z value increases pixel, the pixel position of the left side of the search range, and a position for determining the pixel position x 2 in the drawing.

尚、Za>Zdのまま探索範囲を超えた場合に、探索範囲のxmax側の境界区間(図中では、x5からx6の区間)において、V2と、奥行情報モデルの線分とが交差することはない。なぜなら、V2と、奥行情報モデルの線分とがxmax側の境界区間で交差する場合、当該区間の奥行情報モデルの線分が、必ず奥行値の最大値Zmaxを超えることとなるからである。つまり、かかる交差が生じた場合、V2と、奥行情報モデルの最大値の水平線との交点Qmaxの位置に矛盾が生じることとなる。従って、Za>Zdのまま探索範囲を超えた場合は、探索範囲のxmax側の境界区間において、V2と、奥行情報モデルの線分とが交差することはないと判定できる。 Incidentally, if it exceeds still search range Za> Zd, the boundary interval x max side of the search range (in the drawing, interval x 6 from x 5) in, and V2, and the segment depth information model Never cross. This is because, when V2 and the line segment of the depth information model intersect at the boundary section on the xmax side, the line segment of the depth information model in the section will always exceed the maximum value Zmax of the depth value. . That is, when such an intersection occurs, there is a contradiction in the position of the intersection point Qmax between V2 and the maximum horizontal line of the depth information model. Accordingly, when the search range is exceeded while Za> Zd, it can be determined that V2 and the line segment of the depth information model do not intersect in the boundary section on the x max side of the search range.

同様に、画素PE1の交差判定において、Za>Zdのまま探索範囲を超えた場合、探索範囲のxmin側の境界区間(図23では、x7からx8の区間)において、V1と、奥行情報モデルの線分とが必ず交差することとなる。従って、かかる場合は、探索範囲の右隣の画素位置、図中では画素位置x8を求める位置とする。 Similarly, in the intersection determination pixel PE1, if it exceeds still search range of Za> Zd, (in FIG. 23, the interval from x 7 x 8) boundary interval x min side of the search range in a V1, depth The line segment of the information model always intersects. Therefore, such a case, the pixel position to the right of the search range, and a position for determining the pixel position x 8 in the figure.

更に、画素PE3についての交差判定の方法について説明する。この場合、画素別視線方向軌跡の傾きが0の場合における通常の交差判定と同様である。つまり、図25に示すように、画素別視線方向軌跡をV3とすると、V3と奥行情報モデルとの交点は1つである。従って、この交点に一致する画素位置、図中では画素位置x5を求める位置とする。この場合は、視線Vの傾きが0でない場合のような交差判定の計算は必要ない。 Further, a method of intersection determination for the pixel PE3 will be described. In this case, it is the same as the normal intersection determination in the case where the inclination of the pixel-specific gaze direction locus is zero. That is, as shown in FIG. 25, if the pixel-specific line-of-sight direction locus is V3, there is one intersection between V3 and the depth information model. Accordingly, the pixel position corresponding to the intersection point, and a position for determining the pixel position x 5 in the drawing. In this case, it is not necessary to calculate the intersection determination as in the case where the inclination of the line of sight V is not zero.

以上のように、画素PEに対する画素別視線方向軌跡と、奥行情報モデルとの交差判定を行う場合、奥行情報モデルの奥行値の最大値及び最小値に基づいて、交差判定を行う探索範囲を決定する。また、画素別視線方向軌跡の傾きが負の場合、当該探索範囲に含まれる画素のうち画素別視線にとって最も手間に位置する左端の画素位置から順にZaを求め、対応するZdとの比較を行う。一方、画素別視線方向軌跡の傾きが正の場合、探索範囲に含まれる画素のうち画素別視線にとって最も手間に位置する右端の画素位置から順にZaを求め、対応するZdとの比較を行う。そして、比較結果がZd≧Zaとなった場合には、当該画素位置が求める位置となり、平面視画像から当該画素位置に対応する画素の色情報を取得し、これを画素PEの色情報とすることができる。   As described above, when the intersection determination between the line-of-sight line direction trajectory for the pixel PE and the depth information model is performed, the search range for performing the intersection determination is determined based on the maximum value and the minimum value of the depth value of the depth information model. To do. Further, when the inclination of the trajectory direction for each pixel is negative, Za is obtained in order from the leftmost pixel position that is most troublesome for the pixel-specific gaze among the pixels included in the search range, and is compared with the corresponding Zd. . On the other hand, when the inclination of the pixel-specific line-of-sight direction locus is positive, Za is obtained in order from the rightmost pixel position located most laborious for the pixel-specific line-of-sight among the pixels included in the search range, and compared with the corresponding Zd. When the comparison result is Zd ≧ Za, the pixel position is the position to be obtained, and color information of the pixel corresponding to the pixel position is acquired from the planar view image, and this is used as the color information of the pixel PE. be able to.

これにより、探索範囲内に含まれる各画素位置に対応するZaの算出と、ZaとZdとの比較といった単純な演算により、交差判定を行うことができる。具体的には、Qmax側から1ピクセル毎に順次交差判定を行うことで、Zaを加算処理(例えば、dz/dxの加算)のみで算出することができ、計算処理を高速化することができる。また、Qmax側から順次に交差判定を行うことにより、条件が成立した時点で以後の探索を打ち切ることができるので、Z値が最も大きくなる交点を速やかに探索することができる。これにより、計算回数を少なくして、効率よく対象交点を探索することができる。   Thereby, the intersection determination can be performed by a simple calculation such as calculation of Za corresponding to each pixel position included in the search range and comparison between Za and Zd. Specifically, by sequentially performing the intersection determination for each pixel from the Qmax side, Za can be calculated only by addition processing (for example, addition of dz / dx), and the calculation processing can be speeded up. . Further, by sequentially performing the intersection determination from the Qmax side, the subsequent search can be terminated when the condition is satisfied, so that the intersection where the Z value becomes the maximum can be searched quickly. Thereby, the number of calculations can be reduced and the target intersection can be searched efficiently.

[立体視画像生成装置]
次に、上述した原理に基づく立体視画像生成装置について説明する。かかる立体視画像生成装置は、動画の立体視を実現する立体視画像を生成するものである。
[Stereoscopic image generation device]
Next, a stereoscopic image generation device based on the above-described principle will be described. Such a stereoscopic image generation apparatus generates a stereoscopic image that realizes stereoscopic viewing of a moving image.

図26は、本実施形態における立体視画像生成装置1の構成を示すブロック図である。同図によれば、立体視画像生成装置1は、入力部100と、立体視映像表示装置200と、処理部300と、記憶部400と、を備えて構成される。   FIG. 26 is a block diagram illustrating a configuration of the stereoscopic image generation apparatus 1 according to the present embodiment. As shown in the figure, the stereoscopic image generation apparatus 1 includes an input unit 100, a stereoscopic video display device 200, a processing unit 300, and a storage unit 400.

入力部100は、ユーザによる操作指示を受け付け、操作に応じた操作信号を処理部300に出力する。この機能は、例えばボタンスイッチやレバー、ジョイスティック、ダイヤル、マウス、トラックボール、キーボード、タブレット、タッチパネル、各種センサ等の入力装置によって実現される。   The input unit 100 receives an operation instruction from a user and outputs an operation signal corresponding to the operation to the processing unit 300. This function is realized by an input device such as a button switch, lever, joystick, dial, mouse, trackball, keyboard, tablet, touch panel, or various sensors.

立体視映像表示装置200は、立体視画像生成部320により生成された立体視画像を表示して観察者に立体視映像を認識せしめる表示装置である。本実施形態では、例えば図2に示した垂直レンチキュラ方式の立体視映像表示装置により実現される。   The stereoscopic video display device 200 is a display device that displays the stereoscopic image generated by the stereoscopic image generation unit 320 and allows the observer to recognize the stereoscopic video. In the present embodiment, for example, it is realized by the vertical lenticular stereoscopic image display device shown in FIG.

処理部300は、立体視画像生成装置1全体の制御や画像生成等の各種演算処理を行う。この機能は、例えばCPU(CISC型、RISC型)、ASIC(ゲートアレイ等)等の演算装置やその制御プログラムにより実現される。特に、本実施形態では、処理部300は、三次元仮想空間であるオブジェクト空間を設定するオブジェクト空間設定部310と、オブジェクト空間設定部310により設定されたオブジェクト空間の立体視画像を生成する立体視画像生成部320と、を含む。   The processing unit 300 performs various arithmetic processes such as control of the entire stereoscopic image generation apparatus 1 and image generation. This function is realized by, for example, an arithmetic device such as a CPU (CISC type, RISC type), ASIC (gate array, etc.) or a control program thereof. In particular, in the present embodiment, the processing unit 300 includes an object space setting unit 310 that sets an object space that is a three-dimensional virtual space, and a stereoscopic view that generates a stereoscopic image of the object space set by the object space setting unit 310. An image generation unit 320.

立体視画像生成部320は、画素別視点設定部322と、レンダリング部324と、色情報設定部326とを含み、記憶部400に記憶されている立体視画像生成プログラム410、色情報設定処理プログラム420に従った処理を実行することで、オブジェクト空間設定部310により設定されたオブジェクト空間の立体視画像を生成し、生成した立体視画像を立体視映像表示装置200に表示させる。   The stereoscopic image generation unit 320 includes a pixel-specific viewpoint setting unit 322, a rendering unit 324, and a color information setting unit 326, and a stereoscopic image generation program 410 and a color information setting processing program stored in the storage unit 400. By executing the processing according to 420, a stereoscopic image of the object space set by the object space setting unit 310 is generated, and the generated stereoscopic image is displayed on the stereoscopic video display apparatus 200.

画素別視点設定部322は、表示装置データ430及び想定観察位置データ440を参照してオブジェクト空間に画素別視点CMを設定する。具体的には、立体視映像表示装置200の表示面22の画素PE毎に、表示装置データ430及び想定観察位置データ440を参照して対応するレンズ32を決定する。そして、該画素PEの代表点と、該画素PEに対応するレンズ32の主点(詳細には、代表主点)とを通過した後の代表光線PRを算出し、この代表光線PRと位置は同じで方向を逆にした視線を該画素PEの視線Vとする。このとき、画素PEに対応するレンズ32及び視線Vの決定は、立体視映像表示装置200に応じた方法で行う。図7、8を参照して説明したように行う。   The pixel-specific viewpoint setting unit 322 sets the pixel-specific viewpoint CM in the object space with reference to the display device data 430 and the assumed observation position data 440. Specifically, for each pixel PE on the display surface 22 of the stereoscopic video display device 200, the corresponding lens 32 is determined with reference to the display device data 430 and the assumed observation position data 440. Then, the representative ray PR after passing through the representative point of the pixel PE and the principal point (specifically, the representative principal point) of the lens 32 corresponding to the pixel PE is calculated. The same line of sight with the direction reversed is set as the line of sight V of the pixel PE. At this time, the lens 32 and the line of sight V corresponding to the pixel PE are determined by a method according to the stereoscopic video display device 200. This is performed as described with reference to FIGS.

そして、画素別視点設定部322は、各画素PEについて、算出した視線Vを視線方向とする画素別視点CMを設定する。また、画素別視点CMの位置は、立体視画像生成部320によって決定された設定基準位置を基に設定する。具体的には、例えば図11に示したように、表示面22に平行な同一面上に各画素別視点CMを設定する。   The pixel-specific viewpoint setting unit 322 sets a pixel-specific viewpoint CM with the calculated line of sight V as the line-of-sight direction for each pixel PE. Further, the position of the pixel-specific viewpoint CM is set based on the setting reference position determined by the stereoscopic image generation unit 320. Specifically, for example, as illustrated in FIG. 11, each pixel viewpoint CM is set on the same plane parallel to the display surface 22.

ここで、表示装置データ430とは、立体視映像表示装置200の構成パラメータのデータである。図27に、表示装置データ430のデータ構成の一例を示す。同図によれば、表示装置データ430は、立体視映像表示装置200を構成する画素パネル20の画素ピッチ(431)と、レンズ板30のレンズピッチ(432)及び焦点距離(433)と、画素パネル20に対するレンズ板30の配置角度(434)と、を格納する。   Here, the display device data 430 is data of configuration parameters of the stereoscopic video display device 200. FIG. 27 shows an example of the data configuration of the display device data 430. According to the figure, the display device data 430 includes a pixel pitch (431) of the pixel panel 20 constituting the stereoscopic video display device 200, a lens pitch (432) and a focal length (433) of the lens plate 30, and pixels. The arrangement angle (434) of the lens plate 30 with respect to the panel 20 is stored.

配置角度(434)は、画素パネル20の画素ピッチ方向とレンズ板30のレンズピッチ方向とが成す角度θの値を格納する。即ち、配置角度(434)は、立体視映像表示装置200が垂直/斜めレンチキュラ方式の何れであるかを示すデータであり、垂直レンチキュラ方式の場合には、θ=0゜となり、斜めレンチキュラ方式の場合には、θ=0゜以外となる。尚、この表示装置データ430は、固定的なデータとして予め記憶されていることとするが、後述のように、入力部100からのユーザ入力に従って設定されることとしても良い。   The arrangement angle (434) stores the value of the angle θ formed by the pixel pitch direction of the pixel panel 20 and the lens pitch direction of the lens plate 30. That is, the arrangement angle (434) is data indicating whether the stereoscopic image display apparatus 200 is of a vertical / oblique lenticular method. In the case of the vertical lenticular method, θ = 0 °, and the oblique lenticular method. In some cases, θ is not 0 °. The display device data 430 is stored in advance as fixed data, but may be set according to a user input from the input unit 100 as described later.

また、想定観察位置データ440とは、想定観察位置40のデータであり、具体的には、立体視映像表示装置200の画素パネル20の表示面と、想定した観察者の視点(想定観察位置)40との間の想定観察距離Dの値を格納する。尚、この想定観察位置データ440は、固定的なデータとして予め記憶されていることとするが、入力部100からのユーザ入力によって設定されることとしても良い。想定観察位置データ440をユーザ入力により設定できるようにすることで、想定視点位置を変更したい場合にも容易に対応できる。また、入力装置としてヘッドトラッキング装置を用いて、観察位置が自動的にフィードバック(入力)されるようにしても良い。   The assumed observation position data 440 is data of the assumed observation position 40. Specifically, the display surface of the pixel panel 20 of the stereoscopic video display device 200 and the assumed observer's viewpoint (assumed observation position). The value of the assumed observation distance D between 40 is stored. The assumed observation position data 440 is stored in advance as fixed data, but may be set by user input from the input unit 100. By making it possible to set the assumed observation position data 440 by user input, it is possible to easily cope with a case where it is desired to change the assumed viewpoint position. Further, the observation position may be automatically fed back (input) using a head tracking device as an input device.

また、画素別視点設定部322によって設定された各画素PEの画素別視点CMのデータは画素別視点データ450に格納される。図28に、画素別視点データ450のデータ構成の一例を示す。同図によれば、画素別視点データ450は、立体視映像表示装置200の画素パネル20の画素(451)毎に、設定された画素別視点(452)を対応付けて格納している。画素別視点(452)には、対応する画素別視点CMを表すデータとして視線Vのデータが格納される。   The pixel-specific viewpoint CM data of each pixel PE set by the pixel-specific viewpoint setting unit 322 is stored in the pixel-specific viewpoint data 450. FIG. 28 shows an example of the data configuration of the pixel-specific viewpoint data 450. According to the figure, the pixel-specific viewpoint data 450 stores a set pixel-specific viewpoint (452) in association with each pixel (451) of the pixel panel 20 of the stereoscopic video display apparatus 200. In the viewpoint by pixel (452), data of the line of sight V is stored as data representing the corresponding viewpoint by pixel CM.

レンダリング部324は、オブジェクト空間設定部310により設定されたオブジェクト空間に1つの仮想カメラを設定し、該仮想カメラの視点に基づきZバッファ法によりレンダリングを行って、平面視画像データ462及び奥行画像データ464を生成する。   The rendering unit 324 sets one virtual camera in the object space set by the object space setting unit 310, performs rendering by the Z buffer method based on the viewpoint of the virtual camera, and performs planar view image data 462 and depth image data 464 is generated.

色情報設定部326は、色情報設定処理プログラム420に従って色情報設定処理を実行して、三次元仮想空間の立体視画像の色情報を設定する。具体的には、各画素PEについて、画素別視点データ450から画素PEと、画素PEに対する画素別視点(視線Vのデータ)とを取得して画素別視線方向軌跡を算出し、この画素別視線方向軌跡と、画素PEの位置に応じたスキャンラインにおける奥行情報モデル470との交点のうちZ値が最大となる対象交点を決定する。そして、決定した対象交点の位置に応じた画素位置を取得し、平面視画像から取得した画素位置に対応するドットの色情報を画素PEの色情報として求める。求められた各画素PEの色情報は、色情報設定部326により立体視画像データ480の該当位置に書き込まれる。   The color information setting unit 326 executes color information setting processing according to the color information setting processing program 420 and sets color information of a stereoscopic image in the three-dimensional virtual space. Specifically, for each pixel PE, the pixel PE and the pixel-specific viewpoint (data of the line of sight V) with respect to the pixel PE are acquired from the pixel-specific viewpoint data 450 to calculate the pixel-specific line-of-sight direction locus, and this pixel-specific line-of-sight is obtained. Of the intersections between the direction trajectory and the depth information model 470 in the scan line corresponding to the position of the pixel PE, a target intersection having the maximum Z value is determined. Then, the pixel position corresponding to the determined position of the target intersection is acquired, and the color information of the dot corresponding to the pixel position acquired from the planar view image is obtained as the color information of the pixel PE. The obtained color information of each pixel PE is written in the corresponding position of the stereoscopic image data 480 by the color information setting unit 326.

記憶部400は、処理部300に立体視画像生成装置1の統合的に制御させるためのシステムプログラムやデータ等を記憶するとともに、処理部300の作業領域として用いられ、処理部300が各種プログラムに従って実行した演算結果や入力部100から入力される入力データ等を一時的に記憶する。この機能は、例えば各種ICメモリやハードディスク、フロッピー(登録商標)ディスク、CD−ROM、DVD、MO、RAM、VRAM等によって実現される。   The storage unit 400 stores a system program, data, and the like for causing the processing unit 300 to control the stereoscopic image generation apparatus 1 in an integrated manner, and is used as a work area of the processing unit 300. The executed calculation results, input data input from the input unit 100, and the like are temporarily stored. This function is realized by, for example, various IC memories, a hard disk, a floppy (registered trademark) disk, a CD-ROM, a DVD, an MO, a RAM, a VRAM, and the like.

特に、本実施形態では、記憶部400は、処理部300を立体視画像生成部320として機能させるための立体視画像生成プログラム410と、色情報設定処理プログラム420と、表示装置データ430と、想定観察位置データ440と、画素別視点データ450と、レンダリングデータ460と、奥行情報モデル470と、立体視画像データ480とを記憶している。   In particular, in the present embodiment, the storage unit 400 assumes a stereoscopic image generation program 410 for causing the processing unit 300 to function as the stereoscopic image generation unit 320, a color information setting processing program 420, display device data 430, and the like. Observation position data 440, pixel-specific viewpoint data 450, rendering data 460, depth information model 470, and stereoscopic image data 480 are stored.

立体視画像生成処理プログラム410は、処理部300を立体視画像生成部320として機能させるためのプログラムである。色情報設定処理プログラム420は、立体視画像生成部322を色情報設定部326として機能させるためのプログラムである。   The stereoscopic image generation processing program 410 is a program for causing the processing unit 300 to function as the stereoscopic image generation unit 320. The color information setting processing program 420 is a program for causing the stereoscopic image generation unit 322 to function as the color information setting unit 326.

レンダリングデータ460は、レンダリング部324により生成された平面視画像データ462と、奥行画像データ464とを記憶している。図29に、平面視画像データ462の一例を、図30に、図29の平面視画像データ462に対応する奥行画像データ464の一例を示す。平面視画像データ462は、色情報(例えば、RGB値、α値)を記憶した画像データであり、奥行画像データは、平面視画像の対応する位置の奥行値を、白黒の階調で表す画像データである。尚、平面視画像データ462は、基準画像の一種であり、奥行画像464は、奥行値情報の一種である。   The rendering data 460 stores planar image data 462 generated by the rendering unit 324 and depth image data 464. FIG. 29 shows an example of the planar image data 462, and FIG. 30 shows an example of the depth image data 464 corresponding to the planar image data 462 of FIG. The planar image data 462 is image data in which color information (for example, RGB value, α value) is stored, and the depth image data is an image that represents the depth value of the corresponding position of the planar image in monochrome gradation. It is data. The planar view image data 462 is a kind of reference image, and the depth image 464 is a kind of depth value information.

奥行情報モデル470は、奥行画像データの奥行値をスキャンライン毎に格納している。図31に、奥行情報モデルの一例を示す。図31(b)は、同図(a)に示す奥行画像データのスキャンラインl−lにおける奥行値をzx座標に変換したモデル図である。図31(a)において、Z値が大きい(明るい)ほど観察者に近い距離であることを示している。尚、奥行情報モデル470は、奥行値情報の一種である。   The depth information model 470 stores the depth value of the depth image data for each scan line. FIG. 31 shows an example of the depth information model. FIG. 31B is a model diagram in which the depth value in the scan line 11 of the depth image data shown in FIG. In FIG. 31 (a), the larger the Z value (brighter), the closer to the observer. The depth information model 470 is a type of depth value information.

立体視画像データ480は、立体視画像生成部320により生成された1フレーム分の画像データ(詳細には、各画素の色情報)を格納している。   The stereoscopic image data 480 stores image data for one frame (specifically, color information of each pixel) generated by the stereoscopic image generation unit 320.

[処理の流れ]
次に、処理の流れを説明する。
図32は、本実施形態における立体視画像生成処理の流れを示すフローチャートである。この処理は、1フレーム毎に立体視画像を生成して表示させる、即ちリアルタイムな動画の立体視を実現させる処理であり、立体視画像生成部320が記憶部400の立体視画像生成処理プログラム410を実行することで実現される。尚、平面視画像及び奥行画像はグレースケール画像とし、以下でいう画素は、1ピクセルに相当する。
[Process flow]
Next, the process flow will be described.
FIG. 32 is a flowchart showing a flow of stereoscopic image generation processing in the present embodiment. This process is a process for generating and displaying a stereoscopic image for each frame, that is, realizing a real-time moving image stereoscopic view. The stereoscopic image generation unit 320 stores a stereoscopic image generation processing program 410 in the storage unit 400. It is realized by executing. The planar view image and the depth image are gray scale images, and the pixel referred to below corresponds to one pixel.

同図によれば、立体視画像生成処理では、立体視画像生成部320は、先ず、画素別視点CMの設定位置の基準となる基準位置(設定基準位置)を決定する(ステップS11)。次いで、表示面22の各画素PEを対象としてループAの処理を実行することで、各画素PEの画素別視点CMをオブジェクト空間に設定する。   According to the figure, in the stereoscopic image generation process, the stereoscopic image generation unit 320 first determines a reference position (setting reference position) that serves as a reference for the setting position of the pixel-specific viewpoint CM (step S11). Next, by executing the process of loop A for each pixel PE on the display surface 22, the pixel-specific viewpoint CM of each pixel PE is set in the object space.

ループAでは、画素別視点設定部322が、処理対象となっている画素PE(以下、「該画素」という)に対応するレンズ32を決定する(ステップS13)。次いで、該画素PEの代表点と、該画素PEに対応するレンズ32の主点(代表主点)とを通過した後の光線(代表光線)PRを算出し、その代表光線PRと位置は同じで方向を逆にした視線を視線Vとする(ステップS15)。そして、その視線Vの方向を視線方向とする画素別視点CMを設定する(ステップS17)。ループAはこのように実行される。   In the loop A, the pixel-specific viewpoint setting unit 322 determines a lens 32 corresponding to a pixel PE that is a processing target (hereinafter referred to as “the pixel”) (step S13). Next, a ray (representative ray) PR after passing through the representative point of the pixel PE and the principal point (representative principal point) of the lens 32 corresponding to the pixel PE is calculated, and the position is the same as the representative ray PR. The line of sight whose direction has been reversed is set as the line of sight V (step S15). Then, a pixel-by-pixel viewpoint CM in which the direction of the line of sight V is the line-of-sight direction is set (step S17). Loop A is executed in this way.

表示面22の全画素PEを処理対象としてループAの処理を行うと、ループAを終了する。ループAを終了すると、立体視画像生成部320は、続いて、1フレーム毎にループBの処理を実行する。   When the process of Loop A is performed for all the pixels PE on the display surface 22, the loop A is terminated. When the loop A ends, the stereoscopic image generation unit 320 subsequently executes the process of loop B for each frame.

ループBでは、先ず、オブジェクト空間設定部310によりオブジェクト空間が設定される(ステップS19)。続いて、設定されたオブジェクト空間に仮想カメラが設定され(ステップS21)、レンダリング部324により、設定された仮想カメラに基づきZバッファ法によるレンダリングが行われ、平面視画像データ462及び奥行画像データ464が生成される(ステップS23)。その後、生成した奥行画像データ464に基づき、各スキャンライン毎の奥行値をzx座標に変換した奥行情報モデル470が生成される(ステップS25)。   In the loop B, first, the object space is set by the object space setting unit 310 (step S19). Subsequently, a virtual camera is set in the set object space (step S21), and the rendering unit 324 performs rendering by the Z buffer method based on the set virtual camera, and the planar view image data 462 and the depth image data 464. Is generated (step S23). Thereafter, based on the generated depth image data 464, a depth information model 470 obtained by converting the depth value for each scan line into the zx coordinate is generated (step S25).

続いて、色情報設定部326により、処理対象となっている画素PE(該画素)の色情報を設定する色情報設定処理(図33参照)が実行される。そして、表示面22の全画素PEを対象とした色情報設定処理が終了すると、立体視画像生成部320は、立体視画像データ480に格納されている1フレーム分の画像データを、立体視画像として立体視映像表示装置200に表示させる(ステップS23)。   Subsequently, the color information setting unit 326 executes a color information setting process (see FIG. 33) for setting the color information of the pixel PE to be processed (the pixel). When the color information setting process for all the pixels PE on the display surface 22 ends, the stereoscopic image generation unit 320 converts the image data for one frame stored in the stereoscopic image data 480 into the stereoscopic image. Is displayed on the stereoscopic video display device 200 (step S23).

このように、1フレーム毎にループBの処理を繰り返し実行することで、動画の立体視が実現される。そして、例えば入力部100から立体視画像の生成終了指示が入力される等して立体視画像の生成終了が指示されると、立体視画像生成部320はループBを終了し、本実施形態における立体視画像生成処理は終了となる。なお、画像の生成に時間がかかる場合や、生成した動画像を後で再利用したい場合などには、その出力先を、立体視映像表示装置200に代えて、ハードディスク等の記憶媒体としても良い。また、処理時間に余裕がある場合には、立体視映像表示装置200と記憶媒体の両方に出力を行っても良い。   In this manner, the stereoscopic view of the moving image is realized by repeatedly executing the process of Loop B for each frame. Then, for example, when a stereoscopic image generation end instruction is input by inputting a stereoscopic image generation end instruction from the input unit 100, the stereoscopic image generation unit 320 ends the loop B, and in this embodiment The stereoscopic image generation process ends. In addition, when it takes time to generate an image or when it is desired to reuse the generated moving image later, the output destination may be a storage medium such as a hard disk instead of the stereoscopic video display device 200. . In addition, when the processing time is sufficient, output may be performed on both the stereoscopic video display device 200 and the storage medium.

次に、図33を参照して、色情報設定処理の流れについて説明する。図33に示すように、色情報設定処理を実行するにあたり、色情報設定部326は、各スキャンライン毎に奥行情報モデル470の奥行値の最大値Zmax及び最小値Zminを設定する(ステップS31)。そして、表示面22の各画素PEに対してループ処理を開始する。   Next, the flow of color information setting processing will be described with reference to FIG. As shown in FIG. 33, in executing the color information setting process, the color information setting unit 326 sets the maximum value Zmax and the minimum value Zmin of the depth value of the depth information model 470 for each scan line (step S31). . Then, a loop process is started for each pixel PE on the display surface 22.

まず、色情報設定部326は、該画素に対する画素別視線方向軌跡Vdの傾きが垂直であるか否かを判定する(ステップS33)。画素別視線方向軌跡Vdの傾きが垂直である場合(ステップS33;YES)、即ち、図25のPE3と同様である場合、当該画素位置のxy座標に対応する平面視画像のドットの色情報を該画素の色情報として設定する(ステップS37)。   First, the color information setting unit 326 determines whether or not the inclination of the pixel-specific gaze direction locus Vd with respect to the pixel is vertical (step S33). When the inclination of the pixel-specific line-of-sight direction locus Vd is vertical (step S33; YES), that is, in the same manner as PE3 in FIG. 25, the color information of the dot in the planar view image corresponding to the xy coordinates of the pixel position is obtained. The color information of the pixel is set (step S37).

該画素に対する画素別視線方向軌跡Vdの傾きが垂直でない場合(ステップS33;NO)、処理対象となっている画素PE(該画素)の視線方向と画素別視点CMとに基づき、画素別視線方向軌跡Vd=f(xd)を算出し、Vd=f(xd)と、Zmax及びZminを通る表示面と平行な面との交点Qmax(zmax,xmax)、Qmin(zmin,xmin)をそれぞれ取得する(ステップS35)。次いで、傾きが負であるか否か、即ち、(dz/dx)<0であるか否かを判定する(ステップS39)。傾きが負である場合は(ステップS39;YES)、図23で説明した画素PE1の例と同様であり、先ず、探索範囲内でx=xmaxに最も近い画素位置、即ち、xmax≦Zd(zd,xd)<xmax+1pix分を満たす画素位置xdを取得する(ステップS41)。そして、取得した画素位置xdに対応するZaを算出すると共に(ステップS43)、画素位置xdに対応するZdを参照して、ZdとZaとを比較する(ステップS45)。 When the inclination of the pixel-specific gaze direction locus V d with respect to the pixel is not vertical (step S33; NO), the pixel-specific gaze is based on the gaze direction of the pixel PE to be processed (the pixel) and the pixel-specific viewpoint CM. The direction locus V d = f (x d ) is calculated, and the intersection points Qmax (z max , x max ), Qmin between V d = f (x d ) and a plane parallel to the display plane passing through Z max and Z min (z min , x min ) are respectively acquired (step S35). Next, it is determined whether or not the slope is negative, that is, whether or not (dz / dx) <0 (step S39). If the slope is negative (step S39; YES), the same as the example of the pixel PE1 described in FIG. 23, first, nearest pixel positions in x = x max in the search range, i.e., x max ≦ Zd A pixel position x d satisfying (z d , x d ) <x max +1 pix is acquired (step S41). Then, Za corresponding to the acquired pixel position xd is calculated (step S43), and Zd and Za are compared with reference to Zd corresponding to the pixel position xd (step S45).

ここで、Za≧Zdとなった場合(ステップS45;NO)、当該画素位置xdのxy座標に対応する平面視画像のドットの色情報を該画素の色情報として設定する(ステップS51)。一方、Zd>Zaである場合(ステップS45;YES)、次の画素位置を取得して(xd←xd+1)、当該画素位置xdに対応するZaを算出する(Za←Za+dz/dx)(ステップS47)。また、画素位置xdがQminのxminを超えているか否かを判定する(ステップS49)。画素位置xdがxminを超えている場合(ステップS49;YES)、即ち、画素位置xdが探索範囲を超えた場合、当該画素位置xdのxy座標に対応する平面視画像のドットの色情報を該画素の色情報とする(ステップS51)。 Here, when Za ≧ Zd (step S45; NO), the color information of the dot of the planar image corresponding to the xy coordinates of the pixel position xd is set as the color information of the pixel (step S51). On the other hand, when Zd> Za is satisfied (step S45; YES), the next pixel position is acquired (x d ← x d + 1 ), and Za corresponding to the pixel position x d is calculated (Za ← Za +). dz / dx) (step S47). Further, it is determined whether or not the pixel position x d is greater than x min of Qmin (step S49). When the pixel position x d exceeds x min (step S49; YES), that is, when the pixel position x d exceeds the search range, the dot of the planar view image corresponding to the xy coordinates of the pixel position x d is determined. The color information is used as the color information of the pixel (step S51).

一方、画素位置xdがQminのxminを超えていない場合(ステップS49;NO)、即ち、画素位置xdが探索範囲内である場合、ステップS45に移行して、上述した処理を繰り返して実行し、Za≧Zdとなる座標位置xdを探索する。 On the other hand, when the pixel position x d does not exceed x min of Qmin (step S49; NO), i.e., when the pixel position x d is within the search range, the process proceeds to step S45, and the above processing is repeatedly And search for a coordinate position xd where Za ≧ Zd.

ステップS39に戻り、画素別視線方向軌跡Vdの傾きが正である場合は(ステップS39;NO)、図24で説明した画素PE2の例と同様であり、先ず、探索範囲内でx=xmaxに最も近い画素位置、即ち、xmax≧Zd(zd,xd)>xmax−1pix分を満たす画素位置xdを取得する(ステップS53)。そして、取得した画素位置xdに対応するZaを算出すると共に(ステップS55)、画素位置xdに対応するZdを参照して、ZdとZaとを比較する(ステップS57)。 Returning to step S39, if the slope of the pixel-sight direction trajectory V d is positive; are the same as examples of (step S39 NO), the pixel PE2 described in FIG 24, first, in the search range x = x A pixel position closest to max , that is, a pixel position x d that satisfies x max ≧ Zd (z d , x d )> x max −1 pix is acquired (step S53). Then, Za corresponding to the acquired pixel position xd is calculated (step S55), and Zd and Za are compared with reference to Zd corresponding to the pixel position xd (step S57).

ここで、Za≧Zdとなった場合(ステップS57;NO)、当該画素位置xdのxy座標に対応する平面視画像のドットの色情報を該画素の色情報として設定する(ステップS51)。一方、Zd>Zaである場合(ステップS57;YES)、次の画素位置を取得して(xd←xd−1)、当該画素位置xdに対応するZaを算出する(Za←Za−dz/dx)(ステップS59)。また、画素位置xdがQminのxminを超えているか否かを判定する(ステップS61)。画素位置xdがxminを超えている場合(ステップS61;YES)、即ち、画素位置xdが探索範囲を超えた場合、当該画素位置xdのxy座標に対応する平面視画像のドットの色情報を該画素の色情報とする(ステップS51)。 Here, when Za ≧ Zd (step S57; NO), the color information of the dot of the planar image corresponding to the xy coordinates of the pixel position xd is set as the color information of the pixel (step S51). On the other hand, when Zd> Za is satisfied (step S57; YES), the next pixel position is acquired (x d ← x d−1 ), and Za corresponding to the pixel position x d is calculated (Za ← Za−). dz / dx) (step S59). Further, it is determined whether or not the pixel position x d is greater than x min of Qmin (step S61). When the pixel position x d exceeds x min (step S61; YES), that is, when the pixel position x d exceeds the search range, the dot of the planar image corresponding to the xy coordinate of the pixel position x d is changed. The color information is used as the color information of the pixel (step S51).

一方、画素位置xdがQminのxminを超えていない場合(ステップS61;NO)、即ち、画素位置xdが探索範囲内である場合、ステップS45に移行して、上述した処理を繰り返して実行し、Za≧Zdとなる座標位置xdを探索する。このように、各画素毎にループ処理を繰り返して実行することで、1フレーム分の立体視画像の色情報を設定することができる。 On the other hand, when the pixel position x d does not exceed x min of Qmin (step S61; NO), i.e., when the pixel position x d is within the search range, the process proceeds to step S45, and the above processing is repeatedly And search for a coordinate position xd where Za ≧ Zd. As described above, the color information of the stereoscopic image for one frame can be set by repeatedly executing the loop process for each pixel.

[作用・効果]
以上のように、本実施形態によれば、表示面22の画素PE毎に画素別視点CMを設定し、設定した画素別視点CMの視線方向のオブジェクト空間の色情報を該画素PEの色情報とすることで立体視画像を生成している。
[Action / Effect]
As described above, according to the present embodiment, the pixel-specific viewpoint CM is set for each pixel PE on the display surface 22, and the color information of the object space in the line-of-sight direction of the set pixel-specific viewpoint CM is used as the color information of the pixel PE. By doing so, a stereoscopic image is generated.

従って、画素PEの数程度の画素別視点CMが設定される、即ち画素PEの数程度の視点(ビュー)が存在するため、従来の多眼方式の立体視のように、想定する観察位置(個別視点)に目が位置しなくてはならないといった必要が無く、従来の超多眼方式のように、一定の領域内であればどの位置に目があっても立体視可能となる。   Accordingly, since the viewpoints for each pixel as many as the number of pixels PE are set, that is, as many viewpoints (views) as the number of pixels PE exist, an assumed observation position (as in conventional multi-view stereoscopic viewing) ( It is not necessary that the eyes have to be positioned at the individual viewpoint), and stereoscopic viewing is possible at any position within a certain area as in the conventional super multi-view system.

また、各画素PEの画素別視点CMは、想定観察位置40を基に該画素PEに対応するレンズ32を決定し、該画素PEの代表点と該画素PEに対応するレンズ32の主点とを通過した後の光線(代表光線)PRの逆方向が視線方向となるように決定している。従って、観察者がレンズ32を介して視認する各画素PEに対応する画素別視点CMの視線方向は、観察者の視線方向にほぼ沿った方向となり、このため、観察者によって視認される像(色情報)は、その位置から見た正確な像(色情報)ではないものの、十分に視認できる程度の明確性を持つ。   Further, the pixel-specific viewpoint CM of each pixel PE determines the lens 32 corresponding to the pixel PE based on the assumed observation position 40, and represents the representative point of the pixel PE and the principal point of the lens 32 corresponding to the pixel PE. It is determined that the reverse direction of the light beam (representative light beam) PR after passing through is the line-of-sight direction. Therefore, the line-of-sight direction of the pixel-specific viewpoint CM corresponding to each pixel PE visually recognized by the observer through the lens 32 is substantially along the observer's line-of-sight direction. The color information) is not an accurate image (color information) viewed from the position, but is clear enough to be sufficiently visually recognized.

また、像の解像度は、レンズ板30で分離される程度の解像度となるため、従来の多眼方式の立体視と同程度の解像度となり、従来の超多眼方式のような著しい解像度の劣化は生じない。   Further, since the resolution of the image is a resolution that can be separated by the lens plate 30, the resolution is comparable to that of the conventional multi-view stereoscopic view, and the remarkably degraded resolution as in the conventional super multi-view method is not observed. Does not occur.

更に、本実施形態は、ピッチが合っていない立体視映像表示装置に表示させる立体視画像を生成するものである。言い換えれば、ピッチが合っていない立体視映像表示装置でも立体視を可能ならしめる。従って、ディスプレイ毎にピッチが合ったレンチキュラレンズ板を製造する必要が無く、1つのレンチキュラレンズ板を画素ピッチが異なる他のディスプレイに適用して立体視映像表示装置を製作できるため、立体視映像表示装置の製造にかかるコストを大幅に削減できる。   Furthermore, the present embodiment generates a stereoscopic image to be displayed on a stereoscopic video display device that does not match the pitch. In other words, stereoscopic viewing is possible even with a stereoscopic video display device that does not match the pitch. Therefore, there is no need to manufacture a lenticular lens plate having the same pitch for each display, and a stereoscopic image display device can be manufactured by applying one lenticular lens plate to another display having a different pixel pitch. The cost for manufacturing the device can be greatly reduced.

また、本実施形態では、平面視画像と奥行画像とから立体視画像を生成する場合、表示面22の画素PEに対応する画素別視線方向軌跡と、奥行画像から得られる奥行情報モデルとの交差判定の高速化を実現している。つまり、画素PEに対する視線Vと画素別視点とに基づく画素別視線方向軌跡と、奥行情報モデルとの交差判定を行う場合、奥行情報モデルの奥行値(Z値)の最大値及び最小値に基づいて、交差判定を行う探索範囲を限定することにより、交差判定の処理負担を軽減して高速に色情報設定処理を実現することができる。   Further, in the present embodiment, when a stereoscopic image is generated from the planar image and the depth image, the intersection of the pixel-specific line-of-sight direction locus corresponding to the pixel PE on the display surface 22 and the depth information model obtained from the depth image. High speed judgment is realized. In other words, when the intersection determination between the depth-of-depth information model and the per-pixel gaze direction trajectory based on the line-of-sight V and the per-pixel viewpoint with respect to the pixel PE is performed, the depth value (Z value) of the depth information model is Thus, by limiting the search range for performing the intersection determination, it is possible to reduce the processing load of the intersection determination and realize the color information setting process at high speed.

また、画素別視線方向軌跡の傾きが負の場合、当該探索範囲に含まれる画素のうち画素別視点にとって最も手前に位置する左端の画素位置から順にZaを求め、対応するZdとの比較を行う。一方、画素別視線方向軌跡の傾きが正の場合、探索範囲に含まれる画素のうち画素別視点にとって最も手前に位置する右端の画素位置から順にZaを求め、対応するZdとの比較を行う。そして、比較結果がZd≧Zaとなった場合には、当該画素位置が求める位置となり、平面視画像から当該画素位置に対応するドットの色情報を取得し、これを画素PEの色情報とすることができる。   When the inclination of the line-of-sight line direction trajectory is negative, Za is sequentially obtained from the leftmost pixel position located closest to the pixel-specific viewpoint among the pixels included in the search range, and is compared with the corresponding Zd. . On the other hand, when the inclination of the line-of-sight line direction trajectory is positive, Za is determined in order from the rightmost pixel position located closest to the pixel-specific viewpoint among the pixels included in the search range, and compared with the corresponding Zd. When the comparison result is Zd ≧ Za, the pixel position is the position to be obtained, and color information of the dot corresponding to the pixel position is acquired from the planar view image, and this is used as the color information of the pixel PE. be able to.

これにより、探索範囲内に含まれる各画素位置に対応するZaの算出と、ZaとZdとの比較といった単純な演算により、交差判定を行うことができる。具体的には、Qmax側から1ピクセル毎に順次交差判定を行うことで、Zaを加算処理(例えば、dz/dxの加算)のみで算出することができ、計算処理を高速化することができる。また、Qmax側から順次に交差判定を行うことにより、Z値が最も大きくなる交点を速やかに探索することができる。これにより、計算回数を最も少なくして、効率よく対象交点を探索することができる。この結果、冗長的な処理を大幅に削減することが可能となり、高速に立体視画像を生成することができる。   Thereby, the intersection determination can be performed by a simple calculation such as calculation of Za corresponding to each pixel position included in the search range and comparison between Za and Zd. Specifically, by sequentially performing the intersection determination for each pixel from the Qmax side, Za can be calculated only by addition processing (for example, addition of dz / dx), and the calculation processing can be speeded up. . Further, by sequentially performing the intersection determination from the Qmax side, it is possible to quickly search for an intersection where the Z value becomes the largest. Thereby, the number of calculations can be minimized and the target intersection can be searched efficiently. As a result, redundant processing can be greatly reduced, and a stereoscopic image can be generated at high speed.

[変形例]
尚、本発明の適用は上述した実施形態に限定されることなく、本発明の趣旨を逸脱しない範囲で適宜変更可能である。例えば、次の変形例が挙げられる。
[Modification]
The application of the present invention is not limited to the above-described embodiment, and can be changed as appropriate without departing from the spirit of the present invention. For example, the following modification is mentioned.

(A)カラー画像
上述した実施形態では、平面視画像とその奥行画像とから立体視画像を生成する場合の例として、平面視画像がグレースケール画像である場合について説明を行ったが、本発明の適用可能なものがこれに限定されるものではない。例えば、平面視画像がRGB値(赤緑青の3原色の輝度値)を有するカラー画像であっても良く、この場合、各サブピクセル毎に、視線Vを決定して画素別視点を設定し、各サブピクセルに対する画素別視線方向軌跡と、奥行情報モデルとの交差判定を行う。そして、各サブピクセル毎の対象交点を取得して、平面視画像から対象交点に応じたサブピクセルの色情報を該サブピクセルの色情報とする。従って、この場合は、奥行画像データはサブピクセル毎に奥行値を有していることが好適である。もちろん、各サブピクセルが、所属しているピクセル毎に、奥行データを共有している形式であっても、(画質は若干低下するが、)立体視画像を生成することができる。
(A) Color Image In the above-described embodiment, as an example of generating a stereoscopic image from a planar image and its depth image, the case where the planar image is a grayscale image has been described. However, it is not limited to this. For example, the planar image may be a color image having RGB values (the luminance values of the three primary colors of red, green, and blue). In this case, for each subpixel, the line of sight V is determined to set a pixel-specific viewpoint, Intersection determination between the line-of-sight line direction trajectory for each subpixel and the depth information model is performed. Then, the target intersection for each subpixel is acquired, and the color information of the subpixel corresponding to the target intersection from the planar view image is used as the color information of the subpixel. Therefore, in this case, the depth image data preferably has a depth value for each subpixel. Of course, a stereoscopic image can be generated (although the image quality is slightly reduced) even if each subpixel has a format in which depth data is shared for each pixel to which the subpixel belongs.

(B)斜めレンチキュラ方式の立体視映像表示装置
上述した実施形態では、光学素子群として垂直レンチキュラ方式を用いた立体視映像表示装置の場合を説明したが、これを斜めレンチキュラ方式の立体視映像表示装置に適用しても良い。
(B) Oblique Lenticular Stereoscopic Video Display Device In the above-described embodiment, the case of a stereoscopic video display device using a vertical lenticular method as the optical element group has been described. You may apply to an apparatus.

図34は、斜めレンチキュラ方式の立体視映像表示装置200Bの概略構造を示す図である。同図(a)は、立体視映像表示装置200Bの表示面に対する横方向(水平走査方向)断面図を示し、同図(b)は、観察者側から見た平面図を示している。   FIG. 34 is a diagram showing a schematic structure of an oblique lenticular stereoscopic display device 200B. FIG. 4A shows a cross-sectional view in the horizontal direction (horizontal scanning direction) with respect to the display surface of the stereoscopic video display apparatus 200B, and FIG. 4B shows a plan view seen from the observer side.

斜めレンチキュラ方式の立体視映像表示装置では、画素パネル20の画素配列方向に対してレンズ板30の主点線36の方向(レンズ32の端部32a)が斜めに配置されるため、レンズ板30を介して画素パネル20を見たときに視認される映像に生じるモアレを分散させて目立たなくさせることが知られている。   In the oblique lenticular stereoscopic image display device, the direction of the principal dotted line 36 of the lens plate 30 (the end portion 32a of the lens 32) is arranged obliquely with respect to the pixel arrangement direction of the pixel panel 20, and thus the lens plate 30 is provided. It is known to disperse moire generated in an image that is visually recognized when the pixel panel 20 is viewed through the pixel panel 20.

同図によれば、立体視映像表示装置200Bは、上述した垂直レンチキュラ方式の立体視映像表示装置200Aと同様に、主に、板状体であって互いに平行配置されたバックライト10と、画素パネル20と、レンズ板30と、を備えて構成される。   As shown in the drawing, the stereoscopic video display device 200B is mainly composed of a backlight 10 that is a plate-like body and arranged in parallel to each other, and the pixels, like the vertical lenticular stereoscopic video display device 200A described above. A panel 20 and a lens plate 30 are provided.

そして、斜めレンチキュラ方式の立体視映像表示装置200Bでは、レンズ板30は、同図(b)に示すように、主点線36の方向が画素パネル20の縦方向の画素配列方向(鉛直走査方向)に対して角度θを成すように配置されている。従って、同図(a)に示す断面図におけるレンズピッチ(画素パネル20の画素ピッチ方向に沿ったレンズの幅)Mは、次式(10)で与えられる。
M=L/cosθ ・・(10)
In the oblique lenticular stereoscopic image display device 200B, the lens plate 30 has a pixel array direction (vertical scanning direction) in which the direction of the main dotted line 36 is the vertical direction of the pixel panel 20, as shown in FIG. With respect to the angle θ. Accordingly, the lens pitch (lens width along the pixel pitch direction of the pixel panel 20) M in the cross-sectional view shown in FIG.
M = L / cosθ (10)

また、レンズ板30は、同図(a)に示す断面図におけるレンズピッチMと画素パネル20の画素ピッチSとが合わないように配置されている。即ち、次式(11)が成立しない。
M=n・S ・・・(11)
但し、nは自然数である。
The lens plate 30 is arranged so that the lens pitch M and the pixel pitch S of the pixel panel 20 in the cross-sectional view shown in FIG. That is, the following equation (11) is not satisfied.
M = n · S (11)
However, n is a natural number.

次に、斜めレンチキュラ方式における表示面22の各画素PEの視線Vの決定方法を、図35、36を参照して説明する。図35は、斜めレンチキュラ方式の立体視映像表示装置200Bの部分概略斜視図である。また、図36は、立体視映像表示装置200Bの概略三面図であり、同図(a)は、図35のx−z平面に平行なC−C´位置での断面図(横方向断面図)を示し、図36(b)は、図35のy−z平面に平行なD−D´位置での断面図(縦方向断面図)を示し、図36(c)は、x−y平面図を示している。尚、画素パネル20及びレンズ板30は、レンズ板30の各レンズ32の焦点距離Fを隔てて平行配置されている。   Next, a method of determining the line of sight V of each pixel PE on the display surface 22 in the oblique lenticular method will be described with reference to FIGS. FIG. 35 is a partial schematic perspective view of an oblique lenticular stereoscopic image display apparatus 200B. FIG. 36 is a schematic three-view diagram of the stereoscopic video display device 200B. FIG. 36 (a) is a cross-sectional view (transverse cross-sectional view) taken along the line CC ′ parallel to the xz plane of FIG. 36 (b) shows a cross-sectional view (longitudinal cross-sectional view) at a DD ′ position parallel to the yz plane of FIG. 35, and FIG. 36 (c) shows an xy plane. The figure is shown. The pixel panel 20 and the lens plate 30 are arranged in parallel with a focal length F of each lens 32 of the lens plate 30.

先ず、図36(b)において、対象画素PEの代表点と想定観察位置40とを結ぶ直線LN2と、レンズ板30の主点面35との交点のy座標を算出する。算出したy座標を「y2」とする。但し、同図(b)は、対象画素PEの代表点を通過する断面図である。   First, in FIG. 36B, the y coordinate of the intersection point between the straight line LN2 connecting the representative point of the target pixel PE and the assumed observation position 40 and the principal point surface 35 of the lens plate 30 is calculated. The calculated y coordinate is assumed to be “y2”. However, FIG. 4B is a cross-sectional view passing through the representative point of the target pixel PE.

次いで、図36(a)において、想定観察位置40から各レンズ32を表示面22に投影して、表示面22を各レンズ32の投影領域に分割する。そして、対象画素PEの代表点がどの投影領域に属するかによって対応するレンズ32を決定する。但し、同図(a)は、y座標が先に算出した「y2」である断面図である。   Next, in FIG. 36A, each lens 32 is projected onto the display surface 22 from the assumed observation position 40, and the display surface 22 is divided into projection areas of the respective lenses 32. Then, the corresponding lens 32 is determined depending on which projection region the representative point of the target pixel PE belongs to. However, FIG. 6A is a cross-sectional view in which the y coordinate is “y2” calculated previously.

同図(a)では、表示面22は、レンズ32−10の投影領域26−10と、レンズ32−11の投影領域26−11と、レンズ32−12の投影レンズ32−12と、・・・、に分割される。そして、対象画素PEの代表点は投影領域26−10に属しているので、この対象画素PEに対応するレンズ32はレンズ32−10となる。   In FIG. 6A, the display surface 22 includes a projection area 26-10 of the lens 32-10, a projection area 26-11 of the lens 32-11, a projection lens 32-12 of the lens 32-12,.・ It is divided into Since the representative point of the target pixel PE belongs to the projection area 26-10, the lens 32 corresponding to the target pixel PE is the lens 32-10.

続いて、対象画素PEに対応するレンズ32の主点線36の内、y座標が「y2」である点を算出し、これを代表主点36dとする。そして、対象画素PEの代表点と、この代表主点36dとを通過した後の代表光線PRを算出し、この代表光線PRと位置は同じで方向を逆にした視線を対象画素PEの視線Vとする。そして、決定した視線Vに基づき奥行情報モデルとの交差判定を行うことにより、各画素に対する色情報を設定して、立体視画像データを生成する。   Subsequently, a point whose y coordinate is “y2” is calculated from the main dotted line 36 of the lens 32 corresponding to the target pixel PE, and this is set as a representative main point 36d. Then, the representative ray PR after passing through the representative point of the target pixel PE and the representative principal point 36d is calculated, and the line of sight V having the same position and the opposite direction as the representative ray PR is the line of sight V of the target pixel PE. And Then, by performing intersection determination with the depth information model based on the determined line of sight V, color information for each pixel is set, and stereoscopic image data is generated.

(C)レンズ板
また、上述した実施形態では、光学素子群としてレンチキュラレンズアレイを用いた立体視映像表示装置の場合を説明したが、これを、(C−1)蝿の目レンズアレイを用いた立体視映像表示装置としても良いし、(C−2)パララックスバリアアレイを用いた立体視映像表示装置としても良いし、(C−3)ピンホールアレイを用いた立体視映像表示装置としても良い。この場合、表示面22の各画素PEの視線Vは次のように決定する。
(C) Lens plate In the above-described embodiment, the case of a stereoscopic video display device using a lenticular lens array as the optical element group has been described. A stereoscopic video display device using (C-2) a stereoscopic video display device using a parallax barrier array, or (C-3) a stereoscopic video display device using a pinhole array. Also good. In this case, the line of sight V of each pixel PE on the display surface 22 is determined as follows.

(C−1)蝿の目レンズアレイ
蝿の目レンズアレイとは、図37に示すように、格子状の単位レンズが縦横に連続して配置された(連接された)レンズアレイ(レンズ板)のことである。蝿の目レンズアレイを用いた立体視映像表示装置では、蝿の目レンズアレイは、単位レンズの横方向の連接方向が画素パネル20の画素ピッチ方向(水平走査方向)と平行になるように配置される。またこのとき、蝿の目レンズアレイは、単位レンズのレンズピッチと画素パネル20の画素ピッチとが合わないように設計されている。即ち、単位レンズのレンズピッチをLとすると、式(9)が成立しない。
(C-1) Eye-eye lens array The eye-eye lens array, as shown in FIG. 37, is a lens array (lens plate) in which lattice-like unit lenses are continuously arranged (connected) vertically and horizontally. That is. In the stereoscopic image display device using the eyelid lens array, the eyelet lens array is arranged so that the lateral connection direction of the unit lenses is parallel to the pixel pitch direction (horizontal scanning direction) of the pixel panel 20. Is done. At this time, the eyelet lens array is designed so that the lens pitch of the unit lens and the pixel pitch of the pixel panel 20 do not match. That is, if the lens pitch of the unit lens is L, Expression (9) does not hold.

図38は、蝿の目レンズアレイを用いた立体視映像表示装置200Cでの視線Vの決定方法を説明するための図であり、立体視映像表示装置200Cの概略三面図を示している。同図(a)は、対象画素PEの代表点を通るx−z平面に平行な水平走査方向断面図を示し、同図(b)は、対象画素PEの代表点を通るy−z平面に平行な鉛直走査方向断面図を示し、同図(c)は、x−y平面図を示している。尚、想定観察位置40は「正面」である。   FIG. 38 is a diagram for explaining a method of determining the line of sight V in the stereoscopic video display apparatus 200C using the eyelet lens array, and shows a schematic three-view diagram of the stereoscopic video display apparatus 200C. FIG. 4A shows a horizontal scanning direction sectional view parallel to the xz plane passing through the representative point of the target pixel PE, and FIG. 4B shows the yz plane passing through the representative point of the target pixel PE. A parallel sectional view in the vertical scanning direction is shown, and FIG. 8C shows an xy plan view. The assumed observation position 40 is “front”.

先ず、同図(a)、(b)に示すように、想定観察位置40から、蝿の目レンズアレイで実現されるレンズ板60の各単位レンズ62を画素パネル20の表示面22に投影して(即ち、想定観察位置40から各単位レンズ62の端部へ向かう直線によって)、表示面22を各単位レンズ62の投影領域に分割する。そして、対象画素PEの代表点が属する投影領域の単位レンズ62−1を、該対象画素PEに対応する単位レンズとする。そして、対象画素PEの代表点と、対象画素PEに対応する単位レンズ62−1の主点(単位レンズの中心)とを通過した後の光線(代表光線)PRと位置は同じで方向を逆にした視線を対象画素PEの視線Vとする。   First, as shown in FIGS. 2A and 2B, from the assumed observation position 40, each unit lens 62 of the lens plate 60 realized by the eyelet lens array is projected onto the display surface 22 of the pixel panel 20. (Ie, by a straight line from the assumed observation position 40 toward the end of each unit lens 62), the display surface 22 is divided into projection areas of each unit lens 62. The unit lens 62-1 in the projection area to which the representative point of the target pixel PE belongs is set as a unit lens corresponding to the target pixel PE. Then, the light beam (representative light beam) PR after passing through the representative point of the target pixel PE and the principal point (center of the unit lens) of the unit lens 62-1 corresponding to the target pixel PE has the same position and reverse direction. The line of sight that is set as the line of sight V of the target pixel PE.

尚、同図では、レンズ板60を、単位レンズ62の横方向の連接方向が画素パネル20の画素ピッチ方向と平行になるように配置することとしたが、これを、図39に示すように、蝿の目レンズアレイの横方向の連接方向と画素パネル20の画素ピッチ方向とが角度θを成すよう、斜めに配置することとしても良い。   In FIG. 39, the lens plate 60 is arranged so that the lateral connecting direction of the unit lenses 62 is parallel to the pixel pitch direction of the pixel panel 20. As shown in FIG. The horizontal connecting direction of the eyelet lens array and the pixel pitch direction of the pixel panel 20 may be arranged obliquely so as to form an angle θ.

また、蝿の目レンズを構成する単位レンズを、格子形状(四角形)ではなく、例えば三角形や、図40に示す六角形等の多角形としても良い。何れの場合も、表示面22の各画素PEの視線Vの決定方法は、図38に示した場合と同様である。   Further, the unit lens constituting the eyelet lens may be a triangle or a polygon such as a hexagon shown in FIG. 40 instead of the lattice shape (square). In any case, the method of determining the line of sight V of each pixel PE on the display surface 22 is the same as that shown in FIG.

(C−2)パララックスバリアアレイ
パララックスバリアアレイとは、図41に示すように、光を遮蔽する遮光板(バリア)に光を透過させるためのスリット状のバリア開口部(光学素子)が等間隔で多数設けられたものである。即ち、スリット状のバリア開口部を有する単位パララックスバリアを連接させたバリアアレイであり、バリア開口部によって画素パネル20の各画素PEから射出される光線(射出光線)に指向性を与える。これによって、レンチキュラレンズアレイを用いた立体視映像表示装置と同様に立体視映像を認識させることが可能となる。尚、同図中、黒い或いは灰色の部分がバリア部分(遮光部分)である。このとき、パララックスバリアアレイは、バリア開口部が画素パネル20の鉛直走査方向と平行になるように配置される。また、パララックスバリアアレイは、単位パララックスバリアのピッチをLとしたとき、上述した式(9)が成立しない(即ち、ピッチが合わない)ように設計されている。
(C-2) Parallax Barrier Array As shown in FIG. 41, a parallax barrier array has a slit-shaped barrier opening (optical element) for transmitting light to a light shielding plate (barrier) that blocks light. Many are provided at equal intervals. That is, it is a barrier array in which unit parallax barriers having slit-like barrier openings are connected, and directivity is given to light rays (emitted light rays) emitted from each pixel PE of the pixel panel 20 by the barrier openings. As a result, it is possible to recognize a stereoscopic image in the same manner as a stereoscopic image display device using a lenticular lens array. In the figure, a black or gray portion is a barrier portion (light-shielding portion). At this time, the parallax barrier array is arranged so that the barrier opening is parallel to the vertical scanning direction of the pixel panel 20. Further, the parallax barrier array is designed so that the above-described formula (9) is not satisfied (that is, the pitch does not match) when the unit parallax barrier pitch is L.

従って、この場合、各画素PEの視線Vの決定は、上述した実施形態におけるレンチキュラレンズアレイの場合と同様に実現できる。具体的には、パララックスバリアアレイを、バリア開口部が画素パネル20の鉛直走査方向と平行になるように配置した場合には、上述した実施形態における垂直レンチキュラ方式の立体視映像表示装置200に相当する。また、パララックスバリアアレイを、バリア開口部が画素パネル20の鉛直走査方向に対して角度θを成すように斜めに配置した場合には、斜めレンチキュラ方式の立体視映像表示装置200Bに相当する。   Therefore, in this case, the line of sight V of each pixel PE can be determined in the same manner as in the lenticular lens array in the above-described embodiment. Specifically, when the parallax barrier array is arranged so that the barrier opening is parallel to the vertical scanning direction of the pixel panel 20, the vertical lenticular stereoscopic image display device 200 in the above-described embodiment is used. Equivalent to. Further, when the parallax barrier array is arranged obliquely so that the barrier opening forms an angle θ with respect to the vertical scanning direction of the pixel panel 20, it corresponds to the oblique lenticular stereoscopic image display device 200B.

また、パララックスバリアアレイを、図42に示すように、バリア開口部が斜めに形成された斜めパララックスバリアとしても良い。このような斜めパララックスバリアを用いた場合は、上述したパララックスバリアアレイ(図41参照)を画素パネル20に対して斜めに配置した場合に相当する。   Further, the parallax barrier array may be an oblique parallax barrier in which barrier openings are formed obliquely as shown in FIG. When such an oblique parallax barrier is used, it corresponds to the case where the above-described parallax barrier array (see FIG. 41) is arranged obliquely with respect to the pixel panel 20.

また、パララックスバリアアレイを、図43に示すように、横方向に連接された複数の単位パララックスバリアが、縦方向に所定量ずつずらして階段状に配置された階段パララックスバリアアレイとしても良い。このような階段パララックスバリアを用いた立体視映像表示装置では、階段パララックスバリアは、バリア開口部が画素パネル20の鉛直走査方向と平行になるように配置される。   In addition, as shown in FIG. 43, the parallax barrier array may be a stepped parallax barrier array in which a plurality of unit parallax barriers connected in the horizontal direction are arranged in a staircase pattern with a predetermined amount shifted in the vertical direction. good. In the stereoscopic video display device using such a staircase parallax barrier, the staircase parallax barrier is arranged so that the barrier opening is parallel to the vertical scanning direction of the pixel panel 20.

(C−3)ピンホールアレイ
ピンホールアレイとは、図44に示すように、光を遮断する遮断板(バリア)に光を透過させる孔状のピンホール(光学素子)が等間隔で多数設けられたものである。即ち、ピンホールを有する格子状の単位ピンホールバリアを縦横に連続して配置させた(連接させた)バリアアレイであり、ピンホールによって画素パネル20の各画素PEの射出光線に指向性を与える。尚、同図中、灰色の部分が遮光部分(バリア部分)である。このとき、ピンホールアレイは、単位ピンホールバリアの横方向が画素パネル20の画素ピッチ方向(水平走査方向)と平行になるように配置される。また、ピンホールアレイは、単位ピンホールバリアのピッチをLとすると、式(9)が成立しないように設計されている。
(C-3) Pinhole Array As shown in FIG. 44, the pinhole array is provided with a large number of hole-shaped pinholes (optical elements) that allow light to pass through a blocking plate (barrier) that blocks light. It is what was done. That is, it is a barrier array in which lattice-shaped unit pinhole barriers having pinholes are continuously arranged (connected) vertically and horizontally, and directivity is given to the emitted light of each pixel PE of the pixel panel 20 by the pinhole. . In the figure, the gray portion is a light shielding portion (barrier portion). At this time, the pinhole array is arranged so that the horizontal direction of the unit pinhole barrier is parallel to the pixel pitch direction (horizontal scanning direction) of the pixel panel 20. Further, the pinhole array is designed so that equation (9) does not hold when the pitch of the unit pinhole barrier is L.

そして、ピンホールアレイを用いた立体視映像表示装置では、次のように画素パネル20の各画素PEの視線Vが決定される。即ち、想定観察位置40からピンホールアレイの各単位ピンホールバリアを画素パネル20の表示面22に投影して、表示面22を各単位ピンホールバリアの投影領域に分割する。そして、各画素PEの代表点が属する投影領域の単位ピンホールバリアを該画素PEに対応する単位ピンホールバリアとする。そして、各画素PEについて、該画素PEの代表点と、該画素PEに対応する単位ピンホールバリアのピンホールを通過した後の光線(代表光線)と位置は同じで方向を逆にした視線を該画素PEの視線Vとする。   In the stereoscopic video display apparatus using the pinhole array, the line of sight V of each pixel PE of the pixel panel 20 is determined as follows. That is, each unit pinhole barrier of the pinhole array is projected onto the display surface 22 of the pixel panel 20 from the assumed observation position 40, and the display surface 22 is divided into projection regions of each unit pinhole barrier. A unit pinhole barrier in the projection area to which the representative point of each pixel PE belongs is set as a unit pinhole barrier corresponding to the pixel PE. For each pixel PE, the line of sight is the same as the representative point of the pixel PE and the light ray (representative ray) after passing through the pinhole of the unit pinhole barrier corresponding to the pixel PE, and the direction is reversed. The line of sight V of the pixel PE is assumed.

また、ピンホールアレイを構成する単位ピンホールバリアを、格子形状(四角形)ではなく、三角形や、例えば図45に示す六角形等の多角形としても良い。何れの場合も、各画素PEの視線Vの決定方法は、上述した格子形状の場合と同様である。   Further, the unit pinhole barrier constituting the pinhole array may be a triangle or a polygon such as a hexagon shown in FIG. 45 instead of the lattice shape (square). In any case, the method of determining the line of sight V of each pixel PE is the same as in the case of the lattice shape described above.

尚、パララックスバリアアレイやピンホールアレイは、通常、単位バリアを示す境界線が明示されていないが、バリアアレイ上の任意の点から最も距離の近いスリット或いはピンホールを求め、そのスリット或いはピンホールによってバリア板を領域分割することで、単位バリア毎の境界線を設定することができる。   The parallax barrier array or pinhole array usually does not clearly indicate the boundary line indicating the unit barrier. However, the slit or pinhole closest to any point on the barrier array is obtained, and the slit or pinhole is obtained. A boundary line for each unit barrier can be set by dividing the barrier plate into regions by holes.

(D)立体視映像表示装置を別装置とする
また、上述した実施形態では、立体視映像表示装置200は、立体視画像生成装置1の一部として説明したが、立体視映像表示装置200を別装置として構成し、生成した立体視画像を、接続されている立体視映像表示装置200に出力して表示させることとしても良い。
(D) The stereoscopic video display device is a separate device. In the above-described embodiment, the stereoscopic video display device 200 has been described as a part of the stereoscopic image generation device 1, but the stereoscopic video display device 200 is used. It is good also as comprising as another apparatus and outputting the produced | generated stereoscopic vision image to the connected stereoscopic vision video display apparatus 200, and displaying it.

図46は、立体視映像表示装置を別装置とした立体視画像生成装置3の構成を示すブロック図である。同図によれば、立体視画像生成装置3は、入力部100と、処理部300と、記憶部400と、を備えて構成される。かかる立体視画像生成装置3では、接続される立体視映像表示装置200に合わせて表示装置データ420を設定する必要がある。   FIG. 46 is a block diagram illustrating a configuration of the stereoscopic image generation device 3 in which the stereoscopic video display device is a separate device. As shown in the figure, the stereoscopic image generation device 3 includes an input unit 100, a processing unit 300, and a storage unit 400. In the stereoscopic image generation device 3, it is necessary to set the display device data 420 according to the connected stereoscopic video display device 200.

従って、立体視画像生成部320は、画像生成の際には、先ず、例えばユーザにより入力部100から入力された立体視映像表示装置200の型番(詳細には、画素パネル20やその上面に配置されているレンズ板30の型番)に基づいて、記憶部400に記憶されている画素パネルデータ490及びレンズ板データ510のそれぞれから適切なデータを選択し、表示装置データ420として設定する。   Therefore, when generating an image, the stereoscopic image generation unit 320 firstly includes, for example, the model number of the stereoscopic video display device 200 input from the input unit 100 by the user (specifically, the pixel image is arranged on the pixel panel 20 or the upper surface thereof) Appropriate data is selected from each of the pixel panel data 490 and the lens plate data 510 stored in the storage unit 400 based on the model number of the lens plate 30 being set, and set as the display device data 420.

画素パネルデータ490とは、立体視映像表示装置200に用いられ得る画素パネル20の物理パラメータを格納したデータテーブルである。図47(a)に、画素パネルデータ490のデータ構成の一例を示す。同図(a)によれば、画素パネルデータ490は、立体視映像表示装置200に用いられ得る画素パネル20の種類(種別)毎に、その型番(491)と、画素ピッチ(492)を対応付けて格納している。   The pixel panel data 490 is a data table that stores physical parameters of the pixel panel 20 that can be used in the stereoscopic video display device 200. FIG. 47A shows an example of the data configuration of the pixel panel data 490. According to FIG. 5A, the pixel panel data 490 corresponds to the model number (491) and the pixel pitch (492) for each type (type) of the pixel panel 20 that can be used in the stereoscopic video display device 200. It is attached and stored.

また、レンズ板データ510とは、立体視映像表示装置200に用いられ得るレンズ板30の物理パラメータを格納したデータテーブルである。図47(b)に、レンズ板データ510のデータ構成の一例を示す。同図(b)によれば、レンズ板データ510は、立体視映像表示装置200に用いられ得るレンズ板30の種類(種別)毎に、その型番(511)と、レンズピッチ(512)と、焦点距離(513)と、配置角度(514)と、を対応付けて格納している。   The lens plate data 510 is a data table that stores physical parameters of the lens plate 30 that can be used in the stereoscopic video display device 200. FIG. 47B shows an example of the data configuration of the lens plate data 510. As shown in FIG. 5B, the lens plate data 510 includes, for each type (type) of the lens plate 30 that can be used in the stereoscopic video display device 200, a model number (511), a lens pitch (512), The focal distance (513) and the arrangement angle (514) are stored in association with each other.

また、入力部100を、立体視画像生成装置と別装置としても良い。例えば、図48に示すように、入力部100及び立体視映像表示装置200を立体視映像生成装置と別装置とする。即ち、立体視画像生成装置5は、処理部300と、記憶部400とを備えて構成される。このような構成には、例えば携帯電話機等の通信端末装置のディスプレイに立体視画像を表示させたい場合等が考えられる。即ち、入力部100及び立体視映像表示装置200を備えた通信端末装置等の外部装置7から、レンズピッチLやディスプレイ(画素パネル20)に対する光学素子群(レンズ板30)の配置角度θ、焦点距離F等のレンズに関する情報と、画素ピッチS等のディスプレイに関する情報と、想定観察位置40等の観察者に関する情報とを画像生成装置5に送信する。そして、画像生成装置5では、受信したそれらの情報に基づいて立体視画像を生成し、生成した立体視画像を外部装置7に送信する、或いは、生成した画像を蓄積記憶した後、動画として外部装置7に送信する。   The input unit 100 may be a separate device from the stereoscopic image generation device. For example, as shown in FIG. 48, the input unit 100 and the stereoscopic video display device 200 are separate from the stereoscopic video generation device. That is, the stereoscopic image generation apparatus 5 includes a processing unit 300 and a storage unit 400. As such a configuration, for example, a case where a stereoscopic image is desired to be displayed on a display of a communication terminal device such as a mobile phone can be considered. That is, the lens pitch L, the arrangement angle θ of the optical element group (lens plate 30) with respect to the display (pixel panel 20), the focal point from the external device 7 such as a communication terminal device including the input unit 100 and the stereoscopic video display device 200. Information relating to the lens such as the distance F, information relating to the display such as the pixel pitch S, and information relating to the observer such as the assumed observation position 40 are transmitted to the image generating device 5. Then, the image generation device 5 generates a stereoscopic image based on the received information and transmits the generated stereoscopic image to the external device 7 or stores and stores the generated image as a moving image. Transmit to device 7.

(E)印刷加工物
また、上述した実施形態では、フラットパネルディスプレイ等の画素パネル20を備えた立体視映像表示装置に表示させる立体視画像を生成する場合を説明したが、画素パネル20の代わりに立体視画像が印刷された紙やプラスチックカード等の印刷物を用いた印刷加工物についても同様に適用可能である。かかる印刷加工物では、立体視画像が印刷された印刷物の印刷面に、光学素子群(レンズアレイやピンホールアレイ等)が貼付等によって装着されており、印刷されている画像の各ドットの反射光線が光学素子群によって指向性が与えられることで、立体視が実現される。
(E) Printed Product In the above-described embodiment, the case of generating a stereoscopic image to be displayed on a stereoscopic video display device including the pixel panel 20 such as a flat panel display has been described. The present invention can be similarly applied to a printed material using a printed material such as paper or a plastic card on which a stereoscopic image is printed. In such a printed product, an optical element group (lens array, pinhole array, etc.) is attached to the printing surface of the printed material on which the stereoscopic image is printed, and reflection of each dot of the printed image is performed. Stereopsis is realized by the directivity of the light beams provided by the optical element group.

このような立体視用の印刷加工物に印刷する画像を生成する場合、従来の方法では、従来の多眼式の立体視映像表示装置の場合と同様に、一定数の視点を設定してその視点毎に画像(画素別視点)を生成し、それらの画像を一定のパターンに応じて再配置(インターリーブ)することで印刷する画像を生成している。   When generating an image to be printed on such a stereoscopic print processed product, the conventional method sets a certain number of viewpoints as in the case of a conventional multi-view stereoscopic image display device, and An image to be printed is generated by generating an image (per-pixel viewpoint) for each viewpoint and rearranging (interleaving) the images according to a certain pattern.

印刷加工物では、既製の光学素子に合わせて、生成・印刷する立体視画像の解像度(即ち、画像の各ドットの位置や大きさ)を自由に設定・変更できる。また、生成・印刷する立体視画像の解像度を大きくすることで、視点が比較的多い場合であっても、視認される立体視映像の解像度を充分な大きさにすることができる。但しその場合、立体視画像のデータサイズが、解像度に比例して大きなものとなってしまうという問題はある。   In the printed product, the resolution (that is, the position and size of each dot of the image) of the stereoscopic image to be generated / printed can be freely set / changed according to the ready-made optical element. Further, by increasing the resolution of the stereoscopic image to be generated / printed, the resolution of the visually recognized stereoscopic video image can be made sufficiently large even when there are relatively many viewpoints. However, in that case, there is a problem that the data size of the stereoscopic image becomes large in proportion to the resolution.

このような印刷加工物に本実施形態を適用する場合には、印刷の対象である立体視画像の各ドットを画素パネル20の各画素PEとして扱うことで、上述した実施形態と同様に立体視画像を生成できる。具体的には、印刷加工物における立体視画像の印刷領域の大きさ、及び、印刷する立体視画像の解像度が決まっていれば、印刷対象の立体視画像の各ドットの位置及び大きさは一意に決まる。このため、立体視画像の各ドットを、上述した実施形態における表示パネル20の各画素PEと同様に扱うことができる。   When the present embodiment is applied to such a printed product, each dot of the stereoscopic image to be printed is treated as each pixel PE of the pixel panel 20 so that the stereoscopic view is similar to the above-described embodiment. An image can be generated. Specifically, if the size of the print area of the stereoscopic image on the printed product and the resolution of the stereoscopic image to be printed are determined, the position and size of each dot of the stereoscopic image to be printed are unique. It is decided. For this reason, each dot of the stereoscopic image can be handled in the same manner as each pixel PE of the display panel 20 in the above-described embodiment.

つまり、例えば光学素子群としてレンチキュラレンズアレイを用いる場合には、先ず、立体視画像のドット毎に対応するレンズ(光学素子)を決定する。次いで、各ドットについて、該ドットの代表点(例えば、中心)と、該ドットに対応するレンズの主点とを通過した後の光線(代表光線PR)を算出し、その光線と位置が同じで方向が逆の視線を該ドットの視線Vとして決定する。その後、各ドットについて、画素別視線方向軌跡と、奥行情報モデルとの交差判定を行って対象交点を取得し、平面視画像から対象交点に対応する画素の色情報を該ドットの色情報とすることで、立体視画像を生成する。   That is, for example, when using a lenticular lens array as the optical element group, first, a lens (optical element) corresponding to each dot of the stereoscopic image is determined. Next, for each dot, a ray (representative ray PR) after passing through the representative point (for example, the center) of the dot and the principal point of the lens corresponding to the dot is calculated, and the position of the ray is the same. A line of sight in the opposite direction is determined as the line of sight V of the dot. Thereafter, for each dot, the intersection determination between the line-of-sight line direction trajectory and the depth information model is performed to obtain the target intersection, and the color information of the pixel corresponding to the target intersection from the planar view image is used as the color information of the dot. Thus, a stereoscopic image is generated.

また、印刷加工物は、光学素子群としてレンズアレイを用いている場合には、印刷されている立体視画像の各ドットのピッチをSとすると、印刷面とレンズアレイの主点面との間の距離Gが上式(1)を満たすように構成されることで、より画質の良い立体視を実現できる。   Further, when the printed product uses a lens array as the optical element group, the pitch between each dot of the printed stereoscopic image is S, and the distance between the print surface and the principal point surface of the lens array is Is configured so that the distance G satisfies the above equation (1), it is possible to realize stereoscopic viewing with better image quality.

本実施形態の描画方法によれば、従来の方法よりも低い解像度で、即ち従来の方法よりも小さい画像データサイズで、上述した作用効果を奏する立体視印刷加工物に印刷する立体視画像を生成することができる。   According to the drawing method of the present embodiment, a stereoscopic image to be printed on a stereoscopic print processed product having the above-described effects is generated with a resolution lower than that of the conventional method, that is, with an image data size smaller than that of the conventional method. can do.

(F)奥行値情報
本実施形態では、奥行値情報として奥行画像から奥行情報モデルを生成し、生成した奥行情報モデルに基づいて、立体視画像の色情報を算出する場合について説明したがこれに限定されない。例えば、記憶部400に奥行画像データ464を記憶せずに、奥行情報モデル470のみを記憶する構成であっても良い。また、本実施形態では、平行投影法により生成された奥行画像に基づき立体視画像を生成する例について説明したが、これに限らず、透視投影法により生成された奥行画像に基づき立体視画像を生成する構成であっても良い。
(F) Depth Value Information In this embodiment, a case has been described in which a depth information model is generated from a depth image as depth value information, and color information of a stereoscopic image is calculated based on the generated depth information model. It is not limited. For example, only the depth information model 470 may be stored without storing the depth image data 464 in the storage unit 400. In this embodiment, an example in which a stereoscopic image is generated based on a depth image generated by a parallel projection method has been described. However, the present invention is not limited thereto, and a stereoscopic image is generated based on a depth image generated by a perspective projection method. The structure to produce | generate may be sufficient.

(G)立体視画像の画素値を、平面視画像における複数の画素値から求める場合
上述した実施形態では、立体視画像の画素値を、平面視画像の単一の画素値から求めているが、複数の画素値の平均、あるいは加重平均から求めることとしても良い。例えば、図23において、画素PEの値を求める場合、上述した実施形態では、x2の位置を交点(図20のX1)に最も近いものとし、それに対応する平面視画像の画素の値を採用したが、実際には交点はx1とx2の間に位置している。この場合、平面視画像において、x1とx2の位置に対応する2つの画素の値の平均値によって、画素PEの値を決定しても良い。また、単純な平均でなく、交点がx1とx2のどちらにより近いかを考慮し、両者から交点へのx方向の距離に応じた加重平均によって、画素PEの値を決定しても良い。これらの処理を行った場合、画質は向上するが、当然ながら計算量は増加することとなる。実際には、求められる画質と処理速度を考慮して、画素の色を求める方法を選択すると良い。
(G) When obtaining the pixel value of the stereoscopic image from a plurality of pixel values in the planar image In the embodiment described above, the pixel value of the stereoscopic image is obtained from the single pixel value of the planar image. Alternatively, it may be obtained from an average of a plurality of pixel values or a weighted average. For example, employed in FIG. 23, when determining the values of the pixels PE, in the embodiment described above, the closest to the intersection position of the x 2 (X1 in FIG. 20), the values of the pixels of the corresponding plan view image thereto but was actually intersection is positioned between the x 1 and x 2. In this case, in the plan view image, the average value of the values of two pixels corresponding to the position of x 1 and x 2, may determine the value of the pixel PE. In addition, the value of the pixel PE may be determined by a weighted average according to the distance in the x direction from the both to the intersection in consideration of whether the intersection is closer to x1 or x2 instead of a simple average. When these processes are performed, the image quality is improved, but the calculation amount naturally increases. In practice, it is preferable to select a method for obtaining the pixel color in consideration of the required image quality and processing speed.

実施形態における立体視画像生成の概要図。The schematic diagram of the stereoscopic vision image generation in an embodiment. 垂直レンチキュラ方式の立体視映像表示装置の概略構成図。1 is a schematic configuration diagram of a vertical lenticular stereoscopic image display device. 「ピッチが合う/合わない」ことの説明図。Explanatory drawing of "pitch does not fit / does not fit". 表示面に対する座標系設定の説明図。Explanatory drawing of the coordinate system setting with respect to a display surface. 垂直レンチキュラ方式の立体視映像表示装置における想定観察位置が「正面且つ無限遠」での視線決定の説明図。Explanatory drawing of the gaze determination in the assumption observing position "front and infinity" in the vertical lenticular system stereoscopic image display device. 想定観察位置が「正面」の状態を示す図。The figure which shows the state whose assumption observation position is a "front". 垂直レンチキュラ方式の立体視映像表示装置における想定観察位置が「有限距離の定位置」での視線決定の説明図。Explanatory drawing of the gaze determination in the vertical lenticular system stereoscopic vision video display apparatus in case the assumption observation position is "the fixed position of a finite distance." 垂直レンチキュラ方式の立体視映像表示装置における想定観察位置が「有限距離の定位置」での視線決定の説明図。Explanatory drawing of the gaze determination in the vertical lenticular system stereoscopic vision video display apparatus in case the assumption observation position is "the fixed position of a finite distance." レンズ板による屈折作用の説明図。Explanatory drawing of the refractive action by a lens plate. 画素別視点設定の説明図。Explanatory drawing of the viewpoint setting according to pixel. 画素の色情報算出の説明図。Explanatory drawing of color information calculation of a pixel. 視認される画素の色情報が若干正確さに欠けることの説明図。Explanatory drawing that the color information of the visually recognized pixel is slightly inaccurate. 従来の多眼方式(n眼式)の立体視の概要図。The schematic diagram of the stereoscopic view of the conventional multi-view method (n eye type). 本実施形態での立体視の概要図。The schematic diagram of the stereoscopic view in this embodiment. 平面視画像と奥行画像とから2眼式の立体視画像を生成する説明図。Explanatory drawing which produces | generates a binocular stereoscopic vision image from a planar view image and a depth image. 画素の色情報算出の説明図。Explanatory drawing of color information calculation of a pixel. 平面視画像と奥行画像とに基づく画素の色情報算出の説明図。Explanatory drawing of the color information calculation of the pixel based on a planar view image and a depth image. 表示面と奥行情報モデルとの関係の説明図。Explanatory drawing of the relationship between a display surface and a depth information model. 表示面と各画素と奥行情報モデルとの関係の説明図。Explanatory drawing of the relationship between a display surface, each pixel, and depth information model. 奥行情報モデルと画素別視線方向軌跡との交点の説明図。Explanatory drawing of the intersection of a depth information model and a gaze direction locus according to pixel. 奥行情報モデルと奥行値の最大値及び最小値の説明図。Explanatory drawing of the maximum value and minimum value of a depth information model and a depth value. 画素別視線方向軌跡と奥行値の最大値及び最小値との交点の説明図。Explanatory drawing of the intersection of the gaze direction locus | trajectory classified by pixel, and the maximum value and minimum value of depth value. 奥行情報モデルと画素別視線方向軌跡との交差判定の説明図。Explanatory drawing of the intersection determination of a depth information model and a gaze direction locus according to pixel. 奥行情報モデルと画素別視線方向軌跡との交差判定の説明図。Explanatory drawing of the intersection determination of a depth information model and a gaze direction locus according to pixel. 奥行情報モデルと画素別視線方向軌跡との交差判定の説明図。Explanatory drawing of the intersection determination of a depth information model and a gaze direction locus according to pixel. 立体視画像生成装置の構成図。1 is a configuration diagram of a stereoscopic image generation apparatus. 表示装置データのデータ構成例。The data structural example of display apparatus data. 画素別視点データのデータ構成例。The data structural example of viewpoint data classified by pixel. 平面視画像データの一例を示す図。The figure which shows an example of planar view image data. 奥行画像データの一例を示す図。The figure which shows an example of depth image data. 奥行情報モデルの一例を示す図。The figure which shows an example of a depth information model. 立体視画像生成処理の流れを示すフローチャート。The flowchart which shows the flow of a stereoscopic vision image generation process. 色情報設定処理の流れを示すフローチャート。6 is a flowchart showing a flow of color information setting processing. 斜めレンチキュラ方式の立体視映像表示装置の概略構成図。1 is a schematic configuration diagram of an oblique lenticular stereoscopic image display device. FIG. 斜めレンチキュラ方式の立体視映像表示装置における想定観察位置が「有限距離の定位置」での視線決定の説明図。FIG. 4 is an explanatory diagram of line-of-sight determination when the assumed observation position is “a fixed position at a finite distance” in an oblique lenticular stereoscopic image display device. 斜めレンチキュラ方式の立体視映像表示装置における想定観察位置が「有限距離の定位置」での視線決定の説明図。FIG. 4 is an explanatory diagram of line-of-sight determination when the assumed observation position is “a fixed position at a finite distance” in an oblique lenticular stereoscopic image display device. 蝿の眼レンズアレイの平面図。The top view of an eye lens array of an eyelid. 蝿の目レンズアレイを用いた立体視映像表示装置における視線決定の説明図。Explanatory drawing of the gaze determination in the stereoscopic vision video display apparatus using a moth-eye lens array. 蝿の眼レンズアレイを斜め配置した場合の平面図。The top view at the time of arranging the eye lens array of an eyelid diagonally. 単位レンズを六角形とした蝿の眼レンズアレイの平面図。The top view of the eye lens array of the eyelid which made the unit lens hexagon. パララックスバリアの平面図。The top view of a parallax barrier. 斜めパララックスバリアの平面図。The top view of a diagonal parallax barrier. 階段パララックスバリアの平面図。The top view of a staircase parallax barrier. ピンホールバリアの平面図。The top view of a pinhole barrier. 単位ピンホールバリアを六角形としたピンホールバリアの平面図。The top view of the pinhole barrier which made the unit pinhole barrier hexagonal. 立体視映像表示装置を別装置とした立体視画像生成装置の構成図。The block diagram of the stereoscopic image production | generation apparatus which used the stereoscopic vision video display apparatus as another apparatus. 画素パネルデータ及びレンズ板データのデータ構成例。6 is a data configuration example of pixel panel data and lens plate data. 入力部及び立体視映像表示装置を別装置(外部装置)とした立体視画像生成装置の構成図。The block diagram of the stereoscopic image production | generation apparatus which used the input part and the stereoscopic vision video display apparatus as another apparatus (external device). 適切な画素パネルとレンズ板との間の距離の説明図。Explanatory drawing of the distance between a suitable pixel panel and a lens board. 両眼距離を考慮した場合の説明図。Explanatory drawing at the time of considering the binocular distance. 多眼式の立体視の概念図。The conceptual diagram of multi-view type stereoscopic vision. 超多眼式の立体視の概念図。The conceptual diagram of super multi-view type stereoscopic vision. IP方式の立体視の概念図。FIG. 3 is a conceptual diagram of IP system stereoscopic vision. 光線再生法の立体視の概念図。The conceptual diagram of the stereoscopic vision of the ray reproduction method. 表示面と結像面との間の距離がレンズの焦点距離に依存することの説明図。Explanatory drawing of the distance between a display surface and an image formation surface being dependent on the focal distance of a lens.

符号の説明Explanation of symbols

1、3、5 立体視画像生成装置
100 入力部
300 処理部
310 オブジェクト空間設定部
320 立体視画像生成部
322 画素別視点設定部
324 レンダリング部
324 色情報設定部
400 記憶部
410 立体視画像生成プログラム
420 色情報設定処理プログラム
430 表示装置データ
440 想定観察位置データ
450 画素別視点データ
460 レンダリングデータ
462 平面視画像データ
464 奥行画像データ
470 奥行情報モデル
480 立体視画像データ
200 立体視映像表示装置
10 バックライト
20 画素パネル
22 表示面
EL 画素
30 レンズ板(レンチキュラレンズ板)
32 レンズ(マイクロレンズ)
40 想定観察位置
PE 画素
V 視線
CM 画素別視点
1, 3, 5 Stereoscopic image generation device 100 Input unit 300 Processing unit 310 Object space setting unit 320 Stereoscopic image generation unit 322 Per-pixel viewpoint setting unit 324 Rendering unit 324 Color information setting unit 400 Storage unit 410 Stereoscopic image generation program 420 Color information setting processing program 430 Display device data 440 Assumed observation position data 450 Pixel-specific viewpoint data 460 Rendering data 462 Plane view image data 464 Depth image data 470 Depth information model 480 Stereoscopic image data 200 Stereoscopic image display device 10 Backlight 20 pixel panel 22 display surface EL pixel 30 lens plate (lenticular lens plate)
32 Lens (micro lens)
40 Assumed observation position PE Pixel V Line-of-sight CM Per-pixel viewpoint

Claims (20)

画素を配置した画素パネルと、該画素パネルの各画素の射出光線に指向性を与える光学素子群とを備え、所定の想定観察位置における一の光学素子に対する視角を対光学素子視角λ、前記一の光学素子により指向性が与えられる一の画素に対する視角を対画素視角σ、前記画素パネル中の立体視画像描画領域に対する視角を対描画領域視角Φとしたとき、λ:σ=n:m(但し、nは自然数、mはΦ/λ未満の自然数)が成立しない立体視映像表示装置に表示させる三次元仮想空間の立体視画像を、前記三次元仮想空間を所与の視点から見た平面視画像である基準画像と、前記視点位置を基準とする該基準画像の各ドットの奥行値情報とに基づき生成する画像生成装置であって、
前記立体視画像描画領域内の各画素の色情報について、1)当該画素の代表点及び当該画素の射出光線に指向性を与える光学素子の代表点を通過する光線の方向と、前記三次元仮想空間における前記視点位置とに基づいて、前記三次元仮想空間における前記光線の方向に対応する方向を求める方向算出工程と、2)前記方向算出工程で求められた方向と前記奥行値情報とに基づき、前記三次元仮想空間中の当該方向における最も手前の物体の色情報を表しているドットを前記基準画像の中から判定するドット判定工程とを実行し、前記ドット判定工程で判定された前記基準画像のドットの色情報を当該画素の色情報とすることで、立体視画像を生成する画像生成装置。
A pixel panel on which pixels are arranged, and an optical element group that gives directivity to the emitted light of each pixel of the pixel panel, and the viewing angle with respect to one optical element at a predetermined assumed observation position is the viewing angle λ with respect to the optical element. When the viewing angle with respect to one pixel to which directivity is given by the optical element is a counter-pixel viewing angle σ, and the viewing angle with respect to the stereoscopic image rendering region in the pixel panel is the pair-drawing region viewing angle Φ, λ: σ = n: m ( Where n is a natural number, m is a natural number less than Φ / λ), and a stereoscopic image of the three-dimensional virtual space displayed on the stereoscopic image display device is a plane obtained by viewing the three-dimensional virtual space from a given viewpoint. An image generation device that generates a reference image that is a visual image and depth value information of each dot of the reference image that is based on the viewpoint position,
Regarding the color information of each pixel in the stereoscopic image drawing area, 1) the representative point of the pixel, the direction of the light beam passing through the representative point of the optical element that gives directivity to the emitted light beam of the pixel, and the three-dimensional virtual A direction calculating step for obtaining a direction corresponding to the direction of the light beam in the three-dimensional virtual space based on the viewpoint position in space; and 2) based on the direction obtained in the direction calculating step and the depth value information. , A dot determination step of determining, from the reference image, a dot representing color information of the closest object in the direction in the three-dimensional virtual space, and the reference determined in the dot determination step An image generation apparatus that generates a stereoscopic image by using color information of a dot of an image as color information of the pixel.
画素を配置した画素パネルと、該画素パネルの各画素の射出光線に指向性を与える光学素子群とを備え、所定の想定観察位置における一の光学素子に対する視角を対光学素子視角λ、前記一の光学素子により指向性が与えられる一の画素に対する視角を対画素視角σ、前記画素パネル中の立体視画像描画領域に対する視角を対描画領域視角Φとしたとき、λ:σ=n:m(但し、nは自然数、mはΦ/λ未満の自然数)が成立しない立体視映像表示装置に表示させる三次元仮想空間の立体視画像を、前記三次元仮想空間を所与の視点から見た平面視画像である基準画像と、前記視点位置を基準とする該基準画像の各ドットの奥行値情報とに基づき生成する画像生成装置であって、
前記立体視画像描画領域内の各画素の色情報について、1)当該画素の代表点及び当該画素の射出光線に指向性を与える光学素子の代表点を通過する光線の方向と、前記三次元仮想空間における前記視点位置とに基づいて、前記三次元仮想空間における前記光線の方向に対応する方向を求める方向算出工程と、2)前記方向算出工程で求められた方向の軌跡を前記基準画像上に投影して描画する場合に当該軌跡を描くこととなる前記基準画像中のドットのうち、奥行値が最大のドットと最小のドットとの間のドット群を前記奥行値情報に基づいて検出するドット群検出工程と、3)前記方向算出工程で求めた方向と前記ドット群検出工程で検出されたドット群の各ドットの奥行値とに基づき、当該ドット群の中から、前記三次元仮想空間中の当該方向における最も手前の物体の色情報を表しているドットを判定するドット判定工程とを実行し、前記ドット判定工程で判定されたドットの色情報を当該画素の色情報とすることで、立体視画像を生成する画像生成装置。
A pixel panel on which pixels are arranged, and an optical element group that gives directivity to the emitted light of each pixel of the pixel panel, and the viewing angle with respect to one optical element at a predetermined assumed observation position is the viewing angle λ with respect to the optical element. When the viewing angle for one pixel to which directivity is given by the optical element is a counter-pixel viewing angle σ and the viewing angle for a stereoscopic image rendering area in the pixel panel is a pair-drawing area viewing angle Φ, λ: σ = n: m ( Where n is a natural number, m is a natural number less than Φ / λ), and a stereoscopic image of the three-dimensional virtual space displayed on the stereoscopic image display device is a plane obtained by viewing the three-dimensional virtual space from a given viewpoint. An image generation device that generates a reference image that is a visual image and depth value information of each dot of the reference image that is based on the viewpoint position,
Regarding the color information of each pixel in the stereoscopic image drawing area, 1) the representative point of the pixel, the direction of the light beam passing through the representative point of the optical element that gives directivity to the emitted light beam of the pixel, and the three-dimensional virtual A direction calculating step for obtaining a direction corresponding to the direction of the light beam in the three-dimensional virtual space based on the viewpoint position in the space; and 2) a trajectory of the direction obtained in the direction calculating step on the reference image. Dots for detecting a dot group between a dot having a maximum depth value and a dot having a minimum depth value based on the depth value information among the dots in the reference image that will draw the locus when projected and drawn A group detection step, and 3) based on the direction obtained in the direction calculation step and the depth value of each dot of the dot group detected in the dot group detection step, from the dot group, in the three-dimensional virtual space of A dot determination step of determining a dot representing the color information of the closest object in the direction, and using the color information of the dot determined in the dot determination step as the color information of the pixel, An image generation device that generates a visual image.
画素を配置した画素パネルと、該画素パネルの各画素の射出光線に指向性を与える光学素子群とを備えた立体視映像表示装置に表示させる三次元仮想空間の立体視画像を、前記三次元仮想空間を所与の視点から見た平面視画像である基準画像と、前記視点位置を基準とする該基準画像の各ドットの奥行値情報とに基づき生成する画像生成装置であって、
前記立体視画像描画領域内の各画素の色情報について、1)当該画素及び当該画素の射出光線に指向性を与える光学素子を通過する光線の方向と、前記三次元仮想空間における前記視点位置とに基づいて、前記三次元仮想空間における前記光線の方向に対応する方向を求める方向算出工程と、2)前記方向算出工程で求められた方向の軌跡を前記基準画像上に投影して描画する場合に当該軌跡を描くこととなる前記基準画像中のドットのうち、奥行値が最大のドットと最小のドットとの間のドット群を前記奥行値情報に基づいて検出するドット群検出工程と、3)前記方向算出工程で求めた方向と前記ドット群検出工程で検出されたドット群の各ドットの奥行値とに基づき、当該ドット群の中から、前記三次元仮想空間中の当該方向における最も手前の物体の色情報を表しているドットを判定するドット判定工程とを実行し、前記ドット判定工程で判定されたドットの色情報を当該画素の色情報とすることで、立体視画像を生成する画像生成装置。
A stereoscopic image in a three-dimensional virtual space to be displayed on a stereoscopic video display device comprising a pixel panel in which pixels are arranged and an optical element group that directs the emitted light of each pixel of the pixel panel. An image generation device that generates a reference image that is a planar image when the virtual space is viewed from a given viewpoint, and depth value information of each dot of the reference image that is based on the viewpoint position,
Regarding the color information of each pixel in the stereoscopic image drawing region, 1) the direction of the light beam passing through the pixel and the optical element that gives directivity to the emitted light beam of the pixel, and the viewpoint position in the three-dimensional virtual space A direction calculating step for obtaining a direction corresponding to the direction of the light beam in the three-dimensional virtual space, and 2) projecting and drawing a locus of the direction obtained in the direction calculating step on the reference image A dot group detection step of detecting a dot group between a dot having a maximum depth value and a dot having a minimum depth value among the dots in the reference image that will draw the locus on the basis of the depth value information; ) Based on the direction obtained in the direction calculation step and the depth value of each dot of the dot group detected in the dot group detection step, from the dot group, in the direction in the three-dimensional virtual space A dot determination step of determining a dot representing color information of an object in front, and using the color information of the dot determined in the dot determination step as the color information of the pixel, An image generation device to generate.
前記ドット判定工程は、a)前記ドット群検出工程で検出されたドット群の各ドットの奥行値と、b)前記方向算出工程で求められた方向を軌跡とした場合の前記視点位置を基準とする当該軌跡上の当該ドットに対応する位置の奥行値との対比を、b)の奥行値が手前側のドットから順に行い、対比する2つの奥行値の前後関係が入れ替わったか否かに基づいて、前記三次元仮想空間中の当該方向における最も手前の物体の色情報を表しているドットを判定する工程であることを特徴とする請求項3に記載の画像生成装置。   The dot determination step is based on a) the depth value of each dot of the dot group detected in the dot group detection step, and b) the viewpoint position when the direction obtained in the direction calculation step is a trajectory. The depth value in b) is compared with the depth value of the position corresponding to the dot on the locus in order from the dot on the near side, and based on whether the context of the two depth values to be compared is switched. The image generating apparatus according to claim 3, wherein the image generating apparatus is a step of determining a dot representing color information of a foremost object in the direction in the three-dimensional virtual space. 前記ドット判定工程は、対比する2つの奥行値の前後関係が入れ替わらなかった場合、b)の奥行値が最も奥側の端部のドットの当該ドット群とは反対側に隣接するドットを、前記三次元仮想空間中の当該方向における最も手前の物体の色情報を表しているドットとして判定する工程であることを特徴とする請求項4に記載の画像生成装置。   In the dot determination step, when the contexts of the two depth values to be compared are not interchanged, the depth value of b) is a dot adjacent to the opposite side of the dot group of the end dot on the farthest side, The image generating apparatus according to claim 4, wherein the image generating apparatus is a step of determining as a dot representing color information of the closest object in the direction in the three-dimensional virtual space. 請求項1〜5の何れか一項に記載の画像生成装置であって、
前記光学素子群は、レンチキュラレンズアレイ、蝿の目レンズアレイ、パララックスバリアアレイ、又はピンホールアレイである画像生成装置。
An image generation apparatus according to any one of claims 1 to 5,
The optical element group is an image generation device that is a lenticular lens array, a moth-eye lens array, a parallax barrier array, or a pinhole array.
請求項1〜5の何れか一項に記載の画像生成装置であって、
前記光学素子群は、光学素子としてレンズが複数連接されたレンチキュラレンズアレイ又は蝿の目レンズアレイであり、
当該光学素子群は、前記画素パネルの表示面と前記光学素子群の主点面との間の距離が前記レンズの焦点距離に一致するように前記画素パネルと観察者との間に設置されている画像生成装置。
An image generation apparatus according to any one of claims 1 to 5,
The optical element group is a lenticular lens array or an eyelet lens array in which a plurality of lenses are connected as optical elements,
The optical element group is installed between the pixel panel and an observer so that the distance between the display surface of the pixel panel and the principal point plane of the optical element group matches the focal length of the lens. Image generating device.
請求項1〜5の何れか一項に記載の画像生成装置であって、
前記光学素子群は、光学素子としてレンズが複数連接されたレンチキュラレンズアレイ又は蝿の目レンズアレイであり、
当該光学素子群は、前記画素パネルの表示面と前記光学素子群の主点面との間の距離をD、前記レンズの焦点距離をF、前記画素の水平走査方向のピッチをS、前記レンズの水平走査方向のピッチをLとしたとき、(L−S)・F/L≦D≦(L+S)・F/L、が成立するように前記画素パネルと観察者との間に設置されている、
ことを特徴とする画像生成装置。
An image generation apparatus according to any one of claims 1 to 5,
The optical element group is a lenticular lens array or an eyelet lens array in which a plurality of lenses are connected as optical elements,
The optical element group includes a distance D between a display surface of the pixel panel and a principal point surface of the optical element group, a focal length of the lens F, a pitch of the pixel in a horizontal scanning direction S, and the lens Is set between the pixel panel and the viewer so that (LS) · F / L ≦ D ≦ (L + S) · F / L is satisfied, where L is the horizontal scanning direction pitch. Yes,
An image generation apparatus characterized by that.
請求項6〜8の何れか一項に記載の画像生成装置であって、
前記光学素子群は、光学素子配列方向が前記画素パネルの画素配列方向に対して斜めとなるように配置されていることを特徴とする画像生成装置。
The image generation apparatus according to any one of claims 6 to 8,
The image generation apparatus, wherein the optical element group is arranged so that an optical element arrangement direction is oblique with respect to a pixel arrangement direction of the pixel panel.
画素を配置した画素パネルと、
前記画素パネルの各画素の射出光線に指向性を与える光学素子群と、
前記画素パネルに表示させる三次元仮想空間の立体視画像を生成する請求項1〜9の何れか一項に記載の画像生成装置と、
を備える電子機器。
A pixel panel in which pixels are arranged;
An optical element group that gives directivity to the emitted light of each pixel of the pixel panel;
The image generation device according to any one of claims 1 to 9, which generates a stereoscopic image of a three-dimensional virtual space to be displayed on the pixel panel;
Electronic equipment comprising.
画素を配置した画素パネルと、該画素パネルの各画素の射出光線に指向性を与える光学素子群とを備え、所定の想定観察位置における一の光学素子に対する視角を対光学素子視角λ、前記一の光学素子により指向性が与えられる一の画素に対する視角を対画素視角σ、前記画素パネル中の立体視画像描画領域に対する視角を対描画領域視角Φとしたとき、λ:σ=n:m(但し、nは自然数、mはΦ/λ未満の自然数)が成立しない立体視映像表示装置に表示させる三次元仮想空間の立体視画像を、前記三次元仮想空間を所与の視点から見た平面視画像である基準画像と、前記視点位置を基準とする該基準画像の各ドットの奥行値情報とに基づき生成する画像生成方法であって、
前記立体視画像描画領域内の各画素の色情報について、1)当該画素の代表点及び当該画素の射出光線に指向性を与える光学素子の代表点を通過する光線の方向と、前記三次元仮想空間における前記視点位置とに基づいて、前記三次元仮想空間における前記光線の方向に対応する方向を求める方向算出工程と、2)前記方向算出工程で求められた方向と前記奥行値情報とに基づき、前記三次元仮想空間中の当該方向における最も手前の物体の色情報を表しているドットを前記基準画像の中から判定するドット判定工程とを含み、前記ドット判定工程で判定された前記基準画像のドットの色情報を当該画素の色情報とすることで、立体視画像を生成する画像生成方法。
A pixel panel on which pixels are arranged, and an optical element group that gives directivity to the emitted light of each pixel of the pixel panel, and the viewing angle with respect to one optical element at a predetermined assumed observation position is the viewing angle λ with respect to the optical element. When the viewing angle with respect to one pixel to which directivity is given by the optical element is a counter-pixel viewing angle σ, and the viewing angle with respect to the stereoscopic image rendering region in the pixel panel is the pair-drawing region viewing angle Φ, λ: σ = n: m ( Where n is a natural number, m is a natural number less than Φ / λ), and a stereoscopic image of the three-dimensional virtual space displayed on the stereoscopic image display device is a plane obtained by viewing the three-dimensional virtual space from a given viewpoint. An image generation method for generating based on a reference image that is a visual image and depth value information of each dot of the reference image with respect to the viewpoint position,
Regarding the color information of each pixel in the stereoscopic image drawing region, 1) the representative point of the pixel, the direction of the light beam passing through the representative point of the optical element that gives directivity to the emitted light beam of the pixel, and the three-dimensional virtual A direction calculating step for obtaining a direction corresponding to the direction of the light beam in the three-dimensional virtual space based on the viewpoint position in space; and 2) based on the direction obtained in the direction calculating step and the depth value information. A dot determination step of determining, from the reference image, a dot representing color information of the foremost object in the direction in the three-dimensional virtual space, and the reference image determined in the dot determination step Generation method for generating a stereoscopic image by using the color information of the pixel as the color information of the pixel.
画素を配置した画素パネルと、該画素パネルの各画素の射出光線に指向性を与える光学素子群とを備え、所定の想定観察位置における一の光学素子に対する視角を対光学素子視角λ、前記一の光学素子により指向性が与えられる一の画素に対する視角を対画素視角σ、前記画素パネル中の立体視画像描画領域に対する視角を対描画領域視角Φとしたとき、λ:σ=n:m(但し、nは自然数、mはΦ/λ未満の自然数)が成立しない立体視映像表示装置に表示させる三次元仮想空間の立体視画像を、前記三次元仮想空間を所与の視点から見た平面視画像である基準画像と、前記視点位置を基準とする該基準画像の各ドットの奥行値情報とに基づき生成する画像生成方法であって、
前記立体視画像描画領域内の各画素の色情報について、1)当該画素の代表点及び当該画素の射出光線に指向性を与える光学素子の代表点を通過する光線の方向と、前記三次元仮想空間における前記視点位置とに基づいて、前記三次元仮想空間における前記光線の方向に対応する方向を求める方向算出工程と、2)前記方向算出工程で求められた方向の軌跡を前記基準画像上に投影して描画する場合に当該軌跡を描くこととなる前記基準画像中のドットのうち、奥行値が最大のドットと最小のドットとの間のドット群を前記奥行値情報に基づいて検出するドット群検出工程と、3)前記方向算出工程で求めた方向と前記ドット群検出工程で検出されたドット群の各ドットの奥行値とに基づき、当該ドット群の中から、前記三次元仮想空間中の当該方向における最も手前の物体の色情報を表しているドットを判定するドット判定工程とを含み、前記ドット判定工程で判定されたドットの色情報を当該画素の色情報とすることで、立体視画像を生成する画像生成方法。
A pixel panel on which pixels are arranged, and an optical element group that gives directivity to the emitted light of each pixel of the pixel panel, and the viewing angle with respect to one optical element at a predetermined assumed observation position is the viewing angle λ with respect to the optical element. When the viewing angle for one pixel to which directivity is given by the optical element is a counter-pixel viewing angle σ and the viewing angle for a stereoscopic image rendering area in the pixel panel is a pair-drawing area viewing angle Φ, λ: σ = n: m ( Where n is a natural number, m is a natural number less than Φ / λ), and a stereoscopic image of the three-dimensional virtual space displayed on the stereoscopic image display device is a plane obtained by viewing the three-dimensional virtual space from a given viewpoint. An image generation method for generating based on a reference image that is a visual image and depth value information of each dot of the reference image with respect to the viewpoint position,
Regarding the color information of each pixel in the stereoscopic image drawing area, 1) the representative point of the pixel, the direction of the light beam passing through the representative point of the optical element that gives directivity to the emitted light beam of the pixel, and the three-dimensional virtual A direction calculating step for obtaining a direction corresponding to the direction of the light beam in the three-dimensional virtual space based on the viewpoint position in the space; and 2) a trajectory of the direction obtained in the direction calculating step on the reference image. Dots for detecting a dot group between a dot having a maximum depth value and a dot having a minimum depth value based on the depth value information among the dots in the reference image that will draw the locus when projected and drawn A group detection step, and 3) based on the direction obtained in the direction calculation step and the depth value of each dot of the dot group detected in the dot group detection step, from the dot group, in the three-dimensional virtual space of A dot determination step of determining a dot representing the color information of the closest object in the direction, and using the color information of the dot determined in the dot determination step as the color information of the pixel, An image generation method for generating an image.
画素を配置した画素パネルと、該画素パネルの各画素の射出光線に指向性を与える光学素子群とを備えた立体視映像表示装置に表示させる三次元仮想空間の立体視画像を、前記三次元仮想空間を所与の視点から見た平面視画像である基準画像と、前記視点位置を基準とする該基準画像の各ドットの奥行値情報とに基づき生成する画像生成方法であって、
前記立体視画像描画領域内の各画素の色情報について、1)当該画素及び当該画素の射出光線に指向性を与える光学素子を通過する光線の方向と、前記三次元仮想空間における前記視点位置とに基づいて、前記三次元仮想空間における前記光線の方向に対応する方向を求める方向算出工程と、2)前記方向算出工程で求められた方向の軌跡を前記基準画像上に投影して描画する場合に当該軌跡を描くこととなる前記基準画像中のドットのうち、奥行値が最大のドットと最小のドットとの間のドット群を前記奥行値情報に基づいて検出するドット群検出工程と、3)前記方向算出工程で求めた方向と前記ドット群検出工程で検出されたドット群の各ドットの奥行値とに基づき、当該ドット群の中から、前記三次元仮想空間中の当該方向における最も手前の物体の色情報を表しているドットを判定するドット判定工程とを含み、前記ドット判定工程で判定されたドットの色情報を当該画素の色情報とすることで、立体視画像を生成する画像生成方法。
A stereoscopic image in a three-dimensional virtual space to be displayed on a stereoscopic video display device comprising a pixel panel in which pixels are arranged and an optical element group that directs the emitted light of each pixel of the pixel panel. An image generation method for generating based on a reference image that is a planar image when the virtual space is viewed from a given viewpoint, and depth value information of each dot of the reference image based on the viewpoint position,
Regarding the color information of each pixel in the stereoscopic image drawing region, 1) the direction of the light beam passing through the pixel and the optical element that gives directivity to the emitted light beam of the pixel, and the viewpoint position in the three-dimensional virtual space A direction calculating step for obtaining a direction corresponding to the direction of the light beam in the three-dimensional virtual space, and 2) projecting and drawing a locus of the direction obtained in the direction calculating step on the reference image A dot group detection step of detecting a dot group between a dot having a maximum depth value and a dot having a minimum depth value among the dots in the reference image that will draw the locus on the basis of the depth value information; ) Based on the direction obtained in the direction calculation step and the depth value of each dot of the dot group detected in the dot group detection step, from the dot group, in the direction in the three-dimensional virtual space And a dot determination step for determining a dot representing the color information of the object in the foreground, and generating a stereoscopic image by using the color information of the dot determined in the dot determination step as the color information of the pixel. Image generation method.
前記ドット判定工程は、a)前記ドット群検出工程で検出されたドット群の各ドットの奥行値と、b)前記方向算出工程で求められた方向を軌跡とした場合の前記視点位置を基準とする当該軌跡上の当該ドットに対応する位置の奥行値との対比を、b)の奥行値が手前側のドットから順に行い、対比する2つの奥行値の前後関係が入れ替わったか否かに基づいて、前記三次元仮想空間中の当該方向における最も手前の物体の色情報を表しているドットを判定する工程であることを特徴とする請求項13に記載の画像生成方法。   The dot determination step is based on a) the depth value of each dot of the dot group detected in the dot group detection step, and b) the viewpoint position when the direction obtained in the direction calculation step is a trajectory. The depth value in b) is compared with the depth value of the position corresponding to the dot on the locus in order from the dot on the near side, and based on whether the context of the two depth values to be compared is switched. The image generation method according to claim 13, wherein the image generation method is a step of determining a dot representing the color information of the closest object in the direction in the three-dimensional virtual space. 前記ドット判定工程は、対比する2つの奥行値の前後関係が入れ替わらなかった場合、b)の奥行値が最も奥側の端部のドットの当該ドット群とは反対側に隣接するドットを、前記三次元仮想空間中の当該方向における最も手前の物体の色情報を表しているドットとして判定する工程であることを特徴とする請求項14に記載の画像生成方法。   In the dot determination step, when the contexts of the two depth values to be compared are not interchanged, the depth value of b) is a dot adjacent to the opposite side of the dot group of the end dot on the farthest side, The image generation method according to claim 14, wherein the image generation method is a step of determining the dot representing the color information of the closest object in the direction in the three-dimensional virtual space. 画素を配置した画素パネルと、該画素パネルの各画素の射出光線に指向性を与える光学素子群とを備え、所定の想定観察位置における一の光学素子に対する視角を対光学素子視角λ、前記一の光学素子により指向性が与えられる一の画素に対する視角を対画素視角σ、前記画素パネル中の立体視画像描画領域に対する視角を対描画領域視角Φとしたとき、λ:σ=n:m(但し、nは自然数、mはΦ/λ未満の自然数)が成立しない立体視映像表示装置に表示させる三次元仮想空間の立体視画像を、前記三次元仮想空間を所与の視点から見た平面視画像である基準画像と、前記視点位置を基準とする該基準画像の各ドットの奥行値情報とに基づきコンピュータに生成させるためのプログラムであって、
前記立体視画像描画領域内の各画素の色情報について、1)当該画素の代表点及び当該画素の射出光線に指向性を与える光学素子の代表点を通過する光線の方向と、前記三次元仮想空間における前記視点位置とに基づいて、前記三次元仮想空間における前記光線の方向に対応する方向を求める方向算出工程と、2)前記方向算出工程で求められた方向と前記奥行値情報とに基づき、前記三次元仮想空間中の当該方向における最も手前の物体の色情報を表しているドットを前記基準画像の中から判定するドット判定工程とを実行させ、前記ドット判定工程で判定された前記基準画像のドットの色情報を当該画素の色情報とすることで、立体視画像を生成する手段として、前記コンピュータを機能させるためのプログラム。
A pixel panel on which pixels are arranged, and an optical element group that gives directivity to the emitted light of each pixel of the pixel panel, and the viewing angle with respect to one optical element at a predetermined assumed observation position is the viewing angle λ with respect to the optical element. When the viewing angle for one pixel to which directivity is given by the optical element is a counter-pixel viewing angle σ and the viewing angle for a stereoscopic image rendering area in the pixel panel is a pair-drawing area viewing angle Φ, λ: σ = n: m ( Where n is a natural number, m is a natural number less than Φ / λ), and a stereoscopic image of the three-dimensional virtual space displayed on the stereoscopic image display device is a plane obtained by viewing the three-dimensional virtual space from a given viewpoint. A program for causing a computer to generate a reference image that is a visual image and depth value information of each dot of the reference image with respect to the viewpoint position,
Regarding the color information of each pixel in the stereoscopic image drawing area, 1) the representative point of the pixel, the direction of the light beam passing through the representative point of the optical element that gives directivity to the emitted light beam of the pixel, and the three-dimensional virtual A direction calculating step for obtaining a direction corresponding to the direction of the light beam in the three-dimensional virtual space based on the viewpoint position in space; and 2) based on the direction obtained in the direction calculating step and the depth value information. And a dot determination step of determining, from the reference image, a dot representing color information of the foremost object in the direction in the three-dimensional virtual space, and the reference determined in the dot determination step A program for causing the computer to function as means for generating a stereoscopic image by using color information of a dot of an image as color information of the pixel.
画素を配置した画素パネルと、該画素パネルの各画素の射出光線に指向性を与える光学素子群とを備え、所定の想定観察位置における一の光学素子に対する視角を対光学素子視角λ、前記一の光学素子により指向性が与えられる一の画素に対する視角を対画素視角σ、前記画素パネル中の立体視画像描画領域に対する視角を対描画領域視角Φとしたとき、λ:σ=n:m(但し、nは自然数、mはΦ/λ未満の自然数)が成立しない立体視映像表示装置に表示させる三次元仮想空間の立体視画像を、前記三次元仮想空間を所与の視点から見た平面視画像である基準画像と、前記視点位置を基準とする該基準画像の各ドットの奥行値情報とに基づきコンピュータに生成させるためのプログラムであって、
前記立体視画像描画領域内の各画素の色情報について、1)当該画素の代表点及び当該画素の射出光線に指向性を与える光学素子の代表点を通過する光線の方向と、前記三次元仮想空間における前記視点位置とに基づいて、前記三次元仮想空間における前記光線の方向に対応する方向を求める方向算出工程と、2)前記方向算出工程で求められた方向の軌跡を前記基準画像上に投影して描画する場合に当該軌跡を描くこととなる前記基準画像中のドットのうち、奥行値が最大のドットと最小のドットとの間のドット群を前記奥行値情報に基づいて検出するドット群検出工程と、3)前記方向算出工程で求めた方向と前記ドット群検出工程で検出されたドット群の各ドットの奥行値とに基づき、当該ドット群の中から、前記三次元仮想空間中の当該方向における最も手前の物体の色情報を表しているドットを判定するドット判定工程とを実行させ、前記ドット判定工程で判定されたドットの色情報を当該画素の色情報とすることで、立体視画像を生成する手段として前記コンピュータを機能させるためのプログラム。
A pixel panel on which pixels are arranged, and an optical element group that gives directivity to the emitted light of each pixel of the pixel panel, and the viewing angle with respect to one optical element at a predetermined assumed observation position is the viewing angle λ with respect to the optical element. When the viewing angle for one pixel to which directivity is given by the optical element is a counter-pixel viewing angle σ and the viewing angle for a stereoscopic image rendering area in the pixel panel is a pair-drawing area viewing angle Φ, λ: σ = n: m ( Where n is a natural number, m is a natural number less than Φ / λ), and a stereoscopic image of the three-dimensional virtual space displayed on the stereoscopic image display device is a plane obtained by viewing the three-dimensional virtual space from a given viewpoint. A program for causing a computer to generate a reference image that is a visual image and depth value information of each dot of the reference image with respect to the viewpoint position,
Regarding the color information of each pixel in the stereoscopic image drawing area, 1) the representative point of the pixel, the direction of the light beam passing through the representative point of the optical element that gives directivity to the emitted light beam of the pixel, and the three-dimensional virtual A direction calculating step for obtaining a direction corresponding to the direction of the light beam in the three-dimensional virtual space based on the viewpoint position in the space; and 2) a trajectory of the direction obtained in the direction calculating step on the reference image. Dots for detecting a dot group between a dot having a maximum depth value and a dot having a minimum depth value based on the depth value information among the dots in the reference image that will draw the locus when projected and drawn A group detection step, and 3) based on the direction obtained in the direction calculation step and the depth value of each dot of the dot group detected in the dot group detection step, from the dot group, in the three-dimensional virtual space of A dot determination step of determining a dot representing the color information of the foremost object in the direction, and using the color information of the dot determined in the dot determination step as the color information of the pixel, A program for causing the computer to function as means for generating a visual image.
画素を配置した画素パネルと、該画素パネルの各画素の射出光線に指向性を与える光学素子群とを備えた立体視映像表示装置に表示させる三次元仮想空間の立体視画像を、前記三次元仮想空間を所与の視点から見た平面視画像である基準画像と、前記視点位置を基準とする該基準画像の各ドットの奥行値情報とに基づきコンピュータに生成させるためのプログラムであって、
前記立体視画像描画領域内の各画素の色情報について、1)当該画素及び当該画素の射出光線に指向性を与える光学素子を通過する光線の方向と、前記三次元仮想空間における前記視点位置とに基づいて、前記三次元仮想空間における前記光線の方向に対応する方向を求める方向算出工程と、2)前記方向算出工程で求められた方向の軌跡を前記基準画像上に投影して描画する場合に当該軌跡を描くこととなる前記基準画像中のドットのうち、奥行値が最大のドットと最小のドットとの間のドット群を前記奥行値情報に基づいて検出するドット群検出工程と、3)前記方向算出工程で求めた方向と前記ドット群検出工程で検出されたドット群の各ドットの奥行値とに基づき、当該ドット群の中から、前記三次元仮想空間中の当該方向における最も手前の物体の色情報を表しているドットを判定するドット判定工程とを実行させ、前記ドット判定工程で判定されたドットの色情報を当該画素の色情報とすることで、立体視画像を生成する手段として前記コンピュータを機能させるためのプログラム。
A stereoscopic image in a three-dimensional virtual space to be displayed on a stereoscopic video display device comprising a pixel panel in which pixels are arranged and an optical element group that directs the emitted light of each pixel of the pixel panel. A program for causing a computer to generate a reference image that is a planar image when the virtual space is viewed from a given viewpoint, and depth value information of each dot of the reference image with respect to the viewpoint position,
Regarding the color information of each pixel in the stereoscopic image drawing region, 1) the direction of the light beam passing through the pixel and the optical element that gives directivity to the emitted light beam of the pixel, and the viewpoint position in the three-dimensional virtual space A direction calculating step for obtaining a direction corresponding to the direction of the light beam in the three-dimensional virtual space, and 2) projecting and drawing a locus of the direction obtained in the direction calculating step on the reference image A dot group detection step of detecting a dot group between a dot having a maximum depth value and a dot having a minimum depth value among the dots in the reference image that will draw the locus on the basis of the depth value information; ) Based on the direction obtained in the direction calculation step and the depth value of each dot of the dot group detected in the dot group detection step, from the dot group, in the direction in the three-dimensional virtual space A dot determination step of determining a dot representing color information of the object in front, and using the color information of the dot determined in the dot determination step as the color information of the pixel, A program for causing the computer to function as means for generating.
前記ドット判定工程は、a)前記ドット群検出工程で検出されたドット群の各ドットの奥行値と、b)前記方向算出工程で求められた方向を軌跡とした場合の前記視点位置を基準とする当該軌跡上の当該ドットに対応する位置の奥行値との対比を、b)の奥行値が手前側のドットから順に行い、対比する2つの奥行値の前後関係が入れ替わったか否かに基づいて、前記三次元仮想空間中の当該方向における最も手前の物体の色情報を表しているドットを判定する行程であることを特徴とする請求項18に記載のプログラム。   The dot determination step is based on a) the depth value of each dot of the dot group detected in the dot group detection step, and b) the viewpoint position when the direction obtained in the direction calculation step is a trajectory. The depth value in b) is compared with the depth value of the position corresponding to the dot on the locus in order from the dot on the near side, and based on whether the context of the two depth values to be compared is switched. 19. The program according to claim 18, wherein the program is a step of determining a dot representing color information of the closest object in the direction in the three-dimensional virtual space. 前記ドット判定工程は、対比する2つの奥行値の前後関係が入れ替わらなかった場合、b)の奥行値が最も奥側の端部のドットの当該ドット群とは反対側に隣接するドットを、前記三次元仮想空間中の当該方向における最も手前の物体の色情報を表しているドットとして判定する工程であることを特徴とする請求項19に記載のプログラム。   In the dot determination step, when the contexts of the two depth values to be compared are not interchanged, the depth value of b) is a dot adjacent to the opposite side of the dot group of the end dot on the farthest side, The program according to claim 19, wherein the program is a step of determining as a dot representing color information of the foremost object in the direction in the three-dimensional virtual space.
JP2005104408A 2005-03-31 2005-03-31 Image generating device, electronic equipment, and image generation method and program Pending JP2006287592A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005104408A JP2006287592A (en) 2005-03-31 2005-03-31 Image generating device, electronic equipment, and image generation method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005104408A JP2006287592A (en) 2005-03-31 2005-03-31 Image generating device, electronic equipment, and image generation method and program

Publications (1)

Publication Number Publication Date
JP2006287592A true JP2006287592A (en) 2006-10-19

Family

ID=37409025

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005104408A Pending JP2006287592A (en) 2005-03-31 2005-03-31 Image generating device, electronic equipment, and image generation method and program

Country Status (1)

Country Link
JP (1) JP2006287592A (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007081873A (en) * 2005-09-14 2007-03-29 Namco Bandai Games Inc Apparatus and method for image generation, and program
JP2009175866A (en) * 2008-01-22 2009-08-06 Nippon Hoso Kyokai <Nhk> Stereoscopic image generation device, its method, and its program
JP2011191645A (en) * 2010-03-16 2011-09-29 Nippon Hoso Kyokai <Nhk> Split three-dimensional object data extraction device, element image generation device, split three-dimensional object data extraction program and element image generation program
JP2011234142A (en) * 2010-04-28 2011-11-17 Nippon Hoso Kyokai <Nhk> Stereoscopic image generation device and its program
JP2013247633A (en) * 2012-05-29 2013-12-09 Toshiba Corp Three-dimensional video display device and three-dimensional video display method
KR20140082512A (en) * 2012-12-24 2014-07-02 엘지디스플레이 주식회사 Stereoscopic image display device
US20140285640A1 (en) * 2013-03-22 2014-09-25 Samsung Display Co., Ltd. Three dimensional image display device and method of displaying three dimensional image
US9494798B2 (en) 2013-02-20 2016-11-15 Fujitsu Limited Image display apparatus and image display method
CN111954896A (en) * 2018-04-12 2020-11-17 凸版印刷株式会社 Light field image generation system, image display system, shape information acquisition server, image generation server, display device, light field image generation method, and image display method
WO2020262441A1 (en) * 2019-06-25 2020-12-30 日本精機株式会社 Vehicle display device
WO2020262438A1 (en) * 2019-06-25 2020-12-30 日本精機株式会社 Vehicle display device
CN116962874A (en) * 2023-06-19 2023-10-27 广州大西洲科技有限公司 Master-slave remote control method and system

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4695470B2 (en) * 2005-09-14 2011-06-08 株式会社バンダイナムコゲームス Image generating apparatus, image generating method, and program
JP2007081873A (en) * 2005-09-14 2007-03-29 Namco Bandai Games Inc Apparatus and method for image generation, and program
JP2009175866A (en) * 2008-01-22 2009-08-06 Nippon Hoso Kyokai <Nhk> Stereoscopic image generation device, its method, and its program
JP2011191645A (en) * 2010-03-16 2011-09-29 Nippon Hoso Kyokai <Nhk> Split three-dimensional object data extraction device, element image generation device, split three-dimensional object data extraction program and element image generation program
JP2011234142A (en) * 2010-04-28 2011-11-17 Nippon Hoso Kyokai <Nhk> Stereoscopic image generation device and its program
JP2013247633A (en) * 2012-05-29 2013-12-09 Toshiba Corp Three-dimensional video display device and three-dimensional video display method
KR20140082512A (en) * 2012-12-24 2014-07-02 엘지디스플레이 주식회사 Stereoscopic image display device
KR102039361B1 (en) * 2012-12-24 2019-11-01 엘지디스플레이 주식회사 Stereoscopic image display device
US9494798B2 (en) 2013-02-20 2016-11-15 Fujitsu Limited Image display apparatus and image display method
US9467684B2 (en) * 2013-03-22 2016-10-11 Samsung Display Co., Ltd. Three dimensional image display device and method of displaying three dimensional image
US20140285640A1 (en) * 2013-03-22 2014-09-25 Samsung Display Co., Ltd. Three dimensional image display device and method of displaying three dimensional image
CN111954896A (en) * 2018-04-12 2020-11-17 凸版印刷株式会社 Light field image generation system, image display system, shape information acquisition server, image generation server, display device, light field image generation method, and image display method
WO2020262441A1 (en) * 2019-06-25 2020-12-30 日本精機株式会社 Vehicle display device
WO2020262438A1 (en) * 2019-06-25 2020-12-30 日本精機株式会社 Vehicle display device
CN116962874A (en) * 2023-06-19 2023-10-27 广州大西洲科技有限公司 Master-slave remote control method and system
CN116962874B (en) * 2023-06-19 2024-06-07 广州大西洲科技有限公司 Master-slave remote control method and system

Similar Documents

Publication Publication Date Title
JP2006287592A (en) Image generating device, electronic equipment, and image generation method and program
JP4856534B2 (en) Image generating apparatus, program, and information storage medium
JP4832833B2 (en) Arrangement lens specification deriving method, program, information storage medium, and arrangement lens specification deriving device
KR101629479B1 (en) High density multi-view display system and method based on the active sub-pixel rendering
JP5306275B2 (en) Display device and stereoscopic image display method
JP3966830B2 (en) 3D display device
JP6050373B2 (en) Video processing apparatus and method for rendering subpixels
JP4764305B2 (en) Stereoscopic image generating apparatus, method and program
JP4672461B2 (en) Image generating apparatus, electronic device, printed material, image generating method and program
JP6278323B2 (en) Manufacturing method of autostereoscopic display
WO2013073028A1 (en) Image processing device, three-dimensional image display device, image processing method and image processing program
TW201320717A (en) Method of displaying 3D image
JP4631812B2 (en) Multi-view video display device, multi-view video imaging device, and multi-view video generation device
EP3747191B1 (en) Autostereoscopic display with viewer tracking
CN105744253A (en) Autostereoscopic 3D Display Device
US10642061B2 (en) Display panel and display apparatus
JP2008244835A (en) Device and method for displaying three-dimensional image
JP5439686B2 (en) Stereoscopic image display apparatus and stereoscopic image display method
KR20140115854A (en) Three dimensional image display device and method of displaying three dimensional image
JP2007271751A (en) Print product, container, cylindrical object, image forming apparatus, and image forming method
TW201320719A (en) Three-dimensional image display device, image processing device and image processing method
KR20160028596A (en) Three dimensional image display device
KR102271171B1 (en) Glass-free multiview autostereoscopic display device and method for image processing thereof
JP4695470B2 (en) Image generating apparatus, image generating method, and program
JP3122479U (en) Containers and annular objects