JP3579162B2 - Stereoscopic cg image generating device - Google Patents

Stereoscopic cg image generating device Download PDF

Info

Publication number
JP3579162B2
JP3579162B2 JP720996A JP720996A JP3579162B2 JP 3579162 B2 JP3579162 B2 JP 3579162B2 JP 720996 A JP720996 A JP 720996A JP 720996 A JP720996 A JP 720996A JP 3579162 B2 JP3579162 B2 JP 3579162B2
Authority
JP
Japan
Prior art keywords
camera
stereoscopic
image
dimensional
object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP720996A
Other languages
Japanese (ja)
Other versions
JPH0974573A (en
Inventor
雅通 中川
森村  淳
謙也 魚森
Original Assignee
松下電器産業株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP16336195 priority Critical
Priority to JP7-163361 priority
Application filed by 松下電器産業株式会社 filed Critical 松下電器産業株式会社
Priority to JP720996A priority patent/JP3579162B2/en
Priority claimed from US08/669,768 external-priority patent/US6005607A/en
Publication of JPH0974573A publication Critical patent/JPH0974573A/en
Publication of JP3579162B2 publication Critical patent/JP3579162B2/en
Application granted granted Critical
Anticipated expiration legal-status Critical
Application status is Expired - Lifetime legal-status Critical

Links

Images

Description

【0001】 [0001]
【発明の属する技術分野】 BACKGROUND OF THE INVENTION
本発明は、3次元構造情報から生成した2次元画像を立体表示して立体視を可能とするための立体CG画像生成装置に関するものである。 The present invention relates to a stereoscopic CG image generating apparatus for enabling stereoscopic two-dimensional image generated from the 3-dimensional structural information and three-dimensional display.
【0002】 [0002]
【従来の技術】 BACKGROUND OF THE INVENTION
従来の立体CG画像生成装置は、例えば図10に示すようなものがある。 Conventional stereoscopic CG image generating apparatus is, for example, as shown in FIG. 10. これは、物体の3次元形状をサーフェスモデルで記述した3次元構造情報(物体を複数の小面(ポリゴン)で近似し、各ポリゴンに含まれる頂点の3次元位置と各ポリゴンにより合成される面、稜線を定義した情報)を入力とし、これで定義された物体をワールド座標系に配置する。 Surface which is a three-dimensional structure information (object that describes a three-dimensional shape of an object by a surface model approximated by a plurality of facets (polygons), which is synthesized by a three-dimensional position and the polygon vertices included in each polygon as input information) that defines the edge line, to place the defined object in which the world coordinate system. これを仮想的なカメラで撮像した時にフイルムに投影される物体の2次元位置を投影変換部1,2で計算し、更にレンダリング部3,4で各ポリゴン内部の画像の輝度と色(例えば、R、G、Bの値)を物体の材質や光源の種類、3次元位置により決定する。 The two-dimensional position of the object to be projected on the film when it was captured by the virtual camera calculated by projection transformation sections 1 and 2, of the polygon inside the image further rendering sections 3 and 4 luminance and color (e.g., R, determined G, material and type of the light source of the value) of the object B, the 3-dimensional position.
【0003】 [0003]
例えば、図11(a)に示すような多面体の形状モデルは、図11(b)に示すように、頂点V1〜V8の3次元座標、形状モデルのデータ構造(面、稜線の構成)で記述され、この情報で記述される物体を図12(a)に示すようなワールド座標系に配置する。 For example, the shape model of a polyhedron, as shown in FIG. 11 (a), as shown in FIG. 11 (b), described in 3-dimensional coordinates of the vertices V 1 through V 8, the shape model data structure (surface, edge line configuration) is to place the object to be written in this information in the world coordinate system as shown in Figure 12 (a). この時、カメラの視点Eから見た物体のスクリーン50に投影される像(頂点)を計算する。 In this case, to calculate the image (vertex) projected on the screen 50 of the object as viewed from the camera viewpoint E. そして、各頂点により構成される面、稜線のスクリーン上での位置・輝度・色を計算して出力画像を得る。 The surface formed by the vertices, obtain an output image by calculating the position and the luminance and color on a ridge of the screen. この時、立体画像であるので、少なくとも2視点での画像を計算する必要があるが、図12(b)で示されるように、カメラのパラメータは複数のカメラの間隔2Wc、カメラ CL、CR の視点位置、カメラの輻輳点Pの3次元座標、カメラの焦点距離f( または画角θ)を決定する必要がある。 At this time, since the stereoscopic image, it is necessary to calculate an image of at least two viewpoints, as shown in FIG. 12 (b), the camera parameters of the plurality of camera separation 2Wc, camera CL, the CR viewpoint position, 3-dimensional coordinates of the converging point P of the camera, it is necessary to determine the focus of the camera length f (or angle theta).
【0004】 [0004]
【発明が解決しようとする課題】 [Problems that the Invention is to Solve
しかしながら、上記のような従来の立体CG画像生成装置では、複数のカメラパラメータは、視距離や画面の大きさにより変化させる必要があるにもかかわらず、生成された立体CG画像を観察しながら経験則にて、観察者が見易いと思われるように、CG制作者が調整していたため、調整が不適切で生成された立体CG画像が立体画像表示装置で表示された場合、立体CG画像の両眼視差(例えば左右画像の同じ頂点の水平位置の差を視角で表したもの)が観察者の許容範囲を越えてしまい、不自然で疲れやすい立体画像となる場合が多いという課題がある。 However, in the conventional stereoscopic CG image generating apparatus as described above, the plurality of camera parameters, when it should be changed according to the size of the viewing distance and screen, while observing the generated stereoscopic CG image experience at law, as observer it seems easy to see, because the CG creator has been adjusted, when the adjustment stereoscopic CG images generated inappropriate is displayed by the stereoscopic image display apparatus, both of the stereoscopic CG image eye parallax (such as those of the difference in horizontal position of the same vertex of the left and right images expressed in viewing angle) is it is beyond the allowable range of the viewer, there is a problem that in many cases the unnatural tired easily stereoscopic image.
【0005】 [0005]
本発明は、従来のこのような立体CG画像生成装置の課題を考慮し、観察者にとってどのような視距離でも、どのような大きさの画面でも自動的に自然で見やすい立体画像を生成できる立体CG画像生成装置を提供することを目的とするものである。 The present invention considers the problems of such a conventional stereoscopic CG image generating apparatus, what in a viewing distance, solid that can automatically generate natural and easy-to-view stereoscopic images in any size screen for the viewer it is an object to provide a CG image generating apparatus.
【0006】 [0006]
【課題を解決するための手段】 In order to solve the problems]
本発明は、物体の3次元形状を記述する3次元構造情報から、複数のカメラから見た時の複数の2次元投影画像を生成する投影変換部と、前記物体とカメラとの距離を生成する距離情報抽出部と、予め入力された、少なくとも前記物体の立体画像を表示するための立体画像表示装置のスクリーンサイズ及びそのスクリーンと観察者との視距離に基づいて、 前記観察者の両眼融合範囲を算出する融合範囲算出手段と、その両眼融合範囲と前記距離情報抽出部の出力に基づいて、 前記観察者の両眼融合範囲内に前記物体の全部が収まるようカメラパラメータの組み合わせ条件を計算するカメラパラメータ計算手段と、そのカメラパラメータ計算手段の出力から前記カメラパラメータの条件を満たす範囲内でカメラパラメータを決定するためのカ The present invention produces a distance from the 3-dimensional structural information describing a three-dimensional shape of an object, and a projection transformation section for generating a plurality of two-dimensional projection images as viewed from a plurality of cameras, and the object and the camera a distance information extraction section, which is input in advance, based on the screen size and viewing distance between the viewer that screen of at least the object three-dimensional image display apparatus for displaying a stereoscopic image, binocular fusion of the observer a fusing range calculation means for calculating a range, based on the output of its binocular fusing range the distance information extraction section, the combination conditions of the camera parameters such as total falls of the object within the binocular fusional range of said viewer a camera parameter calculating means for calculating, mosquitoes for determining camera parameters within range satisfying the camera parameters from an output of the camera parameter calculating means ラパラメータ決定部とを備え、 前記投影変換部は、その決定されたカメラパラメータを利用して、前記複数の2次元投影画像を生成することを特徴とする立体CG画像生成装置である。 And a La parameter determination unit, the projection transformation sections, using the camera parameters that determine a stereoscopic CG image generating apparatus and generating a plurality of two-dimensional projection images.
【0007】 [0007]
また、本発明は、予め入力された、少なくとも物体の立体画像を表示するための立体画像表示装置のスクリーンサイズ及びそのスクリーンと観察者との視距離に基づいて、観察者の両眼融合範囲を融合範囲算出手段により算出し、カメラパラメータ計算手段が、その両眼融合範囲と距離情報抽出部により生成された物体とカメラとの距離に基づいて、観察者の両眼融合範囲内に物体の全部が収まるように、カメラパラメータの条件を計算し、CG制作者がカメラパラメータ決定部により、そのカメラパラメータ計算手段の出力からカメラパラメータを決定し、投影変換部が、その決定されたカメラパラメータを利用して、物体の3次元形状を記述する3次元構造情報から、複数のカメラから見た時の複数の2次元投影画像を生成する。 Further, the present invention has been input in advance, on the basis of the visual distance between the screen size and the observer that screen of the stereoscopic image display apparatus for displaying a stereoscopic image of at least the object, a binocular fusional range of the viewer calculated by fusing range calculating means, the camera parameter calculation unit, based on the distance between the object and the camera that is generated by the binocular fusional range and the distance information extraction section, all of the objects within the binocular fusional range of the viewer as will fit the conditions of the camera parameters calculated by CG creators camera parameter determination unit, the camera parameters determined from the output of the camera parameter calculating means, the projection conversion unit, utilizing the camera parameters that have been determined and, from the three-dimensional structural information describing a three-dimensional shape of an object to generate a plurality of two-dimensional projection images as viewed from a plurality of cameras.
【0008】 [0008]
また、本発明は、1つまたは複数の立体CG画像をウインドウ環境にて一度に表示する場合において、物体の3次元形状を記述する3次元構造情報から、複数のカメラから見た時の複数の2次元投影モデルを生成する投影変換部と、前記物体とカメラとの距離を生成する距離情報抽出部と、立体画像を表示している全てのウインドウの大きさ、表示しているコンピュータ画面の映像の解像度、または同期周波数の情報を検出するウインドウ情報管理部と、そのウインドウ情報管理部の出力から最終的に生成される2次元投影モデルを表示する立体画像表示装置のウインドウサイズを計算し、これと前期距離情報抽出部の出力、観察者の視距離から、観察者の両眼融合範囲内に立体CG画像を収めるためのカメラパラメータをそれぞれのウイン The present invention, in case of displaying at one time at one or more stereocenters CG image windows environment, from the three-dimensional structural information describing a three-dimensional shape of an object, a plurality of when viewed from a plurality of cameras a projection transformation section for generating a two-dimensional projection model, a distance information extraction section for generating a distance between the object and the camera, the size of all window displaying the stereoscopic image, the image on the computer screen displayed and window information management section for detecting the resolution or the information of the synchronous frequency, calculates the window size of the stereoscopic image display apparatus for displaying a two-dimensional projection model finally generated from the output of the window information managing unit, which the output of the previous period distance information extraction section, the observer's viewing distance, the camera parameters to accommodate the three-dimensional CG images in binocular fusional range of the viewer's respective Wynn ウに対して計算する融合範囲確認部と、その融合範囲確認部の出力を用いて最終的にそれぞれのウインドウに対応する立体画像のカメラパラメータを決定するカメラパラメータ決定部とを備え、前記投影変換部は、その決定されたカメラパラメータを利用して、前記複数の2次元投影画像を生成することを特徴とする立体CG画像生成装置である。 Comprising a fusing range confirmation unit calculated for c, and a camera parameter determining section for determining camera parameters of the stereoscopic images corresponding to the final each window by using the output of the fusing range checking unit, the projection transformation parts are using camera parameters that determine a stereoscopic CG image generating apparatus and generating a plurality of two-dimensional projection images.
【0009】 [0009]
【発明の実施の形態】 DETAILED DESCRIPTION OF THE INVENTION
以下に、本発明をその実施の形態を示す図面に基づいて説明する。 The following describes the present invention based on the drawings illustrating an embodiment thereof.
【0010】 [0010]
図1は、本発明の第1の実施の形態における立体CG画像生成装置の構成図を示すものである。 Figure 1 shows a block diagram of a stereoscopic CG image generating apparatus according to the first embodiment of the present invention. 図1において、1、2は投影変換部、3、4はレンダリング部であり、これらは従来の立体CG画像生成装置のものと同じものである。 In Figure 1, 1 and 2 are projection transformation sections, 3 and 4 are rendering unit, which are the same as those of the conventional stereoscopic CG image generating apparatus. 本実施の形態が従来の立体CG画像生成装置と異なる点は、距離情報抽出部5と融合範囲確認部11とカメラパラメータ決定部6と操作部12が追加されている点である。 The present embodiment is different from the conventional stereoscopic CG image generating apparatus, the distance information extraction section 5 and the fusing range checking unit 11 and the camera parameter determining section 6 and the operation portion 12 is a point that has been added. ここで、融合範囲確認部11は、融合範囲算出手段とカメラパラメータ計算手段とを含んでいる。 Wherein the fusion range confirmation unit 11, and a fusion range calculation means and the camera parameter calculating means.
【0011】 [0011]
以上のように構成された本実施の形態の立体CG画像生成装置について、以下その動作を説明する。 Configuration stereoscopic CG image generating apparatus of the present embodiment as described above, the operation thereof will be described below.
【0012】 [0012]
まず、物体の3次元形状をサーフェスモデルで記述した3次元構造情報が投影変換部1、2と距離情報抽出部5に入力される。 First, three-dimensional structural information describing a three-dimensional shape of an object in a surface model is input to the projection transformation sections 1 and 2 and the distance information extraction section 5. CG制作者は、レンダリング部3、4に接続された立体画像表示装置(図示省略)を見て出力画像を確認しながら、好みに合わせて被写体と仮想カメラ(左右カメラの位置の中点)をワールド座標系の適当な位置に配置し、その方向を決定する。 CG creator, while checking the output images look three-dimensional image display device connected to the rendering sections 3 and 4 (not shown), the object and the virtual camera (the midpoint of the positions of the left and right cameras) to taste placed in appropriate positions in the world coordinate system, to determine its direction. 左右のカメラ位置は、仮想カメラ位置Vを中心としてX軸方向に±Wc の位置に配置される(図2参照)。 Camera positions of the left and right is located at the position of ± Wc in the X-axis direction around the virtual camera position V (see FIG. 2). この時のカメラパラメータ(カメラ間隔Wc (ここのカメラ間隔とは、左右のカメラ間の距離の半分を言う。以下、特にことわらない限り同様とする)、焦点距離f、輻輳点までの距離dx:図3で後述)は、初期値として予め設定されてい るとする。 The camera parameters (camera interval Wc (where the camera interval when, refers to half the distance between the right and left cameras. Hereinafter, the same unless otherwise indicated), the focal length f, the distance to the convergence point dx : described later with reference to FIG. 3) is Rutosuru been previously set as an initial value.
【0013】 [0013]
次に、距離情報抽出部5は、被写体のうち、仮想カメラから最も近い点(近点N)、カメラから最も遠い点(遠点F)を抽出し、これのx、y座標を算出し、これらをN(XN,YN,ZN)、F(XF,YF,ZF)とする(図2参照)。 Next, the distance information extraction section 5, of the subject, the closest point from the virtual camera (near point N), and extracted farthest point from the camera (the far point F), is calculated this the x, y coordinates, these N (XN, YN, ZN), F (XF, YF, ZF) to (see FIG. 2). この2点が両方、観察者の両眼融合範囲内に収まれば、良好な立体CG画像が得られることになる。 Both the two points, if they fit within the binocular fusional range of the viewer, a good stereoscopic CG image can be obtained. この時、遠点・近点は、左右カメラ・仮想カメラからの距離を平均等して、総合して判定してもよい。 At this time, the far point-near point is the distance from the left and right camera virtual camera on average, etc., it may be determined comprehensively.
【0014】 [0014]
次に、融合範囲確認部11は、近点N・遠点Fの3次元座標値と、予め入力された立体CG画像を観察する立体画像表示装置のスクリーンの大きさM、観察者の視距離dsを基に、カメラパラメータ(カメラ間隔Wc、カメラの焦点距離f、カメラの輻輳点と仮想カメラ位置Vの距離dx )の有効範囲(観察者が両眼融合できる範囲)を計算する。 Next, the fusing range confirmation unit 11, a three-dimensional coordinate values ​​of the near point N · far point F, the size of the screen of the stereoscopic image display apparatus for observing the stereoscopic CG image inputted beforehand M, observer viewing distance based on ds, to calculate the camera parameters effective range (the observer can binocular fusion) of (camera interval Wc, the focal length f of the camera, convergence point of the camera and the distance dx of a virtual camera position V). 観察者空間のパラメータ定義は図3に示される。 Parameter Definition observer space is shown in Figure 3.
【0015】 [0015]
計算式は、 Calculation formula,
近点条件: Near point conditions:
【0016】 [0016]
【数1】 [Number 1]
【0017】 [0017]
遠点条件: Far point conditions:
【0018】 [0018]
【数2】 [Number 2]
【0019】 [0019]
である。 It is. ただし、2×ΔSは、立体画像表示スクリーン上における左右画像の位相差を示し、通常は2×ΔSは観察者の両眼間隔(60mm程度)に設定されることが多い。 However, 2 × [Delta] S represents the phase difference between the left and right image in the stereoscopic image display on the screen, usually 2 × [Delta] S is often set to the distance between both eyes of the observer (about 60 mm). また、D−、D+は、それぞれ観察者が両眼融合できる最も近い点での両眼視差、最も遠い点での両眼視差である。 Moreover, D-, D + is binocular parallax at the point closest to each viewer can binocular fusion, a binocular disparity at the farthest point. また、焦点距離fとカメラの画角θには、一意な関係、 Further, the focal length f and the field angle of the camera theta, unique relationship,
【0020】 [0020]
【数3】 [Number 3]
【0021】 [0021]
があるので、どちらで定義しても良い。 Because there is, it may be defined in either. また、dx は、カメラの位置とカメラの向ける点の3次元位置を決定しても自動的に決定出来る。 Further, dx is also determine the three-dimensional position of a point to direct the position of the camera and the camera automatically determines it. 融合範囲確認部11は、これらの式を両方満足するカメラ間隔Wc 、カメラの焦点距離f、カメラの輻輳点Pと仮想カメラ位置Vの距離dxの組合せを全て計算することになる。 Fusing range checking unit 11 will compute the camera interval to satisfy both these equations Wc, camera focus length f, the convergence point of the camera and P a combination of the distance dx of a virtual camera position V all.
【0022】 [0022]
次に、カメラパラメータ決定部6は、融合範囲確認部11により計算されたカメラパラメータの組合せの中で、どれを採用するかを決定する。 Next, the camera parameter determining section 6, in the combination of the camera parameters calculated by the fusing range checking unit 11 determines whether to adopt any.
【0023】 [0023]
決定方法は、例えば、 Determination method, for example,
(1)CG制作者が操作部12を操作して出力画像を確認しながら、融合範囲確認部11が計算したカメラパラメータの組合せを色々試しながら選ぶ方法。 (1) a method of CG creator while checking the output image by operating the operation unit 12 to select while experiment with combinations of camera parameters fusion range checking unit 11 was calculated.
(2)CG制作者がカメラパラメータWc、f、dxのうちどれか1つをまず決定し、残りの2つのパラメータを操作部12を操作して、融合範囲確認部11が示すパラメータの組合せ((数1)、(数2)の式を満足する2つのパラメータの組合わせ)の中で自由に変化させて出力画像を確認しながら決定する方法。 (2) CG creator determines camera parameters Wc, f, and any one of the dx First, by operating the operation unit 12 and the remaining two parameters, the combination of parameters indicating the fusing range checking section 11 ( (equation 1), a method of determining while checking an output image free varied in equation (2) a combination of two parameters that satisfy the equation).
(3)CG制作者がカメラパラメータWc、f、dxのうちどれか2つをまず決定し、残りの1つのパラメータを操作部12を操作して、融合範囲確認部11が示すパラメータの範囲((数1)、(数2)の式を満足する1つのパラメータの範囲)の中で自由に変化させて出力画像を確認しながら決定する方法。 (3) CG creator determines camera parameters Wc, f, the two any one of dx First, by operating the operation unit 12 and the remaining one parameter, the range of the parameter indicated by the fusing range checking section 11 ( (equation 1), a method of determining while checking an output image free varied within the scope of one parameter that satisfies the equation (equation 2)).
のうち、どれかを採用する。 Of the, to adopt any. 以下、(1)〜(3)の手法例について更に詳しく説明する。 Hereinafter, (1) to be described in more detail an example of a method (3).
【0024】 [0024]
(1)の場合、まず、操作部12に配された表示部に、図5(a)に示すように、観察者が両眼融合できるパラメータWc、f、dxの組合せの領域(有効領域)と、現在設定しているWc、f、dxを示すポインタ13が表示される。 For (1), first, on the display unit arranged on the operation unit 12, as shown in FIG. 5 (a), the parameters Wc of the observer can binocular fusion, f, dx combination of regions of the (effective area) If, Wc currently set, f, pointer 13 indicating the dx is displayed. CG制作者は、3次元マウス等を用いて、このポインタの位置を設定する。 CG creator, using three-dimensional mouse or the like, to set the position of the pointer. この時、ポインタの位置によってWc、f、dxの値が変化するが、有効領域以外の領域には設定できないようになっている。 At this time, Wc by the position of the pointer, f, the value of dx is changed, the area other than the effective area so as not be set. そして、ポインタの示す座標でのパラメータがカメラパラメータ決定部6に出力され、出力の立体CG画像が投影変換部1,2、レンダリング部3,4により計算される。 The parameter in the coordinate indicated by the pointer is outputted to the camera parameter determining section 6, the three-dimensional CG image of the output is calculated by the projection conversion unit 1, the rendering sections 3 and 4. これを立体画像表示装置を用いて観察し、CG制作者は好みに合わせてポインタの位置を調節する。 This was observed using a stereoscopic image display device, CG creation user adjusts the position of the pointer to taste. このようにすることにより、常に観察者の両眼融合範囲内に出力の立体CG画像が収まるように制御される。 By doing so, always the output of the three-dimensional CG images in binocular fusional range of the viewer is controlled to fall.
【0025】 [0025]
(2)、(3)の場合、操作パネル12aは、図5(b)に示すように、各パラメータを調節する3つのボリューム14、15、16と、各パラメータを固定する固定ボタン17、18、19で構成される。 (2), (3), the operation panel 12a is, as shown in FIG. 5 (b), the fixed button to fix three volumes 14, 15, 16 to adjust each parameter, each parameter 17, 18 , composed of 19. 最初は、固定ボタンはOnされていないと仮定する。 Initially, it is assumed that the fixed button has not been On. まずCG制作者は、出力の立体CG画像を観察しながら画角を考慮して、図5(b)の操作パネル12aに対して、カメラパラメータのうち焦点距離fをf0に決定する。 First CG creators, in consideration of the angle while observing the stereoscopic CG image output, to the operation panel 12a of FIG. 5 (b), to determine the focal length f to f0 of camera parameters. ボリューム14をf0に合わせ、固定ボタン17を押す。 The combined volume 14 to f0, pressing a fixed button 17. これにより、パラメータfはf0に固定される。 Thus, the parameter f is fixed to f0. パラメータfが固定されると、融合範囲確認部11は残りのパラメータWc、dxのうち、(数1)、(数2)を満足する組み合わせを計算する。 If the parameter f is fixed, among the remaining parameters Wc, dx fusion range confirmation unit 11 calculates a combination that satisfies the equation (1), (Equation 2). 次にCG制作者はボリューム15、16を操作してパラメータWc、dxを色々変化させながら出力画像を確認する。 Then CG creator to make sure the output image while various changes in the parameters Wc, dx by operating the volume 15 and 16. この時、CG制作者が設定しようとするWc、dxの値のうち、(数1)、(数2)を満足する範囲のみ操作パネル12aでWc、dxを変化出来るように設定される。 At this time, Wc the CG creator tries to set, among the values ​​of dx, is set (number 1), to allow changes Wc, the dx in only the operation panel 12a range satisfying the equation (2). この時、固定ボタン18、19により、Wc、dxのどちらかを固定することも可能である。 At this time, the fixing button 19, it is also possible to fix Wc, either dx. この場合、出力立体CG画像を確認しながら残された一つのパラメータのみを変化させることになる。 In this case, changing only one parameter left while checking the output stereoscopic CG image. このようにすることにより、常に観察者の両眼融合範囲内に出力立体CG画像が収まるように保ちながら、パラメータをひとつずつ決定していくことが出来る。 By doing so, always keeping as output stereoscopic CG image in the binocular fusional range of the viewer falls can continue to determine one by one parameter.
【0026】 [0026]
以上の様にして決定されたカメラパラメータWc、f、dxを用いて投影変換部1,2は、左右のカメラで撮像した時にフイルムに投影される物体の2次元位置を計算し、更にレンダリング部3、4で各ポリゴン内部の画像の輝度と色を物体の材質や光源の種類、3次元位置により決定する。 Projection transformation sections 1 and 2 with more determined in the manner of the camera parameters Wc, f, and dx is the two-dimensional position of the object to be projected on the film when photographed by left and right cameras to calculate, further rendering unit brightness and object material and type of the light source the color of each polygon inside the image at 3,4, is determined by three-dimensional position. そして、最終的な左右眼用の立体CG画像を出力する。 Then, it outputs the stereoscopic CG images for the final left and right eyes.
【0027】 [0027]
なお、本実施の形態では、カメラは輻輳撮影を行なうことを想定したが(図2で左右カメラ7、8が点Pに向いている)、図4に示すように左右カメラを平行に設置しても良い。 In this embodiment, the camera is assumed to perform congestion imaging (facing to the right and left camera 7 and 8 the point P in FIG. 2), parallel to set up a lateral camera as shown in FIG. 4 and it may be. この場合は、融合範囲確認部11は、被写体の遠点の3次元座標値は用いる必要はなく、 In this case, the fusion range checking unit 11, the three-dimensional coordinate values ​​of the far point of the subject need not be used,
【0028】 [0028]
【数4】 [Number 4]
【0029】 [0029]
で示される条件を満足するWcとfの組合せを計算するのみでよい(dxは∞に設定されるのと等価である)。 In it is only to calculate the combinations of Wc and f that satisfies the conditions indicated (dx is equivalent to that set to ∞).
【0030】 [0030]
また、本実施の形態では、観察者が両眼融合できる範囲の制限を(数1)、(数2)で与えたが、これの中のD−、D+もしくはこれに相当する奥行き距離をCG制作者が手動で与えても良い。 Further, in this embodiment, to limit the scope of the observer can binocular fusion (Equation 1), but from equation (2), in which D-, CG depth distance corresponding to the D + or this authors may be given in the manual.
【0031】 [0031]
また、本実施の形態では、カメラパラメータを一つのCG画像データを元に決定したが、動画の場合にも、それぞれの時刻でのCG画像データを用いてカメラパラメータを逐次決定することも可能である。 Further, in the present embodiment, to determine the camera parameters based on one of the CG image data, in the case of video, it is also possible to sequentially determine the camera parameters using the CG image data at each time point is there. また、ある所定の期間でのカメラパラメータのシーケンスを求めておき、これを記憶しておいて、同じ変化を有する立体カメラパラメータを用いて何度も同じシーンを再生することも可能である。 Alternatively, it is acceptable to determine the sequence of camera parameters in a given period of time, keep in store, it is also possible to reproduce the same scene many times using a three-dimensional camera parameters having the same change.
【0032】 [0032]
以上の様に、本実施の形態によれば、カメラと被写体の距離情報と、生成された立体CG画像の表示装置における視差の大きさを表示装置の大きさと観察距離から計算し、これが観察者の両眼融合範囲に収まるかどうかを判断することにより、適切なカメラパラメータ(焦点距離または画角、カメラ間隔、輻輳点)を決定し、見やすい立体CG画像を自動的に得ることができる。 As described above, according to the present embodiment, and calculated from the size and the viewing distance of the display device the size of the disparity in the display device of the camera and the subject distance information, the generated stereoscopic CG image, which the viewer by determining whether fit into binocular fusional range, appropriate camera parameters (the focal length or angle of view, the camera interval, the convergence point) to determine, easy-to-view stereoscopic CG image can be automatically obtained.
【0033】 [0033]
図6は、本発明の第2の実施の形態における立体CG画像生成装置の構成図を示すものである。 Figure 6 shows a block diagram of a stereoscopic CG image generating apparatus according to the second embodiment of the present invention. 図6において、1、2は投影変換部、3、4はレンダリング部、6はカメラパラメータ決定部であり、これらは本発明の第1の実施の形態の立体CG画像生成装置のものと同じものである。 6, 1 and 2 are projection transformation sections, 3 and 4 are rendering unit, 6 denotes a camera parameter determining section, these are the same as those of the first embodiment of the stereoscopic CG image generating apparatus of the present invention it is. 本実施の形態が第1の実施の形態の立体CG画像生成装置と異なる点は、図1の距離情報抽出部5と融合範囲確認部11に代えて、視差地図計算部20と画素数計算手段としての融合領域判断部A21が設けられている点である。 The present embodiment is different from the stereoscopic CG image generating apparatus of the first embodiment, instead of the distance information extraction section 5 and the fusing range checking unit 11 of FIG. 1, parallax map calculation section 20 and the pixel number calculation means fusion area determining portion A21 as it is that is provided.
【0034】 [0034]
以上のように構成された本実施の形態の立体CG画像生成装置について、以下その動作を説明する。 Configuration stereoscopic CG image generating apparatus of the present embodiment as described above, the operation thereof will be described below.
【0035】 [0035]
本実施の形態は、カメラパラメータWc、f、dxの内、少なくとも1つ、特にWc がCG制作者により固定されており、このままでは出力される立体CG画像の全体を観察者の両眼融合範囲に収めることが出来ない場合に効果を発する。 This embodiment, among the camera parameters Wc, f, dx, at least one, and in particular fixed by Wc is CG creator, the entire binocular fusion range of the viewer's stereoscopic CG image output in this state emit an effect on the case can not be accommodated in.
【0036】 [0036]
物体の3次元形状をサーフェスモデルで記述した3次元構造情報は投影変換部1、2に入力される。 3D structural information describing a three-dimensional shape of an object in a surface model is input to the projection transformation sections 1 and 2. 第1の実施の形態と同様に、まず、CG制作者は、レンダリング部3、4に接続された立体画像表示装置(図示省略)を見て出力画像を確認しながら、好みに合わせて被写体と仮想カメラ(左右カメラの位置の中点)をワールド座標系の適当な位置に配置し、その方向を決定する。 Like the first embodiment, first, CG creation who, while checking the output images look three-dimensional image display device connected to the rendering sections 3 and 4 (not shown), and subject to taste place a virtual camera (the midpoint of the positions of the left and right cameras) at appropriate positions in the world coordinate system, to determine its direction. 左右のカメラ位置は、仮想カメラ位置Vを中心としてX軸方向に±Wc の位置に配置される(図2参照)。 Camera positions of the left and right is located at the position of ± Wc in the X-axis direction around the virtual camera position V (see FIG. 2). カメラパラメータWc、f、dxは、予め設定された初期値が用いられる(これらの内いずれかは固定値である)。 Camera parameters Wc, f, dx is preset initial value is used (either of these is a fixed value).
【0037】 [0037]
これにより設定されたパラメータを用いて、投影変換部1、2は3次元構造情報を2次元画面に投影した画像を出力し、レンダリング部3、4にてCG画像を生成する。 Using the parameters set by this, projection transformation sections 1 and 2 outputs an image obtained by projecting a three-dimensional structural information in a two-dimensional screen, it generates a CG image by rendering sections 3 and 4. レンダリング部3、4の出力と3次元構造情報から、視差地図計算部20は投影変換された画像上の各点での左右画像の奥行きデータ、即ち視差地図(各画素での奥行き量を示した画像)を計算する。 The output and the three-dimensional structural information of the rendering sections 3 and 4, the parallax map calculation section 20 showed a depth of at depth data, i.e. the disparity map (the pixels of the left and right images at each point on the projection transformation image image) is calculated. 例えば、従来からCGに使用されているZバッファ処理の結果を用いれば、画面の各点での奥行き量を得ることが出来、これを元にして視差地図を作成することは容易に可能である。 For example, if a result of the Z-buffer processing which is conventionally used in CG, it is possible to obtain the amount of depth at each point of the screen, it is readily possible to create a parallax map based on this . また、レンダリングを行なわない、ワイヤーフレームの様な画像の場合は、投影変換部1、2と3次元構造情報から視差地図を作成することになる。 Moreover, not performed rendering, in the case of such an image of the wire frame, will create a parallax map and projection transformation sections 1 and 2 from the three-dimensional structural information.
【0038】 [0038]
この視差地図を基に、融合領域判断部A21は、画面中で、立体CG画像観察者の両眼融合範囲(視差がD−〜D+の間の値)に入る領域の画素数(これを有効画素数と定義する)を計算する。 Based on this parallax map, the fusion area determining unit A21 is in the screen, binocular fusion range of stereoscopic CG image viewer number of pixels of the area (parallax value between D-to D +) fall (enable it is defined as the number of pixels) is calculated. 次に、視差地図計算部20、融合領域判断部A21は、カメラパラメータWc、f、dxを順次変化させて、固定値以外の予め設定されたWc、f、dxの変化範囲の全ての組合せについて、有効画素数を計算する。 Next, the parallax map calculation section 20, the fusion area determining unit A21, the camera parameters Wc, f, and a sequentially changing dx, preset Wc other than the fixed value, f, for all combinations of changes range dx It calculates the number of effective pixels.
【0039】 [0039]
次に、カメラパラメータ決定部6は、これまで計算されたパラメータWc 、f、dx の全ての組合せに対する有効画素数のうち、これの最大値に対応するパラメータWc、f、dxを算出する。 Next, the camera parameter determining section 6 has hitherto calculated parameters Wc, f, of the number of effective pixels with respect to all combinations of dx, calculates parameters Wc, f, dx corresponding to the maximum value of this. そして、算出されたWc、f、dxを投影変換部1、2に出力する。 The outputs calculated Wc, f, and dx the projection transformation sections 1 and 2. この場合、有効画素数の最大値ではなく、最大値に近い組合せを複数個列挙し、CG制作者がこれらの中から好みの組合せを選んで投影変換部1、2に出力してもよい。 In this case, not the maximum value of the number of effective pixels, the combined plurality listed close to the maximum value, CG creation person may be output to projection transformation sections 1 and 2 to choose a combination of preferences among these. また、カメラパラメータ決定部6は、3つのパラメータのうち、どれか(複数個可能)を固定しておいて、残りのパラメータの組合せのうちで、有効画素数が最大、または、有効画素数の最大値に近い残りのパラメータの組合せを列挙し、CG制作者が好みの組合せを決定してもよい。 The camera parameter determination unit 6, among the three parameters, and allowed to fix any (possible multiple), among the remaining parameters of combinations, the maximum number of effective pixels, or, the number of effective pixels enumerating combinations of the remaining parameters close to the maximum value, CG creation person may determine the combination of preferences.
【0040】 [0040]
そして、投影変換部1、2及びレンダリング部3、4は、これらのパラメータを用いて最終的な立体CG画像を算出する。 Then, projection transformation sections 1 and 2 and the rendering sections 3 and 4 to calculate a final stereoscopic CG image using these parameters. このようにすることによって、観察者の両眼融合範囲内に画像が最も多く入るようにカメラパラメータを自動的に決定するすることができる。 By doing so, it is possible to automatically determine the camera parameters so that the image falls most in binocular fusional range of the viewer. 有効画素数の最大値が複数存在する場合は、それぞれの場合のパラメータでの立体CG画像を生成し、立体CG制作者がこれを立体画像表示装置で観察し、好みのパラメータの組合せを選ぶ。 If the maximum value of the number of effective pixels there are a plurality, generates a three-dimensional CG image of the parameter in each case, observing the three-dimensional CG creators This stereoscopic image display apparatus, select a combination of parameters preference.
【0041】 [0041]
以上の様に、本実施の形態によれば、カメラパラメータに制約条件があり、最終的な出力の立体CG画像全体が観察者の両眼融合範囲内に収まらない場合でも、両眼融合可能な画像の面積が最も広くなるように、カメラパラメータWc、f、dxを自動的に決定できる。 As described above, according to this embodiment, there is constraint on the camera parameter, even when the entire three-dimensional CG image of the final output does not fall within the binocular fusional range of the viewer, it can be binocular fusion as the area of ​​the image becomes widest, camera parameters Wc, f, and dx can be automatically determined.
【0042】 [0042]
また、上記第2の実施の形態において、視差地図から被写体の近点・遠点を算出し、これを元にして、後は前述の第1の実施の形態の手法を用いて立体カメラパラメータを決定してもよい。 Further, in the second embodiment, to calculate the near point-far point of the object from the disparity map, which based on a three-dimensional camera parameters using the method of the first embodiment described above after it may be determined.
【0043】 [0043]
図7は、本発明の第3の実施の形態における立体CG画像生成装置の構成図を示すものである。 Figure 7 shows a block diagram of a stereoscopic CG image generating apparatus according to the third embodiment of the present invention. 図7において、1、2は投影変換部、3、4はレンダリング部、6はカメラパラメータ決定部、20は視差地図計算部であり、これらは本発明の第2の実施の形態の立体CG画像生成装置のものと同じものである。 7, 1 and 2 are projection transformation sections, 3 and 4 are rendering unit, 6 denotes a camera parameter determination unit, 20 is a parallax map calculation section, these second embodiment of a stereoscopic CG image of the present invention it is the same as those of the generator. 第2の実施の形態の立体CG画像生成装置と異なる点は、融合領域判断部A21が画素数計算手段としての融合領域判断部B21'に変わり、特定画像処理部としてのクリッピング値決定部22が追加されている点である。 The second embodiment of a stereoscopic CG image generating apparatus differs from the fusion area determining unit A21 turns fusion area determining portion B21 'as a pixel number calculating means, clipping value determining section 22 as the specific image processing unit is a point that has been added.
【0044】 [0044]
以上のように構成された本実施の形態の立体CG画像生成装置について、以下その動作を説明する。 Configuration stereoscopic CG image generating apparatus of the present embodiment as described above, the operation thereof will be described below.
【0045】 [0045]
まず、上記第2の実施の形態と同様にして、カメラパラメータ決定部6は、投影変換部1、2でのカメラパラメータ(Wc、dx、f)を決定する。 First, in the same manner as in the second embodiment, the camera parameter determination unit 6 determines the camera parameters at the projection transformation sections 1,2 (Wc, dx, f). 概略を説明すると、まず、CG制作者は、レンダリング部3、4に接続された立体画像表示装置を見て出力画像を確認しながら、好みに合わせて被写体と仮想カメラをワールド座標系の適当な位置に配置し、その方向を決定する。 To describe the outline, first, CG creation person, while viewing the output image looking at a stereoscopic image display device to the rendering sections 3 and 4, suitable for the world coordinate system of the object and the virtual camera to taste arranged at a position to determine its direction.
【0046】 [0046]
これにより設定されたパラメータを用いて、投影変換部1、2は3次元構造情報を2次元画面に投影した画像を出力し、レンダリング部3、4にてCG画像を生成する。 Using the parameters set by this, projection transformation sections 1 and 2 outputs an image obtained by projecting a three-dimensional structural information in a two-dimensional screen, it generates a CG image by rendering sections 3 and 4. レンダリング部3、4の出力と3次元構造情報から、視差地図計算部20は投影変換された画像上の各点での視差地図を計算する。 The output and the three-dimensional structural information of the rendering sections 3 and 4, the parallax map calculation unit 20 calculates a parallax map at each point on the projection transformation image.
【0047】 [0047]
この視差地図を基に、融合領域判断部B21'は、画面中で、立体CG画像観察者の両眼融合範囲に入る領域の有効画素数を計算し、視差地図計算部20、融合領域判断部B21'は、カメラパラメータWc、f、dxを順次変化させて有効画素数を計算する。 Based on this parallax map, the fusion region determination unit B21 'is in the screen, and calculates the number of effective pixels of the area to be binocular fusing range of a stereoscopic CG image viewer, the parallax map calculation section 20, the fusion region determination unit B21 'are camera parameters Wc, f, computes the number of effective pixels of sequentially changing dx.
【0048】 [0048]
次に、カメラパラメータ決定部6は、これまで計算されたパラメータWc 、f、dx の全ての組合せに対する有効画素数のうち、これの最大値に対応するパラメータWc、f、dxを算出する。 Next, the camera parameter determining section 6 has hitherto calculated parameters Wc, f, of the number of effective pixels with respect to all combinations of dx, calculates parameters Wc, f, dx corresponding to the maximum value of this. そして、算出されたWc、f、dxを投影変換部1、2に出力する。 The outputs calculated Wc, f, and dx the projection transformation sections 1 and 2. 投影変換部1、2及びレンダリング部3、4はこれらのパラメータを用いて最終的な立体CG画像を算出する。 Projection transformation sections 1 and 2 and the rendering sections 3 and 4 to calculate a final stereoscopic CG image using these parameters. このカメラパラメータは一度決定したら固定であるとする。 The camera parameter is assumed to be fixed Once you have decided once.
【0049】 [0049]
ここで、物体が移動するか、左右カメラがお互いの位置関係を保ちつつ移動することを考える。 Here, the object is moving or, given that the left and right camera moves while maintaining the positional relationship between each other. カメラが被写体に向かって移動すると、被写体との距離は小さくなり、両眼視差も大きくなり、観察者の両眼範囲内に入らなくなってしまう場合が発生する。 When the camera is moved toward the object, a distance to the object is reduced, the binocular parallax becomes larger, if no longer fall within the binocular scope of the observer occurs. 遠点についても同様である。 The same applies to the far point. そこで、カメラパラメータは固定でクリッピングによる処理を行なう。 Therefore, the camera parameter performs processing by clipping fixed.
【0050】 [0050]
レンダリング部3、4において、近い被写体、遠い被写体はクリッピングをかけて表示しない、という処理を従来のCG画像では行なっていたが、本実施の形態では、図8(a)に示すように、このクリッピング位置を、レンダリング部3、4に対して両眼融合範囲内にない画像は出力されぬような値に決定する。 In rendering sections 3 and 4, near the object, do not show over distant subject clipping, in conventional CG image processing that had been performed, in the present embodiment, as shown in FIG. 8 (a), the clipping position, image not within the binocular fusional range for rendering sections 3 and 4 is determined to be a value such as not being output. 即ち、融合領域判断部B21'によって観察者の両眼融合限界(遠い方の限界、近い方の限界の2種類が存在する)を計算する。 That is, to calculate the observer's binocular fusion limit (farther limit of, two types exist limits closer) by fusion region determination unit B21 '. 具体的には図8(a)のワールド座標系において(数1)、(数2)を満たす点を全て算出し、これが図8(a)の斜線領域であるとする。 Specifically in the world coordinate system of FIG. 8 (a) (Equation 1) to calculate all points satisfying equation (2), which is assumed to be hatched region in FIG. 8 (a). 次に、この斜線領域以外の点が最終CG画像出力に出力されないようにNearクリッピング値CLN、farクリッピング値CLF を決定する(CLNR、CLNLはそれぞれ右カメラ、左カメラのNearクリッピング面、CLFR、CLFLはそれぞれ右カメラ、左カメラのFarクリップ面である)。 Next, this as a point other than the hatched region is not output to the final CG image output Near clipping value CLN, to determine the far clipping value CLF (CLNR, respectively CLNL right camera, Near clipping plane of the left camera, CLFR, CLFL each right camera, a Far clip surface of the left camera). それぞれのNear クリッピング面、Far クリッピング面で囲まれた領域の物体のみレンダリング部3、4から出力する。 Each Near clipping plane, only the object of a region surrounded by Far clipping plane outputted from the rendering sections 3 and 4.
【0051】 [0051]
また、前述の例では、左右カメラそれぞれについて、クリッピング面CLNR、CLNL、CLFR、CLFLを設定したが、図8(b)に示すように、仮想カメラ(原点)について、Nearクリッピング面CLCN、Farクリッピング面CLCF を決定し、これを左右カメラに共通で適用してもよい。 In the example above, for each of the left and right cameras, clipping plane CLNR, CLNL, CLFR, was set to CLFL, as shown in FIG. 8 (b), the virtual camera (origin), Near clipping plane CLCN, Far clipping determining the surface ClCF, it may be applied in common it to the left and right cameras.
【0052】 [0052]
また、本実施の形態において、クリッピングされる領域に被写体が存在する場合には、これを最終出力画像に表示しないように設定したが、クリッピングされる領域に物体が近づくにつれて、徐々に物体のコントラストを下げたり、物体の色を透明にしていけば、観察者が両眼融合できない領域において、自然に物体が消失するので更に違和感が少ない立体CG画像を得ることが出来る。 Further, in the present embodiment, when there is an object in the area to be clipped has been set which to not display the final output image, as an object approaches the area to be clipped, and gradually the contrast of the object the lowering, if we made transparent color of an object, in a region where the viewer can not binocular fusion, can be obtained a stereoscopic CG image further less discomfort since the object naturally disappears.
【0053】 [0053]
以上の様に、本実施の形態によれば、カメラパラメータ固定であっても、クリッピング面を観察者の両眼融合範囲を考慮に入れて設定することにより、最終的な出力の立体CG画像を観察者の両眼融合範囲内に収めることが出来る。 As described above, according to this embodiment, be a camera parameter fixed, by setting, taking into account the binocular fusional range of the viewer clipping plane, the stereoscopic CG image of the final output it can be kept within the binocular fusing range of the viewer.
【0054】 [0054]
図9は、本発明の第4の実施の形態における立体CG画像生成装置の構成図を示すものである。 Figure 9 shows a configuration diagram of a stereoscopic CG image generating apparatus according to a fourth embodiment of the present invention. 図9において、1、2は投影変換部、3、4はレンダリング部、6はカメラパラメータ決定部、20は視差地図計算部、21'は融合領域判断部Bであり、これらは前述の第3の実施の形態の立体CG画像生成装置のものと同じものである。 9, 1 and 2 are projection transformation sections, 3 and 4 are rendering unit, 6 denotes a camera parameter determining section, 20 parallax map calculation section, 21 'is a fusion region determining section B, third of the above it is the same as those of the embodiment of the stereoscopic CG image generating apparatus. 第3の実施の形態の立体CG画像生成装置と異なる点は、クリッピング値決定部22に代えて、ピントパラメータ決定部23及び霧効果パラメータ決定部24が設けられた点であり、被写体の両眼視差量に合わせて、これらのパラメータを制御している点である。 The third embodiment of the stereoscopic CG image generating apparatus differs, in place of the clipping value determining section 22, a point of focus parameter determining section 23 and the fog effect parameter determining section 24 is provided, both eyes of the subject in accordance with the parallax amount, a point that is controlling these parameters. このピントパラメータ決定部23および霧効果パラメータ決定部24が特定画像処理部を構成している。 The focus parameter determining section 23 and the fog effect parameter determining section 24 constitutes a specific image processing section.
【0055】 [0055]
以上のように構成された本実施の形態の立体CG画像生成装置について、以下その動作を説明する。 Configuration stereoscopic CG image generating apparatus of the present embodiment as described above, the operation thereof will be described below.
【0056】 [0056]
まず、上述の第3の実施の形態と同様にして、カメラパラメータ決定部6は、投影変換部1、2でのカメラパラメータ(Wc、dx、f)を決定する。 First, as in the third embodiment described above, the camera parameter determination unit 6 determines the camera parameters at the projection transformation sections 1,2 (Wc, dx, f). まず、CG制作者は、レンダリング部3、4に接続された立体画像表示装置を見て出力画像を確認しながら、好みに合わせて被写体と仮想カメラをワールド座標系の適当な位置に配置し、その方向を決定する。 First, CG creation person, while viewing the output image views the stereoscopic image display device connected to the rendering sections 3 and 4, to taste Place object and the virtual camera to a suitable position in the world coordinate system, to determine its direction. その後、投影変換部1、2は3次元構造情報を2次元画面に投影した画像を出力し、レンダリング部3、4にてCG画像を生成する。 Then, projection transformation sections 1 and 2 outputs an image obtained by projecting a three-dimensional structural information in a two-dimensional screen, generates a CG image by rendering sections 3 and 4.
【0057】 [0057]
次にレンダリング部3、4の出力と3次元構造情報から、視差地図計算部20は投影変換された画像上の各点での視差地図を計算する。 Then the output and the three-dimensional structural information of the rendering sections 3 and 4, the parallax map calculation unit 20 calculates a parallax map at each point on the projection transformation image. この視差地図を基に、融合領域判断部B21'は、画面中で立体CG画像観察者の両眼融合範囲に入る領域の有効画素数を計算し、視差地図計算部20、融合領域判断部B21'は、カメラパラメータWc、f、dxを順次変化させて有効画素数を計算する。 Based on this parallax map, the fusion region determination unit B21 'is the number of effective pixels of the area to be binocular fusing range of a stereoscopic CG image viewer in the screen is calculated, and the disparity map calculation unit 20, fused area determination unit B21 'the camera parameters Wc, f, computes the number of effective pixels of sequentially changing dx.
【0058】 [0058]
次に、カメラパラメータ決定部6は、これまで計算されたパラメータWc 、f、dx の全ての組合せに対する有効画素数のうち、これの最大値に対応するパラメータWc、f、dxを算出する。 Next, the camera parameter determining section 6 has hitherto calculated parameters Wc, f, of the number of effective pixels with respect to all combinations of dx, calculates parameters Wc, f, dx corresponding to the maximum value of this. そして、算出されたWc、f、dxを投影変換部1、2に出力する。 The outputs calculated Wc, f, and dx the projection transformation sections 1 and 2. 投影変換部1、2及びレンダリング部3、4はこれらのパラメータを用いて最終的な立体CG画像を算出する。 Projection transformation sections 1 and 2 and the rendering sections 3 and 4 to calculate a final stereoscopic CG image using these parameters. このカメラパラメータは一度決定したら固定であるとする。 The camera parameter is assumed to be fixed Once you have decided once.
【0059】 [0059]
ここで、レンダリング部3、4は、最終的なCG画像を生成する際に、カメラのピントをぼかした様な処理や、遠い被写体は霧のかかった状態を表現することにより遠近感を表現する場合がある。 Here, the rendering sections 3 and 4, when generating the final CG image, a camera processing and like blurred focus of distant objects will represent the perspective by expressing a state of foggy If there is a. これらの、ピントをぼかせる処理や霧の効果の度合を、前述の視差地図と観察者の両眼融合範囲によりピントパラメータ決定部23、霧効果パラメータ決定部24が決定する。 These, the degree of effect of Bokaseru process or fog the focus, focus parameter determining section 23, the fog effect parameter determining section 24 determines the binocular fusional range of the viewer with the aforementioned disparity map.
【0060】 [0060]
例えば、ピントパラメータ決定部23は、ワールド座標系において、融合領域判断部B21'により観察者が両眼融合できない領域を計算する。 For example, the focus parameter determining section 23, in the world coordinate system, it calculates a region where the viewer can not binocular fusion Fusion region determination unit B21 '. 計算は、(数1)、(数2)、もしくはこれらのうちいずれかを満たさない3次元座標を計算することになる。 Calculations will be calculated (number 1), (Formula 2), or three-dimensional coordinates that do not satisfy any of these. これらの領域に属する物体についてレンダリングをレンダリング部3、4で行なう際は、ピントパラメータ決定部23が、出力画像がピントぼけ状態のような、不明瞭な画面になるような効果を出すようなピントパラメータを出力する。 When performing rendering for objects belonging to these areas in the rendering sections 3 and 4, focus parameter determining section 23, focus such, that raise an effect such that obscuring screen as output image defocus state and it outputs a parameter. もちろん、観察者が両眼融合できる限界領域に近い領域から、この効果を徐々に強くかけていくと、更に自然にピントぼけの画像を得ることが出来る。 Of course, the viewer is from the area close to the limit region can binocular fusion and gradually over strong this effect can be further obtain an image of the natural defocus.
【0061】 [0061]
ピントぼけの処理については、従来のCG画像技術、例えば光線追跡により、カメラのピントぼけ状態をシミュレートしてもよいし、生成されたCG画像に空間的なフイルタリング操作(低域通過フィルタ等)を行なうという手法もある。 The processing of defocus is conventional CG image techniques such as ray tracing, to the defocus state of the camera may simulate the spatial filtering operation on the generated CG image (low-pass filter or the like ) there is also a method of performing. また、ピントぼけの量に応じて物体の位置を微妙に変化させて、同じ物体を何度も同じ画像メモリに描き、エッジの部分などにボケを生じさせる方法もある。 Further, there is subtly changing the position of the object depending on the amount of defocus, the same object drawn multiple times on the same image memory, a method of producing the blur like the portion of the edge. この物体の位置を変化させるのを、カメラのピントが合う焦点面からの距離に比例させればピントボケ効果が得られる(本実施の形態では、観察者の両眼融合限界からの距離に比例させればよい)。 Changing of the position of the object, if proportional to the distance from the focal plane of focus of the camera is aligned out-of-focus effect can be obtained (in the present embodiment, in proportion to the distance from the binocular fusion limit of the viewer it Re). このようにすることにより、観察者が両眼融合できない物体については、ピントぼけの効果を付することにより両眼融合ができない状態での違和感を低減することが出来る。 By doing so, for the object to the observer can not binocular fusion, can be reduced discomfort in a state where it can not binocular fusion by subjecting the effect of defocus.
【0062】 [0062]
また、霧効果パラメータ決定部24は、前述と同様にして、ワールド座標系において融合領域判断部B21'により観察者が両眼融合できない領域(特に、遠点条件(数2)が成立しない領域)を計算する。 Also, fog effect parameter determining section 24, in the same manner as described above, a region where the viewer can not binocular fusion Fusion region determination unit B21 'in the world coordinate system (in particular, far point condition (region number 2) is not satisfied) to calculate. この領域での物体のレンダリング処理において、霧効果パラメータ決定部24は、大気中に霧がかかったような効果をレンダリング部3、4で与えるように霧効果パラメータを制御する。 In rendering processing of an object in this area, fog effect parameter determining section 24 controls the fog effect parameter to provide the effects as foggy in the atmosphere in the rendering sections 3 and 4. もちろん、観察者が両眼融合できる限界領域に近い領域から、この霧を徐々に濃く付加するように設定すれば、更に自然に遠い領域が霧に隠れているような状況のCG画面を生成することが出来る。 Of course, the viewer from a region near the limit region can binocular fusion, is set to gradually thicken adding this fog, more natural distant region to generate a CG screen situations hidden in mist it can be. このように、遠い物体の両眼視差が大き過ぎて両眼融合不可能な場合に、霧の効果を付加することにより、両眼融合不可能なことによる観察者の違和感を低減することができる。 Thus, when distant objects binocular parallax is too large binocular fusion impossible, by adding the effect of the fog, it is possible to reduce the uncomfortable feeling of the viewer by the impossibility binocular fusion .
【0063】 [0063]
レンダリング処理での霧効果の生成方法については、例えば、距離が遠くなるにしたがって、減少する霧係数f(0.0〜1.0)を考える。 Method for generating fog effects in rendering process, for example, the distance in accordance becomes longer, consider decreasing fog factor f (0.0 to 1.0). fが1で霧なし、0で真っ白な画像になることを示す。 f is no fog at 1, indicating that become pure white image 0. この効果の度合はカメラからの距離をzとして【0064】 [0064] the distance from the degree of this effect is the camera as z
【数5】 [Number 5]
【0065】 [0065]
【数6】 [6]
【0066】 [0066]
などで定義できる。 It can be defined, and the like. ここで、far,nearは生成されるCG画像の、カメラからの最も遠い,または近い距離、densityは霧の濃度である。 Here, _far, near the of the CG image generated farthest or close distance from the camera, density is the concentration of the fog. また、レンダリングされる色は、 In addition, the color rendering,
【0067】 [0067]
【数7】 [Equation 7]
【0068】 [0068]
で計算される。 In is calculated. ここでC0はレンダリングされた物体の色、Cf は霧の色である。 Wherein C0 is rendered object color, Cf is the color of the fog. 霧効果パラメータ決定部24は、観察者の両眼融合範囲内ではf=1、両眼融合限界に近い領域から両眼融合範囲外の領域になるに従ってf=0までなめらかに変化させる。 Fog effect parameter determining section 24, within the binocular fusing range of a viewer f = 1, to f = 0 changing smoothly with increasing from the area near the binocular fusional limit the binocular fusional range of areas. これにより、レンダリング部3、4は両眼融合範囲外で遠い被写体を霧がかかった様な画像とし、両眼融合範囲から外れたことによる違和感を低減する。 Accordingly, the rendering sections 3 and 4 distant object in binocular fusional range and fog took such images, to reduce the discomfort caused by the off-binocular fusing range.
【0069】 [0069]
以上の様に、本実施の形態によれば、両眼融合ができない様な両眼視差の物体が表示されても、遠い物体は霧の効果、近い物体および遠い物体ではピントボケの効果を付加することにより、この悪影響を低減し、更に見やすい立体CG画像を生成することができる。 As described above, according to this embodiment, be displayed object binocular parallax, such as can not binocular fusion, distant objects fog effect, at near objects and far objects to add the effects of out-of-focus it allows to reduce this adverse effect, it is possible to generate a more easy-to-view stereoscopic CG image.
【0070】 [0070]
図13は、本発明の第5の実施の形態における立体TV装置の構成図を示すものである。 Figure 13 shows a configuration diagram of a stereoscopic TV apparatus according to the fifth embodiment of the present invention. 図13において、1、2は投影変換部、3、4はレンダリング部、6はカメラパラメータ決定部、12は操作部、11は融合範囲確認部、5は距離情報抽出部、127はCG画像発生部であり、以上は本発明の第1の実施の形態と同じものである。 13, 1 and 2 are projection transformation sections, 3 and 4 are rendering unit, the camera parameter determining section 6, 12 operation unit, 11 fusing range checking unit, 5 the distance information extraction section, 127 CG image generated a part, or is the same as the first embodiment of the present invention. 第1の実施の形態と異なるのは、以下の構成であり、128はウインドウ情報管理部、129はウインドウ情報管理制御部、130はマウス状態検出部、131は表示画面大きさ・ドット数検出部、132はウインドウサイズ検出部、133はウインドウ生成・消滅検出部、134はウインドウ表示位置検出部、135はウインドウフォーカス変化検出部、136は映像信号変換部、137は立体ディスプレイ部、138はマウス、139は液晶シャッタ付き眼鏡、140は視距離測定手段である。 It differs from the first embodiment, a following structure, 128 a window information management section, 129 window information management control unit, 130 mouse state detecting unit, 131 display screen size dot number detecting unit , 132 window size detection section, 133 window generation and disappearance detecting unit, 134 is a window display position detection unit, 135 a window focus change detection unit, 136 video signal converting unit, 137 is the three-dimensional display unit, 138 mouse, 139 is a liquid crystal shutter glasses, 140 viewing distance measuring means.
【0071】 [0071]
以上のように構成された本実施の形態の立体TV装置について,以下その動作を説明する。 Configuration stereoscopic TV apparatus according to the present embodiment as described above, the operation thereof will be described below.
【0072】 [0072]
本実施の形態では、複数の立体画像を最近主流のコンピュータ画面でのウインドウ環境に複数種類の立体画像を大きさの異なる複数のウインドウに表示するものである。 In the present embodiment, it is for displaying a plurality of stereoscopic images recent mainstream of a plurality of types of three-dimensional images of different sizes plurality of windows in the window environment on a computer screen. これに対し、本発明の第1〜4の実施の形態では、画像を表示する大きさは表示装置固有の大きさであった。 In contrast, in the first to fourth embodiment of the present invention, the size for displaying an image is a display device-specific size.
【0073】 [0073]
図13の立体ディスプレイ部137に示されるように、同一画面上にA、B、Cのウインドウが存在し、それぞれ異なった立体画像を表示しているものとする。 As shown in the three-dimensional display unit 137 of FIG. 13, the same screen A, B, and C of the window present on, it is assumed that the display different stereoscopic images, respectively.
ここで立体画像の表示方法は、既存の立体表示技術を使用することが出来る。 Wherein the display method of the stereoscopic image can be using existing stereoscopic display technology. 本実施の形態では映像信号変換部136により映像信号化された立体画像が立体ディスプレイ部137に入力され、観察者は液晶シャッタ付き眼鏡を通して立体画像を観察する、いわゆる時分割方式の立体画像表示を用いている。 In this embodiment the stereoscopic images video signal by the video signal conversion unit 136 is input to the stereoscopic display unit 137, the observer observes the stereoscopic image through the liquid crystal shutter glasses, the stereoscopic image display of a so-called time division system It is used. これは、映像信号変換部により入力されるR、L映像信号はR、L、R、L. This, R input by the video signal converting unit, L video signals R, L, R, L. . . というように時間的に交互に切替えられ、これが立体ディスプレイ部137に表示され、Rの画像が表示されている時には液晶シャッタ付き眼鏡139の右目が光を透過、左目が遮断状態になり、Lの画像が表示されている時にはその逆になる。 Temporally switched alternately and so, this is displayed on the stereoscopic display unit 137, the right eye transmits light of a liquid crystal shutter glasses 139 when the image of R is displayed, the left eye becomes a cutoff state, the L It will reverse when the image is displayed. これにより、観察者の右目、左目独立にR、L画像をそれぞれ表示することが出来る。 Thus, the observer's right eye, the left eye independently R, L image can be displayed, respectively. また、この例以外に、いかなる既存の立体画像表示手法(例えば、偏光式、レンチキュラレンズ式等)を用いてもよい。 In addition to this example, any existing stereoscopic image display method (e.g., polarizable, a lenticular lens type or the like) may be used. 通常、観察者は好みに応じてマウス138を使用して、ウインドウA、B、Cの大きさを変更することが出来る。 Usually, the viewer can use the mouse 138 according to preference, the window A, B, it is possible to change the size of the C. これに対応して立体画像の大きさも変化する場合、観察者の両眼融合範囲が変化するため、全てのウインドウサイズを常に監視し、これにあわせて常にカメラパラメータを決定する必要がある。 May also change the size of the three-dimensional image in response to this, since the binocular fusional range of the viewer changes, constantly monitors all window size, it is necessary to determine at all times the camera parameters accordingly. 即ち、観察者のマウス操作によるウインドウに関する情報をウインドウ情報管理制御部129が検出し、これを融合範囲確認部11に現在表示されているウインドウ全てについてスクリーンサイズとして出力する。 That is, the information about the window by an observer of the mouse operation is detected by the window information management control unit 129, all windows currently being displayed it to the fusion range confirmation unit 11 outputs a screen size. この動作は、ウインドウ生成・消滅検出部133により現在表示されているウインドウを管理し、その個々のウインドウサイズをウインドウ表示位置検出部134、ウインドウサイズ検出部132、表示画面大きさ・ドット数検出部131により決定する。 This operation manages windows currently being displayed by the window generation and extinction detecting unit 133, the individual window size window display position detection unit 134, the window size detection section 132, display screen size dot number detecting unit determined by 131. これは、表示画面の大きさ(何インチか)と、これの縦横のドット数(もしくは同期周波数検出により換算できる)と、各ウインドウのサイズ(ドット数)から、実際に表示されているウインドウの大きさ(インチ、センチメートルなど)を計算しこれを融合範囲確認部11に出力することにより得られる。 This is the size of the display screen (something inches), the number of dots which aspect and (or can be converted by the synchronization frequency detection), the size (number of dots) of each window, the window is actually displayed size (inches, centimeters, etc.) can be obtained by calculate the outputs this to fusing range confirmation unit 11.
【0074】 [0074]
後の処理は、本発明の第1の実施の形態と同じである。 Subsequent processing is the same as in the first embodiment of the present invention. 即ち、3次元構造情報から得られる距離情報を距離情報抽出部5により検出し、これと視距離測定手段140により検出される観察者とディスプレイ表面までの距離dsを用いて(数1、数2)によりカメラパラメータを計算し、これを投影変換部1、2に出力し、レンダリング部3、4により右目、左目用のR、L画像が計算される。 That is, the distance information obtained from the three-dimensional structure information detected by the distance information extraction section 5, using the distance ds to the viewer and the display surface to be detected by this the viewing distance measuring means 140 (the number 1, number 2 ) camera parameters calculated by and outputted to the projection transformation sections 1 and 2, the right eye, R for the left eye, the L image is computed by the rendering sections 3 and 4. ただし、ウインドウ情報管理部128により検出されている、立体表示されているウインドウすべてについて、この処理を行ない、全てのウインドウについて、独立にこの処理は行なわれる。 However, has been detected by the window information management section 128, for all windows that are displayed stereoscopically, performs this processing for all the windows, the process is carried out independently.
【0075】 [0075]
以上のようにすることにより、複数の立体画像を表示するようなウインドウ環境をもつ表示システムにおいても、個々のウインドウサイズをウインドウ情報管理部128により監視することにより、全てのウインドウに表示された立体画像を全て観察者の融合範囲内に収めるようにカメラパラメータ制御による視差の制御により、見やすく自然な画像に制御することができる。 By the way, in the display system having a window environment that displays a plurality of stereoscopic images, by monitoring the individual window size by the window information management section 128, displayed in all the windows stereoscopic Under the control of the parallax by the camera parameter control to fit the image within the fusing range of all observers, it is possible to control the legible natural image.
【0076】 [0076]
また、本発明の第5の実施の形態において、観察者のマウス操作により指定されたウインドウのみ、前述のカメラパラメータ変更をウインドウフォーカス変化検出部135の出力を用いて行ない、観察者が注目しているウインドウに表示された立体画像のみ、両眼融合範囲内に収められた画像を表示し本発明の動作の効率化を測ることもできる。 Further, in the fifth embodiment of the present invention, only the window specified by the mouse operation of the viewer, carried out using the output of window focus change detection unit 135 the camera parameter changes described above, the viewer attention only the three-dimensional image displayed on the window are, it is also possible to measure the efficiency of the operation of the display by the present invention an image contained within the binocular fusing range.
【0077】 [0077]
また、本発明の第1〜4の実施の形態において、観察者と表示面までの視距離を第5の実施の形態で示した視距離測定手段140で測定して用いてもよい。 Further, in the fourth embodiment of the present invention may be used viewing distance to the viewer and the display surface was measured in the fifth viewing range measuring means 140 shown in the embodiment of.
【0078】 [0078]
以上種々述べたように、本発明によれば、カメラと被写体の距離情報と、生成された立体CG画像の表示装置における視差の大きさを表示装置の大きさと観察距離から、適切なカメラパラメータ(焦点距離または画角、カメラ間隔、輻輳点)を決定し、見やすい立体CG画像を自動的に得ることができる。 As described variously above, according to the present invention, the distance information of the camera and the subject, the size and the viewing distance of the display device the size of the disparity in the display device of the generated three-dimensional CG image, appropriate camera parameters ( focal length or angle of view, the camera interval to determine a convergence point), can be obtained automatically legible stereoscopic CG image.
【0079】 [0079]
なお、本発明の第1〜5の実施の形態において、2眼立体画像を用いて説明したが、これに限らず、多眼立体画像においても、観察者の左右眼に入力される画像の組全てについて、同じ手法でカメラパラメータ決定を行なえば、多眼立体CG画像生成も容易に行なうことが出来る。 Note that in the fifth embodiment of the present invention has been described with reference to binocular stereoscopic image is not limited to this, even in the multi-eye stereoscopic images, the image input to the left and right eyes of the observer set for all, by performing the camera parameter determined in the same manner, a multi-eye stereoscopic CG image generating also easily performed, it is possible.
【0080】 [0080]
また、本発明の第1〜5の実施の形態において、生成される画面全体について観察者の両眼融合範囲内に立体CG画像が収まるようにカメラパラメータを決定したが、観察者が画面中特定の被写体のみを注視せざるを得ないようなシーンの場合等においては、それ以外の被写体の部分については両眼融合出来ないような設定にすることも考えられる。 Further, in the fifth embodiment of the present invention, although the three-dimensional CG images in binocular fusional range of the viewer for the entire screen generated to determine the camera parameters to fit the viewer identify the screen in the case like the only scenes that compelled to watch the object, it is conceivable to set which can not be fused both eyes for the portion of the other object. この様な場合、CG制作者が出力画面の内、観察者の両眼融合範囲内になくてもよい領域を予め設定し、この領域でのデータはカメラパラメータ決定に用いない様にすることも容易に可能である。 In such a case, among CG creator of an output screen, set a good region without in binocular fusional range of the viewer in advance, also data in this area is so as not using the camera parameter determination it is easily possible.
【0081】 [0081]
また、本発明の第1〜5の実施の形態において、左右眼用の立体画像をCGにより得たが、これを立体カメラに置き換えて自然画撮像の場合に適用してもよい。 Further, in the fifth embodiment of the present invention, a stereoscopic image for the right and left eyes obtained by CG, it may be applied in the case of a natural image captured by replacing it in three-dimensional camera. この場合は、CG処理の式(数1、2)で扱った、複数のカメラの焦点距離f、カメラ間隔Wc、カメラと輻輳点までの距離dx(個々のカメラの光軸の交わる点と複数のカメラの中心点の距離)を実際のカメラにおけるパラメータに直接用いればよい。 In this case, handled by the formula CG processing (number 1), the focal length f of the plurality of cameras, camera interval Wc, the camera and the intersection point of the distance dx (the optical axis of each camera to the convergence point more distance) of the camera center point of may be used parameter directly in the actual camera. ただし、(数1、数2)における変数Mはスクリーンサイズではなく、カメラの撮像素子の受光面の大きさと実際に立体画像が表示されるスクリーンの大きさの比になる。 However, the variable M is not a screen size, the size ratio of the screen actually three-dimensional image and the size of the light receiving surface of the imaging element of the camera is displayed in (Equation 1, Equation 2).
【0082】 [0082]
また、上記第4の実施の形態では、ピントパラメータ決定部23及び霧効果パラメータ決定部24の両方を設けた構成としたが、これに代えて、そのどちらか一方のみを備えた構成であってもよい。 In the fourth embodiment, a configuration in which a both focus parameter determining section 23 and the fog effect parameter determining section 24, instead of this, a configuration in which either one of these it may be.
【0083】 [0083]
また、上記の第1〜5の実施の形態では、いずれも生成される画面全体について観察者の両眼融合範囲内に立体CG画像が収まるようにカメラパラメータを決定したが、これに限らず、CG制作者が出力画面の内、観察者の両眼融合範囲内になくてもよい領域を予め設定し、この領域でのデータはカメラパラメータ決定に用いない様にすることも容易に可能である。 Further, in the first to fifth embodiments described above, both have been determined camera parameters to fit the stereoscopic CG image in the binocular fusional range of the viewer for the entire screen generated, not limited thereto, among CG creators of the output screen, is also preset good area be within a binocular fusional range of the viewer, the data in this area it is easily possible to so as not using the camera parameter determination .
【0084】 [0084]
また、上記の第1〜5の実施の形態では、いずれも距離情報抽出部、融合範囲確認部等の各処理部を専用のハードウェアにより構成したが、これに代えて、同様の機能をコンピュータを用いてソフトウェア的に実現してもよい。 Further, in the first to fifth embodiments described above, both the distance information extraction section, although each processing unit such as a fusing range checking unit constituted by dedicated hardware, instead of this, the computer the same function it may be implemented in software using a.
【0085】 [0085]
【発明の効果】 【Effect of the invention】
以上述べたところから明らかなように本発明は、観察者にとって自然で見やすい立体画像を生成できるという長所を有する。 The present invention, as is apparent from the mentioned above, has the advantage of being able to generate an easy-to-view stereoscopic image natural to the observer.
【図面の簡単な説明】 BRIEF DESCRIPTION OF THE DRAWINGS
【図1】本発明における第1の実施の形態の立体CG画像生成装置の構成図である。 1 is a configuration diagram of a stereoscopic CG image generating apparatus of the first embodiment of the present invention.
【図2】本発明におけるCG空間(ワールド座標系)での物体とカメラ位置の関係を示す図である。 It is a diagram showing the relationship between the object and the camera position in CG space (world coordinate system) in the present invention; FIG.
【図3】本発明における観察者空間(立体画像表示装置を観察する空間の定義)を説明する図である。 3 is a diagram for explaining the observer space (defined space for observing the stereoscopic image display apparatus) in the present invention.
【図4】本発明における立体画像平行撮像方法の説明図である。 It is an explanatory diagram of a stereoscopic image parallel imaging method in the present invention; FIG.
【図5】同図(a)は、上記第1の実施の形態における操作部の表示部での表示例を説明する図、同図(b)は、その操作部の操作パネルを示す図である。 [5] FIG. (A) is a diagram for explaining a display example of the display unit of the operation unit in the first embodiment, FIG. (B) is a view showing an operation panel of the operation unit is there.
【図6】本発明における第2の実施の形態の立体CG画像生成装置の構成図である。 6 is a configuration diagram of a stereoscopic CG image generating apparatus of the second embodiment of the present invention.
【図7】本発明における第3の実施の形態の立体CG画像生成装置の構成図である。 7 is a configuration diagram of a stereoscopic CG image generating apparatus of the third embodiment of the present invention.
【図8】同図(a)は、上記第3の実施の形態におけるNearクリッピング、Far クリッピング(左右カメラ独立)の概念を説明する図、同図(b)は、Nearクリッピング、Farクリッピング(左右カメラ共通)の概念を説明する図である。 [8] FIG. (A) is the Near clipping in the third embodiment, diagram explaining the concept of Far clipping (left and right cameras independently), FIG. (B) is a Near clipping, Far clipping (right and left is a diagram illustrating the concept of a camera common).
【図9】本発明における第4の実施の形態の立体CG画像生成装置の構成図である。 9 is a configuration diagram of a stereoscopic CG image generating apparatus of the fourth embodiment of the present invention.
【図10】従来の立体CG画像生成装置の構成図である。 10 is a configuration diagram of a conventional stereoscopic CG image generating apparatus.
【図11】同図(a)は、3次元構造情報を説明するための形状モデル例を示す図、同図(b)は、その形状モデルのデータ構造を示す図である。 [11] FIG. (A) is a diagram showing a shape model example for explaining the three-dimensional structure information, FIG. (B) is a diagram showing the data structure of the geometric model.
【図12】同図(a)は、ワールド座標系と投影変換を説明する図、同図(b)は、カメラパラメータを説明する図である。 [12] FIG. (A) is a diagram for explaining a perspective projection transformation and the world coordinate system, and FIG. (B) is a diagram for explaining camera parameters.
【図13】本発明における第5の実施の形態の立体CG画像生成装置の構成図である。 13 is a configuration diagram of a stereoscopic CG image generating apparatus of the fifth embodiment of the present invention.
【符号の説明】 DESCRIPTION OF SYMBOLS
1 投影変換部(右目用) 1 projection transformation section (right eye)
2 投影変換部(左目用) 2 projection conversion unit (for the left eye)
3 レンダリング部(右目用) 3 rendering unit (for the right eye)
4 レンダリング部(左目用) 4 rendering unit (for the left eye)
5 距離情報抽出部6 カメラパラメータ決定部11 融合範囲確認部12 操作部13 ポインタ20 視差地図計算部21 融合領域判断部A 5 the distance information extraction section 6 camera parameter determination unit 11 fusing range confirmation unit 12 operation unit 13 the pointer 20 parallax map calculation section 21 fusion area determining portion A
21' 融合領域判断部B 21 'fused area determining section B
22 クリッピング値決定部23 ピントパラメータ決定部24 霧効果パラメータ決定部127 CG画像発生部128 ウインドウ情報管理部129 ウインドウ情報管理制御部130 マウス状態検出部131 検出部132 ウインドウサイズ検出部133 ウインドウ生成・消滅検出部134 ウインドウ表示位置検出部135 ウインドウフォーカス変化検出部136 映像信号変換部137 立体ディスプレイ部138 マウス139 液晶シャッタ付き眼鏡140 視距離測定手段 22 the clipping value determining section 23 focus parameter determining section 24 fog effect parameter determining section 127 CG image generating unit 128 a window information management section 129 window information management control unit 130 mouse state detection unit 131 detecting unit 132 window size detecting unit 133 window generation and extinction detector 134 window display position detection unit 135 window focus change detection unit 136 the video signal converting unit 137 the three-dimensional display unit 138 mouse 139 liquid crystal shutter glasses 140 viewing distance measuring means

Claims (14)

  1. 物体の3次元形状を記述する3次元構造情報から、複数のカメラから見た時の複数の2次元投影画像を生成する投影変換部と、前記物体とカメラとの距離を生成する距離情報抽出部と、予め入力された、少なくとも前記物体の立体画像を表示するための立体画像表示装置のスクリーンサイズ及びそのスクリーンと観察者との視距離に基づいて、前記観察者の両眼融合範囲を算出する融合範囲算出手段と、その両眼融合範囲と前記距離情報抽出部の出力に基づいて、前記観察者の両眼融合範囲内に前記物体の全部が収まるようカメラパラメータの組み合わせ条件を計算するカメラパラメータ計算手段と、そのカメラパラメータ計算手段の出力から前記カメラパラメータの条件を満たす範囲内でカメラパラメータを決定するためのカメラパラメ From the three-dimensional structural information describing a three-dimensional shape of an object, and a projection transformation section for generating a plurality of two-dimensional projection images as viewed from a plurality of cameras, the distance information extraction section for generating a distance between the object and the camera If, previously entered, based on the screen size and viewing distance between the viewer that screen of at least the object three-dimensional image display apparatus for displaying a stereoscopic image, calculates a binocular fusion range of the viewer a fusing range calculation means, a camera based on the output of its binocular fusing range the distance information extraction section, calculates the combination condition of the camera parameters such as total falls of the object within the binocular fusional range of said viewer and parameter calculating means, the camera parameters for determining the camera parameters in a range satisfying the camera parameters from an output of the camera parameter calculating means タ決定部とを備え、前記投影変換部は、その決定されたカメラパラメータを利用して、前記複数の2次元投影画像を生成することを特徴とする立体CG画像生成装置。 And a data decision section, the projection transformation sections, using the camera parameters that determine the plurality of stereoscopic CG image generating apparatus and generating a two-dimensional projection images.
  2. 距離情報抽出部は、前記3次元構造情報から、前記カメラと前記物体との最も遠い距離または最も近い距離を抽出することを特徴とする請求項1記載の立体CG画像生成装置。 The distance information extraction section, the three-dimensional structure information, the camera and stereoscopic CG image generating apparatus according to claim 1, wherein the extracting the greatest distance or the closest distance to the object.
  3. カメラと物体との前記最も遠い距離または最も近い距離は、手動で設定できることを特徴とする請求項2記載の立体CG画像生成装置。 The farthest distance or the closest distance between the camera and the object, the stereoscopic CG image generating apparatus according to claim 2, wherein the settable manually.
  4. 記距離情報抽出部は、 CG画面中の領域内での3次元構造情報から、前記カメラと前記物体との最も遠い距離または最も近い距離を抽出することを特徴とする請求項2記載の立体CG画像生成装置。 Before Symbol distance information extraction unit, from the three-dimensional structural information in the region in the CG screen, stereo according to claim 2, wherein the extracting the greatest distance or the closest distance between the camera and the object CG image generating apparatus.
  5. 物体の3次元形状を記述する3次元構造情報から、複数のカメラから見た時の複数の2次元投影画像を生成する投影変換部と、その投影変換部の出力からCG画像を生成するレンダリング部と、前記投影変換部又は前記レンダリング部の出力、及び前記3次元構造情報から出力画像の距離画像を生成する視差地図計算部と、予め入力された、少なくとも前記物体の立体画像を表示するための立体画像表示装置のスクリーンサイズ及びそのスクリーンと観察者との視距離に基づいて、前記観察者の両眼融合範囲を算出する融合範囲算出手段と、その両眼融合範囲と前記視差地図計算部の出力に基づいて、前記観察者の両眼融合範囲内にある立体画像中の画素数を計算する画素数計算手段と、その画素数計算手段の出力を用いて、出力画像のうち From the three-dimensional structural information describing a three-dimensional shape of an object, the rendering unit for generating a projection transformation section for generating a plurality of two-dimensional projection images as viewed from a plurality of cameras, a CG image from the output of the projection transformation sections When the output of the projection transformation section or the rendering unit, and a disparity map calculation section for generating a distance image of an output image from the 3-dimensional structure information, previously entered, for displaying a stereoscopic image of at least said object based on the visual distance between the screen size and screen and the observer of the stereoscopic image display device, and a fusion range calculation means for calculating a binocular fusional range of said viewer, and its binocular fusional range of said parallax map calculation section based on the output, the pixel number calculating means for calculating the number of pixels in the stereoscopic images in the binocular fusional range of said viewer, using the output of the pixel number calculating means, of the output image 記観察者の両眼融合可能な範囲の面積が所定値より広くなるようなカメラパラメータを決定するカメラパラメータ決定部とを備え、前記投影変換部は、前記決定されたカメラパラメータを利用して、前記複数の2次元投影画像を生成することを特徴とする立体CG画像生成装置。 With the area of ​​the binocular fusion range of the serial observer and camera parameter determining section for determining camera parameters, such as wider than the predetermined value, the projective transformation unit uses the camera parameter the determined, stereoscopic CG image generating apparatus and generating a plurality of two-dimensional projection images.
  6. 記画素数計算手段は、 CG画面中の視差情報と、前記立体画像表示装置のスクリーンサイズ及びそのスクリーンと前記観察者との視距離に基づいて、前記観察者の両眼融合範囲内にあるCG画像中の画素数を計算することを特徴とする請求項5記載の立体CG画像生成装置。 Before Symbol pixel number calculation means, based on the disparity information in the CG screen, the viewing distance and screen size and screen and the observer of the stereoscopic image display apparatus is in the binocular fusional range of said viewer stereoscopic CG image generating apparatus according to claim 5, wherein calculating the number of pixels in the CG image.
  7. 画素数計算手段は、前記観察者が両眼融合できる被写体の領域を検出するものであって、更に、前記画素数計算手段により検出された両眼融合できる領域外の画像部分について特定の画像処理を行う特定画像処理部を備えたことを特徴とする請求項6記載の立体CG画像生成装置。 Pixel number calculating means, be those the observer to detect a region of a subject can binocular fusion, further, a specific image processing on the image portion of the extracellular region capable binocular fusion detected by the pixel number calculating means stereoscopic CG image generating apparatus according to claim 6, comprising the specific image processing unit that performs.
  8. 特定画像処理部は、前記両眼融合できる領域外の部分のCG画像を生成しないようにクリッピング面の位置を設定するクリッピング値決定部を有することを特徴とする請求項7記載の立体CG画像生成装置。 Specific image processing unit, the stereoscopic CG image generating according to claim 7, characterized in that it comprises a clipping value determining section which sets the position of the clipping plane so as not to generate a CG image of binocular fusion can region outside portion apparatus.
  9. 特定画像処理部は、前記観察者の両眼融合できる限界近辺から両眼融合できない範囲に渡って、その範囲に該当する被写体画像のコントラストまたは被写体の透明度を徐々に変化させるレンダリング部を有することを特徴とする請求項7記載の立体CG画像生成装置。 Specific image processing section, over a range that can not binocular fusion from near the limit that can be binocular fusion of the observer, that has a rendering unit to gradually change the transparency of the contrast or the object of the object image corresponding to the range stereoscopic CG image generating apparatus according to claim 7, wherein.
  10. 特定画像処理部は、前記観察者の両眼融合できる限界を越えるに従って霧の効果が強くなるように霧効果の度合を制御する霧効果パラメータ決定部を有することを特徴とする請求項7記載の立体CG画像生成装置。 Specific image processing unit according to claim 7, characterized in that it has a fog effect parameter determining section for controlling the degree of fog effect as fog effect becomes stronger according beyond the limit that can be binocular fusion of the observer stereoscopic CG image generating apparatus.
  11. 特定画像処理部は、前記観察者の両眼融合できる限界を越えるに従ってカメラのピンボケ状態が強くなるようにピントボケの効果の度合を制御するピントパラメータ決定部を有することを特徴とする請求項7記載の立体CG画像生成装置。 Specific image processing unit according to claim 7, characterized in that it has a focus parameter determining section for out-of-focus state of the camera to control the degree of the effect of out-of-focus so strongly accordance beyond the limit that can be binocular fusion of the observer stereoscopic CG image generating apparatus.
  12. 1つまたは複数の立体CG画像をウインドウ環境にて一度に表示する場合において、物体の3次元形状を記述する3次元構造情報から、複数のカメラから見た時の複数の2次元投影モデルを生成する投影変換部と、前記物体とカメラとの距離を生成する距離情報抽出部と、立体画像を表示している全てのウインドウの大きさ、表示しているコンピュータ画面の映像の解像度、または同期周波数の情報を検出するウインドウ情報管理部と、そのウインドウ情報管理部の出力から最終的に生成される2次元投影モデルを表示する立体画像表示装置のウインドウサイズを計算し、これと前期距離情報抽出部の出力、観察者の視距離から、観察者の両眼融合範囲内に立体CG画像を収めるためのカメラパラメータをそれぞれのウインドウに対して計算 In case of displaying at one time at one or more stereocenters CG image windows environment, from the three-dimensional structural information describing a three-dimensional shape of an object, generating a plurality of two-dimensional projection model when viewed from a plurality of cameras a projection transformation section for, a distance information extraction section for generating a distance between the object and the camera, the size of all window displaying the stereoscopic image, resolution of the image on the computer screen that displays or synchronization frequency, and window information management section for detecting the information, calculates the window size of the stereoscopic image display apparatus for displaying a two-dimensional projection model finally generated from the output of the window information managing part, which the previous year distance information extraction section output, calculated from the observer's viewing distance, the camera parameters to accommodate the three-dimensional CG images in binocular fusional range of the viewer for each window る融合範囲確認部と、その融合範囲確認部の出力を用いて最終的にそれぞれのウインドウに対応する立体画像のカメラパラメータを決定するカメラパラメータ決定部とを備え、前記投影変換部は、その決定されたカメラパラメータを利用して、前記複数の2次元投影画像を生成することを特徴とする立体CG画像生成装置。 A fusing range checking unit that, and a camera parameter determining section for determining the camera parameters of the stereoscopic images corresponding to the final each window by using the output of the fusing range checking unit, the projection transformation sections, the decision has been using the camera parameters, the three-dimensional CG image generating apparatus and generating a plurality of two-dimensional projection images.
  13. カメラパラメータ決定部は、観察者が両眼視差を調整したいウインドウを指定した時のみ、そのウインドウに対応する立体画像のカメラパラメータのみを変更することを特徴とする請求項12記載の立体CG画像生成装置。 The camera parameter determination unit observer only when specifying the window to be adjusted binocular parallax, a stereoscopic CG image generation according to claim 12, wherein the changing only camera parameters of the stereoscopic image corresponding to the window apparatus.
  14. 物体の3次元形状を記述する3次元構造情報から、複数のカメラから見た時の複数の2次元投影画像を生成する投影変換部と、前記物体とカメラとの距離を生成する距離情報抽出部と、予め入力された、少なくとも前記物体の立体画像を表示するための立体画像表示装置のスクリーンサイズ及びそのスクリーンと観察者との視距離に基づいて、前記観察者の両眼融合範囲を算出する融合範囲算出手段と、その両眼融合範囲と前記距離情報抽出部の出力に基づいて、前記観察者の両眼融合範囲内に前記物体の全部が収まるようなカメラパラメータを決定するためのカメラパラメータ決定部とを備え、前記投影変換部は、その決定されたカメラパラメータを利用して、前記複数の2次元投影画像を生成することを特徴とする立体CG画像生成装置 From the three-dimensional structural information describing a three-dimensional shape of an object, and a projection transformation section for generating a plurality of two-dimensional projection images as viewed from a plurality of cameras, the distance information extraction section for generating a distance between the object and the camera If, previously entered, based on the screen size and viewing distance between the viewer that screen of at least the object three-dimensional image display apparatus for displaying a stereoscopic image, calculates a binocular fusion range of the viewer a fusing range calculating means, based on an output of said distance information extraction section and its binocular fusion range, camera parameters for determining the camera parameters such as total falls of the object within the binocular fusional range of said viewer and a determination portion, the projection transformation sections, using the camera parameters that determine the plurality of stereoscopic CG image generating apparatus and generating a two-dimensional projection image
JP720996A 1995-06-29 1996-01-19 Stereoscopic cg image generating device Expired - Lifetime JP3579162B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP16336195 1995-06-29
JP7-163361 1995-06-29
JP720996A JP3579162B2 (en) 1995-06-29 1996-01-19 Stereoscopic cg image generating device

Applications Claiming Priority (16)

Application Number Priority Date Filing Date Title
JP720996A JP3579162B2 (en) 1995-06-29 1996-01-19 Stereoscopic cg image generating device
US08/669,768 US6005607A (en) 1995-06-29 1996-06-27 Stereoscopic computer graphics image generating apparatus and stereoscopic TV apparatus
DE69619308T DE69619308T2 (en) 1995-06-29 1996-06-28 Apparatus for generating stereoscopic images and display them
DE69632755T DE69632755T2 (en) 1995-06-29 1996-06-28 Apparatus for producing computer-generated stereoscopic images
DE69631496A DE69631496D1 (en) 1995-06-29 1996-06-28 stereoscopic television
DE69631496T DE69631496T2 (en) 1995-06-29 1996-06-28 stereoscopic television
DE69619308A DE69619308D1 (en) 1995-06-29 1996-06-28 Apparatus for generating stereoscopic images and display them
EP96110505A EP0751689B1 (en) 1995-06-29 1996-06-28 Stereoscopic image generating apparatus and display therefor
EP03009048A EP1328129B1 (en) 1995-06-29 1996-06-28 Apparatus for generating computer generated stereoscopic images
DE69632755A DE69632755D1 (en) 1995-06-29 1996-06-28 Apparatus for producing computer-generated stereoscopic images
EP01118033A EP1168852B1 (en) 1995-06-29 1996-06-28 Stereoscopic TV apparatus
KR1019960025862A KR970004916A (en) 1995-06-29 1996-06-29 A stereoscopic CG image generating apparatus and stereoscopic television apparatus
US09/447,638 US6175379B1 (en) 1995-06-29 1999-11-23 Stereoscopic CG image generating apparatus and stereoscopic TV apparatus
US09/668,092 US6268880B1 (en) 1995-06-29 2000-09-22 Stereoscopic CG image generating apparatus and stereoscopic TV apparatus
US09/880,522 US6353457B2 (en) 1995-06-29 2001-06-13 Stereoscopic computer graphics image generating apparatus and stereoscopic TV apparatus
US09/880,287 US6417880B1 (en) 1995-06-29 2001-06-13 Stereoscopic CG image generating apparatus and stereoscopic TV apparatus

Publications (2)

Publication Number Publication Date
JPH0974573A JPH0974573A (en) 1997-03-18
JP3579162B2 true JP3579162B2 (en) 2004-10-20

Family

ID=26341475

Family Applications (1)

Application Number Title Priority Date Filing Date
JP720996A Expired - Lifetime JP3579162B2 (en) 1995-06-29 1996-01-19 Stereoscopic cg image generating device

Country Status (1)

Country Link
JP (1) JP3579162B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110056775A (en) * 2009-11-23 2011-05-31 삼성전자주식회사 Gui providing method related to 3d image, and display apparatus and 3d image providing system using the same
WO2014145558A1 (en) * 2013-03-15 2014-09-18 Rubicon Group Holding Limited Equidistant stereo lens shader
US9307224B2 (en) 2009-11-23 2016-04-05 Samsung Electronics Co., Ltd. GUI providing method, and display apparatus and 3D image providing system using the same

Families Citing this family (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7142281B2 (en) 2000-06-02 2006-11-28 Georae Ltd. Method and system for providing a three dimensional image
KR20020014456A (en) * 2000-08-18 2002-02-25 윤병이 A method and system of revision for 3-dimensional image
US7190825B2 (en) 2001-08-17 2007-03-13 Geo-Rae Co., Ltd. Portable communication device for stereoscopic image display and transmission
US8369607B2 (en) 2002-03-27 2013-02-05 Sanyo Electric Co., Ltd. Method and apparatus for processing three-dimensional images
JP2004040445A (en) 2002-07-03 2004-02-05 Sharp Corp Portable equipment having 3d display function and 3d transformation program
JP5036132B2 (en) * 2002-11-21 2012-09-26 ビジョン サード イメージング,インコーポレイテッド Critical alignment of parallax images for autostereoscopic display
US7636088B2 (en) 2003-04-17 2009-12-22 Sharp Kabushiki Kaisha 3-Dimensional image creation device, 3-dimensional image reproduction device, 3-dimensional image processing device, 3-dimensional image processing program, and recording medium containing the program
JP4490074B2 (en) 2003-04-17 2010-06-23 シャープ株式会社 Stereoscopic image processing apparatus, stereoscopic image display apparatus, stereoscopic image providing method, and stereoscopic image processing system
JP4125252B2 (en) 2004-03-02 2008-07-30 株式会社東芝 Image generation apparatus, image generation method, and image generation program
JP4489610B2 (en) * 2005-01-28 2010-06-23 株式会社 日立ディスプレイズ Stereoscopic display device and method
JP4578294B2 (en) * 2005-03-18 2010-11-10 トヨタ自動車株式会社 Stereoscopic image display device, stereoscopic image display method, and computer program
JP4634863B2 (en) * 2005-05-30 2011-02-23 日本放送協会 Stereoscopic image generation apparatus and stereoscopic image generation program
KR100932977B1 (en) 2005-07-05 2009-12-21 삼성모바일디스플레이주식회사 The stereoscopic image display device
KR100913173B1 (en) 2005-07-05 2009-08-19 삼성모바일디스플레이주식회사 3 dimension graphic processor and autostereoscopic display device using the same
US8279221B2 (en) 2005-08-05 2012-10-02 Samsung Display Co., Ltd. 3D graphics processor and autostereoscopic display device using the same
KR101276720B1 (en) * 2005-09-29 2013-06-19 삼성전자주식회사 Method for predicting disparity vector using camera parameter, apparatus for encoding and decoding muti-view image using method thereof, and a recording medium having a program to implement thereof
JP4931038B2 (en) * 2005-11-22 2012-05-16 シャープ株式会社 Stereoscopic image device, game device, stereoscopic image projection device, stereoscopic image data generation method, control program, and readable recording medium
KR100906784B1 (en) * 2007-11-15 2009-07-09 (주)레드로버 Plug-in module for stereographic imaging program and stereographic imaging method
JP5313713B2 (en) * 2009-02-03 2013-10-09 Necカシオモバイルコミュニケーションズ株式会社 Terminal device and program
JP4956574B2 (en) * 2009-03-24 2012-06-20 株式会社東芝 Stereoscopic image drawing apparatus and drawing method
JP2011035592A (en) * 2009-07-31 2011-02-17 Nintendo Co Ltd Display control program and information processing system
US20120127497A1 (en) * 2009-08-03 2012-05-24 Humaneyes Technologies Ltd. Method and system of displaying prints of reconstructed 3d images
JP2011064894A (en) 2009-09-16 2011-03-31 Fujifilm Corp Stereoscopic image display apparatus
JP5405264B2 (en) 2009-10-20 2014-02-05 任天堂株式会社 Display control program, library program, information processing system, and display control method
US20120242791A1 (en) * 2009-12-09 2012-09-27 Panasonic Corporation 3-d video processing device and 3-d video processing method
JPWO2011086636A1 (en) * 2010-01-13 2013-05-16 パナソニック株式会社 Stereo image pickup device, stereo image pickup method, stereo image display device, and program
JP5898842B2 (en) 2010-01-14 2016-04-06 任天堂株式会社 Portable information processing device, portable game device
EP2524511B1 (en) 2010-01-14 2017-10-18 HumanEyes Technologies Ltd Method and system for adjusting depth values of objects in a three dimensional (3d) display
EP2355526A3 (en) 2010-01-14 2012-10-31 Nintendo Co., Ltd. Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method
JP2011176822A (en) * 2010-01-28 2011-09-08 Toshiba Corp Image processing apparatus, 3d display apparatus, and image processing method
US9693039B2 (en) 2010-05-27 2017-06-27 Nintendo Co., Ltd. Hand-held electronic device
JP5620748B2 (en) * 2010-05-27 2014-11-05 任天堂株式会社 Portable electronic devices
JP5872185B2 (en) * 2010-05-27 2016-03-01 任天堂株式会社 Portable electronic devices
EP2482561A4 (en) * 2010-05-27 2013-09-11 Nintendo Co Ltd Portable electronic device
JP5302285B2 (en) 2010-10-28 2013-10-02 シャープ株式会社 Stereoscopic video output device, stereoscopic video output method, stereoscopic video output program, computer-readable recording medium, and stereoscopic video display device
JP5010022B2 (en) * 2010-10-28 2012-08-29 シャープ株式会社 Stereoscopic video output device, stereoscopic video output method, stereoscopic video output program, computer-readable recording medium, and stereoscopic video display device
JP5289416B2 (en) 2010-11-10 2013-09-11 株式会社東芝 Stereoscopic image display apparatus, method and program
JP6021296B2 (en) * 2010-12-16 2016-11-09 任天堂株式会社 Display control program, display control device, display control system, and display control method
JP5876983B2 (en) * 2010-12-29 2016-03-02 任天堂株式会社 Display control program, display control device, display control method, and display control system
JP5798334B2 (en) * 2011-02-18 2015-10-21 任天堂株式会社 Display control program, display control apparatus, display control system, and display control method
JP2011172253A (en) * 2011-03-25 2011-09-01 Nintendo Co Ltd Display control program, display controller, display control system, and display control method
WO2012132417A1 (en) * 2011-03-28 2012-10-04 パナソニック株式会社 Playback device, playback method, and computer program
WO2012153378A1 (en) 2011-05-06 2012-11-15 富士通株式会社 Stereoscopic image generation device, stereoscopic image generation method, stereoscopic image generation program
JP5909055B2 (en) 2011-06-13 2016-04-26 株式会社東芝 Image processing system, apparatus, method and program
JP5904526B2 (en) * 2011-07-12 2016-04-13 国立研究開発法人情報通信研究機構 Stereoscopic image production support apparatus, stereoscopic image production support method, and stereoscopic image production support program
JP5439460B2 (en) * 2011-11-07 2014-03-12 任天堂株式会社 Display control program, display control apparatus, display control system, and display control method
JP5920911B2 (en) * 2011-11-10 2016-05-18 ソニー株式会社 Information processing apparatus, information processing method, and program
JP6025519B2 (en) * 2012-11-21 2016-11-16 キヤノン株式会社 Image processing apparatus and image processing method
JP5767720B2 (en) * 2014-01-07 2015-08-19 キヤノン株式会社 Head-mounted display device, virtual image generation device, system having the same, and control method
CN106325521B (en) 2016-08-31 2018-06-29 北京小米移动软件有限公司 Test virtual reality head shows the method and device of device software

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110056775A (en) * 2009-11-23 2011-05-31 삼성전자주식회사 Gui providing method related to 3d image, and display apparatus and 3d image providing system using the same
US9307224B2 (en) 2009-11-23 2016-04-05 Samsung Electronics Co., Ltd. GUI providing method, and display apparatus and 3D image providing system using the same
KR101648864B1 (en) * 2009-11-23 2016-08-18 삼성전자주식회사 GUI providing method related to 3D image, and display apparatus and 3D image providing system using the same
WO2014145558A1 (en) * 2013-03-15 2014-09-18 Rubicon Group Holding Limited Equidistant stereo lens shader

Also Published As

Publication number Publication date
JPH0974573A (en) 1997-03-18

Similar Documents

Publication Publication Date Title
US7796134B2 (en) Multi-plane horizontal perspective display
CN1643939B (en) Method and apparatus for processing three-dimensional images
US6088006A (en) Stereoscopic image generating system for substantially matching visual range with vergence distance
US7440004B2 (en) 3-D imaging arrangements
US7689031B2 (en) Video filtering for stereo images
JP2848291B2 (en) Three-dimensional tv equipment
US20030107645A1 (en) Method and system for controlling the display location of stereoscopic images
EP0641132A1 (en) Stereoscopic image pickup and display apparatus
US20090002483A1 (en) Apparatus for and method of generating image, and computer program product
US6798406B1 (en) Stereo images with comfortable perceived depth
US20020191841A1 (en) Image processing method and apparatus
DE69534763T2 (en) Apparatus for displaying stereoscopic images and image recording apparatus therefor
KR101629479B1 (en) High density multi-view display system and method based on the active sub-pixel rendering
US8879824B2 (en) Method and apparatus for processing three-dimensional images
US6677939B2 (en) Stereoscopic image processing apparatus and method, stereoscopic vision parameter setting apparatus and method and computer program storage medium information processing method and apparatus
US7570280B2 (en) Image providing method and device
KR100414629B1 (en) A three-dimensional display image generating method, an image processing method using the depth information, the depth information generating method
US20110063421A1 (en) Stereoscopic image display apparatus
JP3978516B2 (en) Three-dimensional drawing system and method
KR20100002049A (en) Image processing method and apparatus
US20080049100A1 (en) Algorithmic interaxial reduction
JP4707368B2 (en) Stereoscopic image creation method and apparatus
JP2006212056A (en) Imaging apparatus and three-dimensional image formation apparatus
US6215516B1 (en) Method and apparatus for monoscopic to stereoscopic image conversion
JP4228646B2 (en) Stereoscopic image generation method and stereoscopic image generation apparatus

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040224

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040422

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040706

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040715

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20070723

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080723

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090723

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090723

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100723

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110723

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110723

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120723

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120723

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130723

Year of fee payment: 9

EXPY Cancellation because of completion of term