JP2015222892A - Display image generation device and program therefor - Google Patents
Display image generation device and program therefor Download PDFInfo
- Publication number
- JP2015222892A JP2015222892A JP2014106890A JP2014106890A JP2015222892A JP 2015222892 A JP2015222892 A JP 2015222892A JP 2014106890 A JP2014106890 A JP 2014106890A JP 2014106890 A JP2014106890 A JP 2014106890A JP 2015222892 A JP2015222892 A JP 2015222892A
- Authority
- JP
- Japan
- Prior art keywords
- image
- display
- visual effect
- pixel
- shape model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000000007 visual effect Effects 0.000 claims abstract description 105
- 238000003780 insertion Methods 0.000 claims description 10
- 230000037431 insertion Effects 0.000 claims description 10
- 238000004519 manufacturing process Methods 0.000 claims description 3
- 230000009466 transformation Effects 0.000 claims 1
- 238000003384 imaging method Methods 0.000 abstract description 13
- 238000010606 normalization Methods 0.000 abstract 1
- 230000006870 function Effects 0.000 description 33
- 238000000034 method Methods 0.000 description 14
- 238000012545 processing Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 6
- 238000006243 chemical reaction Methods 0.000 description 4
- 230000002123 temporal effect Effects 0.000 description 2
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012827 research and development Methods 0.000 description 1
- 230000000630 rising effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000035939 shock Effects 0.000 description 1
Images
Abstract
Description
本願発明は、インテグラルフォトグラフィ(IP:Integral Photography)方式を用いた立体表示装置の表示画像を生成する表示画像生成装置及びそのプログラムに関する。 The present invention relates to a display image generation apparatus that generates a display image of a stereoscopic display apparatus using an integral photography (IP) system and a program therefor.
近年、立体表示装置の研究開発が進み、特殊なメガネを用いなくても観察者に立体像を視認させることが可能な裸眼方式の立体表示装置が開発されている。例えば、IP方式の立体表示装置は、高精細画像表示パネルと、その前面に配置された2次元レンズアレイとを備え、高精細画像表示パネルに要素画像を表示すると立体像が再生される。 In recent years, research and development of stereoscopic display devices have progressed, and naked-eye type stereoscopic display devices that allow an observer to visually recognize a stereoscopic image without using special glasses have been developed. For example, an IP stereoscopic display device includes a high-definition image display panel and a two-dimensional lens array disposed on the front surface thereof, and a stereoscopic image is reproduced when an element image is displayed on the high-definition image display panel.
従来のIP方式では、立体画像の表示に特化した手法が提案されている(例えば、特許文献1)。特許文献1に記載の発明は、複数人数が同時にインテグラル立体映像を観察する場合において、年齢などの個人情報を参照して適切な奥行き値(飛び出し量)を判断して各観察者に適した立体画像を表示するものである。例えば、この特許文献1に記載の発明では、子供又は大人といった観察者の年齢に応じて、適切な奥行きの立体画像を表示することができる。
In the conventional IP method, a method specialized in displaying a stereoscopic image has been proposed (for example, Patent Document 1). The invention described in
しかし、従来のIP方式では、単に仮想的な3次元空間を再現し、立体像を忠実に表示しているにすぎない。そこで、従来のIP方式において、視野角が約20度に制限された立体表示装置で被写体の全周を表示したり、被写体の時間変化を表示するような、多様な視覚効果を付加したいという要望がある。 However, the conventional IP method merely reproduces a virtual three-dimensional space and faithfully displays a stereoscopic image. Therefore, in the conventional IP system, there is a demand for adding various visual effects such as displaying the entire circumference of the subject on a stereoscopic display device whose viewing angle is limited to about 20 degrees or displaying the temporal change of the subject. There is.
本願発明は、多様な視覚効果を付加できる表示画像生成装置及びそのプログラムを提供することを課題とする。 It is an object of the present invention to provide a display image generation apparatus and a program for adding various visual effects.
前記した課題に鑑みて、本願発明に係る表示画像生成装置は、要素レンズを2次元に配置したレンズアレイと画像表示手段とを備える立体表示装置で表示するために、視覚効果が付加された表示画像を生成する表示画像生成装置であって、正規化画像設定手段と、正規化画像画素位置算出手段と、関数設定手段と、視覚効果画像生成手段と、正規化画像生成手段と、表示画像生成手段と、を備えることを特徴とする。 In view of the above-described problems, the display image generation device according to the present invention is a display with a visual effect added to display on a stereoscopic display device including a lens array in which element lenses are two-dimensionally arranged and image display means. A display image generation device for generating an image, comprising a normalized image setting unit, a normalized image pixel position calculation unit, a function setting unit, a visual effect image generation unit, a normalized image generation unit, and a display image generation And means.
かかる構成によれば、表示画像生成装置は、正規化画像設定手段によって、要素レンズの間隔に対して自然数分の1となる画素サイズを有する正規化画像を設定する。また、表示画像生成装置は、正規化画像画素位置算出手段によって、画像表示手段の画素間隔及び正規化画像の画素サイズに基づいて、正規化画像の画素位置を算出する。 According to this configuration, the display image generation device sets a normalized image having a pixel size that is a natural number with respect to the distance between the element lenses by the normalized image setting unit. In the display image generation device, the normalized image pixel position calculation unit calculates the pixel position of the normalized image based on the pixel interval of the image display unit and the pixel size of the normalized image.
また、表示画像生成装置は、関数設定手段によって、被写体を表した3次元形状モデルの表示範囲又は表示時刻の少なくとも一方を表す視覚効果パラメータに基づいて、3次元形状モデルの表示範囲に関係付けられた仮想カメラの視点位置と、視点位置に関係付けられた3次元形状モデルの表示時刻を表す被写体状態との関数を、設定する。
このように、表示画像生成装置は、表示対象となる3次元形状モデルを視点位置にそのまま対応させずに、視点位置と3次元形状モデルの状態及び時間変化との間に関数を介在させる。
In addition, the display image generation device is related to the display range of the three-dimensional shape model based on the visual effect parameter representing at least one of the display range or the display time of the three-dimensional shape model representing the subject by the function setting means. A function of the viewpoint position of the virtual camera and the subject state representing the display time of the three-dimensional shape model related to the viewpoint position is set.
As described above, the display image generation apparatus interposes a function between the viewpoint position and the state and time change of the three-dimensional shape model without directly matching the three-dimensional shape model to be displayed with the viewpoint position.
また、表示画像生成装置は、視覚効果画像生成手段によって、関数設定手段で設定された関数に基づいて仮想カメラの視点位置を求め、求めた視点位置の仮想カメラで3次元形状モデルを撮影することで、視覚効果が付加された視覚効果画像を生成する。 The display image generation device obtains the viewpoint position of the virtual camera based on the function set by the function setting means by the visual effect image generation means, and shoots the three-dimensional shape model with the virtual camera at the obtained viewpoint position. Thus, a visual effect image to which a visual effect is added is generated.
また、表示画像生成装置は、正規化画像生成手段によって、所定の座標変換式により視覚効果画像の画素の画素値を正規化画像の画素に割り当てることで、正規化画像を生成する。そして、表示画像生成装置は、表示画像生成手段によって、正規化画像生成手段が生成した正規化画像から表示画像を生成する。 In addition, the display image generation device generates a normalized image by assigning the pixel value of the pixel of the visual effect image to the pixel of the normalized image using a predetermined coordinate conversion formula by the normalized image generation unit. Then, the display image generating device generates a display image from the normalized image generated by the normalized image generating unit by the display image generating unit.
本願発明は、表示対象となる3次元形状モデルを視点位置にそのまま対応させずに、視点位置と3次元形状モデルの状態及び時間変化との間に関数を介在させることで、多様な視覚効果を付加することができる。また、本願発明は、視点を移動させることで、立体表示装置の視野角の制限を超えて3次元形状モデルを表示したり、3次元形状モデルをアニメーション表示することができる。 The present invention does not directly correspond to the viewpoint position of the 3D shape model to be displayed, but intervenes a function between the viewpoint position and the state and time change of the 3D shape model, thereby providing various visual effects. Can be added. In the present invention, by moving the viewpoint, it is possible to display a three-dimensional shape model or display an animation of the three-dimensional shape model beyond the limit of the viewing angle of the stereoscopic display device.
[IP方式の概略]
以下、本願発明の実施形態について、適宜図面を参照しながら詳細に説明する。
まず、本願発明の実施形態に係る表示画像生成装置1(図2参照)の前提として、一般的なIP方式の概略について説明する。
[Outline of IP method]
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings as appropriate.
First, an outline of a general IP system will be described as a premise of the display image generation apparatus 1 (see FIG. 2) according to the embodiment of the present invention.
図1(a)に示すように、立体撮影装置2は、被写体UをIP方式で撮影するものであり、要素レンズLPを2次元に配置したレンズアレイLAと、高精細カメラ21とを備える。立体撮影装置2は、レンズアレイLAを介して、被写体Uからの光を高精細カメラ21で記録する。これにより、立体撮影装置2は、レンズアレイLAの仕様に従って、各要素レンズLPで形成された像が並んだ表示画像Iを生成する。
As shown in FIG. 1 (a), the
図1(b)に示すように、立体表示装置3は、立体撮影装置2が生成した表示画像I(複数の要素画像Gを縦横に配置した画像)をIP方式で表示するものであり、液晶ディスプレイ等の画像表示パネル(画像表示手段)31と、要素レンズLPを2次元に配置したレンズアレイLAとを備える。
As shown in FIG. 1B, the
立体表示装置3は、画像表示パネル31の表示面に、立体撮影装置2が生成した表示対象の表示画像Iを表示する。このとき、要素画像Gに対応する要素レンズLPは一意に決まる。すると、立体表示装置3は、要素レンズLPにより要素画像Gを空中に投影して立体像Zを形成する。このとき、観察者Aは、レンズアレイLAの要素レンズLPを通して、それぞれの要素画像Gを観視することで、立体像Zを視認することができる。このように、IP方式では、被写体空間の光線を取得、再現しているので、視点が移動しても、視点位置に応じた立体像Zを表示できる。つまり、IP方式は、被写体Uが実在するかのような立体像Zを再生する。
The
ここで、表示画像生成装置1(図2)を用いれば、多様な視覚効果を付加することが可能である。例えば、表示画像生成装置1は、視点を移動させることで、立体表示装置3で被写体Uの全周を表示したり(視覚効果の第1例)、被写体Uをアニメーション表示したり(視覚効果の第2例)、被写体Uとは別の付加情報を表示できる(視覚効果の第3例)。
Here, if the display image generating apparatus 1 (FIG. 2) is used, various visual effects can be added. For example, the display
[表示画像生成装置の構成]
図2を参照し、本願発明の実施形態に係る表示画像生成装置1の構成を説明する。
表示画像生成装置1は、視覚効果が付加された表示画像を生成するものであり、モデル化パラメータ入力手段11と、正規化画像設定手段12と、視覚効果付加手段13と、正規化画像生成手段14と、表示画像生成手段15と、付加情報挿入手段16とを備える。
[Configuration of display image generation apparatus]
With reference to FIG. 2, the structure of the display
The display
モデル化パラメータ入力手段11は、例えば、表示画像生成装置1の利用者から、立体表示装置3をモデル化するためのモデル化パラメータ(F,RH,RV,P)が入力されると共に、このモデル化パラメータを正規化画像設定手段12に出力する。このモデル化パラメータは、図3で示すように定義される。
The modeling parameter input means 11 receives, for example, modeling parameters (F, R H , R V , P) for modeling the
F:要素レンズLPの焦点距離(画像表示パネル31とレンズアレイLAとの距離)
RH:レンズアレイLAにおける要素レンズLPの水平方向の間隔(水平間隔)
RV:レンズアレイLAにおける要素レンズLPの垂直方向の間隔(垂直間隔)
P:画像表示パネル31の画素間隔
F: focal length of the element lenses L P (distance between the
R H: horizontal spacing of the lens array L A element lenses in L P (horizontal spacing)
R V: vertical spacing of the lens array L A element lenses in L P (vertical spacing)
P: Pixel interval of the
本実施形態では、要素レンズLPが一行毎に水平間隔RH/2だけオフセットしており、垂直間隔RVが水平間隔RHの√3/2倍であるとして説明する。
また、水平間隔RH及び垂直間隔RVが要素画像Gの画素間隔の自然数倍でないこととして説明する。
In this embodiment, the element lens L P are offset by the
Further, the description will be made assuming that the horizontal interval RH and the vertical interval RV are not natural numbers times the pixel interval of the element image G.
ここで、水平間隔RH及び垂直間隔RVが要素画像Gの画素間隔の自然数倍でないため(この自然数は0を含まない)、仮想カメラ(正射影カメラ)を用いて撮影しても、要素画像Gの画素位置で光線を直接取得することができない。そこで、図4に示すように、仮想カメラで撮影する過程(計算過程)において、要素画像Gの画素間隔を定義し、水平間隔RH及び垂直間隔RVが要素画像Gの画素間隔の自然数倍になるような中間画像を用意する。以後、この中間画像を正規化画像I´とする。 Here, since the horizontal interval RH and the vertical interval RV are not a natural number times the pixel interval of the element image G (this natural number does not include 0), even if shooting is performed using a virtual camera (orthographic camera), Light rays cannot be directly acquired at the pixel position of the element image G. Therefore, as shown in FIG. 4, in the process of taking a picture with a virtual camera (calculation process), the pixel interval of the element image G is defined, and the horizontal interval RH and the vertical interval RV are natural numbers of the pixel interval of the element image G. Prepare an intermediate image that doubles. Hereinafter, this intermediate image is referred to as a normalized image I ′.
また、物理的な位置を示す世界座標を定義する。この世界座標は、レンズアレイLAの中央に位置する要素レンズLPのレンズ中心を原点として、レンズアレイLAの横方向をX軸、縦方向をY軸及びレンズアレイ面の鉛直方向をZ軸とする。
さらに、要素画像G全体の画像座標として(i,j)を定義する。この画像座標の原点は前記した世界座標の原点に最も近い画素であるとする。
It also defines world coordinates that indicate the physical location. The world coordinates as the origin the center of the lens element lens L P located in the center of the lens array L A, X axis horizontal direction of the lens array L A, the vertical direction in the vertical direction of the Y-axis and the lens array surface Z Axis.
Further, (i, j) is defined as the image coordinates of the entire element image G. It is assumed that the origin of the image coordinates is the pixel closest to the origin of the world coordinates.
正規化画像設定手段12は、モデル化パラメータ入力手段11から入力されたモデル化パラメータに基づいて、正規化画像I´を設定するものである。具体的には、正規化画像設定手段12は、正規化画像I´において、下記の式(1)で表されるように、水平間隔RH及び垂直間隔RVを要素レンズLP間の画素数Mで除算することで、正規化画像I´の水平方向の画素サイズPH及び正規化画像I´の垂直方向の画素サイズPVを算出する。以下、水平画素サイズPH及び垂直画素サイズPVと略記する場合がある。
The normalized
このとき、正規化画像設定手段12は、下記の式(2)で表されるように、水平間隔RHを画素間隔Pで除算した値に基づいて、要素レンズLP間の画素数Mを算出する。そして、正規化画像設定手段12は、これらモデル化パラメータ(F,RH,RV,P,PH,PV)を視覚効果付加手段13に出力する。
なお、式(2)において、“<a>”は、aを四捨五入して自然数化することを意味する。つまり、“<RH/P>”は、図3での要素レンズLP間の画素数となる。
In this case, the normalized
In formula (2), “<a>” means rounding off a to a natural number. That, "<R H / P> " is a number of pixels between the element lenses L P in FIG.
図5に示すように、視覚効果付加手段13は、視覚効果を付加するものであり、正規化画像画素位置算出手段131と、レンズ中心位置算出手段132と、関数設定手段133と、視覚効果画像生成手段134とを備える。
また、視覚効果付加手段13は、正規化画像設定手段12からモデル化パラメータ(F,RH,RV,P,PH,PV)が入力される。さらに、視覚効果付加手段13は、例えば、表示画像生成装置1の利用者から、後記する視覚効果パラメータと、3次元形状モデルobj(図8)と、定数Nとが入力される。
As shown in FIG. 5, the visual
Further, the visual effect adding means 13 receives modeled parameters (F, R H , R V , P, P H , P V ) from the normalized image setting means 12. Further, the visual effect adding means 13 receives, for example, a visual effect parameter, a three-dimensional shape model obj (FIG. 8), and a constant N, which will be described later, from the user of the display
正規化画像画素位置算出手段131は、画像表示パネル31の画素間隔P、水平画素サイズPH及び垂直画素サイズPVに基づいて、正規化画像I´の画素位置を算出するものである。
Normalized image pixel position calculating means 131, the pixel pitch P of the
ここで、式(1)を用いると、正規化画像I´の(世界座標)を下記の式(3)で表すことができる。従って、正規化画像画素位置算出手段131は、下記の式(4)で表されるように、画像表示パネル31の画素間隔Pを、水平画素サイズPH及び垂直画素サイズPVのそれぞれで除算することで、正規化画像I´の画素座標を算出する。つまり、表示画像Iの画素座標は、式(4)を用いて、正規化画像I´の画素位置に変換できる。
なお、式(4)において、(i´,j´)が正規化画像I´の画素座標を示す。
Here, using equation (1), the (world coordinates) of the normalized image I ′ can be expressed by the following equation (3). Accordingly, the normalized image pixel
In equation (4), (i ′, j ′) represents the pixel coordinates of the normalized image I ′.
そして、正規化画像画素位置算出手段131は、モデル化パラメータ(F,RH,RV,P,PH,PV)と、算出した正規化画像I´の画素座標とをレンズ中心位置算出手段132に出力する。
Then, the normalized image pixel
レンズ中心位置算出手段132は、正規化画像画素位置算出手段131からモデル化パラメータ(F,RH,RV,P,PH,PV)と、算出した正規化画像I´の画素座標とが入力される。そして、レンズ中心位置算出手段132は、下記の式(5)を用いて、水平方向にn番目で垂直方向にm番目の要素レンズLPの中心位置H(n,m)を算出する。
The lens center
その後、レンズ中心位置算出手段132は、正規化画像I´の画素座標と、中心位置Hと、モデル化パラメータ(F,RH,RV,P,PH,PV)とを視覚効果画像生成手段134に出力する。
Thereafter, the lens center
関数設定手段133は、視覚効果の内容を示す関数F(V,T,S)を設定するものであり、図5に示すように、視点設定手段133Aと、時間設定手段133Bと、領域設定手段133Cとを備える。
The
関数F(V,T,S)は、仮想3次元空間における視点位置及び被写体状態の関数であり、視点位置Vを表す変数と、被写体状態を表す変数として、視点位置Vに関係付けられた表示時刻T及びシーン識別子Sを含む。
被写体状態とは、3次元形状モデルが表示される状態のことである。例えば、被写体状態は、3次元形状モデルobjを表示する時刻又はシーンのような、3次元形状モデルが表示される状態に影響を与えるものである。
The function F (V, T, S) is a function of the viewpoint position and the subject state in the virtual three-dimensional space, and a display related to the viewpoint position V as a variable representing the viewpoint position V and a variable representing the subject state. Time T and scene identifier S are included.
The subject state is a state where a three-dimensional shape model is displayed. For example, the subject state affects the state in which the 3D shape model is displayed, such as the time or scene at which the 3D shape model obj is displayed.
視点位置Vは、観察者Aが3次元形状モデルobjを観察する位置を表し、仮想3次元空間に配置された仮想カメラVc(図10)と同位置になる。
表示時刻Tは、時間変化(アニメーション)する3次元形状モデルobjの表示時刻を表す。
シーン識別子Sは、3次元形状モデルobjを表示するシーンと、後記する付加情報を表示するシーンとを識別する情報である。
The viewpoint position V represents a position where the observer A observes the three-dimensional shape model obj, and is the same position as the virtual camera Vc (FIG. 10) arranged in the virtual three-dimensional space.
The display time T represents the display time of the three-dimensional shape model obj that changes with time (animation).
The scene identifier S is information for identifying a scene displaying the three-dimensional shape model obj and a scene displaying additional information described later.
3次元形状モデルobjは、被写体Uの形状を表す3次元モデルであり、例えば、コンピュータグラフィックス(CG)やレンジセンサで生成することができる。この3次元形状モデルobjは、仮想空間内に配置されている。 The three-dimensional shape model obj is a three-dimensional model representing the shape of the subject U, and can be generated by, for example, computer graphics (CG) or a range sensor. The three-dimensional shape model obj is arranged in the virtual space.
視覚効果パラメータは、関数F(V,T,S)の設定に必要なパラメータであり、例えば、3次元形状モデルobjの表示範囲及び表示時刻と、付加情報画素領域とが含まれる。
3次元形状モデルobjの表示範囲は、立体表示装置3で3次元形状モデルobjが表示される範囲を表す情報である。例えば、3次元形状モデルobjの表示範囲は、3次元形状モデルobjの正面から裏側に回り込むときの回転角度を表す(最大360°=2π)。
3次元形状モデルobjの表示時刻は、表示時刻Tの開始から終了までを表す情報である。
付加情報は、3次元形状モデルobj以外の付加的な情報である。
付加情報画素領域は、表示画像Iで付加情報を表示する領域を表す情報である。
The visual effect parameter is a parameter necessary for setting the function F (V, T, S), and includes, for example, the display range and display time of the three-dimensional shape model obj, and the additional information pixel region.
The display range of the 3D shape model obj is information representing the range in which the 3D shape model obj is displayed on the
The display time of the three-dimensional shape model obj is information representing from the start to the end of the display time T.
The additional information is additional information other than the three-dimensional shape model obj.
The additional information pixel area is information representing an area for displaying additional information on the display image I.
<視覚効果の第1例:3次元形状モデルの全周表示>
図6〜図8を参照し、視覚効果の第1例として、3次元形状モデルobjの全周表示について説明する(適宜図5参照)。
<First example of visual effects: all-round display of 3D shape model>
With reference to FIGS. 6 to 8, as a first example of the visual effect, a description will be given of the all-around display of the three-dimensional shape model obj (see FIG. 5 as appropriate).
図6では、整数xu,yvが、要素レンズLPの中心位置Hを原点とした各要素画像Gのローカル座標系において、水平方向及び垂直方向の画素位置を表す。
また、レンズアレイLAと投影面との距離をLとする。投影面とは、仮想カメラの撮影面(つまり、視点位置)が集合した平面である。
In Figure 6, the integer x u, y v is in the local coordinate system of each element image G whose origin is the center position H of the element lenses L P, represents a pixel position in the horizontal and vertical directions.
Further, the distance between the lens array L A and the projection plane and L. The projection plane is a plane on which shooting planes (that is, viewpoint positions) of the virtual camera are gathered.
図6では、3角形R1は、中心位置Hと、画素位置(xu,yv)と、正規化画像I´で中心位置Hに対応する位置とを頂点とする。さらに、3角形R2は、中心位置Hと、視点位置V(x´,y´,z´)と、投影面で中心位置Hに対応する位置とを頂点とする。
なお、図6では、3角形R1,R2をハッチングで図示した。
In FIG. 6, the triangle R1 has a vertex at the center position H, the pixel position (x u , y v ), and the position corresponding to the center position H in the normalized image I ′. Furthermore, the triangle R2 has a vertex at the center position H, the viewpoint position V (x ′, y ′, z ′), and a position corresponding to the center position H on the projection plane.
In FIG. 6, the triangles R1 and R2 are hatched.
図6のように、3角形R1,R2の相似によりL:F=x´:xuが成立することから、下記の式(6)を利用して、画素位置(xu,yv)から視点位置V(x´,y´,z´)を求めることができる。 As shown in FIG. 6, since L: F = x ′: x u is established due to the similarity of the triangles R1 and R2, from the pixel position (x u , y v ) using the following equation (6). The viewpoint position V (x ′, y ′, z ′) can be obtained.
図7のように、3次元形状モデルobj(図7の“●”)を原点とした3次元空間に、視点位置V(x´,y´,z´)を配置した場合を考える。この場合、xz平面内において、視点位置V(x´,y´,z´)とz軸との角度θ1がωxu/Mとなる。また、視点位置V(x´,y´,z´)とxz平面との角度θ2がωyv/Mとなる。ここで、ωは、3次元形状モデルobjの表示範囲を表す。例えば、表示範囲ω=2πのとき、3次元形状モデルobjの全周が表示される。 Consider a case where the viewpoint position V (x ′, y ′, z ′) is arranged in a three-dimensional space with the origin of the three-dimensional shape model obj (“●” in FIG. 7) as shown in FIG. In this case, in the xz plane, the angle θ1 between the viewpoint position V (x ′, y ′, z ′) and the z axis is ωx u / M. Further, the angle θ2 between the viewpoint position V (x ′, y ′, z ′) and the xz plane is ωy v / M. Here, ω represents the display range of the three-dimensional shape model obj. For example, when the display range is ω = 2π, the entire circumference of the three-dimensional shape model obj is displayed.
また、xz平面上の三角形について、辺の長さL1がL´cos(ωyv/M)となり、辺の長さL2がL´cos(ωxu/M)cos(ωyv/M)となる。なお、3次元形状モデルobjと視点位置V(x´,y´,z´)との距離をL´とする。 For a triangle on the xz plane, the side length L1 is L′ cos (ωy v / M), and the side length L2 is L′ cos (ωx u / M) cos (ωy v / M). . Note that the distance between the three-dimensional shape model obj and the viewpoint position V (x ′, y ′, z ′) is L ′.
以上より、式(6)を下記の式(7)で表すことができる。つまり、視点設定手段133Aは、関数F(V,T,S)において、式(7)を用いて、視点位置V(x´,y´,z´)と3次元形状モデルobjの表示範囲ωとを関係付けることができる。さらに、視点設定手段133Aは、視線方向を反転させるため、視点位置V(x´,y´,z´)を視点位置V(−x´,−y´,z´)に変換してもよい。
As described above, the formula (6) can be expressed by the following formula (7). That is, the
ここで、3角柱状の3次元形状モデルobjの例を考える。図8(a)に示すように、従来のIP方式では、約20度の視野角θの範囲内で3次元形状モデルobjを忠実に表示するため、3次元形状モデルobjの裏側を表示できない。一方、表示画像生成装置1では、図8(b)に示すように、視野角θの範囲内に3次元形状モデルobjの全周を関係付けるため、3次元形状モデルobjの裏側も表示することができる。
Here, consider an example of a triangular prism-shaped three-dimensional shape model obj. As shown in FIG. 8A, in the conventional IP system, since the three-dimensional shape model obj is faithfully displayed within the range of the viewing angle θ of about 20 degrees, the back side of the three-dimensional shape model obj cannot be displayed. On the other hand, as shown in FIG. 8B, the display
<視覚効果の第2例:アニメーション表示>
図9を参照し、視覚効果の第2例として、3次元形状モデルobjのアニメーション表示について説明する(適宜図5参照)。
<Second example of visual effects: animation display>
With reference to FIG. 9, an animation display of the three-dimensional shape model obj will be described as a second example of the visual effect (see FIG. 5 as appropriate).
時間設定手段133Bは、関数F(V,T,S)において、所定の基準時刻から表示時刻Tが離れる程、表示時刻Tにおける3次元形状モデルobjを画像表示パネル31の中央から離れた視点位置V(x,y,z)に関係付けるものである。つまり、時間設定手段133Bは、3次元形状モデルobjの時間的変化を、視点位置V(x,y,z)の空間的変化で表す。
In the function F (V, T, S), the
図9に示すように、上昇している風船を3次元形状モデルobjとして、9枚のフレーム画像でアニメーション表示する場合を考える。基準時刻は、全てのフレーム画像のうち、中間に位置するフレーム画像の表示時刻Tとする。つまり、基準時刻は、5枚目のフレーム画像の表示時刻Tとなる。 As shown in FIG. 9, consider a case where a rising balloon is used as a three-dimensional shape model obj and an animation is displayed with nine frame images. The reference time is the display time T of the frame image located in the middle among all the frame images. That is, the reference time is the display time T of the fifth frame image.
この場合、時間設定手段133Bは、先頭になる表示時刻T−4のフレーム画像を、画像表示パネル31の中央から最も離れた左側の視点位置V(x,y,z)に関係付ける。また、時間設定手段133Bは、表示時刻T−3,T−2,T−1のフレーム画像の順で、左側から中央寄りの視点位置V(x,y,z)に関係付ける。そして、時間設定手段133Bは、表示時刻Tのフレーム画像を画像表示パネル31の中央の視点位置V(x,y,z)に関係付ける。さらに、時間設定手段133Bは、表示時刻T+1,T+2,T+3のフレーム画像の順で、中央から右寄りの視点位置V(x,y,z)に関係付ける。その後、時間設定手段133Bは、末尾になる表示時刻T+4のフレーム画像を、画像表示パネル31の中央から最も離れた右側の視点位置V(x,y,z)に関係付ける。
In this case, the
また、約20度の視野角θの範囲内に20枚のフレーム画像を割り当てる場合を考える。この場合、時間設定手段133Bは、下記の式(8)を用いて関係付けることができる。このT´は、各視点位置V(x,y,z)で表示すべき3次元形状モデルobjの局所時間(ローカル時刻Tlocal)を表す。 Also, consider a case where 20 frame images are allocated within a range of a viewing angle θ of about 20 degrees. In this case, the time setting means 133B can be related using the following formula (8). This T ′ represents the local time (local time T local ) of the three-dimensional shape model obj to be displayed at each viewpoint position V (x, y, z).
一般的な立体映像(静止画)では、T´=Tとなり、どの視点位置V(x,y,z)でも同一時刻の3次元形状モデルobjが表示される。また、一般的な立体映像(動画)であれば、視点位置V(x,y,z)によらず、グローバル時刻Tglobal(動画の表示速度で決まる時刻、フレーム番号やタイムコード)での3次元形状モデルobjが表示される。 In a general stereoscopic video (still image), T ′ = T, and a three-dimensional shape model obj at the same time is displayed at any viewpoint position V (x, y, z). Further, in the case of a general stereoscopic video (moving image), 3 at the global time T global (time determined by the moving image display speed, frame number or time code) regardless of the viewpoint position V (x, y, z). A dimensional shape model obj is displayed.
ここで、視点位置V(x,y,z)により設計された時間変化をXuとすると、式(8)を下記の式(9)で表すことができる。
なお、図9の例では、時間変化Xuが−4≦Xu≦4の範囲となる。
Here, when the time change designed by the viewpoint position V (x, y, z) is Xu , the equation (8) can be expressed by the following equation (9).
In the example of FIG. 9, the time change X u is in the range of −4 ≦ X u ≦ 4.
<視覚効果の第3例:付加情報>
以下、視覚効果の第3例として、付加情報の表示について説明する(適宜図5参照)。
領域設定手段133Cは、関数F(V,T,S)において、付加情報画素領域と視点位置V(x,y,z)とを関係付けるものである。
<Third example of visual effects: additional information>
Hereinafter, display of additional information will be described as a third example of visual effects (see FIG. 5 as appropriate).
The area setting unit 133C relates the additional information pixel area and the viewpoint position V (x, y, z) in the function F (V, T, S).
具体的には、領域設定手段133Cは、下記の式(10)のように、視点位置V(x,y,z)が領域Saに含まれる場合、3次元形状モデルobjのシーンsaを表示するように、領域Saと視点位置V(x,y,z)とを関係付ける。また、領域設定手段133Cは、式(10)のように、視点位置V(x,y,z)が領域Sbに含まれる場合、付加情報のシーンsbを表示するように、領域Sbと視点位置V(x,y,z)とを関係付ける。つまり、式(10)は、3次元形状モデルobjを表示する3次元形状モデル画素領域Saと、付加情報を表示する付加情報画素領域Sbとを定義する。 Specifically, the region setting means 133C displays the scene sa of the three-dimensional shape model obj when the viewpoint position V (x, y, z) is included in the region Sa as in the following formula (10). As described above, the region Sa and the viewpoint position V (x, y, z) are related to each other. In addition, when the viewpoint position V (x, y, z) is included in the area Sb as in Expression (10), the area setting unit 133C displays the area Sb and the viewpoint position so as to display the additional information scene sb. Associate V (x, y, z). That is, Expression (10) defines a three-dimensional shape model pixel area Sa that displays a three-dimensional shape model obj and an additional information pixel area Sb that displays additional information.
その後、関数設定手段133は、設定した関数F(V,T,S)を、視覚効果画像生成手段134と、付加情報挿入手段16(図2)とに出力する。
なお、関数F(V,T,S)=1の場合、従来のIP方式と同様、3次元形状モデルobjを忠実に表示することを示す。
Thereafter, the
When the function F (V, T, S) = 1, it indicates that the three-dimensional shape model obj is faithfully displayed as in the conventional IP method.
視覚効果画像生成手段134は、関数設定手段133から入力された関数F(V,T,S)に基づいて視点位置を求め、求めた視点位置の仮想カメラで3次元形状モデルobjを撮影することで、視覚効果画像を生成するものである。
The visual effect
ここで、視覚効果画像生成手段134は、3次元形状モデルobjと、定数Nとが入力される。
定数Nは、要素レンズLPの数を一定倍してサンプリングすることを示す値であり、予め設定されている。
Here, the visual effect image generation means 134 receives the three-dimensional shape model obj and the constant N.
Constant N is a value indicating a sampling number of element lenses L P constant times to have been set in advance.
<仮想カメラによる撮影>
以下、図10〜図12を参照し、仮想カメラVcによる撮影を詳細に説明する(適宜図5参照)。
なお、図10では、説明を簡易にするために、3次元形状モデル(表示対象)objの一部表面のみを図示した。
また、図11では、“●”と“△”とがサンプル点を示しており、“●”は中心位置Hでのサンプル点であり、“△”は“●”以外で増やしたサンプル点である。また、図11において、“■”は、それぞれの要素画像Gの中で、中心位置Hに対して同じ相対位置となる計算対象の画素である。つまり、視覚効果画像生成手段134は、各要素画像Gの画素位置を、中心位置Hを原点とするローカル座標(u,v)によって表すことができる。
また、図11及び図12では、仮想カメラの画素数は、レンズアレイLAの“●”及び“△”をあわせたサンプル点と同数としている。また、図12では、光線のそれぞれを矢印で図示している。
<Shooting with a virtual camera>
Hereinafter, photographing with the virtual camera Vc will be described in detail with reference to FIGS. 10 to 12 (see FIG. 5 as appropriate).
In FIG. 10, only a partial surface of the three-dimensional shape model (display target) obj is shown for the sake of simplicity.
In FIG. 11, “●” and “△” indicate sample points, “●” is a sample point at the center position H, and “Δ” is an increased sample point other than “●”. is there. In FIG. 11, “■” is a pixel to be calculated that has the same relative position with respect to the center position H in each element image G. That is, the visual effect
Further, in FIG. 11 and FIG. 12, the number of pixels the virtual camera, the lens array L A "●" are and "△" the sample points and the same number of combined. Further, in FIG. 12, each of the light rays is indicated by an arrow.
まず、視覚効果画像生成手段134は、関数F(V,T,S)で求めた視点位置に仮想カメラVcを配置する。例えば、視覚効果画像生成手段134は、前記した第1例であれば、3次元形状モデルobjの全周を撮影できる視点位置に仮想カメラVcを配置する。また、例えば、視覚効果画像生成手段134は、前記した第2例であれば、3次元形状モデルobjの時間時刻T−4〜T+4に応じて、異なる視点位置に仮想カメラを配置する。
First, the visual effect
また、視覚効果画像生成手段134は、図10に示すように、単位ベクトルの逆方向rzに存在する中心位置Hを中心に、レンズアレイLA全体の中心位置を含んだ画角で、仮想配置された立体表示装置3を仮想的に撮影する。すなわち、この視覚効果画像生成手段134は、単位ベクトルの逆方向rzに存在する中心位置Hの位置を視覚効果画像の中心として、要素画像Gの各画素位置と仮想カメラVcの光学主点とを結んだ直線上に存在する3次元形状モデルobjの表面の色を仮想平面(仮想カメラVcの焦点位置)に投影(正射影)することで、視覚効果画像を生成する。
Also, the visual effect image generating means 134, as shown in FIG. 10, around the center position H present in the reverse direction r z unit vector, with angle of view including the central position of the entire lens array L A, virtual The arranged
このとき、視覚効果画像生成手段134は、図11及び図12に示すように、仮想カメラVcによる撮影において、中心位置Hを通過する光線を一括してサンプリングする。ここでは、視覚効果画像生成手段134は、後記する第1のフィルタを適用するために、中心位置Hの数をN倍した数の光線をサンプリングする(例えば、N=4)。そして、視覚効果画像生成手段134は、各要素画像Gのローカル座標(u,v)に位置する画素に対応する光線を取得する。このように、視覚効果画像においては、要素レンズLPの間隔が要素画像Gの画素サイズの自然数倍を満たすことになるので、各要素レンズLPから出射される光線の方向が有限になり、同一方向の光線を集めることが可能となる。すなわち、視覚効果画像生成手段134は、出射される光線群を有限枚の視覚効果画像で表すことができる。
At this time, as shown in FIGS. 11 and 12, the visual effect
すなわち、(n,m)=(0,0)の要素レンズLPにおいて、その要素画像Gのある画素(u,v)の世界座標を(XP,YP,−F)とすると、仮想カメラVcの姿勢を示す行列Rは、以下の式(11)で表すことができる。従って、下記の式(11)を用いて、中心位置Hを、視覚効果画像の画像面に投影(正射影)することができる。 That is, in the element lens L P with (n, m) = (0, 0), if the world coordinates of a pixel (u, v) in the element image G are (X P , Y P , −F), the virtual The matrix R indicating the attitude of the camera Vc can be expressed by the following equation (11). Therefore, the center position H can be projected (orthographically projected) on the image plane of the visual effect image using the following formula (11).
この場合、中心位置Hの3次元位置を(XR,YR,0)とすると、その視覚効果画像上に投影される点の画像座標(k,l)は、下記の式(12)及び式(13)を用いて求められる。 In this case, assuming that the three-dimensional position of the center position H is (X R , Y R , 0), the image coordinates (k, l) of the point projected on the visual effect image are expressed by the following equation (12) and It is calculated | required using Formula (13).
なお、ここで、(W´,H´)は、視覚効果画像の縦横の長さであり、(K,L)は、視覚効果画像の画素数である。この場合、図11のサンプル点“●”と“△”を視覚効果画像に投影すると、その投影点は、図12に示すようになる。 Here, (W ′, H ′) is the vertical and horizontal lengths of the visual effect image, and (K, L) is the number of pixels of the visual effect image. In this case, when the sample points “●” and “Δ” in FIG. 11 are projected onto the visual effect image, the projected points are as shown in FIG.
以上のように、視覚効果画像生成手段134は、式(12)及び式(13)を用いて、レンズアレイLA面上の任意の点を仮想カメラVcに投影し、視覚効果が付加された視覚効果画像を生成できる。その後、視覚効果画像生成手段134は、生成した視覚効果画像を正規化画像生成手段14(図2)に出力する。
As described above, the visual effect
図2に戻り、表示画像生成装置1の構成について、説明を続ける。
正規化画像生成手段14は、視覚効果付加手段13(視覚効果画像生成手段134)から視覚効果画像が入力され、所定の座標変換式によって、この視覚効果画像の画素の画素値を正規化画像I´の画素に割り当てることで、正規化画像I´を生成するものである。
Returning to FIG. 2, the description of the configuration of the display
The normalized image generating means 14 receives the visual effect image from the visual effect adding means 13 (visual effect image generating means 134), and converts the pixel values of the pixels of the visual effect image into the normalized image I by a predetermined coordinate conversion formula. The normalized image I ′ is generated by allocating to the pixel “′”.
具体的には、正規化画像生成手段14は、視覚効果画像のサンプル点(図12の“●”)を、正規化画像I´の計算対象画素(図11の“■”)に割り当てる。このとき、正規化画像生成手段14では、位置が(n,m)で表される中心位置Hの視覚効果画像上での画素座標を得る必要がある。このため、正規化画像生成手段14は、前記した式(5)によってレンズアレイLA面上の物理的な位置H(n,m)を求め、式(12)及び式(13)を用いて視覚効果画像の画像座標を得る。また、この座標に対応する正規化画像I´の画素座標は、下記の式(14)で表される。この場合、式(14)の右辺第1項は、中心位置Hの位置を示すことになる。
Specifically, the normalized image generating means 14 assigns the sample point (“●” in FIG. 12) of the visual effect image to the calculation target pixel (“■” in FIG. 11) of the normalized image I ′. At this time, the normalized image generating means 14 needs to obtain pixel coordinates on the visual effect image at the center position H whose position is represented by (n, m). Therefore, the normalized
その後、表示画像生成装置1では、要素画像Gの各画素をローカル座標(u,v)としてそれぞれ指定して、視覚効果付加手段13による仮想カメラでの撮影処理、及び、正規化画像生成手段14による画素値の割り当て処理を、要素画像Gの全ての画素に対して実行する。従って、表示画像生成装置1では、要素画像Gの画素数だけこれら処理を繰り返せばよく、従来のように画像内に存在する全画素に対して処理を繰り返し行う必要がない。
このようにして、正規化画像生成手段14は、正規化画像I´の全画素値を得ることができる。その後、正規化画像生成手段14は、生成した正規化画像I´を表示画像生成手段15に出力する。
Thereafter, in the display
In this way, the normalized
<表示画像の生成>
以下、図13を参照し、表示画像Iの生成について説明する(適宜図2参照)。
表示画像生成手段15は、正規化画像生成手段14から正規化画像I´が入力され、この正規化画像I´から表示画像Iを生成するものである。
<Generation of display image>
Hereinafter, generation of the display image I will be described with reference to FIG. 13 (see FIG. 2 as appropriate).
The display image generating means 15 receives the normalized image I ′ from the normalized image generating means 14 and generates the display image I from the normalized image I ′.
表示画像生成手段15は、正規化画像I´が画像表示パネル31で表示する表示画像Iの縦横にそれぞれM倍の画素を持つので、正規化画像I´に対して低域通過フィルタ処理を施す。具体的には、図13に示すように、表示画像生成手段15は、低域通過フィルタ処理として、表示画像Iの1画素の画素値を、その表示画像Iの1画素に対応する領域に含まれる正規化画像I´の全画素の平均値とする処理を行う。さらに、表示画像生成手段15は、低域通過フィルタ処理として、平均値を求める代わりに、重み付け加算値又はメディアン値を求めてもよい。
The display image generation means 15 performs low-pass filter processing on the normalized image I ′ because the normalized image I ′ has M times the vertical and horizontal pixels of the display image I displayed on the
つまり、表示画像生成手段15は、前記した式(4)で座標変換できることから、下記の式(15)で表される低域通過フィルタ処理を行うことで、表示画像Iを生成する。そして、表示画像生成手段15は、生成した表示画像Iを付加情報挿入手段16に出力する。
That is, since the display
なお、式(15)において、I´(i´+s,j´+t)が正規化画像I´の画素(i´+s,j´+t)の画素値を示しており、I(i,j)が表示画像Iの画素(i,j)の画素値を示している。また、Dは、Σの条件を満たすI(i´+s,j´+t)の数であり、総和に寄与した画素の数となる。さらに、s及びtは、0から要素レンズLP間の画素数の半分までの整数値である。 In Expression (15), I ′ (i ′ + s, j ′ + t) represents the pixel value of the pixel (i ′ + s, j ′ + t) of the normalized image I ′, and I (i, j) Indicates the pixel value of the pixel (i, j) of the display image I. D is the number of I (i ′ + s, j ′ + t) that satisfies the condition of Σ, and is the number of pixels that contributed to the sum. Moreover, s and t is an integer from 0 to half the number of pixels between the element lenses L P.
付加情報挿入手段16は、関数F(V,T,S)に基づいて、表示画像生成手段15から入力された表示画像Iの付加情報画素領域に付加情報を挿入するものである。
ここで、付加情報挿入手段16は、視覚効果付加手段13(関数設定手段133)から関数F(V,T,S)が入力され、表示画像生成手段15から表示画像Iが入力される。また、付加情報挿入手段16は、例えば、表示画像生成装置1の利用者から、付加情報が入力される。
The additional
Here, the additional
例えば、図14(a)に示すように、3次元形状モデルobjが3Dキャラクタである。また、例えば、図14(b)に示すように、付加情報が「Hello!」という文字の2次元画像である。この付加情報は、要素レンズLPと同数の画素(例えば、横73×縦48画素)で構成される。 For example, as shown in FIG. 14A, the three-dimensional shape model obj is a 3D character. For example, as illustrated in FIG. 14B, the additional information is a two-dimensional image of characters “Hello!”. This additional information is composed of element lenses L P the same number of pixels (e.g., horizontal 73 × vertical 48 pixels).
例えば、図14(c)に示すように、関数F(V,T,S)では、表示画像Iを構成する各要素画像Gで要素レンズLPに含まれる領域のうち、1画素分の領域が付加情報画素領域Sbとして定義されている。また、例えば、関数F(V,T,S)では、表示画像Iを構成する各要素画像Gで要素レンズLPに含まれる領域のうち、付加情報画素領域Sb以外の画素領域が3次元形状モデル画素領域Saとして定義されている。 For example, as shown in FIG. 14 (c), the function F (V, T, S) , among areas included in the element lenses L P each element image G included in the display image I, 1 pixel region Is defined as the additional information pixel region Sb. Further, for example, the function F (V, T, S) in the display image among the regions included in the element lenses L P each element image G that constitutes the I, additional information pixel region other than the pixel area Sb is 3-dimensional shape It is defined as a model pixel area Sa.
図15(a)及び(b)に示すように、付加情報の´H’の左上部分に着目する。この場合、付加情報挿入手段16は、付加情報の画素数が要素レンズLPと同数のため、図15(c)に示すように、各要素画像Gに1個ずつ付加情報を挿入する。例えば、付加情報挿入手段16は、左列上から2番目の付加情報の画素K1を、画素K1と対応する位置(左列上から2番目)の要素画像Gの領域Sb1に挿入する。これと同様、付加情報挿入手段16は、付加情報の画素K2〜K5を、画素K2〜K5と対応する位置の要素画像Gの領域Sb2〜Sb5に挿入する。
その後、付加情報挿入手段16は、付加情報が挿入された表示画像Iを立体表示装置3(図1)に出力する。
As shown in FIGS. 15A and 15B, attention is paid to the upper left portion of 'H' of the additional information. In this case, additional information insertion means 16, the number of pixels additional information for as many as the element lenses L P, as shown in FIG. 15 (c), inserting the additional information one for each element image G. For example, the additional
Thereafter, the additional
なお、表示画像Iに付加情報及び3次元形状モデルobjが含まれるので、観察者Aの両眼に異なる像が入射することがある。この場合、付加情報及び3次元形状モデルobjは、ある程度類似した色彩や、大きな奥行き変化を伴わないことが好ましい。これにより、付加情報と3次元形状モデルobjとが切り替わるショックを抑えることができる。 Since the display image I includes the additional information and the three-dimensional shape model obj, different images may be incident on the eyes of the observer A. In this case, it is preferable that the additional information and the three-dimensional shape model obj do not accompany a somewhat similar color or a large depth change. Thereby, it is possible to suppress a shock that the additional information and the three-dimensional shape model obj are switched.
[表示画像生成装置の動作]
図16を参照し、図2の表示画像生成装置1の動作について説明する。
表示画像生成装置1は、正規化画像設定手段12によって、モデル化パラメータに基づいて、正規化画像を設定する(ステップS1)。
[Operation of Display Image Generation Device]
The operation of the display
The display
表示画像生成装置1は、視覚効果付加手段13によって、視覚効果画像生成処理を行う(ステップS2)。この視覚効果画像生成処理は、詳細を後記する。
表示画像生成装置1は、正規化画像生成手段14によって、ステップS2で生成した視覚効果画像の画素の画素値を、座標変換式により正規化画像の画素に割り当てることで、正規化画像を生成する(ステップS3)。
The display
The display
表示画像生成装置1は、表示画像生成手段15によって、ステップS3で生成した正規化画像から表示画像を生成する(ステップS4)。
表示画像生成装置1は、付加情報挿入手段16によって、関数に基づいて、ステップS4で生成した表示画像の付加情報画素領域に付加情報を挿入する(ステップS5)。
The display
The display
[視覚効果画像生成処理]
図17を参照し、図16の視覚効果画像生成処理(ステップS2)の詳細について、説明する(適宜図5参照)。
[Visual effect image generation processing]
The details of the visual effect image generation process (step S2) of FIG. 16 will be described with reference to FIG. 17 (see FIG. 5 as appropriate).
視覚効果付加手段13は、正規化画像画素位置算出手段131によって、画像表示パネル31の画素間隔、水平画素サイズ及び垂直画素サイズに基づいて、正規化画像の画素位置を算出する(ステップS21)。
視覚効果付加手段13は、レンズ中心位置算出手段132によって、前記した式(5)を用いて、要素レンズLPの中心位置を算出する(ステップS22)。
The visual
Visual effect adding means 13, the lens center position calculating means 132, by using the equation (5), calculates the center position of the element lenses L P (step S22).
視覚効果付加手段13は、関数設定手段133によって、関数を設定する。具体的には、視点設定手段133Aは、前記した式(6)を用いて、視点位置と3次元形状モデルの表示範囲とを関係付ける。また、時間設定手段133Bは、基準時刻から表示時刻が離れる程、表示時刻における3次元形状モデルを画像表示パネル31の中央から離れた視点位置に関係付ける。さらに、領域設定手段133Cは、前記した式(10)を用いて、付加情報画素領域と視点位置とを関係付ける(ステップS23)。
The visual
視覚効果付加手段13は、視覚効果画像生成手段134によって、ステップS23で設定した関数に基づいて、視点位置を求め、求めた視点位置の仮想カメラで3次元形状モデルを撮影する。このようにして、視覚効果画像生成手段134は、視覚効果画像を生成する(ステップS24)。
The visual effect adding means 13 obtains the viewpoint position by the visual effect image generating means 134 based on the function set in step S23, and images the three-dimensional shape model with the virtual camera at the obtained viewpoint position. In this way, the visual effect
以上のように、本願発明の実施形態に係る表示画像生成装置1は、表示する3次元形状モデルを視点位置にそのまま対応させずに、視点位置と3次元形状モデルの状態及び時間変化との間に関数を介在させることで、多様な視覚効果を付加することができる。これによって、表示画像生成装置1は、視点を移動させることで、立体表示装置3の視野角の制限を超えて3次元形状モデルを表示したり、3次元形状モデルをアニメーション表示したり、3次元形状モデルとは異なる付加情報を表示することができる。
As described above, the display
(変形例)
表示画像生成装置1は、前記した各実施形態に限定されず、その趣旨を逸脱しない範囲で変形を加えることができる。
(Modification)
The display
前記した実施形態では、表示画像生成装置1は、視野角の制限を超えた3次元形状モデルを表示、3次元形状モデルのアニメーション表示、及び、付加情報の表示という3種類の視覚効果を付加することとしたが、これに限定されない。ここで、表示画像生成装置1は、これら3種類の視覚効果のうち、何れか1種類以上のみを付加してもよい。
In the above-described embodiment, the display
視覚効果の第1例として、3次元形状モデルの全周を表示することとしたが、これに限定されない。例えば、表示画像生成装置1は、3次元形状モデルの半周を表示するように、式(6)の表示範囲ω=πを設定してもよい。
As a first example of the visual effect, the entire circumference of the three-dimensional shape model is displayed. However, the present invention is not limited to this. For example, the display
付加情報画像領域Sbが1画素分の領域であることとして説明したが、これに限定されない。付加情報画像領域Sbは、表示画像Iを構成する各要素画像Gで要素レンズLPに含まれる領域のうち、半分以下であればよい。 Although the additional information image area Sb has been described as an area for one pixel, the present invention is not limited to this. Additional information image area Sb, among areas included in the element lenses L P each element image G included in the display image I, may be at less than half.
前記した実施形態では、表示画像生成装置1を独立したハードウェアとして説明したが、本願発明は、これに限定されない。例えば、表示画像生成装置1は、コンピュータが備えるCPU、メモリ、ハードディスク等のハードウェア資源を、前記した各手段として協調動作させる表示画像生成プログラムで実現することもできる。このプログラムは、通信回線を介して配布してもよく、CD−ROMやフラッシュメモリ等の記録媒体に書き込んで配布してもよい。
In the above-described embodiment, the display
1 表示画像生成装置
2 立体撮影装置
3 立体表示装置
11 モデル化パラメータ入力手段
12 正規化画像設定手段
13 視覚効果付加手段
14 正規化画像生成手段
15 表示画像生成手段
16 付加情報挿入手段
21 高精細カメラ
31 画像表示パネル(画像表示手段)
131 正規化画像画素位置算出手段
132 レンズ中心位置算出手段
133 関数設定手段
133A 視点設定手段
133B 時間設定手段
133C 領域設定手段
134 視覚効果画像生成手段
LA レンズアレイ
LP 要素レンズ
DESCRIPTION OF
131 normalized image pixel position calculating means 132 lens center position calculating means 133
Claims (5)
前記要素レンズの間隔に対して自然数分の1となる画素サイズを有する正規化画像を設定する正規化画像設定手段と、
前記画像表示手段の画素間隔及び前記正規化画像の画素サイズに基づいて、前記正規化画像の画素位置を算出する正規化画像画素位置算出手段と、
被写体を表した3次元形状モデルの表示範囲又は表示時刻の少なくとも一方を表す視覚効果パラメータに基づいて、前記3次元形状モデルの表示範囲に関係付けられた仮想カメラの視点位置と、前記視点位置に関係付けられた前記3次元形状モデルの表示時刻を表す被写体状態との関数を、設定する関数設定手段と、
前記関数設定手段で設定された関数に基づいて仮想カメラの視点位置を求め、求めた前記視点位置の仮想カメラで前記3次元形状モデルを撮影することで、前記視覚効果が付加された視覚効果画像を生成する視覚効果画像生成手段と、
所定の座標変換式により前記視覚効果画像の画素の画素値を前記正規化画像の画素に割り当てることで、前記正規化画像を生成する正規化画像生成手段と、
前記正規化画像生成手段が生成した正規化画像から前記表示画像を生成する表示画像生成手段と、
を備えることを特徴とする表示画像生成装置。 A display image generation device that generates a display image with a visual effect added thereto for display on a stereoscopic display device including a lens array in which element lenses are two-dimensionally arranged and an image display means,
A normalized image setting means for setting a normalized image having a pixel size that is a natural number with respect to the interval between the element lenses;
Normalized image pixel position calculating means for calculating a pixel position of the normalized image based on a pixel interval of the image display means and a pixel size of the normalized image;
Based on a visual effect parameter representing at least one of a display range or a display time of a three-dimensional shape model representing a subject, the viewpoint position of the virtual camera related to the display range of the three-dimensional shape model, and the viewpoint position Function setting means for setting a function with the subject state representing the display time of the related three-dimensional shape model;
A visual effect image to which the visual effect is added by obtaining the viewpoint position of the virtual camera based on the function set by the function setting means and photographing the three-dimensional shape model with the virtual camera at the obtained viewpoint position Visual effect image generating means for generating
A normalized image generating means for generating the normalized image by assigning a pixel value of the pixel of the visual effect image to the pixel of the normalized image by a predetermined coordinate transformation formula;
Display image generating means for generating the display image from the normalized image generated by the normalized image generating means;
A display image generating apparatus comprising:
前記視覚効果画像生成手段は、前記視点設定手段が関係付けた関数に基づいて、前記仮想カメラの視点位置毎に前記3次元形状モデルの異なる表示範囲を割り当てることで、前記視覚効果画像を生成することを特徴とする請求項1に記載の表示画像生成装置。
The visual effect image generation unit generates the visual effect image by allocating different display ranges of the three-dimensional shape model for each viewpoint position of the virtual camera based on the function related to the viewpoint setting unit. The display image generation apparatus according to claim 1, wherein the display image generation apparatus is a display image generation apparatus.
前記視覚効果画像生成手段は、前記時間設定手段が関係付けた関数に基づいて、前記仮想カメラの視点位置毎に異なる表示時刻の前記3次元形状モデルを割り当てることで、前記視覚効果画像を生成することを特徴とする請求項1又は請求項2に記載の表示画像生成装置。 The function setting means relates to the viewpoint position of the virtual camera farther from the center of the image display means, as the display time moves away from a preset reference time in the function. Time setting means for attaching,
The visual effect image generating unit generates the visual effect image by assigning the three-dimensional shape model having a different display time for each viewpoint position of the virtual camera based on a function related to the time setting unit. The display image generation apparatus according to claim 1 or 2, wherein the display image generation apparatus is a display image generation apparatus.
前記付加情報が入力され、前記領域設定手段が関係付けた関数に基づいて、入力された前記付加情報を前記表示画像の付加情報画素領域に挿入する付加情報挿入手段、をさらに備えることを特徴とする請求項1から請求項3の何れか一項に記載の表示画像生成装置。 The function setting means includes area setting means for associating an additional information pixel area for displaying additional information and a viewpoint position of the virtual camera in the function,
The apparatus further comprises additional information insertion means for inserting the input additional information into the additional information pixel area of the display image based on a function to which the additional information is input and the area setting means is related. The display image generation device according to any one of claims 1 to 3.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014106890A JP6300358B2 (en) | 2014-05-23 | 2014-05-23 | Display image generating apparatus and program thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014106890A JP6300358B2 (en) | 2014-05-23 | 2014-05-23 | Display image generating apparatus and program thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015222892A true JP2015222892A (en) | 2015-12-10 |
JP6300358B2 JP6300358B2 (en) | 2018-03-28 |
Family
ID=54785712
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014106890A Active JP6300358B2 (en) | 2014-05-23 | 2014-05-23 | Display image generating apparatus and program thereof |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6300358B2 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009278456A (en) * | 2008-05-15 | 2009-11-26 | Hitachi Ltd | Video display device |
JP2011234142A (en) * | 2010-04-28 | 2011-11-17 | Nippon Hoso Kyokai <Nhk> | Stereoscopic image generation device and its program |
WO2012144611A1 (en) * | 2011-04-22 | 2012-10-26 | グラパックジャパン株式会社 | Image-display sheet |
JP2013016022A (en) * | 2011-07-04 | 2013-01-24 | Toshiba Corp | Medical image processing device, medical image storage communication system, and server for medical image storage communication system |
JP2013064996A (en) * | 2011-08-26 | 2013-04-11 | Nikon Corp | Three-dimensional image display device |
-
2014
- 2014-05-23 JP JP2014106890A patent/JP6300358B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009278456A (en) * | 2008-05-15 | 2009-11-26 | Hitachi Ltd | Video display device |
JP2011234142A (en) * | 2010-04-28 | 2011-11-17 | Nippon Hoso Kyokai <Nhk> | Stereoscopic image generation device and its program |
WO2012144611A1 (en) * | 2011-04-22 | 2012-10-26 | グラパックジャパン株式会社 | Image-display sheet |
JP2013016022A (en) * | 2011-07-04 | 2013-01-24 | Toshiba Corp | Medical image processing device, medical image storage communication system, and server for medical image storage communication system |
JP2013064996A (en) * | 2011-08-26 | 2013-04-11 | Nikon Corp | Three-dimensional image display device |
Also Published As
Publication number | Publication date |
---|---|
JP6300358B2 (en) | 2018-03-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7443602B2 (en) | Mixed reality system with virtual content warping and how to use it to generate virtual content | |
EP3057066B1 (en) | Generation of three-dimensional imagery from a two-dimensional image using a depth map | |
US10560687B2 (en) | LED-based integral imaging display system as well as its control method and device | |
CN106101689B (en) | The method that using mobile phone monocular cam virtual reality glasses are carried out with augmented reality | |
JP7201869B1 (en) | Generate new frames with rendered and unrendered content from the previous eye | |
EP3465630B1 (en) | Light-field viewpoint and pixel culling for a head mounted display device | |
JP4928476B2 (en) | Stereoscopic image generating apparatus, method thereof and program thereof | |
JP5809607B2 (en) | Image processing apparatus, image processing method, and image processing program | |
KR20080111306A (en) | Method and apparatus for generating elemental image in integral imaging | |
JP5522794B2 (en) | Stereoscopic image generating apparatus and program thereof | |
US11436698B2 (en) | Method of playing back image on display device and display device | |
JP5452801B2 (en) | Stereoscopic image generating apparatus and program thereof | |
JP6708444B2 (en) | Image processing apparatus and image processing method | |
KR20200056721A (en) | Method and apparatus for measuring optical properties of augmented reality device | |
CN104240281A (en) | Virtual reality head-mounted device based on Unity3D engine | |
JP5252703B2 (en) | 3D image display device, 3D image display method, and 3D image display program | |
JP6166985B2 (en) | Image generating apparatus and image generating program | |
KR101208767B1 (en) | Stereoscopic image generation method, device and system using circular projection and recording medium for the same | |
JP6300358B2 (en) | Display image generating apparatus and program thereof | |
JP5565126B2 (en) | Three-dimensional printed material production support device, plug-in program, three-dimensional printed material production method, and three-dimensional printed material | |
KR101425321B1 (en) | System for displaying 3D integrated image with adaptive lens array, and method for generating elemental image of adaptive lens array | |
KR101883883B1 (en) | method for glass-free hologram display without flipping images | |
JP6788472B2 (en) | Element image generator and its program | |
JP7364726B2 (en) | A method of forming an image of an object, a computer program product, and an image forming system for carrying out the method | |
US20220232201A1 (en) | Image generation system and method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170328 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20171207 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180130 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180223 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6300358 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |