JP2015222892A - Display image generation device and program therefor - Google Patents

Display image generation device and program therefor Download PDF

Info

Publication number
JP2015222892A
JP2015222892A JP2014106890A JP2014106890A JP2015222892A JP 2015222892 A JP2015222892 A JP 2015222892A JP 2014106890 A JP2014106890 A JP 2014106890A JP 2014106890 A JP2014106890 A JP 2014106890A JP 2015222892 A JP2015222892 A JP 2015222892A
Authority
JP
Japan
Prior art keywords
image
display
visual effect
pixel
shape model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014106890A
Other languages
Japanese (ja)
Other versions
JP6300358B2 (en
Inventor
片山 美和
Miwa Katayama
美和 片山
健介 久富
Kensuke Hisatomi
健介 久富
健佑 池谷
Takesuke Iketani
健佑 池谷
三科 智之
Tomoyuki Mishina
智之 三科
岩舘 祐一
Yuichi Iwadate
祐一 岩舘
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK, Japan Broadcasting Corp filed Critical Nippon Hoso Kyokai NHK
Priority to JP2014106890A priority Critical patent/JP6300358B2/en
Publication of JP2015222892A publication Critical patent/JP2015222892A/en
Application granted granted Critical
Publication of JP6300358B2 publication Critical patent/JP6300358B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a display image generation device capable of adding a variety of visual effects.SOLUTION: A display image generation device 1 includes: modeling parameter input means 11; normalization image set means 12; a visual effect addition means 13 for setting a function which associates a view point position, a display range of a three-dimensional shape model, a display time of the three-dimensional shape model and an additional information pixel region for displaying additional information, and obtaining a view point position on the basis of the function, and imaging the three-dimensional shape model with a virtual camera of the obtained view point position, to generate a visual effect image; normalized image generation means 14 for allocating the pixel value of the pixel of the visual effect image to the pixel of the normalized image, to generate a normalized image; and display image generation means 15 for generating a display image from the normalized image.

Description

本願発明は、インテグラルフォトグラフィ(IP:Integral Photography)方式を用いた立体表示装置の表示画像を生成する表示画像生成装置及びそのプログラムに関する。   The present invention relates to a display image generation apparatus that generates a display image of a stereoscopic display apparatus using an integral photography (IP) system and a program therefor.

近年、立体表示装置の研究開発が進み、特殊なメガネを用いなくても観察者に立体像を視認させることが可能な裸眼方式の立体表示装置が開発されている。例えば、IP方式の立体表示装置は、高精細画像表示パネルと、その前面に配置された2次元レンズアレイとを備え、高精細画像表示パネルに要素画像を表示すると立体像が再生される。   In recent years, research and development of stereoscopic display devices have progressed, and naked-eye type stereoscopic display devices that allow an observer to visually recognize a stereoscopic image without using special glasses have been developed. For example, an IP stereoscopic display device includes a high-definition image display panel and a two-dimensional lens array disposed on the front surface thereof, and a stereoscopic image is reproduced when an element image is displayed on the high-definition image display panel.

従来のIP方式では、立体画像の表示に特化した手法が提案されている(例えば、特許文献1)。特許文献1に記載の発明は、複数人数が同時にインテグラル立体映像を観察する場合において、年齢などの個人情報を参照して適切な奥行き値(飛び出し量)を判断して各観察者に適した立体画像を表示するものである。例えば、この特許文献1に記載の発明では、子供又は大人といった観察者の年齢に応じて、適切な奥行きの立体画像を表示することができる。   In the conventional IP method, a method specialized in displaying a stereoscopic image has been proposed (for example, Patent Document 1). The invention described in Patent Document 1 is suitable for each observer by judging an appropriate depth value (amount of popping out) by referring to personal information such as age when a plurality of persons observe an integral stereoscopic image at the same time. A stereoscopic image is displayed. For example, in the invention described in Patent Document 1, a stereoscopic image with an appropriate depth can be displayed according to the age of an observer such as a child or an adult.

特開2006−262191号公報JP 2006-262191 A

しかし、従来のIP方式では、単に仮想的な3次元空間を再現し、立体像を忠実に表示しているにすぎない。そこで、従来のIP方式において、視野角が約20度に制限された立体表示装置で被写体の全周を表示したり、被写体の時間変化を表示するような、多様な視覚効果を付加したいという要望がある。   However, the conventional IP method merely reproduces a virtual three-dimensional space and faithfully displays a stereoscopic image. Therefore, in the conventional IP system, there is a demand for adding various visual effects such as displaying the entire circumference of the subject on a stereoscopic display device whose viewing angle is limited to about 20 degrees or displaying the temporal change of the subject. There is.

本願発明は、多様な視覚効果を付加できる表示画像生成装置及びそのプログラムを提供することを課題とする。   It is an object of the present invention to provide a display image generation apparatus and a program for adding various visual effects.

前記した課題に鑑みて、本願発明に係る表示画像生成装置は、要素レンズを2次元に配置したレンズアレイと画像表示手段とを備える立体表示装置で表示するために、視覚効果が付加された表示画像を生成する表示画像生成装置であって、正規化画像設定手段と、正規化画像画素位置算出手段と、関数設定手段と、視覚効果画像生成手段と、正規化画像生成手段と、表示画像生成手段と、を備えることを特徴とする。   In view of the above-described problems, the display image generation device according to the present invention is a display with a visual effect added to display on a stereoscopic display device including a lens array in which element lenses are two-dimensionally arranged and image display means. A display image generation device for generating an image, comprising a normalized image setting unit, a normalized image pixel position calculation unit, a function setting unit, a visual effect image generation unit, a normalized image generation unit, and a display image generation And means.

かかる構成によれば、表示画像生成装置は、正規化画像設定手段によって、要素レンズの間隔に対して自然数分の1となる画素サイズを有する正規化画像を設定する。また、表示画像生成装置は、正規化画像画素位置算出手段によって、画像表示手段の画素間隔及び正規化画像の画素サイズに基づいて、正規化画像の画素位置を算出する。   According to this configuration, the display image generation device sets a normalized image having a pixel size that is a natural number with respect to the distance between the element lenses by the normalized image setting unit. In the display image generation device, the normalized image pixel position calculation unit calculates the pixel position of the normalized image based on the pixel interval of the image display unit and the pixel size of the normalized image.

また、表示画像生成装置は、関数設定手段によって、被写体を表した3次元形状モデルの表示範囲又は表示時刻の少なくとも一方を表す視覚効果パラメータに基づいて、3次元形状モデルの表示範囲に関係付けられた仮想カメラの視点位置と、視点位置に関係付けられた3次元形状モデルの表示時刻を表す被写体状態との関数を、設定する。
このように、表示画像生成装置は、表示対象となる3次元形状モデルを視点位置にそのまま対応させずに、視点位置と3次元形状モデルの状態及び時間変化との間に関数を介在させる。
In addition, the display image generation device is related to the display range of the three-dimensional shape model based on the visual effect parameter representing at least one of the display range or the display time of the three-dimensional shape model representing the subject by the function setting means. A function of the viewpoint position of the virtual camera and the subject state representing the display time of the three-dimensional shape model related to the viewpoint position is set.
As described above, the display image generation apparatus interposes a function between the viewpoint position and the state and time change of the three-dimensional shape model without directly matching the three-dimensional shape model to be displayed with the viewpoint position.

また、表示画像生成装置は、視覚効果画像生成手段によって、関数設定手段で設定された関数に基づいて仮想カメラの視点位置を求め、求めた視点位置の仮想カメラで3次元形状モデルを撮影することで、視覚効果が付加された視覚効果画像を生成する。   The display image generation device obtains the viewpoint position of the virtual camera based on the function set by the function setting means by the visual effect image generation means, and shoots the three-dimensional shape model with the virtual camera at the obtained viewpoint position. Thus, a visual effect image to which a visual effect is added is generated.

また、表示画像生成装置は、正規化画像生成手段によって、所定の座標変換式により視覚効果画像の画素の画素値を正規化画像の画素に割り当てることで、正規化画像を生成する。そして、表示画像生成装置は、表示画像生成手段によって、正規化画像生成手段が生成した正規化画像から表示画像を生成する。   In addition, the display image generation device generates a normalized image by assigning the pixel value of the pixel of the visual effect image to the pixel of the normalized image using a predetermined coordinate conversion formula by the normalized image generation unit. Then, the display image generating device generates a display image from the normalized image generated by the normalized image generating unit by the display image generating unit.

本願発明は、表示対象となる3次元形状モデルを視点位置にそのまま対応させずに、視点位置と3次元形状モデルの状態及び時間変化との間に関数を介在させることで、多様な視覚効果を付加することができる。また、本願発明は、視点を移動させることで、立体表示装置の視野角の制限を超えて3次元形状モデルを表示したり、3次元形状モデルをアニメーション表示することができる。   The present invention does not directly correspond to the viewpoint position of the 3D shape model to be displayed, but intervenes a function between the viewpoint position and the state and time change of the 3D shape model, thereby providing various visual effects. Can be added. In the present invention, by moving the viewpoint, it is possible to display a three-dimensional shape model or display an animation of the three-dimensional shape model beyond the limit of the viewing angle of the stereoscopic display device.

(a)は従来の立体撮影装置の概略図であり、(b)は従来の立体表示装置の概略図である。(A) is a schematic diagram of a conventional stereoscopic imaging device, and (b) is a schematic diagram of a conventional stereoscopic display device. 本願発明の実施形態に係る立体像生成装置の構成を示すブロック図である。It is a block diagram which shows the structure of the stereo image production | generation apparatus which concerns on embodiment of this invention. 本願発明の実施形態における立体表示装置のモデル化を示す概念図であり、要素画像と、画像表示パネルと、レンズアレイとの位置関係を示す説明図である。It is a conceptual diagram which shows modeling of the three-dimensional display apparatus in embodiment of this invention, and is explanatory drawing which shows the positional relationship of an element image, an image display panel, and a lens array. 本願発明の実施形態において、正規化画像と、レンズアレイとの位置関係を示す説明図である。In embodiment of this invention, it is explanatory drawing which shows the positional relationship of a normalized image and a lens array. 図2の視覚効果付加手段の構成を示すブロック図である。It is a block diagram which shows the structure of the visual effect addition means of FIG. 本願発明の実施形態において、正規化画像と、レンズアレイと、投影面との位置関係を示す説明図である。In embodiment of this invention, it is explanatory drawing which shows the positional relationship of a normalized image, a lens array, and a projection surface. 本願発明の実施形態において、3次元形状モデルと視点位置との位置関係を示す説明図である。In embodiment of this invention, it is explanatory drawing which shows the positional relationship of a three-dimensional shape model and a viewpoint position. (a)及び(b)は、本願発明の実施形態において、視点位置と3次元形状モデルの表示範囲との関係を示す説明図である。(A) And (b) is explanatory drawing which shows the relationship between a viewpoint position and the display range of a three-dimensional shape model in embodiment of this invention. 本願発明の実施形態において、視点位置と3次元形状モデルの表示時刻との関係を示す説明図である。In embodiment of this invention, it is explanatory drawing which shows the relationship between a viewpoint position and the display time of a three-dimensional shape model. 本願発明の実施形態において、仮想カメラによる撮影を説明する説明図であり、レンズアレイと、正規化画像と、3次元形状モデルとの位置関係を示す図である。In embodiment of this invention, it is explanatory drawing explaining imaging | photography with a virtual camera, and is a figure which shows the positional relationship of a lens array, a normalized image, and a three-dimensional shape model. 本願発明の実施形態において、仮想カメラによる撮影を説明する説明図であり、レンズアレイ上のサンプル点と、正規化画像との位置関係を示す図である。In embodiment of this invention, it is explanatory drawing explaining imaging | photography with a virtual camera, and is a figure which shows the positional relationship of the sample point on a lens array, and a normalized image. 本願発明の実施形態において、仮想カメラによる撮影を説明する説明図であり、正規化画像と、レンズアレイと、仮想カメラとの位置関係を示す図である。In embodiment of this invention, it is explanatory drawing explaining imaging | photography with a virtual camera, and is a figure which shows the positional relationship of a normalized image, a lens array, and a virtual camera. 本願発明の実施形態において、表示画像の生成を説明する説明図である。In embodiment of this invention, it is explanatory drawing explaining the production | generation of a display image. 本願発明の実施形態において、(a)は3次元形状モデルの一例を示し、(b)は付加情報の一例を示し、(c)は付加情報画素領域の一例を示す説明図である。In the embodiment of the present invention, (a) shows an example of a three-dimensional shape model, (b) shows an example of additional information, and (c) is an explanatory diagram showing an example of an additional information pixel region. (a)〜(c)は、本願発明の実施形態において、付加情報の挿入を説明する説明図である。(A)-(c) is explanatory drawing explaining insertion of additional information in embodiment of this invention. 図2の表示画像生成装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the display image generation apparatus of FIG. 図16の視覚効果画像生成処理を示すフローチャートである。It is a flowchart which shows the visual effect image generation process of FIG.

[IP方式の概略]
以下、本願発明の実施形態について、適宜図面を参照しながら詳細に説明する。
まず、本願発明の実施形態に係る表示画像生成装置1(図2参照)の前提として、一般的なIP方式の概略について説明する。
[Outline of IP method]
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings as appropriate.
First, an outline of a general IP system will be described as a premise of the display image generation apparatus 1 (see FIG. 2) according to the embodiment of the present invention.

図1(a)に示すように、立体撮影装置2は、被写体UをIP方式で撮影するものであり、要素レンズLを2次元に配置したレンズアレイLと、高精細カメラ21とを備える。立体撮影装置2は、レンズアレイLを介して、被写体Uからの光を高精細カメラ21で記録する。これにより、立体撮影装置2は、レンズアレイLの仕様に従って、各要素レンズLで形成された像が並んだ表示画像Iを生成する。 As shown in FIG. 1 (a), the stereoscopic imaging device 2 is for imaging an IP scheme subject U, a lens array L A placing the element lenses L P two-dimensionally, and a high-definition camera 21 Prepare. Stereoscopic imaging apparatus 2 via the lens array L A, records the light from the subject U high definition camera 21. Thus, the stereoscopic imaging device 2, according to the specifications of the lens array L A, generates a display image I lined image formed by the element lenses L P.

図1(b)に示すように、立体表示装置3は、立体撮影装置2が生成した表示画像I(複数の要素画像Gを縦横に配置した画像)をIP方式で表示するものであり、液晶ディスプレイ等の画像表示パネル(画像表示手段)31と、要素レンズLを2次元に配置したレンズアレイLとを備える。 As shown in FIG. 1B, the stereoscopic display device 3 displays a display image I (an image in which a plurality of element images G are arranged vertically and horizontally) generated by the stereoscopic imaging device 2 in an IP system. It includes an image display panel (image display means) 31 such as a display, and a lens array L a placing the element lenses L P two-dimensionally.

立体表示装置3は、画像表示パネル31の表示面に、立体撮影装置2が生成した表示対象の表示画像Iを表示する。このとき、要素画像Gに対応する要素レンズLは一意に決まる。すると、立体表示装置3は、要素レンズLにより要素画像Gを空中に投影して立体像Zを形成する。このとき、観察者Aは、レンズアレイLの要素レンズLを通して、それぞれの要素画像Gを観視することで、立体像Zを視認することができる。このように、IP方式では、被写体空間の光線を取得、再現しているので、視点が移動しても、視点位置に応じた立体像Zを表示できる。つまり、IP方式は、被写体Uが実在するかのような立体像Zを再生する。 The stereoscopic display device 3 displays the display image I to be displayed generated by the stereoscopic imaging device 2 on the display surface of the image display panel 31. In this case, the element lenses L P corresponding to the element image G is uniquely determined. Then, the stereoscopic display device 3 forms a three-dimensional image Z and projected by the element lenses L P elements image G in the air. At this time, the viewer A, through element lenses L P of the lens array L A, by viewing each element image G, it is possible to visually recognize a stereoscopic image Z. As described above, in the IP method, since the light rays in the subject space are acquired and reproduced, the stereoscopic image Z corresponding to the viewpoint position can be displayed even if the viewpoint moves. In other words, the IP method reproduces a stereoscopic image Z as if the subject U actually exists.

ここで、表示画像生成装置1(図2)を用いれば、多様な視覚効果を付加することが可能である。例えば、表示画像生成装置1は、視点を移動させることで、立体表示装置3で被写体Uの全周を表示したり(視覚効果の第1例)、被写体Uをアニメーション表示したり(視覚効果の第2例)、被写体Uとは別の付加情報を表示できる(視覚効果の第3例)。   Here, if the display image generating apparatus 1 (FIG. 2) is used, various visual effects can be added. For example, the display image generation device 1 displays the entire circumference of the subject U on the stereoscopic display device 3 by moving the viewpoint (first example of visual effect), or displays the subject U as an animation (visual effect). Second example), additional information different from the subject U can be displayed (third example of visual effects).

[表示画像生成装置の構成]
図2を参照し、本願発明の実施形態に係る表示画像生成装置1の構成を説明する。
表示画像生成装置1は、視覚効果が付加された表示画像を生成するものであり、モデル化パラメータ入力手段11と、正規化画像設定手段12と、視覚効果付加手段13と、正規化画像生成手段14と、表示画像生成手段15と、付加情報挿入手段16とを備える。
[Configuration of display image generation apparatus]
With reference to FIG. 2, the structure of the display image generation apparatus 1 which concerns on embodiment of this invention is demonstrated.
The display image generating apparatus 1 generates a display image to which a visual effect is added, and includes a modeling parameter input unit 11, a normalized image setting unit 12, a visual effect adding unit 13, and a normalized image generating unit. 14, display image generation means 15, and additional information insertion means 16.

モデル化パラメータ入力手段11は、例えば、表示画像生成装置1の利用者から、立体表示装置3をモデル化するためのモデル化パラメータ(F,R,R,P)が入力されると共に、このモデル化パラメータを正規化画像設定手段12に出力する。このモデル化パラメータは、図3で示すように定義される。 The modeling parameter input means 11 receives, for example, modeling parameters (F, R H , R V , P) for modeling the stereoscopic display device 3 from the user of the display image generation device 1, This modeling parameter is output to the normalized image setting means 12. This modeling parameter is defined as shown in FIG.

F:要素レンズLの焦点距離(画像表示パネル31とレンズアレイLとの距離)
:レンズアレイLにおける要素レンズLの水平方向の間隔(水平間隔)
:レンズアレイLにおける要素レンズLの垂直方向の間隔(垂直間隔)
P:画像表示パネル31の画素間隔
F: focal length of the element lenses L P (distance between the image display panel 31 and the lens array L A)
R H: horizontal spacing of the lens array L A element lenses in L P (horizontal spacing)
R V: vertical spacing of the lens array L A element lenses in L P (vertical spacing)
P: Pixel interval of the image display panel 31

本実施形態では、要素レンズLが一行毎に水平間隔R/2だけオフセットしており、垂直間隔Rが水平間隔Rの√3/2倍であるとして説明する。
また、水平間隔R及び垂直間隔Rが要素画像Gの画素間隔の自然数倍でないこととして説明する。
In this embodiment, the element lens L P are offset by the horizontal distance R H / 2 per line, the vertical distance R V is described as a √3 / 2 times the horizontal spacing R H.
Further, the description will be made assuming that the horizontal interval RH and the vertical interval RV are not natural numbers times the pixel interval of the element image G.

ここで、水平間隔R及び垂直間隔Rが要素画像Gの画素間隔の自然数倍でないため(この自然数は0を含まない)、仮想カメラ(正射影カメラ)を用いて撮影しても、要素画像Gの画素位置で光線を直接取得することができない。そこで、図4に示すように、仮想カメラで撮影する過程(計算過程)において、要素画像Gの画素間隔を定義し、水平間隔R及び垂直間隔Rが要素画像Gの画素間隔の自然数倍になるような中間画像を用意する。以後、この中間画像を正規化画像I´とする。 Here, since the horizontal interval RH and the vertical interval RV are not a natural number times the pixel interval of the element image G (this natural number does not include 0), even if shooting is performed using a virtual camera (orthographic camera), Light rays cannot be directly acquired at the pixel position of the element image G. Therefore, as shown in FIG. 4, in the process of taking a picture with a virtual camera (calculation process), the pixel interval of the element image G is defined, and the horizontal interval RH and the vertical interval RV are natural numbers of the pixel interval of the element image G. Prepare an intermediate image that doubles. Hereinafter, this intermediate image is referred to as a normalized image I ′.

また、物理的な位置を示す世界座標を定義する。この世界座標は、レンズアレイLの中央に位置する要素レンズLのレンズ中心を原点として、レンズアレイLの横方向をX軸、縦方向をY軸及びレンズアレイ面の鉛直方向をZ軸とする。
さらに、要素画像G全体の画像座標として(i,j)を定義する。この画像座標の原点は前記した世界座標の原点に最も近い画素であるとする。
It also defines world coordinates that indicate the physical location. The world coordinates as the origin the center of the lens element lens L P located in the center of the lens array L A, X axis horizontal direction of the lens array L A, the vertical direction in the vertical direction of the Y-axis and the lens array surface Z Axis.
Further, (i, j) is defined as the image coordinates of the entire element image G. It is assumed that the origin of the image coordinates is the pixel closest to the origin of the world coordinates.

正規化画像設定手段12は、モデル化パラメータ入力手段11から入力されたモデル化パラメータに基づいて、正規化画像I´を設定するものである。具体的には、正規化画像設定手段12は、正規化画像I´において、下記の式(1)で表されるように、水平間隔R及び垂直間隔Rを要素レンズL間の画素数Mで除算することで、正規化画像I´の水平方向の画素サイズP及び正規化画像I´の垂直方向の画素サイズPを算出する。以下、水平画素サイズP及び垂直画素サイズPと略記する場合がある。 The normalized image setting unit 12 sets the normalized image I ′ based on the modeling parameter input from the modeling parameter input unit 11. Specifically, the normalized image setting unit 12, the normalized image I', as represented by the following formula (1), pixels between horizontal spacing R H and the vertical distance R V elements lens L P By dividing by the number M, the pixel size P H in the horizontal direction of the normalized image I ′ and the pixel size P V in the vertical direction of the normalized image I ′ are calculated. Hereinafter sometimes abbreviated as horizontal pixel size P H and a vertical pixel size P V.

Figure 2015222892
Figure 2015222892

このとき、正規化画像設定手段12は、下記の式(2)で表されるように、水平間隔Rを画素間隔Pで除算した値に基づいて、要素レンズL間の画素数Mを算出する。そして、正規化画像設定手段12は、これらモデル化パラメータ(F,R,R,P,P,P)を視覚効果付加手段13に出力する。
なお、式(2)において、“<a>”は、aを四捨五入して自然数化することを意味する。つまり、“<R/P>”は、図3での要素レンズL間の画素数となる。
In this case, the normalized image setting unit 12, as represented by the formula (2) below, based on the value obtained by dividing the horizontal distance R H at the pixel spacing P, and the number of pixels M between elements lens L P calculate. Then, the normalized image setting unit 12 outputs these modeling parameters (F, R H , R V , P, P H , P V ) to the visual effect adding unit 13.
In formula (2), “<a>” means rounding off a to a natural number. That, "<R H / P> " is a number of pixels between the element lenses L P in FIG.

Figure 2015222892
Figure 2015222892

図5に示すように、視覚効果付加手段13は、視覚効果を付加するものであり、正規化画像画素位置算出手段131と、レンズ中心位置算出手段132と、関数設定手段133と、視覚効果画像生成手段134とを備える。
また、視覚効果付加手段13は、正規化画像設定手段12からモデル化パラメータ(F,R,R,P,P,P)が入力される。さらに、視覚効果付加手段13は、例えば、表示画像生成装置1の利用者から、後記する視覚効果パラメータと、3次元形状モデルobj(図8)と、定数Nとが入力される。
As shown in FIG. 5, the visual effect adding unit 13 adds a visual effect, and includes a normalized image pixel position calculating unit 131, a lens center position calculating unit 132, a function setting unit 133, and a visual effect image. Generating means 134.
Further, the visual effect adding means 13 receives modeled parameters (F, R H , R V , P, P H , P V ) from the normalized image setting means 12. Further, the visual effect adding means 13 receives, for example, a visual effect parameter, a three-dimensional shape model obj (FIG. 8), and a constant N, which will be described later, from the user of the display image generating device 1.

正規化画像画素位置算出手段131は、画像表示パネル31の画素間隔P、水平画素サイズP及び垂直画素サイズPに基づいて、正規化画像I´の画素位置を算出するものである。 Normalized image pixel position calculating means 131, the pixel pitch P of the image display panel 31, based on the horizontal pixel size P H and a vertical pixel size P V, and calculates the pixel positions of the normalized image I'.

ここで、式(1)を用いると、正規化画像I´の(世界座標)を下記の式(3)で表すことができる。従って、正規化画像画素位置算出手段131は、下記の式(4)で表されるように、画像表示パネル31の画素間隔Pを、水平画素サイズP及び垂直画素サイズPのそれぞれで除算することで、正規化画像I´の画素座標を算出する。つまり、表示画像Iの画素座標は、式(4)を用いて、正規化画像I´の画素位置に変換できる。
なお、式(4)において、(i´,j´)が正規化画像I´の画素座標を示す。
Here, using equation (1), the (world coordinates) of the normalized image I ′ can be expressed by the following equation (3). Accordingly, the normalized image pixel position calculation unit 131 divides the pixel interval P of the image display panel 31 by the horizontal pixel size P H and the vertical pixel size P V as represented by the following expression (4). Thus, the pixel coordinates of the normalized image I ′ are calculated. That is, the pixel coordinates of the display image I can be converted into the pixel positions of the normalized image I ′ using the equation (4).
In equation (4), (i ′, j ′) represents the pixel coordinates of the normalized image I ′.

Figure 2015222892
Figure 2015222892

Figure 2015222892
Figure 2015222892

そして、正規化画像画素位置算出手段131は、モデル化パラメータ(F,R,R,P,P,P)と、算出した正規化画像I´の画素座標とをレンズ中心位置算出手段132に出力する。 Then, the normalized image pixel position calculation unit 131 calculates the lens center position using the modeling parameters (F, R H , R V , P, P H , P V ) and the calculated pixel coordinates of the normalized image I ′. Output to the means 132.

レンズ中心位置算出手段132は、正規化画像画素位置算出手段131からモデル化パラメータ(F,R,R,P,P,P)と、算出した正規化画像I´の画素座標とが入力される。そして、レンズ中心位置算出手段132は、下記の式(5)を用いて、水平方向にn番目で垂直方向にm番目の要素レンズLの中心位置H(n,m)を算出する。 The lens center position calculating unit 132 calculates the modeling parameters (F, R H , R V , P, P H , P V ) from the normalized image pixel position calculating unit 131 and the calculated pixel coordinates of the normalized image I ′. Is entered. Then, the lens center position calculating means 132 using Equation (5) below, the center position H (n, m) of the m-th element lens L P at the n-th in the horizontal direction in the vertical direction is calculated.

Figure 2015222892
Figure 2015222892

その後、レンズ中心位置算出手段132は、正規化画像I´の画素座標と、中心位置Hと、モデル化パラメータ(F,R,R,P,P,P)とを視覚効果画像生成手段134に出力する。 Thereafter, the lens center position calculation unit 132 uses the pixel coordinates of the normalized image I ′, the center position H, and the modeling parameters (F, R H , R V , P, P H , P V ) as the visual effect image. The data is output to the generation unit 134.

関数設定手段133は、視覚効果の内容を示す関数F(V,T,S)を設定するものであり、図5に示すように、視点設定手段133Aと、時間設定手段133Bと、領域設定手段133Cとを備える。   The function setting unit 133 sets a function F (V, T, S) indicating the contents of the visual effect. As shown in FIG. 5, the viewpoint setting unit 133A, the time setting unit 133B, and the region setting unit 133C.

関数F(V,T,S)は、仮想3次元空間における視点位置及び被写体状態の関数であり、視点位置Vを表す変数と、被写体状態を表す変数として、視点位置Vに関係付けられた表示時刻T及びシーン識別子Sを含む。
被写体状態とは、3次元形状モデルが表示される状態のことである。例えば、被写体状態は、3次元形状モデルobjを表示する時刻又はシーンのような、3次元形状モデルが表示される状態に影響を与えるものである。
The function F (V, T, S) is a function of the viewpoint position and the subject state in the virtual three-dimensional space, and a display related to the viewpoint position V as a variable representing the viewpoint position V and a variable representing the subject state. Time T and scene identifier S are included.
The subject state is a state where a three-dimensional shape model is displayed. For example, the subject state affects the state in which the 3D shape model is displayed, such as the time or scene at which the 3D shape model obj is displayed.

視点位置Vは、観察者Aが3次元形状モデルobjを観察する位置を表し、仮想3次元空間に配置された仮想カメラVc(図10)と同位置になる。
表示時刻Tは、時間変化(アニメーション)する3次元形状モデルobjの表示時刻を表す。
シーン識別子Sは、3次元形状モデルobjを表示するシーンと、後記する付加情報を表示するシーンとを識別する情報である。
The viewpoint position V represents a position where the observer A observes the three-dimensional shape model obj, and is the same position as the virtual camera Vc (FIG. 10) arranged in the virtual three-dimensional space.
The display time T represents the display time of the three-dimensional shape model obj that changes with time (animation).
The scene identifier S is information for identifying a scene displaying the three-dimensional shape model obj and a scene displaying additional information described later.

3次元形状モデルobjは、被写体Uの形状を表す3次元モデルであり、例えば、コンピュータグラフィックス(CG)やレンジセンサで生成することができる。この3次元形状モデルobjは、仮想空間内に配置されている。   The three-dimensional shape model obj is a three-dimensional model representing the shape of the subject U, and can be generated by, for example, computer graphics (CG) or a range sensor. The three-dimensional shape model obj is arranged in the virtual space.

視覚効果パラメータは、関数F(V,T,S)の設定に必要なパラメータであり、例えば、3次元形状モデルobjの表示範囲及び表示時刻と、付加情報画素領域とが含まれる。
3次元形状モデルobjの表示範囲は、立体表示装置3で3次元形状モデルobjが表示される範囲を表す情報である。例えば、3次元形状モデルobjの表示範囲は、3次元形状モデルobjの正面から裏側に回り込むときの回転角度を表す(最大360°=2π)。
3次元形状モデルobjの表示時刻は、表示時刻Tの開始から終了までを表す情報である。
付加情報は、3次元形状モデルobj以外の付加的な情報である。
付加情報画素領域は、表示画像Iで付加情報を表示する領域を表す情報である。
The visual effect parameter is a parameter necessary for setting the function F (V, T, S), and includes, for example, the display range and display time of the three-dimensional shape model obj, and the additional information pixel region.
The display range of the 3D shape model obj is information representing the range in which the 3D shape model obj is displayed on the stereoscopic display device 3. For example, the display range of the three-dimensional shape model obj represents a rotation angle when the three-dimensional shape model obj wraps around from the front side to the back side (maximum 360 ° = 2π).
The display time of the three-dimensional shape model obj is information representing from the start to the end of the display time T.
The additional information is additional information other than the three-dimensional shape model obj.
The additional information pixel area is information representing an area for displaying additional information on the display image I.

<視覚効果の第1例:3次元形状モデルの全周表示>
図6〜図8を参照し、視覚効果の第1例として、3次元形状モデルobjの全周表示について説明する(適宜図5参照)。
<First example of visual effects: all-round display of 3D shape model>
With reference to FIGS. 6 to 8, as a first example of the visual effect, a description will be given of the all-around display of the three-dimensional shape model obj (see FIG. 5 as appropriate).

図6では、整数x,yが、要素レンズLの中心位置Hを原点とした各要素画像Gのローカル座標系において、水平方向及び垂直方向の画素位置を表す。
また、レンズアレイLと投影面との距離をLとする。投影面とは、仮想カメラの撮影面(つまり、視点位置)が集合した平面である。
In Figure 6, the integer x u, y v is in the local coordinate system of each element image G whose origin is the center position H of the element lenses L P, represents a pixel position in the horizontal and vertical directions.
Further, the distance between the lens array L A and the projection plane and L. The projection plane is a plane on which shooting planes (that is, viewpoint positions) of the virtual camera are gathered.

図6では、3角形R1は、中心位置Hと、画素位置(x,y)と、正規化画像I´で中心位置Hに対応する位置とを頂点とする。さらに、3角形R2は、中心位置Hと、視点位置V(x´,y´,z´)と、投影面で中心位置Hに対応する位置とを頂点とする。
なお、図6では、3角形R1,R2をハッチングで図示した。
In FIG. 6, the triangle R1 has a vertex at the center position H, the pixel position (x u , y v ), and the position corresponding to the center position H in the normalized image I ′. Furthermore, the triangle R2 has a vertex at the center position H, the viewpoint position V (x ′, y ′, z ′), and a position corresponding to the center position H on the projection plane.
In FIG. 6, the triangles R1 and R2 are hatched.

図6のように、3角形R1,R2の相似によりL:F=x´:xが成立することから、下記の式(6)を利用して、画素位置(x,y)から視点位置V(x´,y´,z´)を求めることができる。 As shown in FIG. 6, since L: F = x ′: x u is established due to the similarity of the triangles R1 and R2, from the pixel position (x u , y v ) using the following equation (6). The viewpoint position V (x ′, y ′, z ′) can be obtained.

Figure 2015222892
Figure 2015222892

図7のように、3次元形状モデルobj(図7の“●”)を原点とした3次元空間に、視点位置V(x´,y´,z´)を配置した場合を考える。この場合、xz平面内において、視点位置V(x´,y´,z´)とz軸との角度θ1がωx/Mとなる。また、視点位置V(x´,y´,z´)とxz平面との角度θ2がωy/Mとなる。ここで、ωは、3次元形状モデルobjの表示範囲を表す。例えば、表示範囲ω=2πのとき、3次元形状モデルobjの全周が表示される。 Consider a case where the viewpoint position V (x ′, y ′, z ′) is arranged in a three-dimensional space with the origin of the three-dimensional shape model obj (“●” in FIG. 7) as shown in FIG. In this case, in the xz plane, the angle θ1 between the viewpoint position V (x ′, y ′, z ′) and the z axis is ωx u / M. Further, the angle θ2 between the viewpoint position V (x ′, y ′, z ′) and the xz plane is ωy v / M. Here, ω represents the display range of the three-dimensional shape model obj. For example, when the display range is ω = 2π, the entire circumference of the three-dimensional shape model obj is displayed.

また、xz平面上の三角形について、辺の長さL1がL´cos(ωy/M)となり、辺の長さL2がL´cos(ωx/M)cos(ωy/M)となる。なお、3次元形状モデルobjと視点位置V(x´,y´,z´)との距離をL´とする。 For a triangle on the xz plane, the side length L1 is L′ cos (ωy v / M), and the side length L2 is L′ cos (ωx u / M) cos (ωy v / M). . Note that the distance between the three-dimensional shape model obj and the viewpoint position V (x ′, y ′, z ′) is L ′.

以上より、式(6)を下記の式(7)で表すことができる。つまり、視点設定手段133Aは、関数F(V,T,S)において、式(7)を用いて、視点位置V(x´,y´,z´)と3次元形状モデルobjの表示範囲ωとを関係付けることができる。さらに、視点設定手段133Aは、視線方向を反転させるため、視点位置V(x´,y´,z´)を視点位置V(−x´,−y´,z´)に変換してもよい。   As described above, the formula (6) can be expressed by the following formula (7). That is, the viewpoint setting unit 133A uses the expression (7) in the function F (V, T, S) to display the viewpoint position V (x ′, y ′, z ′) and the display range ω of the three-dimensional shape model obj. Can be related. Further, the viewpoint setting unit 133A may convert the viewpoint position V (x ′, y ′, z ′) to the viewpoint position V (−x ′, −y ′, z ′) in order to reverse the line-of-sight direction. .

Figure 2015222892
Figure 2015222892

ここで、3角柱状の3次元形状モデルobjの例を考える。図8(a)に示すように、従来のIP方式では、約20度の視野角θの範囲内で3次元形状モデルobjを忠実に表示するため、3次元形状モデルobjの裏側を表示できない。一方、表示画像生成装置1では、図8(b)に示すように、視野角θの範囲内に3次元形状モデルobjの全周を関係付けるため、3次元形状モデルobjの裏側も表示することができる。   Here, consider an example of a triangular prism-shaped three-dimensional shape model obj. As shown in FIG. 8A, in the conventional IP system, since the three-dimensional shape model obj is faithfully displayed within the range of the viewing angle θ of about 20 degrees, the back side of the three-dimensional shape model obj cannot be displayed. On the other hand, as shown in FIG. 8B, the display image generating apparatus 1 displays the back side of the three-dimensional shape model obj in order to relate the entire circumference of the three-dimensional shape model obj within the range of the viewing angle θ. Can do.

<視覚効果の第2例:アニメーション表示>
図9を参照し、視覚効果の第2例として、3次元形状モデルobjのアニメーション表示について説明する(適宜図5参照)。
<Second example of visual effects: animation display>
With reference to FIG. 9, an animation display of the three-dimensional shape model obj will be described as a second example of the visual effect (see FIG. 5 as appropriate).

時間設定手段133Bは、関数F(V,T,S)において、所定の基準時刻から表示時刻Tが離れる程、表示時刻Tにおける3次元形状モデルobjを画像表示パネル31の中央から離れた視点位置V(x,y,z)に関係付けるものである。つまり、時間設定手段133Bは、3次元形状モデルobjの時間的変化を、視点位置V(x,y,z)の空間的変化で表す。   In the function F (V, T, S), the time setting unit 133B is configured to move the three-dimensional shape model obj at the display time T away from the center of the image display panel 31 as the display time T moves away from the predetermined reference time. It is related to V (x, y, z). That is, the time setting unit 133B represents a temporal change of the three-dimensional shape model obj by a spatial change of the viewpoint position V (x, y, z).

図9に示すように、上昇している風船を3次元形状モデルobjとして、9枚のフレーム画像でアニメーション表示する場合を考える。基準時刻は、全てのフレーム画像のうち、中間に位置するフレーム画像の表示時刻Tとする。つまり、基準時刻は、5枚目のフレーム画像の表示時刻Tとなる。   As shown in FIG. 9, consider a case where a rising balloon is used as a three-dimensional shape model obj and an animation is displayed with nine frame images. The reference time is the display time T of the frame image located in the middle among all the frame images. That is, the reference time is the display time T of the fifth frame image.

この場合、時間設定手段133Bは、先頭になる表示時刻T−4のフレーム画像を、画像表示パネル31の中央から最も離れた左側の視点位置V(x,y,z)に関係付ける。また、時間設定手段133Bは、表示時刻T−3,T−2,T−1のフレーム画像の順で、左側から中央寄りの視点位置V(x,y,z)に関係付ける。そして、時間設定手段133Bは、表示時刻Tのフレーム画像を画像表示パネル31の中央の視点位置V(x,y,z)に関係付ける。さらに、時間設定手段133Bは、表示時刻T+1,T+2,T+3のフレーム画像の順で、中央から右寄りの視点位置V(x,y,z)に関係付ける。その後、時間設定手段133Bは、末尾になる表示時刻T+4のフレーム画像を、画像表示パネル31の中央から最も離れた右側の視点位置V(x,y,z)に関係付ける。   In this case, the time setting unit 133 </ b> B relates the frame image at the display time T- 4 at the head to the left viewpoint position V (x, y, z) farthest from the center of the image display panel 31. The time setting unit 133B relates the viewpoint position V (x, y, z) from the left to the center in the order of the frame images at the display times T-3, T-2, and T-1. The time setting unit 133B associates the frame image at the display time T with the central viewpoint position V (x, y, z) of the image display panel 31. Further, the time setting means 133B relates the viewpoint position V (x, y, z) that is located to the right from the center in the order of the frame images at the display times T + 1, T + 2, and T + 3. Thereafter, the time setting unit 133B relates the frame image at the display time T + 4 at the end to the right viewpoint position V (x, y, z) farthest from the center of the image display panel 31.

また、約20度の視野角θの範囲内に20枚のフレーム画像を割り当てる場合を考える。この場合、時間設定手段133Bは、下記の式(8)を用いて関係付けることができる。このT´は、各視点位置V(x,y,z)で表示すべき3次元形状モデルobjの局所時間(ローカル時刻Tlocal)を表す。 Also, consider a case where 20 frame images are allocated within a range of a viewing angle θ of about 20 degrees. In this case, the time setting means 133B can be related using the following formula (8). This T ′ represents the local time (local time T local ) of the three-dimensional shape model obj to be displayed at each viewpoint position V (x, y, z).

Figure 2015222892
Figure 2015222892

一般的な立体映像(静止画)では、T´=Tとなり、どの視点位置V(x,y,z)でも同一時刻の3次元形状モデルobjが表示される。また、一般的な立体映像(動画)であれば、視点位置V(x,y,z)によらず、グローバル時刻Tglobal(動画の表示速度で決まる時刻、フレーム番号やタイムコード)での3次元形状モデルobjが表示される。 In a general stereoscopic video (still image), T ′ = T, and a three-dimensional shape model obj at the same time is displayed at any viewpoint position V (x, y, z). Further, in the case of a general stereoscopic video (moving image), 3 at the global time T global (time determined by the moving image display speed, frame number or time code) regardless of the viewpoint position V (x, y, z). A dimensional shape model obj is displayed.

ここで、視点位置V(x,y,z)により設計された時間変化をXとすると、式(8)を下記の式(9)で表すことができる。
なお、図9の例では、時間変化Xが−4≦X≦4の範囲となる。
Here, when the time change designed by the viewpoint position V (x, y, z) is Xu , the equation (8) can be expressed by the following equation (9).
In the example of FIG. 9, the time change X u is in the range of −4 ≦ X u ≦ 4.

Figure 2015222892
Figure 2015222892

<視覚効果の第3例:付加情報>
以下、視覚効果の第3例として、付加情報の表示について説明する(適宜図5参照)。
領域設定手段133Cは、関数F(V,T,S)において、付加情報画素領域と視点位置V(x,y,z)とを関係付けるものである。
<Third example of visual effects: additional information>
Hereinafter, display of additional information will be described as a third example of visual effects (see FIG. 5 as appropriate).
The area setting unit 133C relates the additional information pixel area and the viewpoint position V (x, y, z) in the function F (V, T, S).

具体的には、領域設定手段133Cは、下記の式(10)のように、視点位置V(x,y,z)が領域Saに含まれる場合、3次元形状モデルobjのシーンsaを表示するように、領域Saと視点位置V(x,y,z)とを関係付ける。また、領域設定手段133Cは、式(10)のように、視点位置V(x,y,z)が領域Sbに含まれる場合、付加情報のシーンsbを表示するように、領域Sbと視点位置V(x,y,z)とを関係付ける。つまり、式(10)は、3次元形状モデルobjを表示する3次元形状モデル画素領域Saと、付加情報を表示する付加情報画素領域Sbとを定義する。   Specifically, the region setting means 133C displays the scene sa of the three-dimensional shape model obj when the viewpoint position V (x, y, z) is included in the region Sa as in the following formula (10). As described above, the region Sa and the viewpoint position V (x, y, z) are related to each other. In addition, when the viewpoint position V (x, y, z) is included in the area Sb as in Expression (10), the area setting unit 133C displays the area Sb and the viewpoint position so as to display the additional information scene sb. Associate V (x, y, z). That is, Expression (10) defines a three-dimensional shape model pixel area Sa that displays a three-dimensional shape model obj and an additional information pixel area Sb that displays additional information.

Figure 2015222892
Figure 2015222892

その後、関数設定手段133は、設定した関数F(V,T,S)を、視覚効果画像生成手段134と、付加情報挿入手段16(図2)とに出力する。
なお、関数F(V,T,S)=1の場合、従来のIP方式と同様、3次元形状モデルobjを忠実に表示することを示す。
Thereafter, the function setting unit 133 outputs the set function F (V, T, S) to the visual effect image generation unit 134 and the additional information insertion unit 16 (FIG. 2).
When the function F (V, T, S) = 1, it indicates that the three-dimensional shape model obj is faithfully displayed as in the conventional IP method.

視覚効果画像生成手段134は、関数設定手段133から入力された関数F(V,T,S)に基づいて視点位置を求め、求めた視点位置の仮想カメラで3次元形状モデルobjを撮影することで、視覚効果画像を生成するものである。   The visual effect image generation unit 134 obtains the viewpoint position based on the function F (V, T, S) input from the function setting unit 133, and photographs the three-dimensional shape model obj with the virtual camera at the obtained viewpoint position. Thus, a visual effect image is generated.

ここで、視覚効果画像生成手段134は、3次元形状モデルobjと、定数Nとが入力される。
定数Nは、要素レンズLの数を一定倍してサンプリングすることを示す値であり、予め設定されている。
Here, the visual effect image generation means 134 receives the three-dimensional shape model obj and the constant N.
Constant N is a value indicating a sampling number of element lenses L P constant times to have been set in advance.

<仮想カメラによる撮影>
以下、図10〜図12を参照し、仮想カメラVcによる撮影を詳細に説明する(適宜図5参照)。
なお、図10では、説明を簡易にするために、3次元形状モデル(表示対象)objの一部表面のみを図示した。
また、図11では、“●”と“△”とがサンプル点を示しており、“●”は中心位置Hでのサンプル点であり、“△”は“●”以外で増やしたサンプル点である。また、図11において、“■”は、それぞれの要素画像Gの中で、中心位置Hに対して同じ相対位置となる計算対象の画素である。つまり、視覚効果画像生成手段134は、各要素画像Gの画素位置を、中心位置Hを原点とするローカル座標(u,v)によって表すことができる。
また、図11及び図12では、仮想カメラの画素数は、レンズアレイLの“●”及び“△”をあわせたサンプル点と同数としている。また、図12では、光線のそれぞれを矢印で図示している。
<Shooting with a virtual camera>
Hereinafter, photographing with the virtual camera Vc will be described in detail with reference to FIGS. 10 to 12 (see FIG. 5 as appropriate).
In FIG. 10, only a partial surface of the three-dimensional shape model (display target) obj is shown for the sake of simplicity.
In FIG. 11, “●” and “△” indicate sample points, “●” is a sample point at the center position H, and “Δ” is an increased sample point other than “●”. is there. In FIG. 11, “■” is a pixel to be calculated that has the same relative position with respect to the center position H in each element image G. That is, the visual effect image generation unit 134 can represent the pixel position of each element image G by local coordinates (u, v) with the center position H as the origin.
Further, in FIG. 11 and FIG. 12, the number of pixels the virtual camera, the lens array L A "●" are and "△" the sample points and the same number of combined. Further, in FIG. 12, each of the light rays is indicated by an arrow.

まず、視覚効果画像生成手段134は、関数F(V,T,S)で求めた視点位置に仮想カメラVcを配置する。例えば、視覚効果画像生成手段134は、前記した第1例であれば、3次元形状モデルobjの全周を撮影できる視点位置に仮想カメラVcを配置する。また、例えば、視覚効果画像生成手段134は、前記した第2例であれば、3次元形状モデルobjの時間時刻T−4〜T+4に応じて、異なる視点位置に仮想カメラを配置する。   First, the visual effect image generation unit 134 arranges the virtual camera Vc at the viewpoint position obtained by the function F (V, T, S). For example, in the case of the first example, the visual effect image generation unit 134 arranges the virtual camera Vc at a viewpoint position where the entire circumference of the three-dimensional shape model obj can be photographed. Further, for example, in the case of the second example, the visual effect image generation unit 134 arranges virtual cameras at different viewpoint positions according to time times T-4 to T + 4 of the three-dimensional shape model obj.

また、視覚効果画像生成手段134は、図10に示すように、単位ベクトルの逆方向rに存在する中心位置Hを中心に、レンズアレイL全体の中心位置を含んだ画角で、仮想配置された立体表示装置3を仮想的に撮影する。すなわち、この視覚効果画像生成手段134は、単位ベクトルの逆方向rに存在する中心位置Hの位置を視覚効果画像の中心として、要素画像Gの各画素位置と仮想カメラVcの光学主点とを結んだ直線上に存在する3次元形状モデルobjの表面の色を仮想平面(仮想カメラVcの焦点位置)に投影(正射影)することで、視覚効果画像を生成する。 Also, the visual effect image generating means 134, as shown in FIG. 10, around the center position H present in the reverse direction r z unit vector, with angle of view including the central position of the entire lens array L A, virtual The arranged stereoscopic display device 3 is virtually photographed. In other words, the visual effect image generating means 134, as the center of the reverse r z a visual effect image the position of the center position H in the presence of a unit vector, with each pixel position of the element image G and the optical principal point of the virtual camera Vc A visual effect image is generated by projecting (orthographic projection) the color of the surface of the three-dimensional shape model obj present on the straight line connecting to the virtual plane (the focal position of the virtual camera Vc).

このとき、視覚効果画像生成手段134は、図11及び図12に示すように、仮想カメラVcによる撮影において、中心位置Hを通過する光線を一括してサンプリングする。ここでは、視覚効果画像生成手段134は、後記する第1のフィルタを適用するために、中心位置Hの数をN倍した数の光線をサンプリングする(例えば、N=4)。そして、視覚効果画像生成手段134は、各要素画像Gのローカル座標(u,v)に位置する画素に対応する光線を取得する。このように、視覚効果画像においては、要素レンズLの間隔が要素画像Gの画素サイズの自然数倍を満たすことになるので、各要素レンズLから出射される光線の方向が有限になり、同一方向の光線を集めることが可能となる。すなわち、視覚効果画像生成手段134は、出射される光線群を有限枚の視覚効果画像で表すことができる。 At this time, as shown in FIGS. 11 and 12, the visual effect image generation unit 134 collectively samples rays that pass through the center position H in photographing by the virtual camera Vc. Here, the visual effect image generation unit 134 samples the number of light rays obtained by multiplying the number of the center positions H by N in order to apply the first filter described later (for example, N = 4). Then, the visual effect image generation unit 134 acquires a light beam corresponding to the pixel located at the local coordinates (u, v) of each element image G. Thus, in the visual effect image, the spacing of the element lenses L P is to meet the natural number times the pixel size of the elemental image G, the direction of the light beam emitted from each element lens L P is a finite It is possible to collect rays in the same direction. That is, the visual effect image generation unit 134 can represent the emitted light group by a finite number of visual effect images.

すなわち、(n,m)=(0,0)の要素レンズLにおいて、その要素画像Gのある画素(u,v)の世界座標を(X,Y,−F)とすると、仮想カメラVcの姿勢を示す行列Rは、以下の式(11)で表すことができる。従って、下記の式(11)を用いて、中心位置Hを、視覚効果画像の画像面に投影(正射影)することができる。 That is, in the element lens L P with (n, m) = (0, 0), if the world coordinates of a pixel (u, v) in the element image G are (X P , Y P , −F), the virtual The matrix R indicating the attitude of the camera Vc can be expressed by the following equation (11). Therefore, the center position H can be projected (orthographically projected) on the image plane of the visual effect image using the following formula (11).

Figure 2015222892
Figure 2015222892

この場合、中心位置Hの3次元位置を(X,Y,0)とすると、その視覚効果画像上に投影される点の画像座標(k,l)は、下記の式(12)及び式(13)を用いて求められる。 In this case, assuming that the three-dimensional position of the center position H is (X R , Y R , 0), the image coordinates (k, l) of the point projected on the visual effect image are expressed by the following equation (12) and It is calculated | required using Formula (13).

Figure 2015222892
Figure 2015222892

Figure 2015222892
Figure 2015222892

なお、ここで、(W´,H´)は、視覚効果画像の縦横の長さであり、(K,L)は、視覚効果画像の画素数である。この場合、図11のサンプル点“●”と“△”を視覚効果画像に投影すると、その投影点は、図12に示すようになる。   Here, (W ′, H ′) is the vertical and horizontal lengths of the visual effect image, and (K, L) is the number of pixels of the visual effect image. In this case, when the sample points “●” and “Δ” in FIG. 11 are projected onto the visual effect image, the projected points are as shown in FIG.

以上のように、視覚効果画像生成手段134は、式(12)及び式(13)を用いて、レンズアレイL面上の任意の点を仮想カメラVcに投影し、視覚効果が付加された視覚効果画像を生成できる。その後、視覚効果画像生成手段134は、生成した視覚効果画像を正規化画像生成手段14(図2)に出力する。 As described above, the visual effect image generating unit 134, using Equation (12) and (13), projecting the arbitrary point on the lens array L A plane virtual camera Vc, visual effect is added A visual effect image can be generated. Thereafter, the visual effect image generation unit 134 outputs the generated visual effect image to the normalized image generation unit 14 (FIG. 2).

図2に戻り、表示画像生成装置1の構成について、説明を続ける。
正規化画像生成手段14は、視覚効果付加手段13(視覚効果画像生成手段134)から視覚効果画像が入力され、所定の座標変換式によって、この視覚効果画像の画素の画素値を正規化画像I´の画素に割り当てることで、正規化画像I´を生成するものである。
Returning to FIG. 2, the description of the configuration of the display image generation device 1 will be continued.
The normalized image generating means 14 receives the visual effect image from the visual effect adding means 13 (visual effect image generating means 134), and converts the pixel values of the pixels of the visual effect image into the normalized image I by a predetermined coordinate conversion formula. The normalized image I ′ is generated by allocating to the pixel “′”.

具体的には、正規化画像生成手段14は、視覚効果画像のサンプル点(図12の“●”)を、正規化画像I´の計算対象画素(図11の“■”)に割り当てる。このとき、正規化画像生成手段14では、位置が(n,m)で表される中心位置Hの視覚効果画像上での画素座標を得る必要がある。このため、正規化画像生成手段14は、前記した式(5)によってレンズアレイL面上の物理的な位置H(n,m)を求め、式(12)及び式(13)を用いて視覚効果画像の画像座標を得る。また、この座標に対応する正規化画像I´の画素座標は、下記の式(14)で表される。この場合、式(14)の右辺第1項は、中心位置Hの位置を示すことになる。 Specifically, the normalized image generating means 14 assigns the sample point (“●” in FIG. 12) of the visual effect image to the calculation target pixel (“■” in FIG. 11) of the normalized image I ′. At this time, the normalized image generating means 14 needs to obtain pixel coordinates on the visual effect image at the center position H whose position is represented by (n, m). Therefore, the normalized image generation unit 14, the physical location H (n, m) on the lens array L A plane by the equation (5) is obtained using equation (12) and (13) Obtain the image coordinates of the visual effect image. Further, the pixel coordinates of the normalized image I ′ corresponding to these coordinates are expressed by the following formula (14). In this case, the first term on the right side of Equation (14) indicates the position of the center position H.

Figure 2015222892
Figure 2015222892

その後、表示画像生成装置1では、要素画像Gの各画素をローカル座標(u,v)としてそれぞれ指定して、視覚効果付加手段13による仮想カメラでの撮影処理、及び、正規化画像生成手段14による画素値の割り当て処理を、要素画像Gの全ての画素に対して実行する。従って、表示画像生成装置1では、要素画像Gの画素数だけこれら処理を繰り返せばよく、従来のように画像内に存在する全画素に対して処理を繰り返し行う必要がない。
このようにして、正規化画像生成手段14は、正規化画像I´の全画素値を得ることができる。その後、正規化画像生成手段14は、生成した正規化画像I´を表示画像生成手段15に出力する。
Thereafter, in the display image generation device 1, each pixel of the element image G is designated as local coordinates (u, v), and the imaging processing with the virtual camera by the visual effect addition unit 13 and the normalized image generation unit 14 are specified. The pixel value assignment process is performed on all the pixels of the element image G. Therefore, in the display image generating apparatus 1, it is only necessary to repeat these processes as many times as the number of pixels of the element image G, and it is not necessary to repeat the processes for all the pixels existing in the image as in the related art.
In this way, the normalized image generation unit 14 can obtain all pixel values of the normalized image I ′. Thereafter, the normalized image generation unit 14 outputs the generated normalized image I ′ to the display image generation unit 15.

<表示画像の生成>
以下、図13を参照し、表示画像Iの生成について説明する(適宜図2参照)。
表示画像生成手段15は、正規化画像生成手段14から正規化画像I´が入力され、この正規化画像I´から表示画像Iを生成するものである。
<Generation of display image>
Hereinafter, generation of the display image I will be described with reference to FIG. 13 (see FIG. 2 as appropriate).
The display image generating means 15 receives the normalized image I ′ from the normalized image generating means 14 and generates the display image I from the normalized image I ′.

表示画像生成手段15は、正規化画像I´が画像表示パネル31で表示する表示画像Iの縦横にそれぞれM倍の画素を持つので、正規化画像I´に対して低域通過フィルタ処理を施す。具体的には、図13に示すように、表示画像生成手段15は、低域通過フィルタ処理として、表示画像Iの1画素の画素値を、その表示画像Iの1画素に対応する領域に含まれる正規化画像I´の全画素の平均値とする処理を行う。さらに、表示画像生成手段15は、低域通過フィルタ処理として、平均値を求める代わりに、重み付け加算値又はメディアン値を求めてもよい。   The display image generation means 15 performs low-pass filter processing on the normalized image I ′ because the normalized image I ′ has M times the vertical and horizontal pixels of the display image I displayed on the image display panel 31. . Specifically, as shown in FIG. 13, the display image generation unit 15 includes the pixel value of one pixel of the display image I in a region corresponding to one pixel of the display image I as low-pass filter processing. The average value of all the pixels of the normalized image I ′ is processed. Further, the display image generation unit 15 may obtain a weighted addition value or a median value instead of obtaining an average value as low-pass filter processing.

つまり、表示画像生成手段15は、前記した式(4)で座標変換できることから、下記の式(15)で表される低域通過フィルタ処理を行うことで、表示画像Iを生成する。そして、表示画像生成手段15は、生成した表示画像Iを付加情報挿入手段16に出力する。   That is, since the display image generation unit 15 can perform coordinate conversion by the above-described equation (4), the display image I is generated by performing the low-pass filter processing represented by the following equation (15). Then, the display image generation unit 15 outputs the generated display image I to the additional information insertion unit 16.

Figure 2015222892
Figure 2015222892

なお、式(15)において、I´(i´+s,j´+t)が正規化画像I´の画素(i´+s,j´+t)の画素値を示しており、I(i,j)が表示画像Iの画素(i,j)の画素値を示している。また、Dは、Σの条件を満たすI(i´+s,j´+t)の数であり、総和に寄与した画素の数となる。さらに、s及びtは、0から要素レンズL間の画素数の半分までの整数値である。 In Expression (15), I ′ (i ′ + s, j ′ + t) represents the pixel value of the pixel (i ′ + s, j ′ + t) of the normalized image I ′, and I (i, j) Indicates the pixel value of the pixel (i, j) of the display image I. D is the number of I (i ′ + s, j ′ + t) that satisfies the condition of Σ, and is the number of pixels that contributed to the sum. Moreover, s and t is an integer from 0 to half the number of pixels between the element lenses L P.

付加情報挿入手段16は、関数F(V,T,S)に基づいて、表示画像生成手段15から入力された表示画像Iの付加情報画素領域に付加情報を挿入するものである。
ここで、付加情報挿入手段16は、視覚効果付加手段13(関数設定手段133)から関数F(V,T,S)が入力され、表示画像生成手段15から表示画像Iが入力される。また、付加情報挿入手段16は、例えば、表示画像生成装置1の利用者から、付加情報が入力される。
The additional information inserting unit 16 inserts additional information into the additional information pixel region of the display image I input from the display image generating unit 15 based on the function F (V, T, S).
Here, the additional information inserting unit 16 receives the function F (V, T, S) from the visual effect adding unit 13 (function setting unit 133) and the display image I from the display image generating unit 15. The additional information insertion unit 16 receives additional information from, for example, a user of the display image generation device 1.

例えば、図14(a)に示すように、3次元形状モデルobjが3Dキャラクタである。また、例えば、図14(b)に示すように、付加情報が「Hello!」という文字の2次元画像である。この付加情報は、要素レンズLと同数の画素(例えば、横73×縦48画素)で構成される。 For example, as shown in FIG. 14A, the three-dimensional shape model obj is a 3D character. For example, as illustrated in FIG. 14B, the additional information is a two-dimensional image of characters “Hello!”. This additional information is composed of element lenses L P the same number of pixels (e.g., horizontal 73 × vertical 48 pixels).

例えば、図14(c)に示すように、関数F(V,T,S)では、表示画像Iを構成する各要素画像Gで要素レンズLに含まれる領域のうち、1画素分の領域が付加情報画素領域Sbとして定義されている。また、例えば、関数F(V,T,S)では、表示画像Iを構成する各要素画像Gで要素レンズLに含まれる領域のうち、付加情報画素領域Sb以外の画素領域が3次元形状モデル画素領域Saとして定義されている。 For example, as shown in FIG. 14 (c), the function F (V, T, S) , among areas included in the element lenses L P each element image G included in the display image I, 1 pixel region Is defined as the additional information pixel region Sb. Further, for example, the function F (V, T, S) in the display image among the regions included in the element lenses L P each element image G that constitutes the I, additional information pixel region other than the pixel area Sb is 3-dimensional shape It is defined as a model pixel area Sa.

図15(a)及び(b)に示すように、付加情報の´H’の左上部分に着目する。この場合、付加情報挿入手段16は、付加情報の画素数が要素レンズLと同数のため、図15(c)に示すように、各要素画像Gに1個ずつ付加情報を挿入する。例えば、付加情報挿入手段16は、左列上から2番目の付加情報の画素K1を、画素K1と対応する位置(左列上から2番目)の要素画像Gの領域Sb1に挿入する。これと同様、付加情報挿入手段16は、付加情報の画素K2〜K5を、画素K2〜K5と対応する位置の要素画像Gの領域Sb2〜Sb5に挿入する。
その後、付加情報挿入手段16は、付加情報が挿入された表示画像Iを立体表示装置3(図1)に出力する。
As shown in FIGS. 15A and 15B, attention is paid to the upper left portion of 'H' of the additional information. In this case, additional information insertion means 16, the number of pixels additional information for as many as the element lenses L P, as shown in FIG. 15 (c), inserting the additional information one for each element image G. For example, the additional information insertion unit 16 inserts the pixel K1 of the second additional information from the upper left column into the region Sb1 of the element image G at the position corresponding to the pixel K1 (second from the upper left column). Similarly, the additional information inserting unit 16 inserts the pixels K2 to K5 of the additional information into the regions Sb2 to Sb5 of the element image G at positions corresponding to the pixels K2 to K5.
Thereafter, the additional information insertion unit 16 outputs the display image I in which the additional information is inserted to the stereoscopic display device 3 (FIG. 1).

なお、表示画像Iに付加情報及び3次元形状モデルobjが含まれるので、観察者Aの両眼に異なる像が入射することがある。この場合、付加情報及び3次元形状モデルobjは、ある程度類似した色彩や、大きな奥行き変化を伴わないことが好ましい。これにより、付加情報と3次元形状モデルobjとが切り替わるショックを抑えることができる。   Since the display image I includes the additional information and the three-dimensional shape model obj, different images may be incident on the eyes of the observer A. In this case, it is preferable that the additional information and the three-dimensional shape model obj do not accompany a somewhat similar color or a large depth change. Thereby, it is possible to suppress a shock that the additional information and the three-dimensional shape model obj are switched.

[表示画像生成装置の動作]
図16を参照し、図2の表示画像生成装置1の動作について説明する。
表示画像生成装置1は、正規化画像設定手段12によって、モデル化パラメータに基づいて、正規化画像を設定する(ステップS1)。
[Operation of Display Image Generation Device]
The operation of the display image generation device 1 in FIG. 2 will be described with reference to FIG.
The display image generating apparatus 1 sets a normalized image based on the modeling parameter by the normalized image setting unit 12 (step S1).

表示画像生成装置1は、視覚効果付加手段13によって、視覚効果画像生成処理を行う(ステップS2)。この視覚効果画像生成処理は、詳細を後記する。
表示画像生成装置1は、正規化画像生成手段14によって、ステップS2で生成した視覚効果画像の画素の画素値を、座標変換式により正規化画像の画素に割り当てることで、正規化画像を生成する(ステップS3)。
The display image generation apparatus 1 performs visual effect image generation processing by the visual effect adding means 13 (step S2). Details of this visual effect image generation processing will be described later.
The display image generation device 1 generates a normalized image by assigning the pixel value of the pixel of the visual effect image generated in step S2 to the pixel of the normalized image by the coordinate conversion formula by the normalized image generation unit 14. (Step S3).

表示画像生成装置1は、表示画像生成手段15によって、ステップS3で生成した正規化画像から表示画像を生成する(ステップS4)。
表示画像生成装置1は、付加情報挿入手段16によって、関数に基づいて、ステップS4で生成した表示画像の付加情報画素領域に付加情報を挿入する(ステップS5)。
The display image generation device 1 generates a display image from the normalized image generated in step S3 by the display image generation means 15 (step S4).
The display image generating apparatus 1 inserts additional information into the additional information pixel area of the display image generated in step S4 based on the function by the additional information inserting unit 16 (step S5).

[視覚効果画像生成処理]
図17を参照し、図16の視覚効果画像生成処理(ステップS2)の詳細について、説明する(適宜図5参照)。
[Visual effect image generation processing]
The details of the visual effect image generation process (step S2) of FIG. 16 will be described with reference to FIG. 17 (see FIG. 5 as appropriate).

視覚効果付加手段13は、正規化画像画素位置算出手段131によって、画像表示パネル31の画素間隔、水平画素サイズ及び垂直画素サイズに基づいて、正規化画像の画素位置を算出する(ステップS21)。
視覚効果付加手段13は、レンズ中心位置算出手段132によって、前記した式(5)を用いて、要素レンズLの中心位置を算出する(ステップS22)。
The visual effect adding unit 13 calculates the pixel position of the normalized image based on the pixel interval, the horizontal pixel size, and the vertical pixel size of the image display panel 31 by the normalized image pixel position calculating unit 131 (step S21).
Visual effect adding means 13, the lens center position calculating means 132, by using the equation (5), calculates the center position of the element lenses L P (step S22).

視覚効果付加手段13は、関数設定手段133によって、関数を設定する。具体的には、視点設定手段133Aは、前記した式(6)を用いて、視点位置と3次元形状モデルの表示範囲とを関係付ける。また、時間設定手段133Bは、基準時刻から表示時刻が離れる程、表示時刻における3次元形状モデルを画像表示パネル31の中央から離れた視点位置に関係付ける。さらに、領域設定手段133Cは、前記した式(10)を用いて、付加情報画素領域と視点位置とを関係付ける(ステップS23)。   The visual effect adding unit 13 sets a function by the function setting unit 133. Specifically, the viewpoint setting unit 133A relates the viewpoint position and the display range of the three-dimensional shape model using the above-described equation (6). Further, the time setting unit 133 </ b> B associates the three-dimensional shape model at the display time with the viewpoint position far from the center of the image display panel 31 as the display time is further away from the reference time. Further, the region setting unit 133C associates the additional information pixel region with the viewpoint position using the above-described equation (10) (step S23).

視覚効果付加手段13は、視覚効果画像生成手段134によって、ステップS23で設定した関数に基づいて、視点位置を求め、求めた視点位置の仮想カメラで3次元形状モデルを撮影する。このようにして、視覚効果画像生成手段134は、視覚効果画像を生成する(ステップS24)。   The visual effect adding means 13 obtains the viewpoint position by the visual effect image generating means 134 based on the function set in step S23, and images the three-dimensional shape model with the virtual camera at the obtained viewpoint position. In this way, the visual effect image generation unit 134 generates a visual effect image (step S24).

以上のように、本願発明の実施形態に係る表示画像生成装置1は、表示する3次元形状モデルを視点位置にそのまま対応させずに、視点位置と3次元形状モデルの状態及び時間変化との間に関数を介在させることで、多様な視覚効果を付加することができる。これによって、表示画像生成装置1は、視点を移動させることで、立体表示装置3の視野角の制限を超えて3次元形状モデルを表示したり、3次元形状モデルをアニメーション表示したり、3次元形状モデルとは異なる付加情報を表示することができる。   As described above, the display image generation device 1 according to the embodiment of the present invention does not directly correspond the displayed three-dimensional shape model to the viewpoint position, and does not change between the viewpoint position and the state and time change of the three-dimensional shape model. A variety of visual effects can be added by interposing a function in. Thereby, the display image generating device 1 displays the 3D shape model beyond the limitation of the viewing angle of the stereoscopic display device 3 by moving the viewpoint, displays the 3D shape model in an animation, Additional information different from the shape model can be displayed.

(変形例)
表示画像生成装置1は、前記した各実施形態に限定されず、その趣旨を逸脱しない範囲で変形を加えることができる。
(Modification)
The display image generating apparatus 1 is not limited to the above-described embodiments, and can be modified without departing from the spirit thereof.

前記した実施形態では、表示画像生成装置1は、視野角の制限を超えた3次元形状モデルを表示、3次元形状モデルのアニメーション表示、及び、付加情報の表示という3種類の視覚効果を付加することとしたが、これに限定されない。ここで、表示画像生成装置1は、これら3種類の視覚効果のうち、何れか1種類以上のみを付加してもよい。   In the above-described embodiment, the display image generation device 1 adds three types of visual effects such as displaying a three-dimensional shape model exceeding the viewing angle limit, displaying an animation of the three-dimensional shape model, and displaying additional information. However, it is not limited to this. Here, the display image generation device 1 may add only one or more of these three types of visual effects.

視覚効果の第1例として、3次元形状モデルの全周を表示することとしたが、これに限定されない。例えば、表示画像生成装置1は、3次元形状モデルの半周を表示するように、式(6)の表示範囲ω=πを設定してもよい。   As a first example of the visual effect, the entire circumference of the three-dimensional shape model is displayed. However, the present invention is not limited to this. For example, the display image generation apparatus 1 may set the display range ω = π in Expression (6) so as to display a half circumference of the three-dimensional shape model.

付加情報画像領域Sbが1画素分の領域であることとして説明したが、これに限定されない。付加情報画像領域Sbは、表示画像Iを構成する各要素画像Gで要素レンズLに含まれる領域のうち、半分以下であればよい。 Although the additional information image area Sb has been described as an area for one pixel, the present invention is not limited to this. Additional information image area Sb, among areas included in the element lenses L P each element image G included in the display image I, may be at less than half.

前記した実施形態では、表示画像生成装置1を独立したハードウェアとして説明したが、本願発明は、これに限定されない。例えば、表示画像生成装置1は、コンピュータが備えるCPU、メモリ、ハードディスク等のハードウェア資源を、前記した各手段として協調動作させる表示画像生成プログラムで実現することもできる。このプログラムは、通信回線を介して配布してもよく、CD−ROMやフラッシュメモリ等の記録媒体に書き込んで配布してもよい。   In the above-described embodiment, the display image generation device 1 has been described as independent hardware, but the present invention is not limited to this. For example, the display image generation apparatus 1 can also be realized by a display image generation program that causes hardware resources such as a CPU, a memory, and a hard disk included in a computer to operate cooperatively as the above-described units. This program may be distributed through a communication line, or may be distributed by writing in a recording medium such as a CD-ROM or a flash memory.

1 表示画像生成装置
2 立体撮影装置
3 立体表示装置
11 モデル化パラメータ入力手段
12 正規化画像設定手段
13 視覚効果付加手段
14 正規化画像生成手段
15 表示画像生成手段
16 付加情報挿入手段
21 高精細カメラ
31 画像表示パネル(画像表示手段)
131 正規化画像画素位置算出手段
132 レンズ中心位置算出手段
133 関数設定手段
133A 視点設定手段
133B 時間設定手段
133C 領域設定手段
134 視覚効果画像生成手段
レンズアレイ
要素レンズ
DESCRIPTION OF SYMBOLS 1 Display image generation apparatus 2 Stereoscopic imaging apparatus 3 Stereoscopic display apparatus 11 Modeling parameter input means 12 Normalized image setting means 13 Visual effect addition means 14 Normalized image generation means 15 Display image generation means 16 Additional information insertion means 21 High-definition camera 31 Image display panel (image display means)
131 normalized image pixel position calculating means 132 lens center position calculating means 133 function setting unit 133A viewpoint setting unit 133B time setting means 133C area setting unit 134 visual effect image generating unit L A lens array L P element lenses

Claims (5)

要素レンズを2次元に配置したレンズアレイと画像表示手段とを備える立体表示装置で表示するために、視覚効果が付加された表示画像を生成する表示画像生成装置であって、
前記要素レンズの間隔に対して自然数分の1となる画素サイズを有する正規化画像を設定する正規化画像設定手段と、
前記画像表示手段の画素間隔及び前記正規化画像の画素サイズに基づいて、前記正規化画像の画素位置を算出する正規化画像画素位置算出手段と、
被写体を表した3次元形状モデルの表示範囲又は表示時刻の少なくとも一方を表す視覚効果パラメータに基づいて、前記3次元形状モデルの表示範囲に関係付けられた仮想カメラの視点位置と、前記視点位置に関係付けられた前記3次元形状モデルの表示時刻を表す被写体状態との関数を、設定する関数設定手段と、
前記関数設定手段で設定された関数に基づいて仮想カメラの視点位置を求め、求めた前記視点位置の仮想カメラで前記3次元形状モデルを撮影することで、前記視覚効果が付加された視覚効果画像を生成する視覚効果画像生成手段と、
所定の座標変換式により前記視覚効果画像の画素の画素値を前記正規化画像の画素に割り当てることで、前記正規化画像を生成する正規化画像生成手段と、
前記正規化画像生成手段が生成した正規化画像から前記表示画像を生成する表示画像生成手段と、
を備えることを特徴とする表示画像生成装置。
A display image generation device that generates a display image with a visual effect added thereto for display on a stereoscopic display device including a lens array in which element lenses are two-dimensionally arranged and an image display means,
A normalized image setting means for setting a normalized image having a pixel size that is a natural number with respect to the interval between the element lenses;
Normalized image pixel position calculating means for calculating a pixel position of the normalized image based on a pixel interval of the image display means and a pixel size of the normalized image;
Based on a visual effect parameter representing at least one of a display range or a display time of a three-dimensional shape model representing a subject, the viewpoint position of the virtual camera related to the display range of the three-dimensional shape model, and the viewpoint position Function setting means for setting a function with the subject state representing the display time of the related three-dimensional shape model;
A visual effect image to which the visual effect is added by obtaining the viewpoint position of the virtual camera based on the function set by the function setting means and photographing the three-dimensional shape model with the virtual camera at the obtained viewpoint position Visual effect image generating means for generating
A normalized image generating means for generating the normalized image by assigning a pixel value of the pixel of the visual effect image to the pixel of the normalized image by a predetermined coordinate transformation formula;
Display image generating means for generating the display image from the normalized image generated by the normalized image generating means;
A display image generating apparatus comprising:
前記関数設定手段は、前記関数において、前記3次元形状モデルから前記仮想カメラの視点位置までの距離L´と、前記要素レンズ間の画素数Mと、前記要素レンズの中心を原点としたローカル座標系で画素位置を表す整数x,yとが含まれる下記の式(7)を用いて、前記仮想カメラの視点位置(x´,y´,z´)と前記3次元形状モデルの表示範囲ωとを関係付ける視点設定手段、を備え、
前記視覚効果画像生成手段は、前記視点設定手段が関係付けた関数に基づいて、前記仮想カメラの視点位置毎に前記3次元形状モデルの異なる表示範囲を割り当てることで、前記視覚効果画像を生成することを特徴とする請求項1に記載の表示画像生成装置。
Figure 2015222892
In the function, the function setting unit includes a distance L ′ from the three-dimensional shape model to the viewpoint position of the virtual camera, the number M of pixels between the element lenses, and local coordinates with the center of the element lens as an origin. Display of the viewpoint position (x ′, y ′, z ′) of the virtual camera and the three-dimensional shape model using the following formula (7) including integers x u , y v representing pixel positions in the system A viewpoint setting means for relating the range ω,
The visual effect image generation unit generates the visual effect image by allocating different display ranges of the three-dimensional shape model for each viewpoint position of the virtual camera based on the function related to the viewpoint setting unit. The display image generation apparatus according to claim 1, wherein the display image generation apparatus is a display image generation apparatus.
Figure 2015222892
前記関数設定手段は、前記関数において、予め設定された基準時刻から前記表示時刻が離れる程、当該表示時刻の3次元形状モデルを前記画像表示手段の中央から離れた前記仮想カメラの視点位置に関係付ける時間設定手段、を備え、
前記視覚効果画像生成手段は、前記時間設定手段が関係付けた関数に基づいて、前記仮想カメラの視点位置毎に異なる表示時刻の前記3次元形状モデルを割り当てることで、前記視覚効果画像を生成することを特徴とする請求項1又は請求項2に記載の表示画像生成装置。
The function setting means relates to the viewpoint position of the virtual camera farther from the center of the image display means, as the display time moves away from a preset reference time in the function. Time setting means for attaching,
The visual effect image generating unit generates the visual effect image by assigning the three-dimensional shape model having a different display time for each viewpoint position of the virtual camera based on a function related to the time setting unit. The display image generation apparatus according to claim 1 or 2, wherein the display image generation apparatus is a display image generation apparatus.
前記関数設定手段は、前記関数において、付加情報を表示する付加情報画素領域と前記仮想カメラの視点位置とを関係付ける領域設定手段、を備え、
前記付加情報が入力され、前記領域設定手段が関係付けた関数に基づいて、入力された前記付加情報を前記表示画像の付加情報画素領域に挿入する付加情報挿入手段、をさらに備えることを特徴とする請求項1から請求項3の何れか一項に記載の表示画像生成装置。
The function setting means includes area setting means for associating an additional information pixel area for displaying additional information and a viewpoint position of the virtual camera in the function,
The apparatus further comprises additional information insertion means for inserting the input additional information into the additional information pixel area of the display image based on a function to which the additional information is input and the area setting means is related. The display image generation device according to any one of claims 1 to 3.
コンピュータを、請求項1から請求項4の何れか一項に記載の表示画像生成装置として機能させるための視覚効果付加プログラム。   The visual effect addition program for functioning a computer as a display image production | generation apparatus as described in any one of Claims 1-4.
JP2014106890A 2014-05-23 2014-05-23 Display image generating apparatus and program thereof Active JP6300358B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014106890A JP6300358B2 (en) 2014-05-23 2014-05-23 Display image generating apparatus and program thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014106890A JP6300358B2 (en) 2014-05-23 2014-05-23 Display image generating apparatus and program thereof

Publications (2)

Publication Number Publication Date
JP2015222892A true JP2015222892A (en) 2015-12-10
JP6300358B2 JP6300358B2 (en) 2018-03-28

Family

ID=54785712

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014106890A Active JP6300358B2 (en) 2014-05-23 2014-05-23 Display image generating apparatus and program thereof

Country Status (1)

Country Link
JP (1) JP6300358B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009278456A (en) * 2008-05-15 2009-11-26 Hitachi Ltd Video display device
JP2011234142A (en) * 2010-04-28 2011-11-17 Nippon Hoso Kyokai <Nhk> Stereoscopic image generation device and its program
WO2012144611A1 (en) * 2011-04-22 2012-10-26 グラパックジャパン株式会社 Image-display sheet
JP2013016022A (en) * 2011-07-04 2013-01-24 Toshiba Corp Medical image processing device, medical image storage communication system, and server for medical image storage communication system
JP2013064996A (en) * 2011-08-26 2013-04-11 Nikon Corp Three-dimensional image display device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009278456A (en) * 2008-05-15 2009-11-26 Hitachi Ltd Video display device
JP2011234142A (en) * 2010-04-28 2011-11-17 Nippon Hoso Kyokai <Nhk> Stereoscopic image generation device and its program
WO2012144611A1 (en) * 2011-04-22 2012-10-26 グラパックジャパン株式会社 Image-display sheet
JP2013016022A (en) * 2011-07-04 2013-01-24 Toshiba Corp Medical image processing device, medical image storage communication system, and server for medical image storage communication system
JP2013064996A (en) * 2011-08-26 2013-04-11 Nikon Corp Three-dimensional image display device

Also Published As

Publication number Publication date
JP6300358B2 (en) 2018-03-28

Similar Documents

Publication Publication Date Title
JP7443602B2 (en) Mixed reality system with virtual content warping and how to use it to generate virtual content
EP3057066B1 (en) Generation of three-dimensional imagery from a two-dimensional image using a depth map
US10560687B2 (en) LED-based integral imaging display system as well as its control method and device
CN106101689B (en) The method that using mobile phone monocular cam virtual reality glasses are carried out with augmented reality
JP7201869B1 (en) Generate new frames with rendered and unrendered content from the previous eye
EP3465630B1 (en) Light-field viewpoint and pixel culling for a head mounted display device
JP4928476B2 (en) Stereoscopic image generating apparatus, method thereof and program thereof
JP5809607B2 (en) Image processing apparatus, image processing method, and image processing program
KR20080111306A (en) Method and apparatus for generating elemental image in integral imaging
JP5522794B2 (en) Stereoscopic image generating apparatus and program thereof
US11436698B2 (en) Method of playing back image on display device and display device
JP5452801B2 (en) Stereoscopic image generating apparatus and program thereof
JP6708444B2 (en) Image processing apparatus and image processing method
KR20200056721A (en) Method and apparatus for measuring optical properties of augmented reality device
CN104240281A (en) Virtual reality head-mounted device based on Unity3D engine
JP5252703B2 (en) 3D image display device, 3D image display method, and 3D image display program
JP6166985B2 (en) Image generating apparatus and image generating program
KR101208767B1 (en) Stereoscopic image generation method, device and system using circular projection and recording medium for the same
JP6300358B2 (en) Display image generating apparatus and program thereof
JP5565126B2 (en) Three-dimensional printed material production support device, plug-in program, three-dimensional printed material production method, and three-dimensional printed material
KR101425321B1 (en) System for displaying 3D integrated image with adaptive lens array, and method for generating elemental image of adaptive lens array
KR101883883B1 (en) method for glass-free hologram display without flipping images
JP6788472B2 (en) Element image generator and its program
JP7364726B2 (en) A method of forming an image of an object, a computer program product, and an image forming system for carrying out the method
US20220232201A1 (en) Image generation system and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170328

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171207

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180223

R150 Certificate of patent or registration of utility model

Ref document number: 6300358

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250