JP6388435B2 - Image generating apparatus, image generating method, and program - Google Patents

Image generating apparatus, image generating method, and program Download PDF

Info

Publication number
JP6388435B2
JP6388435B2 JP2014168640A JP2014168640A JP6388435B2 JP 6388435 B2 JP6388435 B2 JP 6388435B2 JP 2014168640 A JP2014168640 A JP 2014168640A JP 2014168640 A JP2014168640 A JP 2014168640A JP 6388435 B2 JP6388435 B2 JP 6388435B2
Authority
JP
Japan
Prior art keywords
virtual
lens
image
lens array
attribute
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014168640A
Other languages
Japanese (ja)
Other versions
JP2016045644A (en
Inventor
人誌 日浦
人誌 日浦
英彦 大久保
英彦 大久保
三科 智之
智之 三科
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting Corp filed Critical Japan Broadcasting Corp
Priority to JP2014168640A priority Critical patent/JP6388435B2/en
Publication of JP2016045644A publication Critical patent/JP2016045644A/en
Application granted granted Critical
Publication of JP6388435B2 publication Critical patent/JP6388435B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

本発明は、画像生成装置、画像生成方法、及びプログラムに関する。   The present invention relates to an image generation device, an image generation method, and a program.

立体像を表示する手法の1つとして、IP(Integral Photography、インテグラルフォトグラフィ)方式がある。IP方式は、複数の微小レンズ(以下、「要素レンズ」という。)が配列されたレンズアレイを、撮像と表示との双方に用いて、立体像を再現する方式である。
IP方式における表示用画像の生成では、要素レンズを配列して構成されるレンズアレイを介して被写体を撮像することが行われている。このとき、カメラはレンズアレイの焦平面を撮像する。そして、レンズアレイを構成する各要素レンズは、微小なカメラと同様の働きをする。その結果、レンズアレイ越しに被写体を撮像した画像は、レンズアレイを構成する要素レンズ各々の位置に応じた微小画像(以下、「要素画像」という。)が並んだ画像となる。以下では、このようにして取得される画像を、IP画像(インテグラルフォトグラフィ画像)という。このIP画像を撮像時と同様のレンズアレイを介して表示することで、立体像が再現される。
また、IP方式において、被写体からの光線を制御する奥行き制御レンズを用いることにより、表示装置の表示面よりも飛び出して見える映像を実現可能であることが知られている。
As one of the methods for displaying a stereoscopic image, there is an IP (Integral Photography) system. The IP method is a method for reproducing a three-dimensional image by using a lens array in which a plurality of minute lenses (hereinafter referred to as “element lenses”) are arranged for both imaging and display.
In the generation of a display image in the IP system, a subject is imaged through a lens array configured by arranging element lenses. At this time, the camera images the focal plane of the lens array. Each element lens constituting the lens array functions in the same manner as a minute camera. As a result, an image obtained by imaging the subject through the lens array is an image in which minute images (hereinafter referred to as “element images”) corresponding to the positions of the element lenses constituting the lens array are arranged. Hereinafter, the image acquired in this way is referred to as an IP image (integral photography image). A stereoscopic image is reproduced by displaying this IP image through a lens array similar to that at the time of imaging.
Further, it is known that in the IP system, it is possible to realize an image that appears to protrude from the display surface of the display device by using a depth control lens that controls light rays from a subject.

Spyros S. Athineos他、“Physical modeling of a microlens array setup for use in computer generated IP”、Proc. of SPIE−IS&T Electronic Imaging、Vol. 5664 pp.472−479、2005Spyros S.M. Athineos et al., “Physical modeling of a microlens array setup for use in computer generated IP”, Proc. of SPIE-IS & T Electronic Imaging, Vol. 5664 pp. 472-479, 2005

近年、CG(Computer Graphics、コンピュータグラフィックス)によって、IP画像を生成する技術が研究されている(例えば、非特許文献1)。この技術では、計算機内で仮想3次元空間(以下、「仮想空間」という。)を生成し、当該仮想空間内において被写体及びセットが実世界と同様に動作するように再現する。そして、計算機は、仮想空間内において被写体からの光線を追跡することでIP画像を生成する。   In recent years, a technique for generating an IP image by CG (Computer Graphics) has been studied (for example, Non-Patent Document 1). In this technique, a virtual three-dimensional space (hereinafter referred to as “virtual space”) is generated in a computer, and a subject and a set are reproduced in the virtual space so as to operate in the same manner as in the real world. Then, the computer generates an IP image by tracking light rays from the subject in the virtual space.

CGによってIP画像を生成する従来の技術では、仮想空間内において、仮想カメラと被写体との間に、仮想レンズアレイ及び仮想奥行き制御レンズを、仮想カメラ及び被写体とは別のオブジェクトとして配置していた。そして、当該画像データの生成装置は、これら仮想レンズを介して被写体から仮想カメラに入射する光線を計算することにより、要素画像群の画像データを生成していた。しかしながら、この場合、映像のフレーム毎に、仮想カメラと、仮想レンズアレイ及び仮想奥行き制御レンズとの位置関係が変わりうる。従って、従来の技術では、仮想レンズアレイ及び仮想奥行き制御レンズを通過する光線を、フレーム毎に計算しなくてはならない場合があった。このように、従来の技術では、CGによるIP画像の画像データの生成において、計算量が増大してしまうことがあった。   In the conventional technology for generating an IP image by CG, a virtual lens array and a virtual depth control lens are arranged as objects different from the virtual camera and the subject between the virtual camera and the subject in the virtual space. . Then, the image data generation device generates the image data of the element image group by calculating the light rays incident on the virtual camera from the subject through these virtual lenses. However, in this case, the positional relationship between the virtual camera, the virtual lens array, and the virtual depth control lens may change for each frame of the video. Therefore, in the conventional technique, there are cases where the light rays passing through the virtual lens array and the virtual depth control lens have to be calculated for each frame. As described above, in the conventional technique, the amount of calculation may increase in the generation of the image data of the IP image by CG.

本発明は上記の点に鑑みてなされたものであり、少ない計算量でIP画像の画像データを生成することができる画像生成装置、画像生成方法、及びプログラムを提供する。   The present invention has been made in view of the above points, and provides an image generation apparatus, an image generation method, and a program that can generate image data of an IP image with a small amount of calculation.

(1)本発明は上記の課題を解決するためになされたものであり、本発明の一態様は、仮想空間内のオブジェクトのインテグラルフォトグラフィ画像を生成する画像生成装置であって、前記仮想空間内における前記オブジェクトの位置を含むオブジェクト属性情報を取得するオブジェクト属性取得部と、前記仮想空間内に存在する仮想レンズアレイの位置及び屈折特性を少なくとも含む仮想レンズアレイ属性情報と、前記仮想空間内に存在する仮想撮像素子の位置を少なくとも含む撮像素子属性情報とを記憶する仮想カメラ属性記憶部と、前記仮想撮像素子に入射する光線が前記仮想レンズアレイを透過するときの屈折のしかたを、前記仮想カメラ属性記憶部から読み出す前記仮想レンズアレイ属性情報に基づいて演算するレンズ処理部と、前記オブジェクト属性取得部が取得する前記オブジェクト属性情報に基づいて、且つ前記レンズ処理部による演算結果に基づいて、前記仮想撮像素子に入射する光線の元の位置にあるオブジェクトをレンダリングして前記インテグラルフォトグラフィ画像の画像データを生成するレンダリング処理部と、を備える画像生成装置である。   (1) The present invention has been made to solve the above problems, and one aspect of the present invention is an image generation apparatus that generates an integral photography image of an object in a virtual space, the virtual An object attribute acquisition unit that acquires object attribute information including the position of the object in space; virtual lens array attribute information that includes at least the position and refractive characteristics of a virtual lens array that exists in the virtual space; and A virtual camera attribute storage unit that stores image sensor attribute information including at least the position of the virtual image sensor present in the optical image sensor, and a refraction method when a light beam incident on the virtual image sensor passes through the virtual lens array. A lens processing unit that calculates based on the virtual lens array attribute information read from the virtual camera attribute storage unit; Based on the object attribute information acquired by the object attribute acquisition unit, and based on the calculation result by the lens processing unit, the object at the original position of the light ray incident on the virtual imaging device is rendered and the integral And a rendering processing unit that generates image data of a photographic image.

(2)また、本発明の一態様は、上記(1)に記載の画像生成装置が、前記仮想撮像素子における画素に対応する前記仮想空間内の光線の方向を表す光線方向情報を記憶する光線方向記憶部、をさらに備え、前記レンズ処理部は、演算された前記屈折のしかたに基づいて、前記仮想撮像素子の各々の画素に対応する光線の方向を演算し、前記画素と前記光線の方向との対応関係を前記光線方向記憶部に記憶させ、前記レンダリング処理部は、前記光線方向記憶部に前記画素と前記光線の方向との対応関係が既に記憶されている場合には、前記光線方向記憶部から読み出した光線方向情報に基づいて、前記画像データを生成する、ことを特徴とする。   (2) Further, according to one aspect of the present invention, the image generation device according to (1) stores a light beam direction information indicating a light beam direction in the virtual space corresponding to a pixel in the virtual imaging device. A direction storage unit, and the lens processing unit calculates a direction of a light beam corresponding to each pixel of the virtual imaging device based on the calculated refraction method, and the direction of the pixel and the light beam Is stored in the ray direction storage unit, and the rendering processing unit stores the ray direction when the correspondence relationship between the pixel and the ray direction is already stored in the ray direction storage unit. The image data is generated based on the light direction information read from the storage unit.

(3)また、本発明の一態様は、上記(1)又は(2)のいずれかに記載の画像生成装置が、前記仮想空間内において前記仮想レンズアレイを挟んで前記仮想撮像素子とは反対の側に存在する仮想奥行き制御レンズの属性を示す仮想奥行き制御レンズ属性情報を記憶する奥行き制御レンズ属性記憶部、をさらに備え、前記レンズ処理部は、前記奥行き制御レンズ属性記憶部から読み出した前記仮想奥行き制御レンズ属性情報に基づき、前記仮想レンズアレイを透過して前記仮想撮像素子に入射する光線が前記仮想奥行き制御レンズを透過するときの屈折のしかたを演算する、ことを特徴とする。   (3) Further, according to one embodiment of the present invention, the image generation device according to any one of (1) and (2) described above is opposite to the virtual imaging element with the virtual lens array interposed in the virtual space. A depth control lens attribute storage unit that stores virtual depth control lens attribute information indicating an attribute of the virtual depth control lens existing on the side of the lens, and the lens processing unit reads the depth control lens attribute storage unit from the depth control lens attribute storage unit Based on the virtual depth control lens attribute information, a refraction method is calculated when a light beam that passes through the virtual lens array and enters the virtual imaging device passes through the virtual depth control lens.

(4)また、本発明の一態様は、上記(3)に記載の画像生成装置において、前記仮想奥行き制御レンズ属性記憶部は、4f光学系を構成する2枚の仮想奥行き制御レンズの属性を記憶する、ことを特徴とする。   (4) Further, according to one aspect of the present invention, in the image generation device according to (3), the virtual depth control lens attribute storage unit includes attributes of the two virtual depth control lenses constituting the 4f optical system. It memorizes.

(5)また、本発明の一態様は、仮想空間内に存在する仮想レンズアレイの位置及び屈折特性を少なくとも含む仮想レンズアレイ属性情報と、前記仮想空間内に存在する仮想撮像素子の位置を少なくとも含む撮像素子属性情報とを記憶する仮想カメラ属性記憶部を備え、前記仮想空間内のオブジェクトのインテグラルフォトグラフィ画像を生成する画像生成装置における画像生成方法であって、前記仮想空間内における前記オブジェクトの位置を含むオブジェクト属性情報を取得するオブジェクト属性取得過程と、前記仮想撮像素子に入射する光線が前記仮想レンズアレイを透過するときの屈折のしかたを、前記仮想カメラ属性記憶部から読み出す前記仮想レンズアレイ属性情報に基づいて演算するレンズ処理過程と、前記オブジェクト属性取得過程において取得される前記オブジェクト属性情報に基づいて、且つ前記レンズ処理過程における演算結果に基づいて、前記仮想撮像素子に入射する光線の元の位置にあるオブジェクトをレンダリングして前記インテグラルフォトグラフィ画像の画像データを生成するレンダリング処理過程と、を含むことを特徴とする画像生成方法である。   (5) According to one aspect of the present invention, at least the virtual lens array attribute information including at least the position and refractive characteristics of the virtual lens array existing in the virtual space, and the position of the virtual imaging element existing in the virtual space are included. An image generation method in an image generation apparatus, comprising: a virtual camera attribute storage unit that stores image sensor attribute information including an image, and generates an integral photography image of the object in the virtual space, wherein the object in the virtual space The virtual lens for reading out the object attribute information including the position of the object, and reading from the virtual camera attribute storage unit the refraction method when the light ray incident on the virtual image sensor passes through the virtual lens array Lens processing process for calculating based on array attribute information, and the object attribute Based on the object attribute information acquired in the acquisition process, and on the basis of the calculation result in the lens processing process, the object at the original position of the light ray incident on the virtual imaging device is rendered, and the integral photography And a rendering process for generating image data of the image.

(6)また、本発明の一態様は、仮想空間内に存在する仮想レンズアレイの位置及び屈折特性を少なくとも含む仮想レンズアレイ属性情報と、前記仮想空間内に存在する仮想撮像素子の位置を少なくとも含む撮像素子属性情報とを記憶する仮想カメラ属性記憶部を備え、前記仮想空間内のオブジェクトのインテグラルフォトグラフィ画像を生成する画像生成装置のコンピュータに、前記仮想空間内における前記オブジェクトの位置を含むオブジェクト属性情報を取得するオブジェクト属性取得手順、前記仮想撮像素子に入射する光線が前記仮想レンズアレイを透過するときの屈折のしかたを、前記仮想カメラ属性記憶部から読み出す前記仮想レンズアレイ属性情報に基づいて演算するレンズ処理手順、前記オブジェクト属性取得手順において取得される前記オブジェクト属性情報に基づいて、且つ前記レンズ処理手順における演算結果に基づいて、前記仮想撮像素子に入射する光線の元の位置にあるオブジェクトをレンダリングして前記インテグラルフォトグラフィ画像の画像データを生成するレンダリング処理手順、を実行させるためのプログラムである。   (6) According to one aspect of the present invention, at least the virtual lens array attribute information including at least the position and refractive characteristics of the virtual lens array existing in the virtual space, and the position of the virtual imaging element existing in the virtual space are included. A virtual camera attribute storage unit that stores imaging element attribute information including the image sensor attribute information, and a computer of an image generation apparatus that generates an integral photography image of the object in the virtual space includes the position of the object in the virtual space Object attribute acquisition procedure for acquiring object attribute information, based on the virtual lens array attribute information that reads from the virtual camera attribute storage unit how the light rays incident on the virtual image sensor pass through the virtual lens array. In the lens processing procedure to calculate and the object attribute acquisition procedure Based on the obtained object attribute information and on the basis of the calculation result in the lens processing procedure, the object at the original position of the light ray incident on the virtual imaging device is rendered, and the image of the integral photography image This is a program for executing a rendering processing procedure for generating data.

本発明によれば、少ない計算量でIP画像の画像データを生成することができる。   According to the present invention, image data of an IP image can be generated with a small amount of calculation.

本発明の第1の実施形態に係る画像生成装置による処理の概念図である。It is a conceptual diagram of the process by the image generation apparatus which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る仮想レンズアレイとIP画像とを示す模式図である。It is a schematic diagram which shows the virtual lens array and IP image which concern on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る画像生成装置の概略機能構成を示すブロック図である。1 is a block diagram illustrating a schematic functional configuration of an image generation apparatus according to a first embodiment of the present invention. 本発明の第1の実施形態に係る画像生成装置における仮想レンズアレイ用パラメータの入力画面を示す模式図である。It is a schematic diagram which shows the input screen of the parameter for virtual lens arrays in the image generation apparatus which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る画像生成装置による処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the process by the image generation apparatus which concerns on the 1st Embodiment of this invention. 本発明の第2の実施形態に係る画像生成装置による処理の概念図である。It is a conceptual diagram of the process by the image generation apparatus which concerns on the 2nd Embodiment of this invention. 本発明の第2の実施形態に係る画像生成装置の概略機能構成を示すブロック図である。It is a block diagram which shows schematic structure of the image generation apparatus which concerns on the 2nd Embodiment of this invention. 本発明の第2の実施形態に係る画像生成装置における仮想レンズアレイ用パラメータの入力画面を示す模式図である。It is a schematic diagram which shows the input screen of the parameter for virtual lens arrays in the image generation apparatus which concerns on the 2nd Embodiment of this invention. 本発明の第2の実施形態に係る画像生成装置による処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the process by the image generation apparatus which concerns on the 2nd Embodiment of this invention. 本発明の第3の実施形態に係る画像生成装置における仮想カメラ内のレンズ等の配置を示す概念図である。It is a conceptual diagram which shows arrangement | positioning of the lens etc. in the virtual camera in the image generation apparatus which concerns on the 3rd Embodiment of this invention. 本発明の各実施形態に係る画像生成装置による画素対応光線の方向の演算方法を説明するための第1図である。It is FIG. 1 for demonstrating the calculation method of the direction of the light beam corresponding to a pixel by the image generation apparatus which concerns on each embodiment of this invention. 本発明の各実施形態に係る画像生成装置による画素対応光線の方向の演算方法を説明するための第2図である。It is FIG. 2 for demonstrating the calculation method of the direction of the light beam corresponding to a pixel by the image generation apparatus which concerns on each embodiment of this invention. 本発明の各実施形態に係る画像生成装置による画素対応光線の方向の演算方法を説明するための第3図である。It is FIG. 3 for demonstrating the calculation method of the direction of the light beam corresponding to a pixel by the image generation apparatus which concerns on each embodiment of this invention. 本発明の光線方向情報の例を示す図である。It is a figure which shows the example of the light direction information of this invention.

以下、図面を参照しながら本発明の実施形態について説明する。
(第1の実施形態)
本発明の第1の実施形態について説明する。
まず、図1を参照して、本実施形態の概要について説明する。
図1は、本実施形態に係る画像生成装置10(図3)による処理の概念図である。
画像生成装置10は、仮想空間内のオブジェクトをレンダリングしてIP画像の画像(映像)データを生成する装置であり、例えば、パーソナルコンピュータ又はサーバ装置などの電子機器である。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
(First embodiment)
A first embodiment of the present invention will be described.
First, an outline of the present embodiment will be described with reference to FIG.
FIG. 1 is a conceptual diagram of processing by the image generation apparatus 10 (FIG. 3) according to the present embodiment.
The image generation device 10 is a device that generates an image (video) data of an IP image by rendering an object in a virtual space, and is an electronic device such as a personal computer or a server device, for example.

画像生成装置10は、仮想空間内におけるオブジェクト40の位置を含むオブジェクト属性情報を取得するオブジェクト属性取得部155(図3)と、仮想空間内に存在する仮想レンズアレイ220の位置及び屈折特性を少なくとも含む仮想レンズアレイ属性情報と、仮想空間内に存在する仮想撮像素子210の位置を少なくとも含む仮想撮像素子属性情報とを記憶する仮想カメラ属性記憶部141(図3)と、を含んで構成される。これにより、画像生成装置10は、オブジェクト属性取得部155が取得するオブジェクト属性情報に基づいて、仮想空間内にオブジェクト40を配置する。また、画像生成装置10は、仮想カメラ属性記憶部141に記憶されている仮想レンズアレイ属性情報と仮想撮像素子属性情報とに基づいて、仮想撮像素子210及び仮想レンズアレイ220を備える仮想カメラ20を仮想空間内に配置する。   The image generation device 10 includes at least the position and refractive characteristics of the object attribute acquisition unit 155 (FIG. 3) that acquires object attribute information including the position of the object 40 in the virtual space, and the virtual lens array 220 that exists in the virtual space. And a virtual camera attribute storage unit 141 (FIG. 3) that stores virtual lens array attribute information including virtual image sensor attribute information including at least the position of the virtual image sensor 210 existing in the virtual space. . Thereby, the image generation device 10 arranges the object 40 in the virtual space based on the object attribute information acquired by the object attribute acquisition unit 155. In addition, the image generation apparatus 10 includes the virtual camera 20 including the virtual imaging element 210 and the virtual lens array 220 based on the virtual lens array attribute information and the virtual imaging element attribute information stored in the virtual camera attribute storage unit 141. Place in the virtual space.

また、画像生成装置10は、仮想撮像素子210に入射する光線が仮想レンズアレイを透過するときの屈折のしかたを、仮想カメラ属性記憶部141から読み出す仮想レンズアレイ属性情報に基づいて演算するレンズ処理部152と、オブジェクト属性取得部155が取得するオブジェクト属性情報に基づいて、且つレンズ処理部152による演算結果に基づいて、仮想撮像素子に入射する光線の元の位置にあるオブジェクト40をレンダリングして画像(映像)データを生成するレンダリング処理部154と、を含んで構成される。これにより、画像生成装置10は、仮想カメラ20が備える仮想レンズアレイ220における光線の屈折のしかたを演算して、オブジェクト40をレンダリングし、IP画像の画像(映像)データを生成する。   In addition, the image generation device 10 calculates a refraction method when a light beam incident on the virtual imaging element 210 passes through the virtual lens array based on virtual lens array attribute information that is read from the virtual camera attribute storage unit 141. Based on the object attribute information acquired by the unit 152 and the object attribute acquisition unit 155, and based on the calculation result by the lens processing unit 152, the object 40 at the original position of the light ray incident on the virtual imaging device is rendered. And a rendering processing unit 154 that generates image (video) data. Thereby, the image generation device 10 calculates how the light rays are refracted in the virtual lens array 220 included in the virtual camera 20, renders the object 40, and generates image (video) data of the IP image.

なお、映像データとは、フレームと画像データとを対応付けたデータである。換言すると、映像データとは、画像データの時系列データである。画像生成装置10は、IP画像の画像データ及び映像データのいずれを生成してもよい。以下では、画像生成装置10がIP画像の映像データを生成する態様について説明するが、説明を簡潔にするため、映像データを構成する各フレームの画像データの生成について説明し、画像データの時系列化については説明を省略する。   The video data is data in which frames and image data are associated with each other. In other words, the video data is time-series data of image data. The image generation device 10 may generate either image data or video data of an IP image. In the following, an aspect in which the image generation apparatus 10 generates video data of an IP image will be described. However, in order to simplify the description, generation of image data of each frame constituting video data will be described, and time series of image data will be described. A description of the conversion will be omitted.

画像生成装置10が生成したIP画像の映像信号は、実際の装置であるIP立体映像表示装置30に出力される。このIP立体映像表示装置30は、表示素子310とレンズアレイ320とを備える。そして、IP立体映像表示装置30の表示素子310は、画像生成装置10から取得されたIP画像の映像信号が示すIP画像を表示する。表示素子310に表示されたIP画像からの光線は、レンズアレイ320を介することにより、オブジェクト40に対応する立体像50を結像する。
なお、IP立体映像表示装置30は、仮想の装置であってもよい。
The video signal of the IP image generated by the image generation device 10 is output to the IP stereoscopic video display device 30 which is an actual device. The IP stereoscopic video display device 30 includes a display element 310 and a lens array 320. The display element 310 of the IP stereoscopic video display device 30 displays the IP image indicated by the video signal of the IP image acquired from the image generation device 10. Light rays from the IP image displayed on the display element 310 form a three-dimensional image 50 corresponding to the object 40 through the lens array 320.
Note that the IP stereoscopic video display device 30 may be a virtual device.

次に、図2を参照して、仮想撮像素子210と、仮想レンズアレイ220とについて説明する
図2は、仮想レンズアレイ220とIP画像とを示す模式図である。
仮想撮像素子210及び仮想レンズアレイ220の属性は、それぞれ任意に設定可能である。仮想撮像素子210及び仮想レンズアレイ220の属性は、例えば、IP立体映像表示装置30(図1)を仮想空間上に配置した場合の表示素子310及びレンズアレイ320の属性に合わせて設定される。
仮想撮像素子210の属性には、位置、サイズ、及び画素数等があり、それぞれ、表示素子310の位置、サイズ、及び画素数等と同様の値に設定される。換言すると、仮想撮像素子210の仮想撮像面は、仮想空間にIP立体映像表示装置30を配置したときに、表示部11によりIP画像が表示される表示面の位置に対応する。
Next, the virtual imaging device 210 and the virtual lens array 220 will be described with reference to FIG. 2. FIG. 2 is a schematic diagram showing the virtual lens array 220 and the IP image.
The attributes of the virtual image sensor 210 and the virtual lens array 220 can be arbitrarily set. The attributes of the virtual imaging device 210 and the virtual lens array 220 are set in accordance with, for example, the attributes of the display device 310 and the lens array 320 when the IP stereoscopic video display device 30 (FIG. 1) is arranged in the virtual space.
The attributes of the virtual image sensor 210 include the position, size, number of pixels, and the like, which are set to the same values as the position, size, number of pixels, etc. of the display element 310, respectively. In other words, the virtual imaging surface of the virtual imaging device 210 corresponds to the position of the display surface on which the IP image is displayed by the display unit 11 when the IP stereoscopic video display device 30 is arranged in the virtual space.

上述したように、仮想レンズアレイ220の属性は、例えば、IP立体映像表示装置30のレンズアレイ320の属性に合わせて設定される。レンズアレイ320は、例えば、同一の属性を有するN個の仮想要素レンズを、その主面が同一平面上に位置するように配列して構成される。従って、仮想レンズアレイ220は、同一の属性を有するN個の仮想要素レンズ22−1〜22−Nを、その主面が同一平面上に位置するように配列して構成される。   As described above, the attribute of the virtual lens array 220 is set in accordance with, for example, the attribute of the lens array 320 of the IP stereoscopic video display device 30. The lens array 320 is configured, for example, by arranging N virtual element lenses having the same attribute so that their main surfaces are located on the same plane. Therefore, the virtual lens array 220 is configured by arranging N virtual element lenses 22-1 to 22-N having the same attribute so that their main surfaces are located on the same plane.

仮想レンズアレイ220の属性には、仮想レンズアレイ220の位置、仮想レンズアレイ220のサイズ、仮想要素レンズ22−1〜22−Nの数、仮想要素レンズ22−1〜22−Nの配列、及び仮想要素レンズ22−1〜22−Nの形状等がある。仮想レンズアレイ220の位置、仮想レンズアレイ220のサイズ、仮想要素レンズ22−1〜22−Nの数、仮想要素レンズ22−1〜22−Nの配列、及び仮想要素レンズ22−1〜22−Nの形状等は、それぞれ、レンズアレイ320の位置、レンズアレイ320のサイズ、レンズアレイ320を構成する要素レンズの数、レンズアレイ320を構成する要素レンズの配列、及びレンズアレイ320を構成する要素レンズの形状等と同様の値に設定される。そして、仮想レンズアレイ220の仮想要素レンズ22−1〜22−Nの主点の位置は、仮想空間にIP立体映像表示装置30を配置したときに、IP立体映像表示装置30のレンズアレイ320を構成する要素レンズ各々の主点の位置に対応する。   The attributes of the virtual lens array 220 include the position of the virtual lens array 220, the size of the virtual lens array 220, the number of virtual element lenses 22-1 to 22-N, the arrangement of the virtual element lenses 22-1 to 22-N, and There are shapes of the virtual element lenses 22-1 to 22-N and the like. The position of the virtual lens array 220, the size of the virtual lens array 220, the number of virtual element lenses 22-1 to 22-N, the arrangement of the virtual element lenses 22-1 to 22-N, and the virtual element lenses 22-1 to 22- The shape of N is the position of the lens array 320, the size of the lens array 320, the number of element lenses constituting the lens array 320, the arrangement of the element lenses constituting the lens array 320, and the elements constituting the lens array 320, respectively. It is set to the same value as the shape of the lens. The positions of the principal points of the virtual element lenses 22-1 to 22-N of the virtual lens array 220 are set so that the lens array 320 of the IP stereoscopic video display device 30 is located when the IP stereoscopic video display device 30 is arranged in the virtual space. This corresponds to the position of the principal point of each component lens.

また、IP立体映像表示装置30は、例えば、それぞれの表示面又は主面のサイズが揃った表示素子310とレンズアレイ320とを備える。また、IP立体映像表示装置30は、例えば、それぞれの表示面又は主面の中心を通る法線が一致し、且つ、レンズアレイ320を構成する要素レンズ各々の焦点距離だけ離れた距離に、表示素子310とレンズアレイ320とを配置する。この場合、画像生成装置10は、仮想カメラ20において、仮想撮像素子210の撮像面のサイズと仮想レンズアレイ220の主面のサイズとを揃えて設定する。また、画像生成装置10は、仮想撮像素子210と仮想レンズアレイ220とは、それぞれの面の中心を通る法線が一致するように、且つ、仮想レンズアレイ220を構成する仮想要素レンズ22−1〜22−N各々の焦点距離だけ離れた距離に配置されるように設定する。   In addition, the IP stereoscopic video display device 30 includes, for example, a display element 310 and a lens array 320 that have the same display surface or main surface size. Further, the IP stereoscopic image display device 30 displays, for example, at the distances that the normals passing through the centers of the respective display surfaces or main surfaces coincide with each other and that are separated by the focal lengths of the element lenses constituting the lens array 320. The element 310 and the lens array 320 are arranged. In this case, the image generation apparatus 10 sets the size of the imaging surface of the virtual imaging device 210 and the size of the main surface of the virtual lens array 220 in the virtual camera 20 so as to be aligned. Further, in the image generation device 10, the virtual imaging element 210 and the virtual lens array 220 are configured so that the normals passing through the centers of the respective surfaces coincide with each other, and the virtual element lens 22-1 constituting the virtual lens array 220 is used. It is set to be arranged at a distance of ˜22-N by the focal length.

これにより、仮想要素レンズ22−1〜22−N各々を透過する光線は、それぞれ、仮想撮像素子210の撮像面上に要素画像21−1〜21−Nを結像する。つまり、これら要素画像21−1〜21−Nは、被写体からの光線を記録した画像であり、記録できる光線数は、仮想撮像素子210の解像度に依存する。画像生成装置10(図3)は、要素画像21−1〜22−Nの画像を示すIP画像データを生成する。
なお、仮想レンズアレイ220を構成する仮想要素レンズ22−1〜22−Nの主点の位置及び仮想撮像素子210の仮想撮像面の位置は、仮想空間における時間の経過とともに変化してもよい。
Thereby, the light rays that pass through each of the virtual element lenses 22-1 to 22-N form element images 21-1 to 21-N on the imaging surface of the virtual imaging element 210, respectively. That is, these element images 21-1 to 21 -N are images in which light rays from the subject are recorded, and the number of light rays that can be recorded depends on the resolution of the virtual image sensor 210. The image generation device 10 (FIG. 3) generates IP image data indicating the images of the element images 21-1 to 22-N.
Note that the positions of the principal points of the virtual element lenses 22-1 to 22-N constituting the virtual lens array 220 and the position of the virtual imaging surface of the virtual imaging element 210 may change with the passage of time in the virtual space.

次に、図3を参照して、画像生成装置10の構成について説明する。
図3は、画像生成装置10の概略機能構成を示すブロック図である。
画像生成装置10は、表示部11と、入力部12と、通信部13と、記憶部14と、制御部15と、を含んで構成される。
表示部11は、仮想カメラ20の属性の入力を受け付けるためのユーザインターフェイスを表示する。表示部11は、例えば、液晶ディスプレイや有機EL(Electro−Luminescence)ディスプレイなどの表示装置を備える。
入力部12は、ユーザから仮想カメラ20の属性の入力を受け付ける。入力部12は、例えば、マウス、キーボード、又はタッチパネルなどの入力装置を備える。入力部12が受け付け可能な操作の内容は、例えば、表示部11が備える表示装置により表示される。
通信部13は、通信用インターフェイスを備え、IP立体映像表示装置30に制御部15から出力された映像信号を送信する。
Next, the configuration of the image generation apparatus 10 will be described with reference to FIG.
FIG. 3 is a block diagram illustrating a schematic functional configuration of the image generation apparatus 10.
The image generation apparatus 10 includes a display unit 11, an input unit 12, a communication unit 13, a storage unit 14, and a control unit 15.
The display unit 11 displays a user interface for accepting input of attributes of the virtual camera 20. The display unit 11 includes a display device such as a liquid crystal display or an organic EL (Electro-Luminescence) display.
The input unit 12 receives input of attributes of the virtual camera 20 from the user. The input unit 12 includes an input device such as a mouse, a keyboard, or a touch panel, for example. The contents of operations that can be accepted by the input unit 12 are displayed by, for example, a display device included in the display unit 11.
The communication unit 13 includes a communication interface, and transmits the video signal output from the control unit 15 to the IP stereoscopic video display device 30.

記憶部14は、例えば、ROM(Read Only Memory)、及びRAM(Random Access Memory)等を備える。また、記憶部14は、HDD(Hard Disc Drive)、EEPROM(Electrically Erasable Programmable Read Only Memory)、及びフラッシュメモリ等を備えてもよい。記憶部14は、画像生成装置10が備えるCPU(Central Processing Unit、不図示)が実行するための各種プログラムやCPUが実行した処理の結果などを記憶する。   The storage unit 14 includes, for example, a ROM (Read Only Memory), a RAM (Random Access Memory), and the like. In addition, the storage unit 14 may include an HDD (Hard Disc Drive), an EEPROM (Electrically Erasable Programmable Read Only Memory), a flash memory, and the like. The storage unit 14 stores various programs to be executed by a CPU (Central Processing Unit (not shown)) included in the image generation apparatus 10, results of processing executed by the CPU, and the like.

また、記憶部14は、仮想カメラ属性記憶部141、オブジェクト属性記憶部145、及び映像信号記憶部146として機能する。
仮想カメラ属性記憶部141は、仮想カメラ20(図1)の属性を示す仮想カメラ属性情報を記憶する。
仮想カメラ20の属性情報は、仮想カメラ20が備える仮想撮像素子210の属性を表す仮想撮像素子属性情報、及び仮想レンズアレイ220の属性を表す仮想レンズアレイ属性情報を含む情報である。
The storage unit 14 functions as a virtual camera attribute storage unit 141, an object attribute storage unit 145, and a video signal storage unit 146.
The virtual camera attribute storage unit 141 stores virtual camera attribute information indicating attributes of the virtual camera 20 (FIG. 1).
The attribute information of the virtual camera 20 is information including virtual image sensor attribute information indicating the attributes of the virtual image sensor 210 included in the virtual camera 20 and virtual lens array attribute information indicating the attributes of the virtual lens array 220.

仮想カメラ属性記憶部141は、仮想撮像素子属性記憶部142、仮想レンズアレイ属性記憶部143、及び光線方向記憶部144として機能する。
仮想撮像素子属性記憶部142は、仮想カメラ属性情報が含む情報のうち、仮想撮像素子属性情報を記憶する。仮想撮像素子属性情報が表す仮想撮像素子210の属性は、例えば、仮想撮像素子210の水平方向及び垂直方向の画素数、仮想撮像素子210のアスペクト比、仮想撮像素子210の各々の画素のアスペクト比、仮想撮像素子210の水平方向及び垂直方向のオフセット、及び仮想撮像素子210のサイズ等である。
The virtual camera attribute storage unit 141 functions as a virtual image sensor attribute storage unit 142, a virtual lens array attribute storage unit 143, and a light direction storage unit 144.
The virtual image sensor attribute storage unit 142 stores virtual image sensor attribute information among information included in the virtual camera attribute information. The attributes of the virtual image sensor 210 represented by the virtual image sensor attribute information are, for example, the number of pixels in the horizontal and vertical directions of the virtual image sensor 210, the aspect ratio of the virtual image sensor 210, and the aspect ratio of each pixel of the virtual image sensor 210. The horizontal and vertical offsets of the virtual image sensor 210, the size of the virtual image sensor 210, and the like.

仮想レンズアレイ属性記憶部143は、仮想カメラ属性情報のうち、仮想レンズアレイ属性情報を記憶する。仮想レンズアレイ属性情報が表す仮想レンズアレイ220の属性は、例えば、要素レンズ22−1〜22−Nの焦点距離、要素レンズ22−1〜22−Nの水平方向及び垂直方向の数、隣接する要素レンズ22−1〜22−Nの距離(ピッチ)、要素レンズ22−1〜22−Nの配列、要素レンズ22−1〜22−Nの形状、並びに仮想レンズアレイ220と仮想撮像素子210との距離等である。   The virtual lens array attribute storage unit 143 stores virtual lens array attribute information among the virtual camera attribute information. The attributes of the virtual lens array 220 represented by the virtual lens array attribute information are, for example, the focal lengths of the element lenses 22-1 to 22-N, the numbers of the element lenses 22-1 to 22-N in the horizontal direction and the vertical direction, and adjacent. The distance (pitch) of the element lenses 22-1 to 22-N, the arrangement of the element lenses 22-1 to 22-N, the shape of the element lenses 22-1 to 22-N, and the virtual lens array 220 and the virtual imaging device 210 Distance.

光線方向記憶部144は、仮想撮像素子210における画素に対応する仮想空間内の光線の方向を表す光線方向情報を記憶する。
光線方向情報は、仮想撮像素子210の各画素に入射する光線であって、仮想カメラ20が備える仮想レンズのうち、仮想撮像素子210から最も遠い位置にある仮想レンズにおける光線の方向を示す情報である。換言すると、光線方向情報は、仮想撮像素子210の各画素から見た光線が、仮想カメラ20が備える各レンズにおいて屈折しながら透過して、仮想カメラ20から射出するときの方向を示す情報である。本実施形態において、仮想カメラ20が備える仮想レンズのうち、仮想撮像素子210から最も遠い位置にある仮想レンズは、仮想レンズアレイ220である。従って、本実施形態において、光線方向記憶部144は、仮想撮像素子210の各画素に対応する光線が仮想レンズアレイ220を構成する要素レンズ22−1〜22−Nから射出する方向を、画素毎に記憶する。
The light beam direction storage unit 144 stores light beam direction information representing the light beam direction in the virtual space corresponding to the pixels in the virtual image sensor 210.
The light direction information is light that is incident on each pixel of the virtual image sensor 210 and is information indicating the direction of the light beam in the virtual lens farthest from the virtual image sensor 210 among the virtual lenses included in the virtual camera 20. is there. In other words, the light direction information is information indicating a direction when the light viewed from each pixel of the virtual image sensor 210 is refracted through each lens included in the virtual camera 20 and exits from the virtual camera 20. . In the present embodiment, among the virtual lenses included in the virtual camera 20, the virtual lens located farthest from the virtual image sensor 210 is the virtual lens array 220. Therefore, in the present embodiment, the light direction storage unit 144 determines the direction in which the light corresponding to each pixel of the virtual image sensor 210 is emitted from the element lenses 22-1 to 22-N constituting the virtual lens array 220 for each pixel. To remember.

オブジェクト属性記憶部145は、オブジェクト40(図1)の属性を示すオブジェクト属性情報を記憶する。
オブジェクト属性情報は、仮想空間におけるオブジェクト40の属性を表す情報であり、例えば、位置、形状、光学的特性、及び色等を表す情報である。オブジェクト属性情報が表すオブジェクト40の仮想空間における位置及び形状は、例えば、ポリゴン(多角形)又は自由曲面等により表現される。また、そのデータ形式は、任意であってよく、例えば、CAD(Computer Assisted Drafting)データとして表現される。
The object attribute storage unit 145 stores object attribute information indicating the attributes of the object 40 (FIG. 1).
The object attribute information is information that represents the attribute of the object 40 in the virtual space, and is information that represents, for example, a position, a shape, an optical characteristic, and a color. The position and shape of the object 40 represented by the object attribute information in the virtual space are represented by, for example, a polygon (polygon) or a free-form surface. Moreover, the data format may be arbitrary, for example, it is expressed as CAD (Computer Assisted Drafting) data.

なお、オブジェクト40の仮想空間における位置、形状、光学的な特性、色等の属性は、仮想空間における時間の経過とともに変化してよい。すなわち、オブジェクト属性情報は、オブジェクト40の属性を表す時系列の情報であってもよい。
映像信号記憶部146は、映像を構成する各フレームにおけるIP画像データを記憶する。
Note that attributes such as the position, shape, optical characteristics, and color of the object 40 in the virtual space may change over time in the virtual space. That is, the object attribute information may be time-series information that represents the attribute of the object 40.
The video signal storage unit 146 stores IP image data in each frame constituting the video.

制御部15が有する機能の一部又は全ては、例えば、画像生成装置10が備えるCPU(不図示)が記憶部14に記憶されているプログラムを実行することにより実現される。
制御部15は、表示処理部151、レンズ処理部152、レンダリング処理部154、及び映像信号出力部156として機能する。
表示処理部151は、仮想カメラ20の属性の入力を受け付けるためのユーザインターフェイスを、表示部11に表示させる。
Some or all of the functions of the control unit 15 are realized by, for example, a CPU (not shown) included in the image generation apparatus 10 executing a program stored in the storage unit 14.
The control unit 15 functions as a display processing unit 151, a lens processing unit 152, a rendering processing unit 154, and a video signal output unit 156.
The display processing unit 151 causes the display unit 11 to display a user interface for receiving input of attributes of the virtual camera 20.

レンズ処理部152は、入力部12を介してユーザから受け付けた仮想カメラ20の属性についての情報を、仮想レンズアレイ属性記憶部143に記憶させる。具体的には、レンズ処理部152は、入力部12がユーザから受け付けた仮想撮像素子210の属性についての入力に基づいて、仮想撮像素子210の属性を示す仮想撮像素子属性情報を仮想撮像素子属性記憶部142に記憶させる。また、レンズ処理部152は、入力部12がユーザから受け付けた仮想レンズアレイ220の属性についての入力に基づいて、仮想レンズアレイ220の属性を示す仮想レンズアレイ属性情報を仮想レンズアレイ属性記憶部143に記憶させる。   The lens processing unit 152 causes the virtual lens array attribute storage unit 143 to store information about the attributes of the virtual camera 20 received from the user via the input unit 12. Specifically, the lens processing unit 152 sets the virtual image sensor attribute information indicating the attribute of the virtual image sensor 210 based on the input about the attribute of the virtual image sensor 210 received from the user by the input unit 12. The data is stored in the storage unit 142. Further, the lens processing unit 152 receives virtual lens array attribute information indicating the attribute of the virtual lens array 220 based on the input about the attribute of the virtual lens array 220 received from the user by the input unit 12, and the virtual lens array attribute storage unit 143. Remember me.

また、レンズ処理部152は、仮想撮像素子210に入射する光線の仮想空間内における進み方を演算する。このとき、レンズ処理部152は、例えば、仮想レンズアレイ処理部153として機能する。
仮想レンズアレイ処理部153は、仮想撮像素子210に入射する光線が仮想レンズアレイ220を透過するときの屈折のしかたを、仮想カメラ属性記憶部141の仮想レンズアレイ属性記憶部143から読み出す仮想レンズアレイ属性情報に基づいて演算する。仮想レンズアレイ処理部153は、演算された仮想レンズアレイ220における屈折のしかたに基づいて、仮想撮像素子210の各々の画素に対応する光線の方向を演算し、仮想撮像素子210の各々の画素と、光線の方向との対応関係を光線方向記憶部144に記憶させる。
In addition, the lens processing unit 152 calculates how the light rays incident on the virtual image sensor 210 travel in the virtual space. At this time, the lens processing unit 152 functions as the virtual lens array processing unit 153, for example.
The virtual lens array processing unit 153 reads from the virtual lens array attribute storage unit 143 of the virtual camera attribute storage unit 141 the refraction method when the light rays incident on the virtual image sensor 210 pass through the virtual lens array 220. Calculate based on attribute information. The virtual lens array processing unit 153 calculates the direction of light rays corresponding to each pixel of the virtual image sensor 210 based on the calculated refraction in the virtual lens array 220, and The correspondence relationship with the direction of the light beam is stored in the light beam direction storage unit 144.

レンダリング処理部154は、オブジェクト属性情報を取得するオブジェクト属性取得部155として機能する。本実施形態において、オブジェクト属性取得部155は、オブジェクト属性記憶部145からオブジェクト属性情報を読み出すことにより取得する。
レンダリング処理部154は、光線方向記憶部144から光線方向情報を読み出し、読み出した光線方向情報と、オブジェクト属性情報とに基づいて、仮想撮像素子210に入射する光線の元の位置にあるオブジェクト40をレンダリングしてIP画像の画像データを生成する。本実施形態において、レンダリング処理部154は、光線追跡(レイ・トレーシング)法に基づいてオブジェクト40をレンダリングする。
なお、光線追跡法については、公知の技術を適用可能であるため、詳細は省略する。また、本実施形態では、説明を簡潔にするため、光線とは、主光線であるとするが、画像生成装置10は、副光線についても演算してよい。
The rendering processing unit 154 functions as an object attribute acquisition unit 155 that acquires object attribute information. In the present embodiment, the object attribute acquisition unit 155 acquires the object attribute information by reading it from the object attribute storage unit 145.
The rendering processing unit 154 reads the light direction information from the light direction storage unit 144 and, based on the read light direction information and the object attribute information, the object 40 at the original position of the light incident on the virtual imaging device 210. Render to generate IP image data. In the present embodiment, the rendering processing unit 154 renders the object 40 based on a ray tracing (ray tracing) method.
In addition, about a ray tracing method, since a well-known technique is applicable, the detail is abbreviate | omitted. In the present embodiment, for the sake of brevity, it is assumed that the light beam is a principal light beam, but the image generation apparatus 10 may also calculate a sub-light beam.

映像信号出力部156は、映像信号記憶部146から映像を構成する各フレームにおけるIP画像データを順次読み出して、読み出したIP画像データを示す映像信号を、通信部13を介して、順次IP立体映像表示装置30に送信する。   The video signal output unit 156 sequentially reads the IP image data in each frame constituting the video from the video signal storage unit 146, and sequentially outputs the video signal indicating the read IP image data via the communication unit 13 to the IP stereoscopic video. It transmits to the display device 30.

次に、図4を参照して、表示部11が表示する仮想カメラ20の属性を入力するためのユーザインターフェイスについて説明する。
図4は、画像生成装置10における仮想レンズアレイ220用パラメータの入力画面を示す模式図である。
図4に示される例において、表示部11の表示領域111には、仮想レンズアレイ220(図1)の属性として「1」〜「6」までの6項目の情報を設定可能に示している。
Next, a user interface for inputting attributes of the virtual camera 20 displayed on the display unit 11 will be described with reference to FIG.
FIG. 4 is a schematic diagram illustrating an input screen for parameters for the virtual lens array 220 in the image generation apparatus 10.
In the example shown in FIG. 4, information of six items “1” to “6” can be set in the display area 111 of the display unit 11 as attributes of the virtual lens array 220 (FIG. 1).

項目「1」は、仮想レンズアレイ220を構成する要素レンズ22−1〜22−Nの焦点距離の入力を受け付けて設定するための項目である。要素レンズ22−1〜22−Nの焦点距離は、光線の出射角及び入射角に影響する属性であり、IP立体映像表示装置30により表示される立体像50の視域及び解像度に影響する。項目「2」は、仮想レンズアレイ220を構成する要素レンズ22−1〜22−Nの数の入力を受け付けて設定するための項目である。図4に示される例において、要素レンズ22−1〜22−Nについて、水平方向のレンズ数と、垂直方向のレンズ数とが指定可能に示されている。   The item “1” is an item for receiving and setting the input of the focal lengths of the element lenses 22-1 to 22-N constituting the virtual lens array 220. The focal lengths of the element lenses 22-1 to 22-N are attributes that affect the emission angle and the incident angle of light rays, and affect the viewing area and resolution of the stereoscopic image 50 displayed by the IP stereoscopic video display device 30. The item “2” is an item for accepting and setting the number of element lenses 22-1 to 22-N constituting the virtual lens array 220. In the example shown in FIG. 4, the number of lenses in the horizontal direction and the number of lenses in the vertical direction can be specified for the element lenses 22-1 to 22-N.

項目「3」は、仮想レンズアレイ220を構成する要素レンズ22−1〜22−N各々の間隔の入力を受け付けて設定するための項目である。項目「4」は、仮想レンズアレイ220を構成する要素レンズ22−1〜22−Nの配列の指定を受け付けて設定するための項目である。図4に示される例において、項目「4」では、仮想レンズアレイ220の配列として、「デルタ配列」と「正方配列」とが指定可能に示されている。   The item “3” is an item for receiving and setting the input of the intervals of the element lenses 22-1 to 22-N constituting the virtual lens array 220. The item “4” is an item for accepting and setting the designation of the arrangement of the element lenses 22-1 to 22-N constituting the virtual lens array 220. In the example shown in FIG. 4, in the item “4”, “delta arrangement” and “square arrangement” can be specified as the arrangement of the virtual lens array 220.

項目「5」は、仮想レンズアレイ220と仮想撮像素子210との位置関係を調整するための項目である。具体的には、項目「5」は、例えば、仮想レンズアレイ220と、仮想撮像素子210との距離を、任意の距離に設定可能とするための項目である。仮想レンズアレイ220と仮想撮像素子210との距離を要素レンズ22−1〜22−Nの焦点距離に比して短く設定した場合、IP立体映像表示装置30が表示する立体像50は、仮想レンズアレイ220に対して表示素子310側の像がより鮮明になる。また、仮想レンズアレイ220と仮想撮像素子210との距離を要素レンズ22−1〜22−Nの焦点距離に比して長く設定した場合、IP立体映像表示装置30が表示する立体像50は、仮想レンズアレイ220に対して表示素子310と反対側の像がより鮮明になる。また、最も鮮明になる奥行き位置は仮想レンズアレイ200と撮像素子210との距離によって異なる。   Item “5” is an item for adjusting the positional relationship between the virtual lens array 220 and the virtual imaging device 210. Specifically, the item “5” is an item for enabling the distance between the virtual lens array 220 and the virtual imaging element 210 to be set to an arbitrary distance, for example. When the distance between the virtual lens array 220 and the virtual imaging device 210 is set shorter than the focal length of the element lenses 22-1 to 22-N, the stereoscopic image 50 displayed by the IP stereoscopic video display device 30 is a virtual lens. The image on the display element 310 side becomes clearer with respect to the array 220. When the distance between the virtual lens array 220 and the virtual image sensor 210 is set longer than the focal length of the element lenses 22-1 to 22-N, the stereoscopic image 50 displayed by the IP stereoscopic video display device 30 is: The image on the side opposite to the display element 310 with respect to the virtual lens array 220 becomes clearer. Further, the depth position at which the image becomes sharpest varies depending on the distance between the virtual lens array 200 and the image sensor 210.

項目「6」は、要素画像21−1〜21−Nの形状についての入力を受け付けて設定するための項目である。要素画像21−1〜21−Nの形状は、要素レンズ22−1〜22−Nの形状に大きく依存するため、項目「6」は、要素レンズ22−1〜22−Nの形状についての入力を受け付けて設定するための項目でもある。図4に示される例では、項目「6」は、要素画像21−1〜21−Nの形状として、「円」、「六角形」、「正方形」、又は「長方形」等のいずれかを指定可能に示している。
なお、上述した項目「1」〜項目「6」は、基本的に、IP立体映像表示装置30の属性と対応させて設定されるが、IP立体映像表示装置30の属性とは異なる値に設定されてもよい。
The item “6” is an item for receiving and setting an input regarding the shapes of the element images 21-1 to 21 -N. Since the shape of the element images 21-1 to 21-N largely depends on the shape of the element lenses 22-1 to 22-N, the item “6” is an input regarding the shape of the element lenses 22-1 to 22-N. It is also an item for accepting and setting. In the example shown in FIG. 4, the item “6” designates any one of “circle”, “hexagon”, “square”, “rectangle”, etc. as the shape of the element images 21-1 to 21 -N. It shows possible.
The items “1” to “6” described above are basically set in association with the attributes of the IP stereoscopic video display device 30, but set to values different from the attributes of the IP stereoscopic video display device 30. May be.

次に、図5を参照して、画像生成装置10の動作について説明する。
図5は、画像生成装置10の制御部15(図3)による処理の流れを示すフローチャートである。
(ステップS101)まず、制御部15のレンダリング処理部154(図3)は、光線方向記憶部144に光線方向情報が記憶されているか否かを判定する。光線方向記憶部144に光線方向情報が記憶されている場合(ステップS101;YES)、制御部15は、ステップS107に処理を進める。また、光線方向記憶部144に光線方向情報が記憶されていない場合(ステップS101;NO)、制御部15は、ステップS102に処理を進める。
(ステップS102)次に、制御部15のレンズ処理部152(図3)は、仮想撮像素子210の各々の画素についてステップS103〜S106の処理を実行する。レンズ処理部152は、未処理の画素がなくなるまでステップS103〜S106の処理を繰り返す。その後、レンズ処理部152は、図5に示される処理を終了する。
Next, the operation of the image generation apparatus 10 will be described with reference to FIG.
FIG. 5 is a flowchart showing the flow of processing by the control unit 15 (FIG. 3) of the image generation apparatus 10.
(Step S101) First, the rendering processing unit 154 (FIG. 3) of the control unit 15 determines whether or not the light direction information is stored in the light direction storage unit 144. When the light direction information is stored in the light direction storage unit 144 (step S101; YES), the control unit 15 advances the process to step S107. When the light direction information is not stored in the light direction storage unit 144 (step S101; NO), the control unit 15 advances the processing to step S102.
(Step S <b> 102) Next, the lens processing unit 152 (FIG. 3) of the control unit 15 executes the processes of steps S <b> 103 to S <b> 106 for each pixel of the virtual image sensor 210. The lens processing unit 152 repeats the processes in steps S103 to S106 until there are no unprocessed pixels. Thereafter, the lens processing unit 152 ends the process shown in FIG.

(ステップS103)次に、レンズ処理部152は、仮想レンズアレイ220を構成する要素レンズ22−1〜22−Nのうち、計算対象の画素に対応する要素レンズを特定する。計算対象の画素に対応する要素レンズとは、計算対象の画素から追跡される光線(以下、「画素対応光線」という。)を透過する要素レンズである。レンズ処理部152は、例えば、要素レンズ22−1〜22−Nのうち、その主点と計算対象の画素との距離が最も近い要素レンズを計算対象の画素に対応する要素レンズとして特定する。その後、レンズ処理部152は、ステップS104に処理を進める。
(ステップS104)次に、レンズ処理部152は、仮想レンズアレイ属性記憶部143(図3)に記憶されている仮想レンズアレイ属性情報を参照して、仮想レンズアレイ220の主面の中心座標から計算対象の画素に対応する要素レンズの位置を算出する。その後、レンズ処理部152は、ステップS105に処理を進める。
(Step S <b> 103) Next, the lens processing unit 152 specifies an element lens corresponding to the pixel to be calculated among the element lenses 22-1 to 22-N constituting the virtual lens array 220. The element lens corresponding to the pixel to be calculated is an element lens that transmits a ray traced from the pixel to be calculated (hereinafter referred to as “pixel-corresponding ray”). For example, among the element lenses 22-1 to 22-N, the lens processing unit 152 identifies the element lens having the closest distance between the principal point and the calculation target pixel as the element lens corresponding to the calculation target pixel. Thereafter, the lens processing unit 152 proceeds to step S104.
(Step S <b> 104) Next, the lens processing unit 152 refers to the virtual lens array attribute information stored in the virtual lens array attribute storage unit 143 (FIG. 3), and starts from the center coordinates of the main surface of the virtual lens array 220. The position of the element lens corresponding to the pixel to be calculated is calculated. Thereafter, the lens processing unit 152 proceeds to step S105.

(ステップS105)次に、レンズ処理部152は、要素レンズの中心と、計算対象の画素との位置関係から、要素レンズ透過時における画素対応光線の方向と透過位置とを演算する。その後、レンズ処理部152は、ステップS106に処理を進める。
(ステップS106)次に、レンズ処理部152は、計算対象の画素の識別情報と、ステップS105において演算した画素対応光線の方向及び透過位置とを対応付け、この対応関係を示す光線方向情報を光線方向記憶部144(図3)に記憶させる。
(ステップS107)次に、レンダリング処理部154は、光線方向記憶部144から読み出した光線方向情報と、オブジェクト属性記憶部145から取得したオブジェクト属性情報を読み出し、光線追跡法によりオブジェクト40をレンダリングしてIP画像の画像データを生成する。そして、制御部15は、図5に示される処理を終了する。
(Step S105) Next, the lens processing unit 152 calculates the direction and transmission position of the pixel-corresponding light beam when transmitting the element lens from the positional relationship between the center of the element lens and the pixel to be calculated. Thereafter, the lens processing unit 152 proceeds to step S106.
(Step S106) Next, the lens processing unit 152 associates the identification information of the pixel to be calculated with the direction and transmission position of the pixel-corresponding light ray calculated in Step S105, and uses the light ray direction information indicating this correspondence as the light ray. It memorize | stores in the direction memory | storage part 144 (FIG. 3).
(Step S107) Next, the rendering processing unit 154 reads the ray direction information read from the ray direction storage unit 144 and the object attribute information acquired from the object attribute storage unit 145, and renders the object 40 by the ray tracing method. Image data of an IP image is generated. And the control part 15 complete | finishes the process shown by FIG.

なお、画素対応光線の方向は、例えば、2つの角度により表される。この2つの角度は、例えば、仮想撮像素子210の仮想撮像面に平行でそれぞれが直行する2つの軸X及びYと、仮想撮像素子210の仮想撮像面に垂直な軸Zとによる直交3軸座標系を基準とした場合、画素対応光線がZX方向になす角度と、ZY方向になす角度とにより表される。
なお、画素対応光線の透過位置は、例えば、上述した直交3軸座標系における座標により表される。
Note that the direction of the pixel-corresponding light beam is represented by two angles, for example. These two angles are, for example, orthogonal triaxial coordinates formed by two axes X and Y parallel to the virtual imaging surface of the virtual imaging device 210 and orthogonal to each other, and an axis Z perpendicular to the virtual imaging surface of the virtual imaging device 210. When the system is used as a reference, it is represented by an angle formed by the pixel-corresponding light beam in the ZX direction and an angle formed in the ZY direction.
Note that the transmission position of the pixel-corresponding light beam is represented by coordinates in the above-described orthogonal triaxial coordinate system, for example.

以上説明したように、本実施形態に係る画像生成装置10は、3次元仮想空間内に配置され、仮想撮像素子210と仮想レンズアレイ220とを備える仮想カメラ20によって仮想的に撮像されるオブジェクト40のIP画像の画像データを生成する。
これにより、画像生成装置10は、仮想カメラ20とオブジェクト40との位置関係が変化した場合であっても、仮想カメラ20内の仮想撮像素子210と仮想レンズアレイ220との位置関係は変化しないため、仮想カメラ20内部における光線の屈折のしかた等を改めて計算しなくてよい。例えば、複数フレームのレンダリングを行う場合であっても、画像生成装置10は、最初の1回のみ計算を行えばよい。従って、画像生成装置10は、少ない計算量でIP画像の画像データを生成することができる。
As described above, the image generation apparatus 10 according to the present embodiment is disposed in the three-dimensional virtual space, and is virtually imaged by the virtual camera 20 including the virtual imaging element 210 and the virtual lens array 220. The image data of the IP image is generated.
Thereby, even if the positional relationship between the virtual camera 20 and the object 40 changes, the image generation device 10 does not change the positional relationship between the virtual imaging element 210 and the virtual lens array 220 in the virtual camera 20. It is not necessary to newly calculate how the light rays are refracted inside the virtual camera 20. For example, even when rendering a plurality of frames, the image generation apparatus 10 only needs to perform the calculation once. Therefore, the image generation apparatus 10 can generate image data of an IP image with a small calculation amount.

(第2の実施形態)
本発明の第2の実施形態について説明する。
上述した実施形態と同一の構成については、同一の符号を付して説明を援用する。
まず、図6を参照して、本実施形態の概要について説明する。
図6は、本実施形態に係る画像生成装置10a(図7)による処理の概念図である。
画像生成装置10aは、第1の実施形態に係る画像生成装置10(図3)と同様に仮想空間内のオブジェクトをレンダリングしてIP画像の画像データを生成する装置である。ただし、画像生成装置10は、仮想撮像素子210及び仮想レンズアレイ220を備える仮想カメラ20が仮想的に撮像したIP画像の画像データを生成するのに対し、画像生成装置10aは、仮想奥行き制御レンズ230、仮想レンズアレイ220、及び仮想撮像素子210を備える仮想カメラ20aが仮想的に撮像したIP画像の画像データを生成する。
(Second Embodiment)
A second embodiment of the present invention will be described.
About the same structure as embodiment mentioned above, the same code | symbol is attached | subjected and description is used.
First, an outline of the present embodiment will be described with reference to FIG.
FIG. 6 is a conceptual diagram of processing by the image generation apparatus 10a (FIG. 7) according to the present embodiment.
The image generation apparatus 10a is an apparatus that renders an object in the virtual space and generates image data of an IP image in the same manner as the image generation apparatus 10 (FIG. 3) according to the first embodiment. However, the image generation apparatus 10 generates image data of an IP image virtually captured by the virtual camera 20 including the virtual imaging element 210 and the virtual lens array 220, whereas the image generation apparatus 10a includes a virtual depth control lens. 230, the virtual lens array 220, and the virtual camera 20a including the virtual image sensor 210 generate image data of an IP image virtually captured.

なお、奥行き制御レンズとは、IP画像の撮像において、レンズアレイを挟んで撮像素子の反対側に配置されるレンズである。通常、レンズアレイよりも撮像面側に被写体を置いて撮像することはできないため、IP立体映像表示装置の表示面から突出した立体像の情報を取得することはできない。しかしながら、奥行き制御レンズを用いることで、被写体の光学像の位置を撮像面付近にシフトすることができるため、レンズアレイよりも撮像面側に被写体を配置して撮像したと仮定した場合と同じ光線空間を等価的に取得することができる。このように、奥行き制御レンズは、再生像の奥行き位置を調節することができる。上述した機能は、仮想空間においても同様であり、画像生成装置10aは、仮想奥行き制御レンズ230を備えた仮想カメラ20aが仮想的に撮像するIP画像の画像データを生成することにより、IP立体映像表示装置30が表示する立体像50の奥行き位置を調節することができる。   Note that the depth control lens is a lens arranged on the opposite side of the image sensor with the lens array interposed in capturing an IP image. Normally, it is not possible to take an image by placing a subject on the imaging surface side of the lens array, and therefore it is not possible to acquire information on a stereoscopic image protruding from the display surface of the IP stereoscopic video display device. However, since the position of the optical image of the subject can be shifted to the vicinity of the imaging surface by using the depth control lens, the same light beam as that assumed when the subject is arranged and imaged on the imaging surface side of the lens array. Space can be obtained equivalently. Thus, the depth control lens can adjust the depth position of the reproduced image. The above-described functions are the same in the virtual space, and the image generation apparatus 10a generates IP image data of an IP image that is virtually captured by the virtual camera 20a including the virtual depth control lens 230. The depth position of the stereoscopic image 50 displayed by the display device 30 can be adjusted.

次に、図7を参照して、画像生成装置10aの構成について説明する。
図7は、画像生成装置10aの概略機能構成を示すブロック図である。
画像生成装置10aは、画像生成装置10(図3)における記憶部14(図3)に代えて記憶部14aを含んで構成される。また、画像生成装置10aは、画像生成装置10における制御部15(図3)に代えて制御部15aを含んで構成される。
Next, the configuration of the image generation device 10a will be described with reference to FIG.
FIG. 7 is a block diagram illustrating a schematic functional configuration of the image generation apparatus 10a.
The image generation device 10a includes a storage unit 14a instead of the storage unit 14 (FIG. 3) in the image generation device 10 (FIG. 3). The image generation device 10a includes a control unit 15a instead of the control unit 15 (FIG. 3) in the image generation device 10.

記憶部14aは、記憶部14における仮想カメラ属性記憶部141(図3)に代えて仮想カメラ属性記憶部141aとして機能する。仮想カメラ属性記憶部141aは、仮想カメラ属性記憶部141と同様に、仮想撮像素子属性記憶部142、仮想レンズアレイ属性記憶部143、及び光線方向記憶部144として機能することに加え、仮想奥行き制御レンズ属性記憶部147として機能する。
仮想奥行き制御レンズ属性記憶部147は、仮想奥行き制御レンズ230(図6)の属性を表す仮想奥行き制御レンズ属性情報を記憶する。仮想奥行き制御レンズ属性情報が表す仮想奥行き制御レンズ230の属性は、例えば、仮想奥行き制御レンズ230の直径、仮想奥行き制御レンズ230の撮像素子側及び被写体側の焦点距離、及び仮想奥行き制御レンズ230の主点の位置、仮想奥行き制御レンズ230の枚数等である。
The storage unit 14a functions as a virtual camera attribute storage unit 141a instead of the virtual camera attribute storage unit 141 (FIG. 3) in the storage unit 14. Similar to the virtual camera attribute storage unit 141, the virtual camera attribute storage unit 141 a functions as a virtual imaging element attribute storage unit 142, a virtual lens array attribute storage unit 143, and a light ray direction storage unit 144, and a virtual depth control It functions as the lens attribute storage unit 147.
The virtual depth control lens attribute storage unit 147 stores virtual depth control lens attribute information representing the attributes of the virtual depth control lens 230 (FIG. 6). The attributes of the virtual depth control lens 230 represented by the virtual depth control lens attribute information are, for example, the diameter of the virtual depth control lens 230, the focal lengths of the virtual depth control lens 230 on the image sensor side and the subject side, and the virtual depth control lens 230. The position of the principal point, the number of virtual depth control lenses 230, and the like.

制御部15aは、制御部15におけるレンズ処理部152(図3)に代えてレンズ処理部152aとして機能する。
レンズ処理部152aは、仮想レンズアレイ処理部153(図3)に代えて仮想レンズアレイ処理部153aとして機能することに加え、仮想奥行き制御レンズ処理部157として機能する。
The control unit 15a functions as a lens processing unit 152a instead of the lens processing unit 152 (FIG. 3) in the control unit 15.
In addition to functioning as a virtual lens array processing unit 153a instead of the virtual lens array processing unit 153 (FIG. 3), the lens processing unit 152a functions as a virtual depth control lens processing unit 157.

仮想レンズアレイ処理部153aは、仮想レンズアレイ処理部153(図3)と同様に、仮想撮像素子210に入射する光線が仮想レンズアレイ220を透過するときの屈折のしかたを、仮想カメラ属性記憶部141aの仮想レンズアレイ属性記憶部143から読み出す仮想レンズアレイ属性情報に基づいて演算する。仮想レンズアレイ処理部153aは、演算した仮想レンズアレイ220における光線の屈折のしかたを示す情報を仮想奥行き制御レンズ処理部157に出力する。   Similar to the virtual lens array processing unit 153 (FIG. 3), the virtual lens array processing unit 153a indicates how the light incident on the virtual imaging device 210 is refracted when passing through the virtual lens array 220, as a virtual camera attribute storage unit. Calculation is performed based on virtual lens array attribute information read from the virtual lens array attribute storage unit 143 of 141a. The virtual lens array processing unit 153 a outputs information indicating how the light rays are refracted in the calculated virtual lens array 220 to the virtual depth control lens processing unit 157.

仮想奥行き制御レンズ処理部157は、仮想撮像素子210に入射する光線が仮想奥行き制御レンズ230を透過するときの屈折のしかたを、仮想カメラ属性記憶部141aの仮想奥行き制御レンズ属性記憶部147から読み出す仮想奥行き制御レンズ属性情報に基づいて演算する。仮想奥行き制御レンズ処理部157は、演算された仮想奥行き制御レンズ230における光線の屈折のしかたと、仮想レンズアレイ処理部153aから取得した仮想レンズアレイ220における光線の屈折のしかたとに基づいて、仮想撮像素子210の各々の画素に対応する光線の方向を演算し、仮想撮像素子210の各々の画素と、光線の方向との対応関係を光線方向記憶部144に記憶させる。   The virtual depth control lens processing unit 157 reads, from the virtual depth control lens attribute storage unit 147 of the virtual camera attribute storage unit 141a, how the light incident on the virtual image sensor 210 is refracted when passing through the virtual depth control lens 230. Calculation is performed based on the virtual depth control lens attribute information. The virtual depth control lens processing unit 157 performs virtual processing based on the calculated method of refraction of light rays in the virtual depth control lens 230 and the method of refraction of light rays in the virtual lens array 220 acquired from the virtual lens array processing unit 153a. The direction of the light beam corresponding to each pixel of the image sensor 210 is calculated, and the correspondence relationship between each pixel of the virtual image sensor 210 and the direction of the light beam is stored in the light beam direction storage unit 144.

次に、図8を参照して、表示部11が表示する仮想カメラ20a(図6)の属性を入力するためのユーザインターフェイスについて説明する。
図8は、画像生成装置10aにおける仮想奥行き制御レンズ230用パラメータの入力画面を示す模式図である。
図8に示される例において、表示部11の表示領域112には、仮想奥行き制御レンズ230(図6)の属性として「1」〜「3」までの3項目の情報を設定可能に示している。
項目「1」は、仮想奥行き制御レンズ230の焦点距離の入力を受け付けて設定するための項目である。項目「2」は、仮想奥行き制御レンズ230の大きさの入力を受け付けて設定するための項目である。項目「3」は、仮想奥行き制御レンズ230と仮想レンズアレイ220との距離の入力を受け付けて設定するための項目である。
なお、仮想カメラ20aに複数枚の仮想奥行き制御レンズ230を含ませる場合、画像生成装置10aは、上述した項目「1」〜「3」を、複数枚の仮想奥行き制御レンズ230各々について設定可能に示してもよい。
Next, a user interface for inputting attributes of the virtual camera 20a (FIG. 6) displayed by the display unit 11 will be described with reference to FIG.
FIG. 8 is a schematic diagram illustrating an input screen for parameters for the virtual depth control lens 230 in the image generation apparatus 10a.
In the example shown in FIG. 8, in the display area 112 of the display unit 11, information of three items “1” to “3” can be set as attributes of the virtual depth control lens 230 (FIG. 6). .
The item “1” is an item for receiving and setting the input of the focal length of the virtual depth control lens 230. The item “2” is an item for receiving and setting an input of the size of the virtual depth control lens 230. The item “3” is an item for receiving and setting the input of the distance between the virtual depth control lens 230 and the virtual lens array 220.
When the virtual camera 20a includes a plurality of virtual depth control lenses 230, the image generation device 10a can set the above-described items “1” to “3” for each of the plurality of virtual depth control lenses 230. May be shown.

次に、図9を参照して、画像生成装置10a(図7)の動作について説明する。
図9は、画像生成装置10aの制御部15(図7)による処理の流れを示すフローチャートである。
図9に示されるステップS201〜S209の処理のうち、ステップS201、S203〜S205、S208、S209の処理は、それぞれ、図5に示されるステップS101、S103〜S105、S106、S107と同様であるため、説明を援用する。
(ステップS202)制御部15aのレンズ処理部152a(図7)は、仮想撮像素子の全ての画素についてステップS203〜S208の処理を実行する。レンズ処理部152aは、未処理の画素がなくなるまで、ステップS203〜S208の処理を繰り返す。その後、制御部15aは、ステップS209に処理を進める。
Next, the operation of the image generation device 10a (FIG. 7) will be described with reference to FIG.
FIG. 9 is a flowchart showing the flow of processing by the control unit 15 (FIG. 7) of the image generation apparatus 10a.
Of the processes in steps S201 to S209 shown in FIG. 9, the processes in steps S201, S203 to S205, S208, and S209 are the same as steps S101, S103 to S105, S106, and S107 shown in FIG. , Use the explanation.
(Step S202) The lens processing unit 152a (FIG. 7) of the control unit 15a executes the processing of Steps S203 to S208 for all the pixels of the virtual imaging device. The lens processing unit 152a repeats the processes in steps S203 to S208 until there are no unprocessed pixels. Thereafter, the control unit 15a advances the process to step S209.

(ステップS206)レンズ処理部152aは、仮想カメラ20aが備える各仮想奥行き制御レンズについてステップS207の処理を実行する。レンズ処理部152aは、未処理の仮想奥行き制御レンズがなくなるまでステップS207の処理を繰り返す。その後、制御部15aは、ステップS208に処理を進める。
(ステップS207)次に、レンズ処理部152aは、仮想奥行き制御レンズの中心位置と、前の仮想レンズ透過時における画素対応光線の位置との位置関係、及び、画素対応光線の前のレンズ透過時における方向から、仮想奥行き制御レンズ透過時における画素対応光線の方向と透過位置とを演算する。
(ステップS208)次に、レンズ処理部152aは、ステップS106(図5)におけるレンズ処理部152と同様に、計算対象の画素の識別情報と、ステップS206において演算した画素対応光線の方向及び透過位置とを対応付け、この対応関係を示す光線方向情報を光線方向記憶部144(図7)に記憶させる。
(Step S206) The lens processing unit 152a executes the process of step S207 for each virtual depth control lens included in the virtual camera 20a. The lens processing unit 152a repeats the process of step S207 until there is no unprocessed virtual depth control lens. Thereafter, the control unit 15a advances the process to step S208.
(Step S207) Next, the lens processing unit 152a determines the positional relationship between the center position of the virtual depth control lens and the position of the pixel-corresponding light beam when the previous virtual lens is transmitted, and when the lens light is transmitted before the pixel-corresponding light beam. From the direction of, the direction and transmission position of the light beam corresponding to the pixel at the time of transmission through the virtual depth control lens are calculated.
(Step S208) Next, the lens processing unit 152a, like the lens processing unit 152 in step S106 (FIG. 5), identifies the pixel to be calculated, and the direction and transmission position of the pixel-corresponding ray calculated in step S206. And the light direction information indicating the correspondence is stored in the light direction storage unit 144 (FIG. 7).

以上説明したように、本実施形態に係る画像生成装置10aは、3次元仮想空間内に配置され、仮想撮像素子210、仮想レンズアレイ220、及び仮想奥行き制御レンズ230を備える仮想カメラ20によって仮想的に撮像されるオブジェクト40のIP画像の画像データを生成する。
これにより、画像生成装置10aは、画像生成装置10と同様に、仮想カメラ20aとオブジェクト40との位置関係が変化した場合であっても、仮想カメラ20a内の仮想撮像素子210と仮想レンズアレイ220との位置関係は変化しないため、仮想カメラ20内部における光線の屈折のしかた等を改めて計算しなくてよい。従って、画像生成装置10aは、少ない計算量でIP画像の画像データを生成することができる。また、画像生成装置10aは、仮想奥行き制御レンズ230における屈折のしかたを演算するため、IP立体映像表示装置30に表示させたときに、その表示画面の手前に突出する立体像50を再生するためのIP画像の画像データを生成することができる。
As described above, the image generation apparatus 10a according to the present embodiment is virtually arranged by the virtual camera 20 that is arranged in the three-dimensional virtual space and includes the virtual imaging device 210, the virtual lens array 220, and the virtual depth control lens 230. The image data of the IP image of the object 40 to be imaged is generated.
Thereby, similarly to the image generation device 10, even when the positional relationship between the virtual camera 20 a and the object 40 changes, the image generation device 10 a and the virtual imaging element 210 and the virtual lens array 220 in the virtual camera 20 a. Therefore, it is not necessary to recalculate how the light rays are refracted inside the virtual camera 20. Therefore, the image generation apparatus 10a can generate image data of an IP image with a small calculation amount. In addition, the image generation device 10a calculates a refraction method in the virtual depth control lens 230, and thus reproduces the stereoscopic image 50 that protrudes in front of the display screen when displayed on the IP stereoscopic video display device 30. The image data of the IP image can be generated.

(第3の実施形態)
本発明の第3の実施形態について説明する。
本実施形態では、第2の実施形態に係る画像生成装置10aにおいて、特定の設定を用いる態様について説明する。従って、以下では、本実施形態の各構成には、第2の実施形態と同一の符号を付し、説明を援用する。
(Third embodiment)
A third embodiment of the present invention will be described.
In the present embodiment, a mode in which specific settings are used in the image generation apparatus 10a according to the second embodiment will be described. Therefore, in the following, the same reference numerals as those of the second embodiment are given to the components of the present embodiment, and the description is incorporated.

IP方式では撮像時と表示時において奥行き情報の反転が起こることを防止するために、撮像時のレンズアレイを構成する各要素レンズを凹レンズにすること、波長の3/4周期のGRINレンズの機能を有するレンズアレイにすること、又はレンズアレイの各要素レンズによって取得される要素画像に対して画像の反転処理をすることが行われている。本実施形態に係る画像生成装置10aのレンズ処理部152a(図7)は、仮想カメラ20aが備える仮想レンズアレイ220の各要素レンズ22−1〜22−Nの主点と仮想撮像素子210の各画素とを結ぶ光線について、各要素レンズ22−1〜22−Nの主点を通る光軸を基準として180回転させた方向を、各光線が各要素レンズ22−1〜22−Nの主点を通った後の方向として演算する。この演算により、画像生成装置10aは、光線の方向について、上記の凹レンズ及び3/4周期のGRINレンズと光学的に等価な演算結果を得ることができるため、IP立体映像表示装置30での表示時において、立体像50の奥行きが反転することを防止することができる。   In the IP method, in order to prevent inversion of depth information during imaging and display, each element lens constituting the lens array at the time of imaging is made a concave lens, and the function of the GRIN lens having a wavelength of 3/4 period Or a reversal process is performed on an element image acquired by each element lens of the lens array. The lens processing unit 152a (FIG. 7) of the image generation apparatus 10a according to the present embodiment includes the principal points of the element lenses 22-1 to 22-N of the virtual lens array 220 included in the virtual camera 20a and each of the virtual imaging elements 210. With respect to the light rays connecting the pixels, the respective light rays are principal points of the element lenses 22-1 to 22-N in a direction rotated 180 degrees with respect to the optical axis passing through the principal points of the element lenses 22-1 to 22-N. The direction after passing through is calculated. By this calculation, the image generation device 10a can obtain a calculation result that is optically equivalent to the concave lens and the GRIN lens having a 3/4 period in the direction of the light beam. In some cases, the depth of the stereoscopic image 50 can be prevented from being reversed.

また、本実施形態に係る画像生成装置10aの仮想奥行き制御レンズ属性記憶部147は、4f光学系を構成する2枚の仮想奥行き制御レンズ230−1、230−2の属性を表す仮想奥行き制御レンズ属性情報を記憶する。
図10を参照して、4f光学系について説明する。
図10に示される例において、2枚の同一の属性を有する仮想奥行き制御レンズ230−1、230−2、及び仮想レンズアレイ220がそれぞれの光軸を一致させて、仮想撮像素子210の仮想撮像面と平行に配置されている。仮想撮像素子210と仮想レンズアレイ220との間の距離は、仮想レンズアレイ220の要素レンズの焦点距離fである。2枚の仮想奥行き制御レンズ230−1と230−2との間の距離は、それぞれの焦点距離f1の2倍(2×f1)である。すなわち、2枚の仮想奥行き制御レンズ230−1と230−2とは、それぞれの焦平面を平面A1において一致させて配置される。また、仮想撮像素子210に近い仮想奥行き制御レンズ230−1と、仮想レンズアレイ220との間の距離は、焦点距離f1である。4f光学系では、奥行き位置の圧縮が行われないため、仮想奥行き制御レンズ230−1の右側の焦平面A2と仮想奥行き制御レンズ230−2の左側の焦平面A3とでは、仮想奥行き制御レンズ230−1、230−2を透過する光線について、光学的に等価な光線を取得することができる。図10に示される例において、仮想奥行き制御レンズ230−1の右側の焦平面A2には、仮想レンズアレイ220が配置されているため、仮想レンズアレイ220が焦平面A3に配置されていることと、光学的に等価である。
In addition, the virtual depth control lens attribute storage unit 147 of the image generation device 10a according to the present embodiment is a virtual depth control lens that represents the attributes of the two virtual depth control lenses 230-1 and 230-2 constituting the 4f optical system. Store attribute information.
The 4f optical system will be described with reference to FIG.
In the example shown in FIG. 10, virtual imaging of the virtual imaging device 210 is performed by matching the optical axes of the two virtual depth control lenses 230-1 and 230-2 having the same attribute and the virtual lens array 220. It is arranged parallel to the surface. The distance between the virtual image sensor 210 and the virtual lens array 220 is the focal length f of the element lens of the virtual lens array 220. The distance between the two virtual depth control lenses 230-1 and 230-2 is twice the focal length f1 (2 × f1). In other words, the two virtual depth control lenses 230-1 and 230-2 are arranged with their focal planes coincided with each other in the plane A1. Further, the distance between the virtual depth control lens 230-1 close to the virtual image sensor 210 and the virtual lens array 220 is the focal length f1. Since the depth position is not compressed in the 4f optical system, the virtual depth control lens 230 is located between the focal plane A2 on the right side of the virtual depth control lens 230-1 and the focal plane A3 on the left side of the virtual depth control lens 230-2. -1, 230-2, an optically equivalent light beam can be acquired. In the example shown in FIG. 10, since the virtual lens array 220 is disposed on the focal plane A2 on the right side of the virtual depth control lens 230-1, the virtual lens array 220 is disposed on the focal plane A3. Is optically equivalent.

従って、図10に示される4f光学系を備える仮想カメラ20aにおいて、オブジェクト40(図6)を仮想カメラ20a(図6)の外側に配置する場合、焦平面A3(図10)を基準として仮想カメラ20aに近いオブジェクト40の部分は、IP立体映像表示装置30(図6)に表示させたときに、IP立体映像表示装置30の表示面より突出する。また、焦平面A3を基準として仮想カメラ20aから遠いオブジェクト40の部分は、IP立体映像表示装置30に表示させたときに、IP立体映像表示装置30の表示面より奥まる。   Accordingly, in the virtual camera 20a having the 4f optical system shown in FIG. 10, when the object 40 (FIG. 6) is arranged outside the virtual camera 20a (FIG. 6), the virtual camera is based on the focal plane A3 (FIG. 10). The part of the object 40 close to 20a protrudes from the display surface of the IP stereoscopic video display device 30 when displayed on the IP stereoscopic video display device 30 (FIG. 6). In addition, the portion of the object 40 far from the virtual camera 20a with respect to the focal plane A3 is deeper than the display surface of the IP stereoscopic video display device 30 when displayed on the IP stereoscopic video display device 30.

本実施形態に係る画像生成装置10aの表示処理部151は、仮想空間内におけるオブジェクト40の位置の入力をユーザから受け付けるときに、仮想空間内における焦平面A2を表す補助的な線又は面を表示する機能を有する。これにより、ユーザは、仮想レンズアレイ220に対するオブジェクト40の奥行き位置を容易に把握することができる。   The display processing unit 151 of the image generation device 10a according to the present embodiment displays an auxiliary line or surface representing the focal plane A2 in the virtual space when receiving the input of the position of the object 40 in the virtual space from the user. It has the function to do. Thereby, the user can easily grasp the depth position of the object 40 with respect to the virtual lens array 220.

次に、図11から図14を参照して、画素対応光線の方向の演算方法の具体例について説明する。
図11から図13は、それぞれ、画像生成装置10、10aによる画素対応光線の方向の演算方法を説明するための図である。また、図11から図13は、図10に示す仮想的な4f光学系における画素対応光線の一例を示す。
Next, a specific example of a method of calculating the direction of the pixel-corresponding light beam will be described with reference to FIGS.
FIGS. 11 to 13 are diagrams for explaining a method of calculating the direction of the light beam corresponding to the pixels by the image generation apparatuses 10 and 10a, respectively. 11 to 13 show an example of pixel-corresponding light rays in the virtual 4f optical system shown in FIG.

以下では、一例として、画素対応光線のXZ方向の演算について説明するが、YZ方向についても同様に演算することができる。XZ方向は、画素対応光線がXZ平面において、Z軸となす角度により表される。なお、図11から図13に示される図において、仮想空間における座標軸は図10に示される座標軸と同一である。図10から図13に示される例において、仮想レンズアレイ220の要素レンズは、半径Lx1、焦点距離fのレンズであり、ピッチ間隔Dで配列されている。また、図10〜図13に示される例において、仮想奥行き制御レンズ230−1、230−2は、半径DLx、焦点距離f1のレンズである。   Hereinafter, as an example, calculation in the XZ direction of the pixel-corresponding light beam will be described, but the calculation can be similarly performed in the YZ direction. The XZ direction is represented by an angle formed by the pixel-corresponding light beam and the Z axis in the XZ plane. 11 to 13, the coordinate axes in the virtual space are the same as the coordinate axes shown in FIG. 10. In the example shown in FIGS. 10 to 13, the element lenses of the virtual lens array 220 are lenses having a radius Lx1 and a focal length f, and are arranged at a pitch interval D. In the example shown in FIGS. 10 to 13, the virtual depth control lenses 230-1 and 230-2 are lenses having a radius DLx and a focal length f1.

まず、図11を参照して、仮想レンズアレイ220(図10)を透過する画素対応光線の方向の演算について説明する。
図11は、図10に示される仮想レンズアレイ220を透過する画素対応光線の一例を示す。
図11に示される例において、仮想撮像素子210の画素211−1に、仮想レンズアレイ220の要素レンズ22−1が対応している。従って、画素211−1の画素対応光線61は、画素211−1から要素レンズ22−1の主点221−1の方向に進む。そして、画素211−1の画素対応光線61は、要素レンズ22−1では屈折せずに直進する。従って、仮想レンズアレイ220において、画素211−1の画素対応光線の透過位置の座標(tx2,tz2)及び方向(tdx2)は、画素211−1の位置(tx1,tz1)及び要素レンズ22−1の主点221−1の位置(Lx1,f)に基づいて、以下の式(1)〜(3)により表される。
First, with reference to FIG. 11, the calculation of the direction of the pixel-corresponding light beam that passes through the virtual lens array 220 (FIG. 10) will be described.
FIG. 11 shows an example of a pixel-corresponding light beam that passes through the virtual lens array 220 shown in FIG.
In the example shown in FIG. 11, the element lens 22-1 of the virtual lens array 220 corresponds to the pixel 211-1 of the virtual imaging device 210. Accordingly, the pixel-corresponding light beam 61 of the pixel 211-1 travels from the pixel 211-1 to the principal point 221-1 of the element lens 22-1. The pixel-corresponding light beam 61 of the pixel 211-1 travels straight without being refracted by the element lens 22-1. Accordingly, in the virtual lens array 220, the coordinates (tx2, tz2) and the direction (tdx2) of the transmission position of the pixel-corresponding ray of the pixel 211-1 are the position (tx1, tz1) of the pixel 211-1, and the element lens 22-1. Based on the position (Lx1, f) of the principal point 221-1, the following expressions (1) to (3) are used.

Figure 0006388435
Figure 0006388435

レンズ処理部152aは、上述の式(1)〜(3)に基づいて、仮想レンズアレイ220の主面における画素対応光線の透過位置及び方向を演算する。レンズ処理部152aは、演算結果を示す光線方向情報を光線方向記憶部144に記憶させる。
なお、レンズ処理部152aは、画素211−1の位置(tx1,tz1)を、仮想撮像素子属性記憶部142に記憶されている仮想撮像素子属性情報に基づいて取得する。また、レンズ処理部152aは、要素レンズ22−1の主点221−1の位置(Lx1,f)を仮想レンズアレイ属性記憶部143に記憶されている仮想レンズアレイ属性情報に基づいて取得する。
The lens processing unit 152a calculates the transmission position and direction of the pixel-corresponding light beam on the main surface of the virtual lens array 220 based on the above formulas (1) to (3). The lens processing unit 152a stores the light direction information indicating the calculation result in the light direction storage unit 144.
The lens processing unit 152a acquires the position (tx1, tz1) of the pixel 211-1 based on the virtual imaging element attribute information stored in the virtual imaging element attribute storage unit 142. In addition, the lens processing unit 152 a acquires the position (Lx1, f) of the principal point 221-1 of the element lens 22-1 based on the virtual lens array attribute information stored in the virtual lens array attribute storage unit 143.

なお、図10〜図13に示される例において、仮想レンズアレイ220のピッチはDである。従って、レンズ処理部152aは、要素レンズ22−1に隣接する要素レンズ22−2を透過する画素対応光線については、要素レンズ22−2の主点の位置(tx1+D,tz1)に基づいて、その透過位置及び方向を演算する。このように、レンズ処理部152aは、仮想撮像素子210の各画素の画素対応光線について、仮想レンズアレイ220の主面における画素対応光線の透過位置及び方向を演算し、当該演算結果を示す光線方向情報を光線方向記憶部144に記憶させる。   10 to 13, the pitch of the virtual lens array 220 is D. Accordingly, the lens processing unit 152a determines the pixel-corresponding ray that passes through the element lens 22-2 adjacent to the element lens 22-1 based on the position (tx1 + D, tz1) of the principal point of the element lens 22-2. The transmission position and direction are calculated. As described above, the lens processing unit 152a calculates the transmission position and direction of the pixel-corresponding light beam on the main surface of the virtual lens array 220 for the pixel-corresponding light beam of each pixel of the virtual imaging device 210, and the light beam direction indicating the calculation result Information is stored in the beam direction storage unit 144.

次に、図12を参照して、仮想奥行き制御レンズ230−1(図10)を透過する画素対応光線の方向の演算について説明する。
図12は、図10に示される仮想奥行き制御レンズ230−1を透過する画素対応光線の一例を示す。
仮想レンズアレイ220の要素レンズ22−1から射出した画素211−1(図11)の画素対応光線61は、仮想奥行き制御レンズ230−1に入射する。このとき、画素211−1の画素対応光線61は、仮想奥行き制御レンズ230−1の主面と、点232−1において交わる。そして、画素211−1の画素対応光線61は、仮想奥行き制御レンズ230−1により屈折して、点71の方向に進む。点71は、仮想奥行き制御レンズ230−1の左側の焦平面A1と、直線62との交点である。直線62は、仮想奥行き制御レンズ230−1に入射する画素対応光線61に平行な直線であって、仮想奥行き制御レンズ230−1の主点231−1を通る直線である。従って、仮想奥行き制御レンズ230−1の主面における画素211−1の画素対応光線61の透過位置の座標(tx3,tz3)及び方向(tdx3)は、画素対応光線61の仮想レンズアレイ220の主面における透過位置(tx2、tz2)及び方向(tdx2)と、仮想奥行き制御レンズ230の主点の位置(DLx、tz2+f1)とに基づいて、以下の式(4)〜(6)により表される。
Next, with reference to FIG. 12, the calculation of the direction of the pixel-corresponding light beam that passes through the virtual depth control lens 230-1 (FIG. 10) will be described.
FIG. 12 shows an example of a pixel-corresponding light beam that passes through the virtual depth control lens 230-1 shown in FIG.
The pixel-corresponding light beam 61 of the pixel 211-1 (FIG. 11) emitted from the element lens 22-1 of the virtual lens array 220 enters the virtual depth control lens 230-1. At this time, the pixel-corresponding light beam 61 of the pixel 211-1 intersects the main surface of the virtual depth control lens 230-1 at a point 232-1. The pixel-corresponding light beam 61 of the pixel 211-1 is refracted by the virtual depth control lens 230-1 and proceeds in the direction of the point 71. A point 71 is an intersection of the focal plane A1 on the left side of the virtual depth control lens 230-1 and the straight line 62. The straight line 62 is a straight line that is parallel to the pixel-corresponding light beam 61 incident on the virtual depth control lens 230-1 and that passes through the principal point 231-1 of the virtual depth control lens 230-1. Accordingly, the coordinates (tx3, tz3) and the direction (tdx3) of the transmission position of the pixel-corresponding light beam 61 of the pixel 211-1 on the main surface of the virtual depth control lens 230-1 are the mains of the virtual lens array 220 of the pixel-corresponding light beam 61. Based on the transmission position (tx2, tz2) and direction (tdx2) on the surface and the position (DLx, tz2 + f1) of the principal point of the virtual depth control lens 230, the following expressions (4) to (6) are used. .

Figure 0006388435
Figure 0006388435

レンズ処理部152aは、上述の式(4)〜(6)に基づいて、仮想奥行き制御レンズ230−1の主面における画素対応光線の透過位置及び方向を演算する。レンズ処理部152aは、演算結果を示す光線方向情報を光線方向記憶部144に記憶させる。このとき、レンズ処理部152aは、仮想レンズアレイ220の主面における画素対応光線の透過位置及び方向についての光線方向情報を、仮想奥行き制御レンズ230−1の主面における画素対応光線の透過位置及び方向についての光線方向情報で上書きしてもよい。   The lens processing unit 152a calculates the transmission position and direction of the pixel-corresponding light beam on the main surface of the virtual depth control lens 230-1 based on the above equations (4) to (6). The lens processing unit 152a stores the light direction information indicating the calculation result in the light direction storage unit 144. At this time, the lens processing unit 152a uses the light direction information about the transmission position and direction of the pixel-corresponding light beam on the main surface of the virtual lens array 220 as the transmission position of the pixel-corresponding light beam on the main surface of the virtual depth control lens 230-1. You may overwrite with the light direction information about the direction.

次に、図13を参照して、仮想奥行き制御レンズ230−2(図10)を透過する画素対応光線の方向の演算について説明する。
図13は、図10に示される仮想奥行き制御レンズ230−2を透過する画素対応光線の一例を示す。
仮想奥行き制御レンズ230−1から射出した画素211−1(図11)の画素対応光線61は、仮想奥行き制御レンズ230−2に入射する。このとき、画素211−1の画素対応光線61は、仮想奥行き制御レンズ230−2の主面と、点232−2において交わる。そして、画素211−1の画素対応光線61は、仮想奥行き制御レンズ230−2により屈折して、点72の方向に進む。点72は、仮想奥行き制御レンズ230−2の左側の焦平面A3と、直線63との交点である。直線63は、仮想奥行き制御レンズ230−2に入射する画素対応光線61に平行な直線であって、仮想奥行き制御レンズ230−2の主点231−2を通る直線である。従って、仮想奥行き制御レンズ230−2における画素211−1の画素対応光線61の透過位置の座標(tx4,tz4)及び方向(tdx4)は、画素対応光線61の仮想奥行き制御レンズ230−1の主面における透過位置(tx3、tz3)及び方向(tdx3)と、仮想奥行き制御レンズ230−2の主点の位置(DLx、tz3+2f1)とに基づいて、以下の式(7)〜(9)により表される。
Next, with reference to FIG. 13, the calculation of the direction of the pixel-corresponding light beam that passes through the virtual depth control lens 230-2 (FIG. 10) will be described.
FIG. 13 shows an example of a pixel-corresponding light beam that passes through the virtual depth control lens 230-2 shown in FIG.
The pixel-corresponding light beam 61 of the pixel 211-1 (FIG. 11) emitted from the virtual depth control lens 230-1 is incident on the virtual depth control lens 230-2. At this time, the pixel-corresponding light beam 61 of the pixel 211-1 intersects with the main surface of the virtual depth control lens 230-2 at a point 232-2. Then, the pixel corresponding light beam 61 of the pixel 211-1 is refracted by the virtual depth control lens 230-2 and proceeds in the direction of the point 72. A point 72 is an intersection of the focal plane A3 on the left side of the virtual depth control lens 230-2 and the straight line 63. The straight line 63 is a straight line that is parallel to the pixel-corresponding light beam 61 incident on the virtual depth control lens 230-2 and that passes through the principal point 231-2 of the virtual depth control lens 230-2. Accordingly, the coordinates (tx4, tz4) and the direction (tdx4) of the transmission position of the pixel-corresponding light beam 61 of the pixel 211-1 in the virtual depth control lens 230-2 are the main of the virtual depth control lens 230-1 of the pixel-corresponding light beam 61. Based on the transmission position (tx3, tz3) and direction (tdx3) on the surface and the position (DLx, tz3 + 2f1) of the principal point of the virtual depth control lens 230-2, the following expressions (7) to (9) are used. Is done.

Figure 0006388435
Figure 0006388435

レンズ処理部152aは、上述の式(7)〜(9)に基づいて、仮想奥行き制御レンズ230−2の主面における画素対応光線の透過位置及び方向を演算する。レンズ処理部152aは、演算結果を示す光線方向情報を光線方向記憶部144に記憶させる。このとき、レンズ処理部152aは、仮想奥行き制御レンズ230−1の主面における画素対応光線の透過位置及び方向についての光線方向情報を、仮想奥行き制御レンズ230−2の主面における画素対応光線の透過位置及び方向についての光線方向情報で上書きしてよい。
なお、各レンズ(仮想レンズアレイ220、仮想奥行き制御レンズ230−1、仮想奥行き制御レンズ230−2)における画素対応光線の透過位置の演算結果が、各レンズの外側であり、当該レンズを透過しない場合、レンダリング処理部154aは、その画素対応光線に対応する画素については出力がないものとして処理する。
The lens processing unit 152a calculates the transmission position and direction of the pixel-corresponding light beam on the main surface of the virtual depth control lens 230-2 based on the above equations (7) to (9). The lens processing unit 152a stores the light direction information indicating the calculation result in the light direction storage unit 144. At this time, the lens processing unit 152a obtains the light direction information about the transmission position and direction of the pixel-corresponding light beam on the main surface of the virtual depth control lens 230-1 and the pixel-corresponding light beam on the main surface of the virtual depth control lens 230-2. You may overwrite with the light direction information about the transmission position and direction.
Note that the calculation result of the transmission position of the pixel-corresponding light beam in each lens (virtual lens array 220, virtual depth control lens 230-1, virtual depth control lens 230-2) is outside each lens and does not pass through the lens. In this case, the rendering processing unit 154a processes the pixel corresponding to the pixel-corresponding ray as having no output.

図14は、図10に示される仮想的な4f光学系における各レンズ(仮想レンズアレイ220、仮想奥行き制御レンズ230−1、仮想奥行き制御レンズ230−2)に対応する光線方向情報の例を示す図である。
図14に示される例において、光線方向情報は、画素識別情報(画素ID)、入力X座標情報(入力X座標)、入力Y座標情報(入力Y座標)、入力Z座標情報(入力Z座標)、入力ZX角情報(入力ZX角)、入力ZY角情報(入力ZY角)、出力X座標情報(出力X座標)、出力Y座標情報(出力Y座標)、出力Z座標情報(出力Z座標)、出力ZX角情報(出力ZX角)、及び出力ZY角情報(出力ZY角)を含み、これらを対応付けて構成される。このうち、入力X座標情報、入力Y座標情報、入力Z座標情報、入力ZX角情報、及び入力ZY角情報は、各レンズにおける屈折のしかたを演算するために用いる入力情報であり、出力X座標情報、出力Y座標情報、出力Z座標情報、出力ZX角情報、及び出力ZY角情報は、当該入力情報に基づく各レンズにおける屈折のしかたの演算結果を示す出力情報である。なお、光線方向記憶部144には、入力情報は記憶されなくてもよい。
FIG. 14 shows an example of ray direction information corresponding to each lens (virtual lens array 220, virtual depth control lens 230-1, virtual depth control lens 230-2) in the virtual 4f optical system shown in FIG. FIG.
In the example shown in FIG. 14, the light direction information includes pixel identification information (pixel ID), input X coordinate information (input X coordinate), input Y coordinate information (input Y coordinate), and input Z coordinate information (input Z coordinate). , Input ZX angle information (input ZX angle), input ZY angle information (input ZY angle), output X coordinate information (output X coordinate), output Y coordinate information (output Y coordinate), output Z coordinate information (output Z coordinate) , Output ZX angle information (output ZX angle), and output ZY angle information (output ZY angle). Among these, the input X coordinate information, the input Y coordinate information, the input Z coordinate information, the input ZX angle information, and the input ZY angle information are input information used for calculating the refraction method in each lens, and the output X coordinate. The information, the output Y coordinate information, the output Z coordinate information, the output ZX angle information, and the output ZY angle information are output information indicating calculation results of how to refraction in each lens based on the input information. Note that the input information may not be stored in the light direction storage unit 144.

画素識別情報は、仮想撮像素子210(図10)が有する各画素を識別するための識別情報である。
入力X座標情報は、画素識別情報が示す画素に対応する画素対応光線の射出元の位置のX座標を表す情報である。
入力Y座標情報は、画素識別情報が示す画素に対応する画素対応光線の射出元の位置のY座標を表す情報である。
入力Z座標情報は、画素識別情報が示す画素に対応する画素対応光線の射出元の位置のZ座標を表す情報である。
入力ZX角情報は、画素識別情報が示す画素に対応する画素対応光線の射出元の位置において、当該画素対応光線がZX平面においてZ軸となす角度を表す情報である。
入力ZY角情報は、画素識別情報が示す画素に対応する画素対応光線の射出元の位置において、当該画素対応光線がZY平面においてZ軸となす角度を表す情報である。なお、本実施形態において、射出元の位置が仮想撮像素子210である場合、入力ZX角情報及び入力ZY角情報は、NULL(−)とする。
The pixel identification information is identification information for identifying each pixel included in the virtual image sensor 210 (FIG. 10).
The input X coordinate information is information representing the X coordinate of the position of the emission source of the pixel corresponding light beam corresponding to the pixel indicated by the pixel identification information.
The input Y coordinate information is information representing the Y coordinate of the position of the emission source of the pixel corresponding light beam corresponding to the pixel indicated by the pixel identification information.
The input Z coordinate information is information indicating the Z coordinate of the position of the emission source of the pixel corresponding light beam corresponding to the pixel indicated by the pixel identification information.
The input ZX angle information is information representing an angle formed by the pixel-corresponding light beam with respect to the Z axis in the ZX plane at the position where the pixel-corresponding light beam corresponding to the pixel indicated by the pixel identification information is emitted.
The input ZY angle information is information indicating an angle formed by the pixel-corresponding light beam with respect to the Z axis in the ZY plane at the position where the pixel-corresponding light beam corresponding to the pixel indicated by the pixel identification information is emitted. In the present embodiment, when the position of the emission source is the virtual image sensor 210, the input ZX angle information and the input ZY angle information are NULL (−).

出力X座標情報は、画素識別情報が示す画素に対応する画素対応光線について、そのレンズにおける透過位置のX座標を表す情報である。
出力Y座標情報は、画素識別情報が示す画素に対応する画素対応光線について、そのレンズにおける透過位置のY座標を表す情報である。
出力Z座標情報は、画素識別情報が示す画素に対応する画素対応光線について、そのレンズにおける透過位置のZ座標を表す情報である。
出力ZX角情報は、画素識別情報が示す画素に対応する画素対応光線が、そのレンズからの射出時に、ZX平面においてZ軸となす角度を表す情報である。
出力ZY角情報は、画素識別情報が示す画素に対応する画素対応光線が、そのレンズからの射出時に、ZY平面においてZ軸となす角度を表す情報である。
The output X coordinate information is information representing the X coordinate of the transmission position in the lens for the pixel corresponding light beam corresponding to the pixel indicated by the pixel identification information.
The output Y coordinate information is information representing the Y coordinate of the transmission position in the lens for the pixel corresponding light beam corresponding to the pixel indicated by the pixel identification information.
The output Z coordinate information is information representing the Z coordinate of the transmission position in the lens for the pixel corresponding light beam corresponding to the pixel indicated by the pixel identification information.
The output ZX angle information is information representing an angle formed by the pixel-corresponding light beam corresponding to the pixel indicated by the pixel identification information with respect to the Z axis in the ZX plane when emitted from the lens.
The output ZY angle information is information representing an angle formed by the pixel-corresponding light beam corresponding to the pixel indicated by the pixel identification information with respect to the Z axis in the ZY plane when emitted from the lens.

図14(a)、(b)、(c)は、それぞれ、仮想レンズアレイ220(図10)、仮想奥行き制御レンズ230−1(図10)、仮想奥行き制御レンズ230−2(図10)の主面における画素対応光線の透過位置及び方向を示す光線方向情報を示す。
図14(a)に示される光線方向情報の出力情報は、図11を参照して説明した仮想レンズアレイ220の主面における画素対応光線についての演算結果を示す。仮想レンズアレイ220に入射する画素対応光線は、仮想撮像素子210から射出するため、入力X座標情報、入力Y座標情報、及び入力Z座標情報の値は、それぞれ、各画素の座標の値である。また、入力ZX角情報及び入力ZY角情報の値は、いずれの画素についてもNULL(−)である。
14A, 14B, and 14C show the virtual lens array 220 (FIG. 10), the virtual depth control lens 230-1 (FIG. 10), and the virtual depth control lens 230-2 (FIG. 10), respectively. The light direction information which shows the permeation | transmission position and direction of the light beam corresponding to a pixel in a main surface is shown.
The output information of the light beam direction information shown in FIG. 14A indicates the calculation result for the light beam corresponding to the pixel on the main surface of the virtual lens array 220 described with reference to FIG. Since the pixel-corresponding light ray that enters the virtual lens array 220 is emitted from the virtual imaging device 210, the values of the input X coordinate information, the input Y coordinate information, and the input Z coordinate information are the values of the coordinates of each pixel. . Further, the values of the input ZX angle information and the input ZY angle information are NULL (−) for any pixel.

図14(b)に示される光線方向情報の出力情報は、図12を参照して説明した仮想奥行き制御レンズ230−1の主面における画素対応光線についての演算結果を示す。仮想奥行き制御レンズ230−1に入射する画素対応光線は、仮想レンズアレイ220から射出するため、入力情報は、図14(a)に示される出力情報に対応する。
図14(c)に示される光線方向情報の出力情報は、図13を参照して説明した仮想奥行き制御レンズ230−2の主面における画素対応光線についての演算結果を示す。仮想奥行き制御レンズ230−2に入射する画素対応光線は、仮想レンズアレイ220から射出するため、入力情報は、図14(b)に示される出力情報に対応する。
The output information of the light direction information shown in FIG. 14B indicates the calculation result for the pixel-corresponding light beam on the main surface of the virtual depth control lens 230-1 described with reference to FIG. Since the pixel-corresponding light beam incident on the virtual depth control lens 230-1 exits from the virtual lens array 220, the input information corresponds to the output information shown in FIG.
The output information of the light direction information shown in FIG. 14C indicates the calculation result for the pixel-corresponding light beam on the main surface of the virtual depth control lens 230-2 described with reference to FIG. Since the pixel-corresponding light ray that enters the virtual depth control lens 230-2 exits from the virtual lens array 220, the input information corresponds to the output information shown in FIG.

動画の場合、被写体が移動したり変形したりするように、カメラも移動したり焦点距離を変える。そして、IP画像を撮影可能なカメラの場合は、再生像の奥行き位置を変える場合がある。この処理を画像生成装置10aにより行う場合、仮想カメラ20aでは、仮想奥行き制御レンズ230の位置が変わるが、仮想撮像素子210から仮想レンズアレイ220までの画素対応光線についての演算結果を記憶しておくことにより、仮想レンズアレイ220における画素対応光線の屈折のしかたの演算を省略し、仮想奥行き制御レンズ230の位置変更に対する演算のみで再生像の奥行き位置の変更に対応することができる。つまり、画像生成装置10aは、仮想カメラ20aの各レンズについての光線方向情報を光線方向記憶部144に記憶しておくことにより、仮想カメラ20a内のレンズの位置が変更された場合でも、少ない計算量でIP画像の画像データを生成することができる。   In the case of a moving image, the camera moves or changes the focal length so that the subject moves or deforms. In the case of a camera capable of taking an IP image, the depth position of the reproduced image may be changed. When this processing is performed by the image generation device 10a, the virtual camera 20a changes the position of the virtual depth control lens 230, but stores the calculation results for the pixel-corresponding light rays from the virtual imaging element 210 to the virtual lens array 220. As a result, the calculation of the refraction of the light beam corresponding to the pixel in the virtual lens array 220 can be omitted, and the change of the depth position of the reproduced image can be dealt with only the calculation for the position change of the virtual depth control lens 230. In other words, the image generation apparatus 10a stores light ray direction information for each lens of the virtual camera 20a in the light ray direction storage unit 144, so that even when the position of the lens in the virtual camera 20a is changed, the calculation is small. The image data of the IP image can be generated by the amount.

また、例えば、撮像と表示との両者に液晶レンズを用いた液晶レンズアレイにより実現可能であるように、撮像と表示との両者のレンズアレイが連動して焦点距離を変更できる場合、仮想撮像素子210の各画素と仮想レンズアレイ220の要素レンズ22−1〜22−Nとの対応関係を記録しておけば、焦点距離の違いによる光線方向の違いのみを演算すればよい。つまり、画像生成装置10、10aは、仮想レンズアレイ属性記憶部143に、例えば、仮想撮像素子210の各画素の識別情報と、要素レンズの識別情報とを対応付けて記憶することにより、少ない計算量でIP画像の画像データを生成することができる。   Further, for example, when the focal length can be changed in conjunction with the lens array of both imaging and display, as can be realized by a liquid crystal lens array using a liquid crystal lens for both imaging and display, the virtual imaging device If the correspondence between each pixel 210 and the element lenses 22-1 to 22-N of the virtual lens array 220 is recorded, it is only necessary to calculate the difference in the light beam direction due to the difference in focal length. In other words, the image generation devices 10 and 10a perform less calculation by storing the identification information of each pixel of the virtual imaging element 210 and the identification information of the element lens in the virtual lens array attribute storage unit 143, for example. The image data of the IP image can be generated by the amount.

なお、上述の各実施形態において、仮想レンズアレイ属性記憶部143が記憶する仮想レンズアレイ220の要素レンズ22−1〜22−Nの配列は、デルタ配置でも正方配列でもよい。また、仮想レンズアレイ属性記憶部143が記憶する仮想レンズアレイ220の種類は、2次元上に要素レンズを配列したレンズアレイだけでなく、水平方向に縦長のレンチキュラーレンズを配列したものであってもよい。   In each of the above-described embodiments, the arrangement of the element lenses 22-1 to 22-N of the virtual lens array 220 stored in the virtual lens array attribute storage unit 143 may be a delta arrangement or a square arrangement. The type of the virtual lens array 220 stored in the virtual lens array attribute storage unit 143 is not limited to a lens array in which element lenses are arrayed two-dimensionally, but may be a lens array in which vertically long lenticular lenses are arrayed in the horizontal direction. Good.

なお、上述した各実施形態において、画像生成装置10、10aが仮想カメラ20、20aに含ませる仮想的なレンズの枚数は任意であってよい。例えば、画像生成装置10aは、仮想奥行き制御レンズ230を仮想カメラ20aに3枚以上の複数枚含ませてもよい。   In each of the above-described embodiments, the number of virtual lenses that the image generation apparatuses 10 and 10a include in the virtual cameras 20 and 20a may be arbitrary. For example, the image generation apparatus 10a may include a plurality of virtual depth control lenses 230 in the virtual camera 20a.

なお、上述した各実施形態において、仮想空間内に配置されるオブジェクト40の数は、複数であってもよい。オブジェクト40は、例えば、仮想的なレンズ等であってもよい。
なお、上述した各実施形態において、例示した仮想カメラ20、20aの各種属性は、あくまで一例であり、その他の属性を含んでもよい。
なお、上述した各実施形態において、オブジェクト属性取得部155は、オブジェクト属性記憶部145からオブジェクト属性情報を読み出すことによりオブジェクト属性情報を取得したが、オブジェクト属性取得部155によるオブジェクト属性情報は、別の経路で取得されてもよい。例えば、オブジェクト属性取得部155は、画像生成装置10、10aと通信可能な外部装置から、通信を介して、オブジェクト属性情報を取得してもよい。
In each embodiment described above, the number of objects 40 arranged in the virtual space may be plural. The object 40 may be, for example, a virtual lens.
In the above-described embodiments, the various attributes of the illustrated virtual cameras 20 and 20a are merely examples, and may include other attributes.
In each embodiment described above, the object attribute acquisition unit 155 acquires the object attribute information by reading the object attribute information from the object attribute storage unit 145. However, the object attribute information by the object attribute acquisition unit 155 is different from the object attribute information. The route may be acquired. For example, the object attribute acquisition unit 155 may acquire object attribute information from an external device that can communicate with the image generation apparatuses 10 and 10a via communication.

なお、上述した各実施形態において、光線方向記憶部144が記憶する光線方向情報は、仮想カメラ20、20aが備える仮想レンズのうち、仮想撮像素子210から最も遠い仮想レンズにおける画素対応光線の方向を表すとしたが、光線方向情報は、仮想カメラ20、20aが備える別の仮想レンズにおける画素対応光線の方向を表してもよい。例えば、画像生成装置10aにおいて、光線方向情報は、仮想レンズアレイ220における画素対応光線の方向を表してもよい。ただし、仮想撮像素子210から遠い仮想レンズを透過する方向を表す光線方向情報を光線方向記憶部144に記憶させた場合の方が、仮想カメラ20、20a内における光線の屈折のしかたを演算する量が少なくなるため望ましい。   In each of the above-described embodiments, the light direction information stored in the light direction storage unit 144 is the direction of the pixel-corresponding light beam in the virtual lens farthest from the virtual image sensor 210 among the virtual lenses included in the virtual cameras 20 and 20a. However, the ray direction information may represent the direction of the pixel-corresponding ray in another virtual lens included in the virtual cameras 20 and 20a. For example, in the image generation device 10a, the light direction information may represent the direction of the pixel corresponding light beam in the virtual lens array 220. However, the amount of calculation of how light is refracted in the virtual cameras 20 and 20a when the light direction information indicating the direction of transmission through the virtual lens far from the virtual image sensor 210 is stored in the light direction storage unit 144. Is desirable because it reduces

なお、上述した実施形態における画像生成装置10、10aの一部、例えば、制御部15、15aなどをコンピュータで実現するようにしてもよい。その場合、この機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、画像生成装置10、10aに内蔵されたコンピュータシステムであって、OS(Operating System)や周辺機器等のハードウェアを含むものとする。   In addition, you may make it implement | achieve a part of image generation apparatuses 10 and 10a in embodiment mentioned above, for example, the control parts 15 and 15a, etc. with a computer. In that case, a program for realizing this function may be recorded on a computer-readable recording medium, and the program recorded on this recording medium may be read into a computer system and executed. Here, the “computer system” is a computer system built in the image generation apparatuses 10 and 10a and includes hardware such as an OS (Operating System) and peripheral devices.

また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムに既に記録されているプログラムとの組み合わせで実現できるものであってもよい。   The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Furthermore, the “computer-readable recording medium” is a medium that dynamically holds a program for a short time, such as a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line, In this case, a volatile memory inside a computer system that serves as a server or a client may be included that holds a program for a certain period of time. The program may be a program for realizing a part of the functions described above, or may be a program capable of realizing the functions described above in combination with a program already recorded in a computer system.

また、上述した実施形態における画像生成装置10、10aの一部、又は全部を、LSI(Large Scale Integration)等の集積回路として実現してもよい。画像生成装置10、10aの各機能部は個別にプロセッサ化してもよいし、一部、又は全部を集積してプロセッサ化してもよい。また、集積回路化の手法はLSIに限らず専用回路、又は汎用プロセッサで実現してもよい。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いてもよい。   Moreover, you may implement | achieve part or all of the image generation apparatuses 10 and 10a in embodiment mentioned above as integrated circuits, such as LSI (Large Scale Integration). Each functional unit of the image generation apparatuses 10 and 10a may be individually made into a processor, or a part or all of them may be integrated into a processor. Further, the method of circuit integration is not limited to LSI, and may be realized by a dedicated circuit or a general-purpose processor. In addition, when an integrated circuit technology that replaces LSI appears due to the advancement of semiconductor technology, an integrated circuit based on the technology may be used.

以上、図面を参照してこの発明の一実施形態について詳しく説明してきたが、具体的な構成は上述のものに限られることはなく、この発明の要旨を逸脱しない範囲内において様々な設計変更等をすることが可能である。   As described above, the embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to the above, and various design changes and the like can be made without departing from the scope of the present invention. It is possible to

10、10a…画像生成装置、11…表示部、12…入力部、13…通信部、14、14a…記憶部、141…仮想カメラ属性記憶部、142…仮想撮像素子属性記憶部、143…仮想レンズアレイ属性記憶部、144…光線方向記憶部、145…オブジェクト属性記憶部、146…映像信号記憶部、147…仮想奥行き制御レンズ属性記憶部、15、15a…制御部、151…表示処理部、152、152a…レンズ処理部、153…仮想レンズアレイ処理部、154…レンダリング処理部、155…オブジェクト属性取得部、156…映像信号出力部、157…仮想奥行き制御レンズ処理部、20、20a…仮想カメラ、210…仮想撮像素子、21−1〜21−N…要素画像、220…仮想レンズアレイ、22−1〜22−N…要素レンズ、30…IP立体映像表示装置、310…表示素子、320…レンズアレイ、40…オブジェクト、50…立体像   DESCRIPTION OF SYMBOLS 10, 10a ... Image generation apparatus, 11 ... Display part, 12 ... Input part, 13 ... Communication part, 14, 14a ... Memory | storage part, 141 ... Virtual camera attribute memory | storage part, 142 ... Virtual imaging element attribute memory | storage part, 143 ... Virtual Lens array attribute storage unit, 144 ... ray direction storage unit, 145 ... object attribute storage unit, 146 ... video signal storage unit, 147 ... virtual depth control lens attribute storage unit, 15, 15a ... control unit, 151 ... display processing unit, 152, 152a ... Lens processing unit, 153 ... Virtual lens array processing unit, 154 ... Rendering processing unit, 155 ... Object attribute acquisition unit, 156 ... Video signal output unit, 157 ... Virtual depth control lens processing unit, 20, 20a ... Virtual Camera 210 ... Virtual imaging device, 211-1 to 21-N Element image, 220 Virtual lens array, 22-1 to 22-N Element element 'S, 30 ... IP stereoscopic image display apparatus, 310 ... display device, 320 ... lens array, 40 ... object, 50 ... three-dimensional image

Claims (6)

仮想空間内のオブジェクトのインテグラルフォトグラフィ画像を生成する画像生成装置であって、
前記仮想空間内における前記オブジェクトの位置を含むオブジェクト属性情報を取得するオブジェクト属性取得部と、
前記仮想空間内に存在する仮想レンズアレイの位置及び屈折特性を少なくとも含む仮想レンズアレイ属性情報と、前記仮想空間内に存在する仮想撮像素子の位置を少なくとも含む仮想撮像素子属性情報とを記憶する仮想カメラ属性記憶部と、
前記仮想撮像素子に入射する光線が前記仮想レンズアレイを透過するときの屈折のしかたを、前記仮想カメラ属性記憶部から読み出す前記仮想レンズアレイ属性情報に基づいて演算するレンズ処理部と、
前記オブジェクト属性取得部が取得する前記オブジェクト属性情報に基づいて、且つ前記レンズ処理部による演算結果に基づいて、前記仮想撮像素子に入射する光線の元の位置にあるオブジェクトをレンダリングして前記インテグラルフォトグラフィ画像の画像データを生成するレンダリング処理部と、
を備える画像生成装置。
An image generation device that generates an integral photography image of an object in a virtual space,
An object attribute acquisition unit that acquires object attribute information including the position of the object in the virtual space;
A virtual for storing virtual lens array attribute information including at least a position and refractive characteristics of a virtual lens array existing in the virtual space, and virtual image sensor attribute information including at least a position of a virtual image sensor existing in the virtual space. A camera attribute storage unit;
A lens processing unit that calculates, based on the virtual lens array attribute information, reading from the virtual camera attribute storage unit, how to refract the light incident on the virtual imaging element when passing through the virtual lens array;
Based on the object attribute information acquired by the object attribute acquisition unit, and based on a calculation result by the lens processing unit, the object at the original position of the light ray incident on the virtual imaging device is rendered and the integral A rendering processing unit for generating image data of a photography image;
An image generation apparatus comprising:
前記仮想撮像素子における画素に対応する前記仮想空間内の光線の方向を表す光線方向情報を記憶する光線方向記憶部、
をさらに備え、
前記レンズ処理部は、演算された前記屈折のしかたに基づいて、前記仮想撮像素子の各々の画素に対応する光線の方向を演算し、前記画素と前記光線の方向との対応関係を前記光線方向記憶部に記憶させ、
前記レンダリング処理部は、前記光線方向記憶部に前記画素と前記光線の方向との対応関係が既に記憶されている場合には、前記光線方向記憶部から読み出した光線方向情報に基づいて、前記画像データを生成する、
ことを特徴とする請求項1に記載の画像生成装置。
A ray direction storage unit that stores ray direction information representing the direction of rays in the virtual space corresponding to the pixels in the virtual imaging device;
Further comprising
The lens processing unit calculates a direction of a light beam corresponding to each pixel of the virtual imaging device based on the calculated refraction method, and determines a correspondence relationship between the pixel and the direction of the light beam as the light beam direction. Memorize it in the memory,
When the correspondence between the pixel and the direction of the light beam is already stored in the light beam direction storage unit, the rendering processing unit is configured to store the image based on the light beam direction information read from the light beam direction storage unit. Generate data,
The image generating apparatus according to claim 1.
前記仮想空間内において前記仮想レンズアレイを挟んで前記仮想撮像素子とは反対の側に存在する仮想奥行き制御レンズの属性を示す仮想奥行き制御レンズ属性情報を記憶する仮想奥行き制御レンズ属性記憶部、
をさらに備え、
前記レンズ処理部は、前記仮想奥行き制御レンズ属性記憶部から読み出した前記仮想奥行き制御レンズ属性情報に基づき、前記仮想レンズアレイを透過して前記仮想撮像素子に入射する光線が前記仮想奥行き制御レンズを透過するときの屈折のしかたを演算する、
ことを特徴とする請求項1又は請求項2のいずれか一項に記載の画像生成装置。
A virtual depth control lens attribute storage unit that stores virtual depth control lens attribute information indicating an attribute of a virtual depth control lens existing on the opposite side of the virtual imaging element across the virtual lens array in the virtual space;
Further comprising
Based on the virtual depth control lens attribute information read from the virtual depth control lens attribute storage unit, the lens processing unit transmits a light beam that passes through the virtual lens array and enters the virtual imaging device to the virtual depth control lens. Calculate how to refract when transmitting,
The image generation apparatus according to claim 1, wherein the image generation apparatus is an image generation apparatus.
前記仮想奥行き制御レンズ属性記憶部は、4f光学系を構成する2枚の仮想奥行き制御レンズの属性を記憶する、
ことを特徴とする請求項3に記載の画像生成装置。
The virtual depth control lens attribute storage unit stores attributes of two virtual depth control lenses constituting the 4f optical system.
The image generating apparatus according to claim 3.
仮想空間内に存在する仮想レンズアレイの位置及び屈折特性を少なくとも含む仮想レンズアレイ属性情報と、前記仮想空間内に存在する仮想撮像素子の位置を少なくとも含む撮像素子属性情報とを記憶する仮想カメラ属性記憶部を備え、前記仮想空間内のオブジェクトのインテグラルフォトグラフィ画像を生成する画像生成装置における画像生成方法であって、
前記仮想空間内における前記オブジェクトの位置を含むオブジェクト属性情報を取得するオブジェクト属性取得過程と、
前記仮想撮像素子に入射する光線が前記仮想レンズアレイを透過するときの屈折のしかたを、前記仮想カメラ属性記憶部から読み出す前記仮想レンズアレイ属性情報に基づいて演算するレンズ処理過程と、
前記オブジェクト属性取得過程において取得される前記オブジェクト属性情報に基づいて、且つ前記レンズ処理過程における演算結果に基づいて、前記仮想撮像素子に入射する光線の元の位置にあるオブジェクトをレンダリングして前記インテグラルフォトグラフィ画像の画像データを生成するレンダリング処理過程と、
を含むことを特徴とする画像生成方法。
Virtual camera attribute for storing virtual lens array attribute information including at least the position and refractive characteristics of the virtual lens array existing in the virtual space, and image sensor attribute information including at least the position of the virtual image sensor existing in the virtual space An image generation method in an image generation apparatus that includes a storage unit and generates an integral photography image of an object in the virtual space,
An object attribute acquisition process for acquiring object attribute information including the position of the object in the virtual space;
A lens processing step of calculating, based on the virtual lens array attribute information, reading from the virtual camera attribute storage unit, how to refract light when the light beam incident on the virtual image sensor passes through the virtual lens array;
Based on the object attribute information acquired in the object attribute acquisition process and based on the calculation result in the lens processing process, the object at the original position of the light ray incident on the virtual image sensor is rendered and the integrator is rendered. A rendering process for generating image data of a photo photographic image;
An image generation method comprising:
仮想空間内に存在する仮想レンズアレイの位置及び屈折特性を少なくとも含む仮想レンズアレイ属性情報と、前記仮想空間内に存在する仮想撮像素子の位置を少なくとも含む撮像素子属性情報とを記憶する仮想カメラ属性記憶部を備え、前記仮想空間内のオブジェクトのインテグラルフォトグラフィ画像を生成する画像生成装置のコンピュータに、
前記仮想空間内における前記オブジェクトの位置を含むオブジェクト属性情報を取得するオブジェクト属性取得手順、
前記仮想撮像素子に入射する光線が前記仮想レンズアレイを透過するときの屈折のしかたを、前記仮想カメラ属性記憶部から読み出す前記仮想レンズアレイ属性情報に基づいて演算するレンズ処理手順、
前記オブジェクト属性取得手順において取得される前記オブジェクト属性情報に基づいて、且つ前記レンズ処理手順における演算結果に基づいて、前記仮想撮像素子に入射する光線の元の位置にあるオブジェクトをレンダリングして前記インテグラルフォトグラフィ画像の画像データを生成するレンダリング処理手順、
を実行させるためのプログラム。
Virtual camera attribute for storing virtual lens array attribute information including at least the position and refractive characteristics of the virtual lens array existing in the virtual space, and image sensor attribute information including at least the position of the virtual image sensor existing in the virtual space A computer of an image generation apparatus that includes a storage unit and generates an integral photography image of an object in the virtual space.
An object attribute acquisition procedure for acquiring object attribute information including the position of the object in the virtual space;
A lens processing procedure for calculating, based on the virtual lens array attribute information, reading from the virtual camera attribute storage unit, how to refract light rays incident on the virtual image sensor through the virtual lens array;
Based on the object attribute information acquired in the object attribute acquisition procedure, and on the basis of the calculation result in the lens processing procedure, the object at the original position of the light ray incident on the virtual imaging device is rendered and the integrator is rendered. Rendering procedure to generate image data
A program for running
JP2014168640A 2014-08-21 2014-08-21 Image generating apparatus, image generating method, and program Active JP6388435B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014168640A JP6388435B2 (en) 2014-08-21 2014-08-21 Image generating apparatus, image generating method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014168640A JP6388435B2 (en) 2014-08-21 2014-08-21 Image generating apparatus, image generating method, and program

Publications (2)

Publication Number Publication Date
JP2016045644A JP2016045644A (en) 2016-04-04
JP6388435B2 true JP6388435B2 (en) 2018-09-12

Family

ID=55636177

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014168640A Active JP6388435B2 (en) 2014-08-21 2014-08-21 Image generating apparatus, image generating method, and program

Country Status (1)

Country Link
JP (1) JP6388435B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7298809B2 (en) 2016-07-15 2023-06-27 ライト フィールド ラボ、インコーポレイテッド Energy propagation and lateral Anderson localization by two-dimensional, light-field and holographic relays
JP6846165B2 (en) * 2016-11-01 2021-03-24 日本放送協会 Image generator, image display system and program
JP7061445B2 (en) * 2017-02-15 2022-04-28 日本放送協会 Stereoscopic image generator and its program
JP7274682B2 (en) 2018-01-14 2023-05-17 ライト フィールド ラボ、インコーポレイテッド Systems and methods for rendering data from a 3D environment
JP7185331B2 (en) * 2018-03-22 2022-12-07 アリゾナ ボード オブ リージェンツ オン ビハーフ オブ ザ ユニバーシティ オブ アリゾナ How to render light field images for integral imaging light field displays

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002171536A (en) * 2000-12-04 2002-06-14 Mixed Reality Systems Laboratory Inc Device and method for generating stereoscopic image reproduction data, and storage medium
JP2005026772A (en) * 2003-06-30 2005-01-27 Victor Co Of Japan Ltd Method and apparatus of displaying stereoscopic video image
JP5258049B2 (en) * 2009-02-27 2013-08-07 独立行政法人情報通信研究機構 Multi-view image generation apparatus, multi-view image generation method, and multi-view image generation program
JP5394108B2 (en) * 2009-03-27 2014-01-22 日本放送協会 3D image display device
JP5452801B2 (en) * 2010-04-28 2014-03-26 日本放送協会 Stereoscopic image generating apparatus and program thereof
JP6118527B2 (en) * 2012-09-20 2017-04-19 日本放送協会 Spatial distortion correction apparatus and program thereof

Also Published As

Publication number Publication date
JP2016045644A (en) 2016-04-04

Similar Documents

Publication Publication Date Title
Liu et al. 3D imaging, analysis and applications
CN106679651B (en) Sound localization method, device and electronic equipment
ES2402229T3 (en) Image fusion method and device
JP6388435B2 (en) Image generating apparatus, image generating method, and program
KR102583723B1 (en) A method and an apparatus for generating data representative of a light field
Bräuer-Burchardt et al. Underwater 3D surface measurement using fringe projection based scanning devices
CN108604372B (en) Method and apparatus for generating data representing a pixel beam
JP2018538709A (en) Method and apparatus for generating data representing a pixel beam
Guidi et al. Optimal lateral displacement in automatic close-range photogrammetry
Angladon et al. The toulouse vanishing points dataset
RU2729698C2 (en) Apparatus and method for encoding an image captured by an optical system for acquiring data
JP6832919B2 (en) Devices and methods for generating data representing pixel beams
JP2016114445A (en) Three-dimensional position calculation device, program for the same, and cg composition apparatus
JP7414090B2 (en) Imaging device and method of controlling the imaging device
KR102562696B1 (en) Apparatus and method for generating data representative of pixel beams
JP6073123B2 (en) Stereoscopic display system, stereoscopic image generating apparatus, and stereoscopic image generating program
CN108475421A (en) Method and apparatus for generating the data for indicating pixel light beam
KR102402432B1 (en) Apparatus and method for generating data representing a pixel beam
JP2017215706A (en) Video synthesis method, video acquisition device, video synthesis system, and computer program
JP2019035708A (en) Information processing device, information processing method and program
JP5122508B2 (en) 3D spatial data creation method and 3D spatial data creation apparatus
Chen et al. A Novel Simulation Method for 3D Digital-Image Correlation: Combining Virtual Stereo Vision and Image Super-Resolution Reconstruction
JP6300358B2 (en) Display image generating apparatus and program thereof
JP6192222B2 (en) Imaging device
JP2015002535A (en) Image generation device and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170626

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180608

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180717

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180813

R150 Certificate of patent or registration of utility model

Ref document number: 6388435

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250