JP2020129773A - Stereoscopic image generation system, stereoscopic image generation device, and program thereof - Google Patents

Stereoscopic image generation system, stereoscopic image generation device, and program thereof Download PDF

Info

Publication number
JP2020129773A
JP2020129773A JP2019022359A JP2019022359A JP2020129773A JP 2020129773 A JP2020129773 A JP 2020129773A JP 2019022359 A JP2019022359 A JP 2019022359A JP 2019022359 A JP2019022359 A JP 2019022359A JP 2020129773 A JP2020129773 A JP 2020129773A
Authority
JP
Japan
Prior art keywords
image
pixel
image pickup
stereoscopic image
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019022359A
Other languages
Japanese (ja)
Other versions
JP7308045B2 (en
Inventor
人誌 日浦
Hitoshi Hiura
人誌 日浦
健介 久富
Kensuke Hisatomi
健介 久富
洗井 淳
Jun Arai
淳 洗井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK, Japan Broadcasting Corp filed Critical Nippon Hoso Kyokai NHK
Priority to JP2019022359A priority Critical patent/JP7308045B2/en
Publication of JP2020129773A publication Critical patent/JP2020129773A/en
Application granted granted Critical
Publication of JP7308045B2 publication Critical patent/JP7308045B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Stereoscopic And Panoramic Photography (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)

Abstract

To provide a stereoscopic image generation device capable of compressing the depth of a stereoscopic image even when a lens array of the stereoscopic image display device is a delta array.SOLUTION: A stereoscopic image generation device 30 includes parameter input means 31 that inputs various parameters, pixel position conversion table storage means 32 that stores a pixel position conversion table, arithmetic means 33 that calculates the amount of axis deviation between an imaging lens and an imaging element included in an imaging camera, imaging camera control means 34 that shifts the axes of the imaging lens and the imaging element by an amount of axis deviation, and instructs the imaging camera to capture a subject image, subject image input means 35 that inputs the subject image, and element image group generation means 36 that generates an element image group from the subject image captured by an imaging camera array.SELECTED DRAWING: Figure 15

Description

本発明は、立体画像表示装置の奥行きに応じて、被写体画像から立体画像表示装置が表示する要素画像群を生成する立体画像生成システム、並びに、立体画像生成装置及びそのプログラムに関する。 The present invention relates to a stereoscopic image generation system that generates an element image group displayed by a stereoscopic image display device from a subject image according to the depth of the stereoscopic image display device, a stereoscopic image generation device, and a program thereof.

従来のインテグラルフォトグラフィ(IP)方式では、1台のカメラで複数の微小レンズが配列されたレンズアレイを通して被写体を撮像する。このとき、カメラがレンズアレイの焦平面を撮像するため、レンズアレイを構成する各微小レンズは、微小なカメラと同じ働きをする。その結果、レンズアレイ越しに被写体を撮像した画像は、微小レンズの位置に応じた微小画像(要素画像)が並んだ要素画像群となる。要素画像群は、被写体からの光線情報を記憶した画像であり、記憶できる光線数がカメラの解像度に依存する。このため、IP方式での撮像には、高解像度のカメラが必要となる。また、撮像光学系の色収差や歪みによる影響を補正する必要もある。 In the conventional integral photography (IP) method, a single camera images a subject through a lens array in which a plurality of microlenses are arranged. At this time, since the camera images the focal plane of the lens array, each minute lens forming the lens array has the same function as a minute camera. As a result, the image of the subject captured through the lens array becomes an element image group in which minute images (element images) corresponding to the positions of the minute lenses are arranged. The elemental image group is an image in which light ray information from the subject is stored, and the number of light rays that can be stored depends on the resolution of the camera. For this reason, a high-resolution camera is required for image capturing in the IP method. It is also necessary to correct the influence of chromatic aberration and distortion of the image pickup optical system.

また、従来から、コンピュータグラフィックス(CG)を用いて、IP方式の要素画像群を生成する技術が研究されている。従来技術では、計算機内で仮想3次元空間を生成し、3次元の被写体及び背景(セット)を実世界と同様に再現し、その仮想3次元空間において被写体からの光線を追跡することで、要素画像群を生成する。CGによる要素画像を生成する手法として、下記の特許文献1,2及び非特許文献1,2に記載の手法が知られている。これらの要素画像生成手法は、被写体からの光線を制御する奥行き制御レンズを通して、被写体からの光線を追跡するものである。これらの手法では、要素画像群の画素数の回数だけ観察者側からカメラで撮像する必要がある。すなわち、非特許文献1の要素画像生成手法は、1画素毎に光線追跡法を用いるので、1画素毎に撮像を行うカメラと同等であり、撮像回数が要素画像群の画素数と同じになる。そこで、さらなる高速化のため、従来技術として、CGオブジェクトを正射影によるカメラで撮像し、これらの画像を要素画像群に変換する手法も知られている(特許文献3、非特許文献3)。このような要素画像変換手法では、カメラで撮像する回数が要素画像を形成する画素数で済む。 Further, conventionally, a technique for generating an IP type element image group by using computer graphics (CG) has been studied. In the conventional technology, a virtual three-dimensional space is generated in a computer, a three-dimensional subject and a background (set) are reproduced in the same manner as in the real world, and rays of light from the subject are traced in the virtual three-dimensional space. Generate an image group. The methods described in the following Patent Documents 1 and 2 and Non-Patent Documents 1 and 2 are known as methods for generating an element image by CG. These elemental image generation methods trace a light ray from a subject through a depth control lens that controls the light ray from the subject. In these methods, it is necessary to capture images by the camera from the observer side as many times as the number of pixels of the element image group. That is, since the element image generation method of Non-Patent Document 1 uses the ray tracing method for each pixel, it is equivalent to a camera that captures an image for each pixel, and the number of images is the same as the number of pixels of the element image group. .. Therefore, for further speeding up, as a conventional technique, there is also known a method of capturing a CG object with a camera by orthographic projection and converting these images into a group of elemental images (Patent Document 3 and Non-Patent Document 3). In such an element image conversion method, the number of times of imaging with a camera is the number of pixels forming the element image.

特許第4567422号公報Japanese Patent No. 4567422 国際公開第00/059235号International Publication No. 00/059235 特開2011−234142号公報JP, 2011-234142, A

Spyros S. Athineos et al.,“Physical modeling of a microlens array setup for use in computer generated IP,”Proc of SPIE-IS&T Electronic Imaging,Vol.5664 pp.472-479,2005Spyros S. Athineos et al., “Physical modeling of a microlens array setup for use in computer generated IP,” Proc of SPIE-IS&T Electronic Imaging, Vol. 5664 pp.472-479, 2005 中島勧他,“Integral Photographyの原理を用いた3次元ディスプレイの画像高速作成法”,映像情報メディア学会誌 Vol. 54, No. 3, pp.420-425 (2000)Nakajima K. et al., “High-speed image creation method for 3D display using the principle of Integral Photography”, Journal of Image Information Media Vol. 54, No. 3, pp.420-425 (2000). M. Katayama et al., “A method for converting three-dimensional models into auto-stereoscopic images based on integral photography,” Proc of SPIE-IS&T Vol.6805 68050Z-1 68050Z-8M. Katayama et al., “A method for converting three-dimensional models into auto-stereoscopic images based on integral photography,” Proc of SPIE-IS&T Vol.6805 68050Z-1 68050Z-8

ここで、IP方式では、立体像が表示装置のレンズアレイから奥行き方向に離れるほど、立体像の解像度が低下する。このため、IP方式では、表示装置で十分な解像度が得られる範囲内に立体像の奥行きを圧縮した方がよい。しかしながら、前記した従来技術では、立体像の奥行きを圧縮していないという問題がある。さらに、表示装置のレンズアレイがデルタ配列で、撮像カメラの各画素が正方配列の場合、両方の配列構造が異なるため、単純に要素画像を生成することができない。 Here, in the IP method, the resolution of the stereoscopic image decreases as the stereoscopic image moves away from the lens array of the display device in the depth direction. Therefore, in the IP method, it is better to compress the depth of the stereoscopic image within a range where a sufficient resolution can be obtained on the display device. However, the above-mentioned conventional technique has a problem that the depth of the stereoscopic image is not compressed. Furthermore, when the lens array of the display device is a delta array and each pixel of the imaging camera is a square array, both array structures are different, and thus it is not possible to simply generate element images.

そこで、本発明は、立体画像表示装置のレンズアレイがデルタ配列の場合でも、立体像の奥行きを圧縮できる立体画像生成システム、並びに、立体画像生成装置及びそのプログラムを提供することを課題とする。 Therefore, it is an object of the present invention to provide a stereoscopic image generation system capable of compressing the depth of a stereoscopic image, a stereoscopic image generation device, and a program thereof even when the lens array of the stereoscopic image display device is a delta array.

前記した課題に鑑みて、本発明に係る立体画像生成システムは、撮像素子の各画素が正方配列された撮像カメラからなる撮像カメラアレイと、表示素子及び複数の光学素子をデルタ状に配列した光学素子アレイを備える立体画像表示装置の奥行きに応じて、立体画像表示装置が表示する要素画像群を生成する立体画像生成装置と、備える構成とした。 In view of the above-mentioned problems, a stereoscopic image generation system according to the present invention is an optical system in which an image pickup camera array including an image pickup camera in which pixels of an image pickup device are squarely arranged, a display element, and a plurality of optical elements are arranged in a delta shape. According to the depth of the stereoscopic image display device including the element array, the stereoscopic image generation device generates an element image group displayed by the stereoscopic image display device.

かかる立体画像生成システムにおいて、撮像カメラは、光学素子をデルタ状に配列した光学素子アレイに対応するため、撮像素子の画素数が光学素子の個数以上である。
立体画像生成装置は、パラメータ入力手段によって、立体画像表示装置の奥行き最大表示距離と、光学素子の焦点距離と、要素画像群を構成する要素画像の中心画素から撮像カメラ毎の計算対象画素までの画素間距離と、光学素子アレイから後方奥行き最大表示位置までの差分距離と、撮像カメラが備える撮像素子のサイズと、表示素子のサイズとを入力する。
In such a stereoscopic image generation system, since the image pickup camera corresponds to an optical element array in which optical elements are arranged in a delta shape, the number of pixels of the image pickup element is equal to or more than the number of optical elements.
The stereoscopic image generation device uses the parameter input means to determine the maximum depth display distance of the stereoscopic image display device, the focal length of the optical element, and the center pixel of the element images forming the element image group to the calculation target pixel of each imaging camera. The inter-pixel distance, the differential distance from the optical element array to the maximum rear depth display position, the size of the image sensor included in the image capturing camera, and the size of the display element are input.

立体画像生成装置は、位置算出手段によって、奥行き最大表示距離と、光学素子の焦点距離と、画素間距離とに基づいて、撮像カメラの位置を算出する。
立体画像生成装置は、軸ずれ量算出手段によって、画素間距離と、差分距離と、光学素子の焦点距離と、撮像素子のサイズと、表示素子のサイズとに基づいて、撮像カメラが備える撮像レンズと撮像素子との軸ずれ量を算出する。
The stereoscopic image generation device calculates the position of the imaging camera based on the maximum depth display distance, the focal length of the optical element, and the inter-pixel distance by the position calculation means.
In the stereoscopic image generation apparatus, the image pickup lens included in the image pickup camera based on the inter-pixel distance, the difference distance, the focal length of the optical element, the size of the image pickup element, and the size of the display element by the axis shift amount calculation unit. And the amount of axis deviation between the image sensor and the image sensor is calculated.

立体画像生成装置は、撮像カメラ制御手によって、位置算出手段が算出した位置に撮像カメラを移動させ、軸ずれ量算出手段が算出した軸ずれ量だけ撮像レンズと撮像素子とをずらす。
立体画像生成装置は、立体画像生成手段によって、撮像カメラアレイが撮像した被写体画像から、要素画像がデルタ状に配列された要素画像群を生成する。
このように、立体画像生成装置は、撮像カメラが備える撮像レンズの光軸と撮像素子の中心軸とをずらすことで、立体画像の奥行きを圧縮することができる。
The stereoscopic image generation device moves the imaging camera to the position calculated by the position calculation means by the imaging camera control hand, and shifts the imaging lens and the imaging element by the axial deviation amount calculated by the axial deviation amount calculation means.
The stereoscopic image generation device generates, by the stereoscopic image generation means, an element image group in which the element images are arranged in a delta shape from the subject image captured by the imaging camera array.
In this way, the stereoscopic image generation apparatus can compress the depth of the stereoscopic image by shifting the optical axis of the imaging lens included in the imaging camera and the central axis of the imaging element.

また、前記した課題に鑑みて、本発明に係る立体画像生成装置は、表示素子及び複数の光学素子をデルタ状に配列した光学素子アレイを備える立体画像表示装置の奥行きに応じて、撮像素子の各画素が正方配列された仮想的な撮像カメラからなる撮像カメラアレイで生成した被写体画像から、立体画像表示装置が表示する要素画像群を生成する構成とした。 Further, in view of the above-mentioned problems, the stereoscopic image generation device according to the present invention is configured to display an image sensor according to the depth of a stereoscopic image display device including a display element and an optical element array in which a plurality of optical elements are arranged in a delta shape. The element image group displayed by the stereoscopic image display device is generated from the subject image generated by the image pickup camera array including the virtual image pickup camera in which each pixel is squarely arranged.

かかる立体画像生成装置は、パラメータ入力手段によって、立体画像表示装置の奥行き最大表示距離と、光学素子の焦点距離と、要素画像群を構成する要素画像の中心画素から撮像カメラ毎の計算対象画素までの画素間距離と、光学素子アレイから後方奥行き最大表示位置までの差分距離と、撮像カメラが備える撮像素子のサイズと、表示素子のサイズとを入力する。 Such a stereoscopic image generation device uses the parameter input means to determine the maximum depth display distance of the stereoscopic image display device, the focal length of the optical element, and the center pixel of the element images forming the element image group to the calculation target pixel of each imaging camera. The inter-pixel distance, the difference distance from the optical element array to the maximum rear depth display position, the size of the image sensor included in the image capturing camera, and the size of the display element are input.

立体画像生成装置は、位置算出手段によって、奥行き最大表示距離と、光学素子の焦点距離と、画素間距離とに基づいて、撮像カメラの位置を算出する。
立体画像生成装置は、軸ずれ量算出手段によって、画素間距離と、差分距離と、光学素子の焦点距離と、撮像素子のサイズと、表示素子のサイズとに基づいて、撮像カメラが備える撮像レンズと撮像素子との軸ずれ量を算出する。
The stereoscopic image generation device calculates the position of the imaging camera based on the maximum depth display distance, the focal length of the optical element, and the inter-pixel distance by the position calculation means.
In the stereoscopic image generation apparatus, the image pickup lens included in the image pickup camera based on the inter-pixel distance, the difference distance, the focal length of the optical element, the size of the image pickup element, and the size of the display element by the axis shift amount calculation unit. And the amount of axis deviation between the image sensor and the image sensor is calculated.

立体画像生成装置は、撮像カメラ制御手段によって、位置算出手段が算出した位置及び軸ずれ量算出手段が算出した軸ずれ量で設定する。この仮想的な撮像カメラは、光学素子をデルタ状に配列した光学素子アレイに対応するため、撮像素子の画素数が光学素子の個数以上である。
立体画像生成装置は、立体画像生成手段によって、撮像カメラアレイを介して被写体画像を生成し、生成した被写体画像から、要素画像がデルタ状に配列された要素画像群を生成する。
このように、立体画像生成装置は、仮想的な撮像カメラが備える撮像レンズの光軸と撮像素子との中心軸をずらすことで、立体画像の奥行きを圧縮することができる。
The stereoscopic image generation device sets the position calculated by the position calculation unit and the axial shift amount calculated by the axial shift amount calculation unit by the imaging camera control unit. Since this virtual imaging camera corresponds to an optical element array in which optical elements are arranged in a delta shape, the number of pixels of the imaging element is equal to or more than the number of optical elements.
The stereoscopic image generation device generates a subject image via the imaging camera array by the stereoscopic image generation means, and generates an element image group in which element images are arranged in a delta shape from the generated subject image.
As described above, the stereoscopic image generation apparatus can compress the depth of the stereoscopic image by shifting the optical axis of the imaging lens of the virtual imaging camera and the central axis of the imaging element.

ここで、立体画像生成装置は、撮像レンズと撮像素子とを軸ずれさせる代わりに、被写体画像から軸ずれ量に応じた画素位置の画素値を取得して要素画像群を生成してもよい。
このように、立体画像生成装置は、撮像カメラが備える撮像レンズの光軸と撮像素子の中心軸とをずらしたのと同等の処理を行うことで、立体画像の奥行きを圧縮することができる。
Here, the stereoscopic image generation device may generate the element image group by acquiring the pixel value of the pixel position corresponding to the amount of the axis shift from the subject image, instead of shifting the axis of the image pickup lens and the image pickup element.
As described above, the stereoscopic image generation apparatus can compress the depth of the stereoscopic image by performing the same processing as that of shifting the optical axis of the imaging lens included in the imaging camera and the central axis of the imaging element.

なお、前記した立体画像生成装置は、コンピュータが備えるCPU、メモリ、ハードディスクなどのハードウェア資源を、前記した立体画像生成装置として協調動作させるプログラムで実現することもできる。 The stereoscopic image generation device described above can also be realized by a program that causes hardware resources such as a CPU, a memory, and a hard disk included in a computer to operate as the stereoscopic image generation device described above.

本発明によれば、以下のような優れた効果を奏する。
本発明によれば、撮像レンズの光軸と撮像素子の中心軸とをずらした撮像カメラアレイで取得した複数の被写体画像から、立体像の奥行きを圧縮した要素画像群を生成するので、立体画像表示装置のレンズアレイがデルタ配列の場合でも、解像度の高い奥行き範囲で立体像を表示することができる。
According to the present invention, the following excellent effects are exhibited.
According to the present invention, an element image group in which the depth of a stereoscopic image is compressed is generated from a plurality of subject images acquired by an imaging camera array in which the optical axis of the imaging lens and the central axis of the imaging element are displaced, and thus the stereoscopic image is generated. Even when the lens array of the display device is a delta array, it is possible to display a stereoscopic image in a high-resolution depth range.

さらに、本発明によれば、被写体画像から軸ずれ量に応じた画素位置の画素値を取得し、立体像の奥行きを圧縮した要素画像群を生成するので、立体画像表示装置のレンズアレイがデルタ配列の場合でも、解像度の高い奥行き範囲で立体像を表示することができる。 Further, according to the present invention, the pixel value of the pixel position corresponding to the amount of axis deviation is obtained from the subject image, and the element image group in which the depth of the stereoscopic image is compressed is generated. Even in the case of the array, a stereoscopic image can be displayed in the depth range with high resolution.

立体画像表示装置の概略を示す概略構成図である。It is a schematic block diagram which shows the outline of a stereoscopic image display apparatus. 立体画像撮像装置の概略を示す概略構成図である。It is a schematic block diagram which shows the outline of a stereoscopic image pickup device. 図2の立体画像撮像装置において、撮像素子の各画素に入射する光線を説明する説明図である。It is explanatory drawing explaining the light ray which injects into each pixel of an image sensor in the stereo image imaging device of FIG. 図3において、撮像素子が撮像する各要素画像で一番下の画素に入射する光線を説明する説明図である。It is explanatory drawing explaining the light ray which injects into the lowest pixel in each element image imaged by an image sensor in FIG. 図3において、撮像素子が撮像する各要素画像で中心の画素に入射する光線を説明する説明図である。It is explanatory drawing explaining the light ray which injects into the pixel of the center in each element image which an image sensor image|photographs in FIG. 図3において、撮像素子が撮像する各要素画像で一番上の画素に入射する光線を説明する説明図である。It is explanatory drawing explaining the light ray which injects into the uppermost pixel in each element image imaged by an image sensor in FIG. 図4の光線と奥行き制御レンズの主平面との交点に配置した撮像カメラを説明する説明図である。It is explanatory drawing explaining the imaging camera arrange|positioned at the intersection of the light ray of FIG. 4 and the principal plane of a depth control lens. 図3の光線と奥行き制御レンズの主平面との交点に配置した撮像カメラを説明する説明図である。It is explanatory drawing explaining the imaging camera arrange|positioned at the intersection of the light ray of FIG. 3 and the principal plane of a depth control lens. 図8において、奥行き制御レンズの主平面から所定距離だけ離した撮像カメラを説明する説明図である。It is explanatory drawing explaining the imaging camera which left|separated in FIG. 8 only the predetermined distance from the main plane of the depth control lens. 仮想的なレンズアレイの配置を説明する説明図である。It is explanatory drawing explaining arrangement|positioning of a virtual lens array. (a)〜(d)は撮像素子に入射する光線を説明する図である。(A)-(d) is a figure explaining the light ray which injects into an image sensor. 奥行き制御レンズによる非線形圧縮特性を表したグラフである。It is a graph showing the non-linear compression characteristic by the depth control lens. 第1実施形態において、軸ずれによる奥行きの圧縮を説明する説明図である。FIG. 7 is an explanatory diagram illustrating compression of depth due to an axis shift in the first embodiment. 第1実施形態において、軸ずれによる奥行きの圧縮を説明する説明図である。FIG. 7 is an explanatory diagram illustrating compression of depth due to an axis shift in the first embodiment. 第1〜第4実施形態に係る立体画像表示システムの構成を示すブロック図である。It is a block diagram which shows the structure of the stereo image display system which concerns on 1st-4th embodiment. 第1実施形態において、撮像カメラアレイの外観を示す外観図である。FIG. 3 is an external view showing the external appearance of the imaging camera array in the first embodiment. 第1実施形態において、撮像カメラの軸ずれを説明する説明図であり、(a)は軸ずれが無いときの図であり、(b)は軸ずれが有るときの図である。In the first embodiment, it is an explanatory diagram for explaining the axis deviation of the imaging camera, (a) is a diagram when there is no axis deviation, (b) is a diagram when there is an axis deviation. 第1実施形態において、(a)は撮像素子の画素配列を説明する説明図であり、(b)は表示用レンズアレイのレンズ配列を説明する説明図であり、(c)は要素画像の配列を説明する説明図である。In the first embodiment, (a) is an explanatory diagram illustrating a pixel array of an image sensor, (b) is an explanatory diagram illustrating a lens array of a display lens array, and (c) is an array of element images. It is an explanatory view explaining. 第1実施形態において、(a)は正方形レンズ及び円形レンズを説明する説明図であり、(b)は長方形レンズ及びハニカムレンズを説明する説明図である。In 1st Embodiment, (a) is explanatory drawing explaining a square lens and a circular lens, (b) is explanatory drawing explaining a rectangular lens and a honeycomb lens. 第1実施形態において、正方形レンズの場合に画素位置変換テーブルの設定を説明する説明図であり、(a)は撮像素子を示す図であり、(b)は要素画像群を示す図である。In the first embodiment, it is an explanatory diagram for explaining the setting of the pixel position conversion table in the case of a square lens, (a) is a diagram showing an image sensor, (b) is a diagram showing an element image group. 第1実施形態において、長方形レンズの場合に画素位置変換テーブルの設定を説明する説明図であり、(a)は撮像素子を示す図であり、(b)は要素画像群を示す図である。In the first embodiment, it is an explanatory diagram for explaining the setting of the pixel position conversion table in the case of a rectangular lens, (a) is a diagram showing an image sensor, (b) is a diagram showing a group of element images. 第1実施形態に係る立体画像生成装置の動作を示すフローチャートである。3 is a flowchart showing an operation of the stereoscopic image generation device according to the first embodiment. 第2実施形態において、正方形レンズの場合に画素位置変換テーブルの設定を説明する説明図であり、(a)は撮像素子を示す図であり、(b)は要素画像群を示す図である。In the second embodiment, it is an explanatory diagram for explaining the setting of the pixel position conversion table in the case of a square lens, (a) is a diagram showing an image sensor, (b) is a diagram showing a group of element images. 第2実施形態において、長方形レンズの場合に画素位置変換テーブルの設定を説明する説明図であり、(a)は撮像素子を示す図であり、(b)は要素画像群を示す図である。In the second embodiment, it is an explanatory view for explaining the setting of the pixel position conversion table in the case of a rectangular lens, (a) is a diagram showing an image sensor, (b) is a diagram showing an element image group. 第3実施形態において、正方形レンズの場合に画素位置変換テーブルの設定を説明する説明図であり、(a)は撮像素子を示す図であり、(b)は要素画像群を示す図である。In the third embodiment, it is an explanatory diagram for explaining the setting of the pixel position conversion table in the case of a square lens, (a) is a diagram showing an image sensor, (b) is a diagram showing an element image group. 第3実施形態において、長方形レンズの場合における撮像素子のサイズを説明する図であり、(a)は通常サイズの撮像素子を示す図であり、(b)は水平画素サイズを2倍にした撮像素子を示す図であり、(c)は垂直画素サイズを1/2にした撮像素子を示す図である。In the third embodiment, it is a diagram for explaining the size of the image sensor in the case of a rectangular lens, (a) is a diagram showing a normal size of the image sensor, (b) is an image pickup in which the horizontal pixel size is doubled. It is a figure which shows an element, and (c) is a figure which shows the imaging element which reduced the vertical pixel size to 1/2. 第4実施形態において、画素位置変換テーブルの設定を説明する説明図であり、(a)は水平画素サイズを2倍にした撮像素子を示す図であり、(b)は垂直画素サイズを1/2にした撮像素子を示す図であり、(c)は撮像素子を示す図であり、(d)は要素画像群を示す図である。In 4th Embodiment, it is explanatory drawing explaining the setting of a pixel position conversion table, (a) is a figure which shows the image sensor which doubled the horizontal pixel size, (b) is a vertical pixel size 1/. It is a figure which shows the image sensor which was set to 2, (c) is a figure which shows an image sensor, (d) is a figure which shows an element image group. 第5実施形態に係る立体画像表示システムの構成を示すブロック図である。It is a block diagram which shows the structure of the stereo image display system which concerns on 5th Embodiment. 第5実施形態に係る立体画像生成装置の動作を示すフローチャートである。It is a flowchart which shows operation|movement of the stereo image generation apparatus which concerns on 5th Embodiment. 第6実施形態において、軸ずれ量を考慮した画素位置の画素値の取得を説明する説明図であり、(a)は軸ずれが無いときの図であり、(b)は軸ずれが有るときの図である。In 6th Embodiment, it is explanatory drawing explaining the acquisition of the pixel value of the pixel position which considered the amount of axis shifts, (a) is a figure when there is no axis shift, (b) is a figure when there is a axis shift. FIG.

以下、本発明の各実施形態について、適宜図面を参照しながら詳細に説明する。なお、各実施形態において、同一の手段及び処理には同一の符号を付し、説明を省略した。
奥行きの圧縮原理を説明した後、本実施形態に係る立体画像表示システムについて説明する。
Hereinafter, each embodiment of the present invention will be described in detail with reference to the drawings as appropriate. In addition, in each embodiment, the same reference numerals are given to the same means and processes, and the description thereof will be omitted.
After explaining the depth compression principle, the stereoscopic image display system according to the present embodiment will be described.

[奥行きの圧縮原理]
以下、奥行きの圧縮原理として、立体画像表示装置と立体画像撮像装置との関係、撮像カメラによる置換、立体画像撮像装置の非線形圧縮特性、軸ずれによる奥行きの圧縮について、順に説明する。
[Principle of depth compression]
Hereinafter, as the depth compression principle, the relationship between the stereoscopic image display device and the stereoscopic image pickup device, the replacement by the image pickup camera, the non-linear compression characteristic of the stereoscopic image pickup device, and the depth compression due to the axis shift will be described in order.

<立体画像表示装置と立体画像撮像装置との関係>
立体画像表示装置10は、被写体αの立体像をIP方式で表示するディスプレイである。例えば、立体画像表示装置10は、図1に示すように、表示素子11と、表示用レンズアレイ12とを備える。
<Relationship Between Stereoscopic Image Display Device and Stereoscopic Image Imaging Device>
The stereoscopic image display device 10 is a display that displays a stereoscopic image of the subject α by the IP method. For example, the stereoscopic image display device 10 includes a display element 11 and a display lens array 12, as shown in FIG.

表示素子11は、例えば、正方配列された画素で構成されており、表示用レンズアレイ12を介して、要素画像群(立体画像)を表示するものである。
表示用レンズアレイ12は、表示用要素レンズ13(例えば、微小な凸レンズ)をデルタ状に配列(樽積み配列)したものである。
The display element 11 is composed of pixels arranged in a square, for example, and displays a group of elemental images (stereoscopic image) via the display lens array 12.
The display lens array 12 includes display element lenses 13 (for example, minute convex lenses) arranged in a delta shape (barrel-stacking arrangement).

図2に示すように、立体画像撮像装置90は、被写体αをIP方式で撮像するカメラであり、撮像素子91と、撮像用レンズアレイ92と、奥行き制御レンズ94とを備える。ここで、立体画像撮像装置90は、撮像素子91の前面に撮像用レンズアレイ92を配置し、撮像用レンズアレイ92と被写体αとの間に奥行き制御レンズ94を配置する。 As shown in FIG. 2, the stereoscopic image pickup device 90 is a camera that picks up an image of a subject α by an IP method, and includes an image pickup element 91, an image pickup lens array 92, and a depth control lens 94. Here, in the stereoscopic image pickup device 90, the image pickup lens array 92 is arranged in front of the image pickup element 91, and the depth control lens 94 is arranged between the image pickup lens array 92 and the subject α.

撮像素子91は、撮像用レンズアレイ92及び奥行き制御レンズ94を介して、要素画像群を撮像する一般的な撮像素子である。この撮像素子91は、後記する撮像用要素レンズ93の焦点距離LAfに位置する。
撮像用レンズアレイ92は、撮像用要素レンズ93(例えば、微小な凸レンズ)を2次元状に配列したものである。
奥行き制御レンズ94は、一般的な凸レンズである。奥行き制御レンズ94の焦点距離をDfとする。ここで、焦点距離Dfには、撮像用レンズアレイ92が位置する。
The image pickup element 91 is a general image pickup element that picks up an element image group via the image pickup lens array 92 and the depth control lens 94. The image pickup element 91 is located at the focal length LAf of the image pickup element lens 93 described later.
The imaging lens array 92 is a two-dimensional array of imaging element lenses 93 (for example, minute convex lenses).
The depth control lens 94 is a general convex lens. The focal length of the depth control lens 94 is Df. Here, the imaging lens array 92 is located at the focal length Df.

立体画像撮像装置90は、高画質な立体画像を撮像するため、画素数が多い撮像素子91と、高密度な撮像用レンズアレイ92とが必要になる。また、立体画像撮像装置90は、広範囲を撮像するためには、大口径、かつ、短焦点の奥行き制御レンズ94が必要になる。このように、立体画像撮像装置90の制約が大きいので、立体画像撮像装置90を1台以上の一般的な撮像カメラ21(図17)で置換する手法を検討する。 Since the stereoscopic image capturing device 90 captures a high quality stereoscopic image, an image capturing element 91 having a large number of pixels and a high density image capturing lens array 92 are required. Further, the stereoscopic image capturing apparatus 90 needs a large-diameter, short-focus depth control lens 94 to capture a wide range. As described above, since the stereoscopic image pickup device 90 has a large restriction, a method of replacing the stereoscopic image pickup device 90 with one or more general image pickup cameras 21 (FIG. 17) will be examined.

立体画像表示装置10及び立体画像撮像装置90は、奥行き制御レンズ94の有無が大きく異なる。一方、表示素子11及び撮像素子91のサイズの比と、表示用レンズアレイ12及び撮像用レンズアレイ92の間隔及び焦点距離の比とは、通常同一となる。このような関係により、奥行き制御レンズ94を備えない立体画像表示装置10のパラメータを、立体画像撮像装置90のパラメータとして扱うことができる。 The stereoscopic image display device 10 and the stereoscopic image capturing device 90 are greatly different in the presence or absence of the depth control lens 94. On the other hand, the size ratio of the display element 11 and the image pickup element 91 and the ratio of the distance and the focal length of the display lens array 12 and the image pickup lens array 92 are usually the same. Due to such a relationship, the parameters of the stereoscopic image display device 10 that does not include the depth control lens 94 can be treated as the parameters of the stereoscopic image capturing device 90.

<撮像カメラによる置換>
図3には、被写体αからの光線を撮像素子91が取得する様子を図示した。なお、図3では、説明を分かり易くするため、各撮像用要素レンズ93の主点を通過する光線のみを図示すると共に、光線を撮像素子91から被写体αの方向の矢印で図示した(図4〜図9も同様)。
<Replacement with imaging camera>
FIG. 3 illustrates how the image pickup device 91 obtains a light ray from the subject α. Note that, in FIG. 3, only the light rays passing through the principal points of the respective imaging element lenses 93 are illustrated and the light rays are illustrated by arrows in the direction from the image sensor 91 to the subject α for easy understanding of the description (FIG. 4). ~Similar to FIG. 9).

撮像用レンズアレイ92のレンズ間隔LApが、撮像素子91の画素間隔PlXpの整数倍であることとする。図3に示すように、撮像素子91の各画素に入射する光線は、奥行き制御レンズ94の被写体α側の主平面βで交わる点が存在する。従って、撮像素子91が撮像する各要素画像で一番下の画素は、図4に示すような光線群が入射する。また、撮像素子91が撮像する各要素画像で中心の画素は、図5に示すような光線群が入射する。さらに、撮像素子91が撮像する各要素画像で一番上の画素は、図6に示すような光線群が入射する。 It is assumed that the lens interval LAp of the imaging lens array 92 is an integral multiple of the pixel interval PlXp of the image sensor 91. As shown in FIG. 3, the light rays incident on the respective pixels of the image pickup element 91 have a point where they intersect with each other on the main plane β of the depth control lens 94 on the subject α side. Therefore, a ray group as shown in FIG. 4 is incident on the bottom pixel in each element image captured by the image sensor 91. A ray group as shown in FIG. 5 is incident on the pixel at the center of each element image captured by the image sensor 91. Further, a ray group as shown in FIG. 6 is incident on the uppermost pixel in each element image captured by the image sensor 91.

ここで、図4に着目すると、奥行き制御レンズ94の被写体α側の主平面βにおいて、光線が一点で交わっている。図7に示すように、撮像カメラ21が備える撮像レンズ27の主点と前記交点とが一致するように撮像カメラ21を配置することで、各要素画像内の一番下の画素に入射する光線を1台の撮像カメラ21で撮像できる。各要素画像内で一番下以外の画素に入射する光線も、一番下の画素と同様、それぞれ、1台の撮像カメラ21で撮像できる。 Here, focusing on FIG. 4, light rays intersect at a single point on the main plane β of the depth control lens 94 on the subject α side. As shown in FIG. 7, by arranging the image pickup camera 21 so that the principal point of the image pickup lens 27 of the image pickup camera 21 and the intersection point coincide with each other, a light ray incident on the bottom pixel in each element image. Can be imaged by one imaging camera 21. The light rays incident on the pixels other than the lowest pixel in each element image can be imaged by the single imaging camera 21 similarly to the lowest pixel.

また、撮像カメラ21の台数は、要素画像の画素数と同数になる。例えば、要素画像が縦10画素、横10画素、計100画素の場合、立体画像撮像装置90を100台の撮像カメラ21で置換できる。図8では、各要素画像内の一番下、中央及び一番上の画素で説明したので、立体画像撮像装置90を3台の撮像カメラ21で置換している。 Further, the number of imaging cameras 21 is the same as the number of pixels of the elemental image. For example, when the element image has 10 pixels in the vertical direction and 10 pixels in the horizontal direction, that is, 100 pixels in total, the stereoscopic image capturing device 90 can be replaced by 100 image capturing cameras 21. In FIG. 8, the bottom, center, and top pixels in each element image have been described, so the three-dimensional image capturing device 90 is replaced by three image capturing cameras 21.

<立体画像撮像装置の非線形圧縮特性>
立体画像の奥行きを圧縮(圧縮)するには、図9に示すように、撮像素子91及び撮像用レンズアレイ92を、奥行き制御レンズ94の撮像素子91側の主平面γよりもΔfだけ離す。この主平面γからの距離Δfに応じて、立体画像の奥行きが圧縮される。
<Non-linear compression characteristic of stereoscopic image pickup device>
In order to compress (compress) the depth of the stereoscopic image, as shown in FIG. 9, the image pickup device 91 and the image pickup lens array 92 are separated from the main plane γ of the depth control lens 94 on the image pickup device 91 side by Δf. The depth of the stereoscopic image is compressed according to the distance Δf from the principal plane γ.

図10に示すように、立体画像撮像装置90は、奥行き制御レンズ94を挟んで撮像用レンズアレイ92の反対側に、奥行き制御レンズ94により仮想的なレンズアレイ(仮想レンズアレイ)95が生成される。奥行き制御レンズ94から仮想レンズアレイ95までの距離をAとする。また、奥行き制御レンズ94から撮像用レンズアレイ92までの距離をBとする。 As shown in FIG. 10, in the stereoscopic image capturing apparatus 90, a virtual lens array (virtual lens array) 95 is generated by the depth control lens 94 on the opposite side of the imaging lens array 92 with the depth control lens 94 interposed therebetween. It A is the distance from the depth control lens 94 to the virtual lens array 95. The distance from the depth control lens 94 to the imaging lens array 92 is B.

図11に示すように、主平面γからの距離Δfを奥行き制御レンズ94の焦点距離Dfの1.25倍、1.5倍、1.75倍、2.0倍に変更したときの光線群を図示した。図11では、横軸が奥行き方向の位置を表し、縦軸が垂直方向の位置を表す。また、横軸の0が撮像素子91の奥行き位置であり、縦軸の0が撮像素子91で一番下の画素位置である。 As shown in FIG. 11, a ray group when the distance Δf from the principal plane γ is changed to 1.25 times, 1.5 times, 1.75 times, and 2.0 times the focal length Df of the depth control lens 94. Is illustrated. In FIG. 11, the horizontal axis represents the position in the depth direction, and the vertical axis represents the position in the vertical direction. Further, 0 on the horizontal axis is the depth position of the image sensor 91, and 0 on the vertical axis is the lowest pixel position in the image sensor 91.

距離A,Bは、主平面γからの距離Δfが0から焦点距離Dfまでの間で変化するとき、下記の式(1)で求めることができる。 The distances A and B can be obtained by the following equation (1) when the distance Δf from the principal plane γ changes from 0 to the focal length Df.

Figure 2020129773
Figure 2020129773

図12に示すように、距離A,Bの関係から、奥行き制御レンズ94による非線形圧縮特性を求めることができる。図12のグラフでは、横軸が、距離Aを焦点距離Dfで正規化した値を表し、縦軸が、距離Bを焦点距離Dfで正規化した値を表す。 As shown in FIG. 12, the nonlinear compression characteristic of the depth control lens 94 can be obtained from the relationship between the distances A and B. In the graph of FIG. 12, the horizontal axis represents the value obtained by normalizing the distance A with the focal length Df, and the vertical axis shows the value obtained by normalizing the distance B with the focal length Df.

図12のグラフは、奥行き制御レンズ94を基準として、被写体α側で焦点距離Dfの2倍の位置(距離A=2.0)に被写体αの中心が配置されるとき、撮像素子91側で焦点距離Dfの2倍の位置(距離B=2.0)に被写体αの光学像の中心が形成されることを表す。また、図12のグラフは、奥行き制御レンズ94を基準として、被写体α側で焦点距離Dfの3倍の位置(距離A=3.0)に被写体αの中心が配置されるとき、撮像素子91側で焦点距離Dfの1.5倍の位置(距離B=1.5)に被写体αの光学像の中心が形成されることを表す。 In the graph of FIG. 12, when the center of the subject α is located at a position twice the focal length Df (distance A=2.0) on the subject α side with the depth control lens 94 as a reference, the image sensor 91 side This indicates that the center of the optical image of the subject α is formed at a position twice the focal length Df (distance B=2.0). In the graph of FIG. 12, when the center of the subject α is arranged at a position three times the focal length Df on the subject α side (distance A=3.0) with the depth control lens 94 as a reference, the image sensor 91 is arranged. It indicates that the center of the optical image of the subject α is formed at a position 1.5 times the focal length Df (distance B=1.5) on the side.

つまり、被写体αの光学像の表示位置は、奥行き制御レンズ94から撮像用レンズアレイ92までの距離に依存する。これにより、被写体α側で無限大の位置から焦点距離Dfの位置(主平面β)までの範囲(距離A−焦点距離Dfの範囲)は、撮像素子91の側では、焦点距離Dfの位置(主平面γ)から焦点距離Dfの2倍の位置までの範囲に収まる。言い換えるなら、立体画像撮像装置90において、無限大の空間を焦点距離Dfの範囲に圧縮できる。このため、奥行き制御レンズ94の焦点距離Df及び主平面γからの距離Δfを調整することで、立体画像表示装置10で解像度が高い範囲に立体像の奥行きを圧縮できる。 That is, the display position of the optical image of the subject α depends on the distance from the depth control lens 94 to the imaging lens array 92. As a result, the range from the position of infinity to the position of the focal length Df (main plane β) on the subject α side (range of distance A−focal length Df) is the position of the focal length Df on the imaging element 91 side ( It falls within the range from the principal plane γ) to the position twice the focal length Df. In other words, in the stereoscopic image pickup device 90, an infinite space can be compressed to the range of the focal length Df. Therefore, by adjusting the focal length Df of the depth control lens 94 and the distance Δf from the principal plane γ, the depth of the stereoscopic image can be compressed in the high resolution range in the stereoscopic image display device 10.

<軸ずれによる奥行きの圧縮>
図13に示すように、奥行き制御レンズ94から撮像用レンズアレイ92までの距離がL1の場合を考える。この場合、各要素画像内の一番上の画素に入射する光線は、主平面β上の点Pを角度θで通過する。
図14に示すように、奥行き制御レンズ94から撮像用レンズアレイ92までの距離がL2の場合を考える(ここでは、距離L1<距離L2)。この場合、各要素画像内の一番上の画素に入射する光線は、主平面β上で同一点Pを角度φで通過する。なお、角度θ,φは、光線と立体画像撮像装置90の光軸とのなす角である(θ≠φ)。
<Compression of depth due to misalignment>
As shown in FIG. 13, consider a case where the distance from the depth control lens 94 to the imaging lens array 92 is L1. In this case, the light ray incident on the uppermost pixel in each elemental image passes through the point P on the principal plane β at an angle θ.
As shown in FIG. 14, let us consider a case where the distance from the depth control lens 94 to the imaging lens array 92 is L2 (here, distance L1<distance L2). In this case, the light ray incident on the uppermost pixel in each elemental image passes through the same point P on the principal plane β at an angle φ. The angles θ and φ are angles formed by the light beam and the optical axis of the stereoscopic image pickup device 90 (θ≠φ).

ここで、奥行き制御レンズ94から撮像用レンズアレイ92までの距離をL1からL2に変化させた場合、奥行き制御レンズ94を通過後、各要素画像内の一番上の画素に入射する光線の角度θから角度φに変化する。つまり、奥行き制御レンズ94から撮像用レンズアレイ92までの距離L1,L2の変化が角度θ,φの変化として表れ、この角度θ,φの変化に応じて、立体画像撮像装置90の撮影範囲(画角)が変化する。 Here, when the distance from the depth control lens 94 to the image pickup lens array 92 is changed from L1 to L2, the angle of the light beam that is incident on the uppermost pixel in each elemental image after passing through the depth control lens 94. The angle changes from θ to φ. That is, changes in the distances L1 and L2 from the depth control lens 94 to the imaging lens array 92 appear as changes in the angles θ and φ, and the shooting range of the stereoscopic image pickup device 90 (in accordance with the changes in the angles θ and φ). The angle of view) changes.

一方、立体画像表示装置10(図1)は、奥行き制御レンズ94を備えないので、立体画像撮像装置90のような光線の角度変化が発生しない。このため、焦点距離Dfに位置する主平面β上で撮像カメラ21の軸をずらすことで、立体像の奥行きを圧縮できる。 On the other hand, since the stereoscopic image display device 10 (FIG. 1) does not include the depth control lens 94, the angle change of the light beam unlike the stereoscopic image capturing device 90 does not occur. Therefore, the depth of the stereoscopic image can be compressed by shifting the axis of the imaging camera 21 on the main plane β located at the focal length Df.

以上説明した奥行きの圧縮原理をまとめると、以下のとおりである。
立体画像撮像装置90の距離Δfを調整することで立体像の奥行きを圧縮できる。また、立体画像撮像装置90を1台以上の撮像カメラ21で置換できると共に、撮像カメラ21の軸をずらすことで、立体画像撮像装置90で距離Δfを調整したときと同様、立体像の奥行き圧縮の効果が得られる。そして、立体画像表示装置10のパラメータを、立体画像撮像装置90のパラメータとして扱って、撮像カメラ21の軸ずれを計算できる。
The depth compression principle described above is summarized as follows.
By adjusting the distance Δf of the stereoscopic image pickup device 90, the depth of the stereoscopic image can be compressed. Further, the stereoscopic image capturing device 90 can be replaced by one or more image capturing cameras 21, and the axis of the image capturing camera 21 is shifted so that the depth compression of the stereoscopic image is performed as in the case where the distance Δf is adjusted by the stereoscopic image capturing device 90. The effect of is obtained. Then, the parameters of the stereoscopic image display device 10 can be treated as the parameters of the stereoscopic image capturing device 90 to calculate the axis shift of the image capturing camera 21.

ここで、撮像素子21では、各画素が正方配列されているのに対し、表示用レンズアレイ12では、各表示用要素レンズ13がデルタ状に配列されている。このように、撮像側と表示側で配列構造が異なるため、撮像素子21で撮像した被写体画像の各画素を取得する際、以下の各実施形態で説明するような工夫が必要となる。 Here, in the image pickup device 21, the pixels are arranged in a square, whereas in the display lens array 12, the display element lenses 13 are arranged in a delta shape. In this way, since the array structure is different on the image capturing side and the display side, when acquiring each pixel of the subject image captured by the image sensor 21, it is necessary to devise a method described in each of the following embodiments.

(第1実施形態)
[立体画像表示システム]
図15を参照し、本発明の第1実施形態に係る立体画像表示システム(立体画像生成システム)1について説明する。
立体画像表示システム1は、被写体αの立体像を表示するものであり、図15に示すように、立体画像表示装置10と、撮像カメラアレイ20と、立体画像生成装置30と、を備える。
(First embodiment)
[Stereoscopic image display system]
The stereoscopic image display system (stereoscopic image generation system) 1 according to the first embodiment of the present invention will be described with reference to FIG.
The stereoscopic image display system 1 displays a stereoscopic image of the subject α, and includes a stereoscopic image display device 10, an imaging camera array 20, and a stereoscopic image generation device 30, as shown in FIG. 15.

撮像カメラアレイ20は、図16に示すように、複数の撮像カメラ21を配列したものである。具体的には、撮像カメラアレイ20は、要素画像の水平画素数と同数の撮像カメラ21を水平方向に配列し、要素画像の垂直画素数と同数の撮像カメラ21を垂直方向に配列している。なお、図16では、図面を見やすくするため、一部撮像カメラ21の図示を省略した。 The image pickup camera array 20 is an array of a plurality of image pickup cameras 21 as shown in FIG. Specifically, the image pickup camera array 20 has as many image pickup cameras 21 as the number of horizontal pixels of the element image arranged in the horizontal direction, and has as many image pickup cameras 21 as the number of vertical pixels of the element image arranged in the vertical direction. .. Note that in FIG. 16, the illustration of the imaging camera 21 is partially omitted in order to make the drawing easier to see.

撮像カメラアレイ20は、立体画像生成装置30(撮像カメラ制御手段34)からの指令に応じて、各撮像カメラ21の位置(水平方向、垂直方向及び奥行き方向の位置)を変更できる。 The imaging camera array 20 can change the position (position in the horizontal direction, the vertical direction, and the depth direction) of each imaging camera 21 according to a command from the stereoscopic image generation device 30 (imaging camera control unit 34).

図16の例では、撮像カメラアレイ20は、撮像カメラ制御手段34からの指令に応じて、床面に形成されたレールに沿って、奥行き方向に移動する。また、撮像カメラアレイ20は、10台の撮像カメラ21を搭載した昇降部材22を10段備える。各昇降部材22は、撮像カメラ制御手段34からの指令に応じて、2本の支柱23に形成されたレールに沿って垂直方向に移動する。各撮像カメラ21は、撮像カメラ制御手段34からの指令に応じて、昇降部材22に形成されたレールに沿って水平方向に移動する。 In the example of FIG. 16, the imaging camera array 20 moves in the depth direction along a rail formed on the floor surface in response to a command from the imaging camera control unit 34. Further, the image pickup camera array 20 includes 10 stages of elevating members 22 on which 10 image pickup cameras 21 are mounted. Each elevating member 22 moves in the vertical direction along the rail formed on the two columns 23 in response to a command from the imaging camera control means 34. Each imaging camera 21 moves in the horizontal direction along the rail formed on the elevating member 22 in response to a command from the imaging camera control means 34.

撮像カメラ21は、被写体αを撮像し、撮像した画像(被写体画像)を立体画像生成装置30(被写体画像入力手段35)に出力するものである。本実施形態では、100台の撮像カメラ21が、異なる位置から被写体画像を撮像し、被写体画像入力手段35に出力する。 The imaging camera 21 captures the subject α and outputs the captured image (subject image) to the stereoscopic image generation device 30 (subject image input means 35). In the present embodiment, 100 imaging cameras 21 capture subject images from different positions and output them to the subject image input means 35.

ここで、撮像カメラ21は、図17(a)に示すように、撮像素子25と、撮像レンズ27と、を備える。この撮像素子25は、画素数が表示用要素レンズ13の個数以上であり、各画素が正方配列されている。また、撮像カメラ21は、奥行きを圧縮するため、撮像カメラ制御手段34からの指令に応じて、撮像素子25の中心軸と、撮像レンズ27の光軸とをずらすことができる(レンズシフト機能)。この中心軸とは、撮像素子25の中心位置を通過し、撮像素子25の撮像面に垂直になる軸のことである。さらに、撮像カメラ21は、撮像カメラ制御手段34からの指令に応じて、画角を変更できる。 Here, the imaging camera 21 includes an imaging element 25 and an imaging lens 27, as shown in FIG. The number of pixels of the image sensor 25 is equal to or more than the number of the display element lenses 13, and the pixels are arranged in a square. Further, since the image pickup camera 21 compresses the depth, it is possible to shift the central axis of the image pickup element 25 and the optical axis of the image pickup lens 27 in accordance with a command from the image pickup camera control means 34 (lens shift function). .. The central axis is an axis that passes through the center position of the image pickup device 25 and is perpendicular to the image pickup surface of the image pickup device 25. Further, the image pickup camera 21 can change the angle of view according to a command from the image pickup camera control means 34.

図17(a)では、撮像素子25の中心軸及び撮像レンズ27の光軸が一致し、軸ずれしていない。一方、図17(b)では、撮像素子25の中心軸及び撮像レンズ27の光軸が一致せず、軸ずれしている(軸ずれ量dy)。ここで、撮像カメラ21は、軸ずれ量dyに関わらず、撮像素子25の撮像面に対して、撮像レンズ27の光軸が垂直になる。また、撮像カメラ21は、撮像素子25又は撮像レンズ27の何れか一方のみを移動させてもよく、撮像素子25及び撮像レンズ27の両方を移動させてもよい。本実施形態では、撮像素子25を移動させることとした。 In FIG. 17A, the central axis of the image pickup device 25 and the optical axis of the image pickup lens 27 are aligned with each other and are not misaligned. On the other hand, in FIG. 17B, the central axis of the image pickup element 25 and the optical axis of the image pickup lens 27 do not coincide with each other, and the axes are deviated (axis deviation amount dy). Here, in the image pickup camera 21, the optical axis of the image pickup lens 27 is perpendicular to the image pickup surface of the image pickup device 25, regardless of the axis shift amount dy. Further, the image pickup camera 21 may move only one of the image pickup device 25 and the image pickup lens 27, or may move both the image pickup device 25 and the image pickup lens 27. In this embodiment, the image sensor 25 is moved.

[立体画像生成装置の構成]
立体画像生成装置30は、撮像カメラアレイ20が撮像した被写体画像から、立体画像表示装置10が表示する要素画像群を生成するものである。図15に示すように、立体画像生成装置30は、パラメータ入力手段31と、画素位置変換テーブル記憶手段32と、演算手段33と、撮像カメラ制御手段34と、被写体画像入力手段35と、要素画像群生成手段(立体画像生成手段)36と、を備える。
[Configuration of stereoscopic image generation device]
The stereoscopic image generation device 30 generates an element image group displayed by the stereoscopic image display device 10 from a subject image captured by the imaging camera array 20. As shown in FIG. 15, the stereoscopic image generation device 30 includes a parameter input unit 31, a pixel position conversion table storage unit 32, a calculation unit 33, an imaging camera control unit 34, a subject image input unit 35, and an element image. And a group generation means (stereoscopic image generation means) 36.

パラメータ入力手段31は、要素画像群の生成に必要な各種パラメータを入力するものである。例えば、パラメータ入力手段31は、パラメータとして、立体画像表示装置10の仕様及び撮像カメラアレイ20の仕様を入力する。そして、パラメータ入力手段31は、入力したパラメータを演算手段33に出力する。 The parameter input means 31 is for inputting various parameters necessary for generating the element image group. For example, the parameter input unit 31 inputs the specifications of the stereoscopic image display device 10 and the specifications of the imaging camera array 20 as parameters. Then, the parameter input unit 31 outputs the input parameter to the calculation unit 33.

立体画像表示装置10の仕様には、立体画像表示装置10の奥行き最大表示距離と、表示用要素レンズ13の焦点距離と、表示用レンズアレイ12から後方奥行き最大表示位置までの差分距離と、表示素子11のサイズとが含まれる。
撮像カメラアレイ20の仕様には、要素画像の中心画素から計算対象画素までの画素間距離と、撮像素子25のサイズとが含まれる。
The specifications of the stereoscopic image display device 10 include the maximum depth display distance of the stereoscopic image display device 10, the focal length of the display element lens 13, the differential distance from the display lens array 12 to the rear maximum depth display position, and the display. The size of the element 11 is included.
The specifications of the image pickup camera array 20 include the inter-pixel distance from the center pixel of the element image to the calculation target pixel and the size of the image pickup element 25.

画素位置変換テーブル記憶手段32は、画素位置変換テーブルを記憶するメモリ、HDD(Hard Disk Drive)等の記憶装置である。本実施形態では、画素位置変換テーブル記憶手段32は、撮像カメラ21毎の画素位置変換テーブルを記憶する。 The pixel position conversion table storage means 32 is a storage device such as a memory or an HDD (Hard Disk Drive) that stores the pixel position conversion table. In the present embodiment, the pixel position conversion table storage means 32 stores the pixel position conversion table for each imaging camera 21.

なお、画素位置変換テーブルは、画素単位の情報であり、撮像カメラ21で撮像した被写体画像の各画素を、要素画像群を構成する要素画像の各画素に対応付けた情報である。つまり、画素位置変換テーブルは、撮像側と表示側との配列構造の相違を考慮して、被写体画像の各画素を要素画像の各画素に対応付けている。
また、立体画像表示装置10の仕様が変化しない場合、参照可能である。言い換えるなら、画素位置変換テーブルは、立体画像表示装置10の仕様が変化した場合、再度生成する必要がある。この画素位置変換テーブルについては、詳細を後記する。
The pixel position conversion table is information on a pixel-by-pixel basis, and is information in which each pixel of the subject image captured by the imaging camera 21 is associated with each pixel of the element images that form the element image group. That is, in the pixel position conversion table, each pixel of the subject image is associated with each pixel of the element image in consideration of the difference in array structure between the imaging side and the display side.
Further, it can be referred to when the specifications of the stereoscopic image display device 10 do not change. In other words, the pixel position conversion table needs to be regenerated when the specifications of the stereoscopic image display device 10 change. Details of this pixel position conversion table will be described later.

演算手段33は、撮像カメラ制御手段34で必要な各種演算を行うものであり、位置算出手段331と、軸ずれ量算出手段333と、倍率算出手段335と、画角算出手段337と、を備える。 The calculation unit 33 performs various calculations required by the imaging camera control unit 34, and includes a position calculation unit 331, an axis deviation amount calculation unit 333, a magnification calculation unit 335, and an angle of view calculation unit 337. ..

位置算出手段331は、パラメータ入力手段31から入力したパラメータを参照し、奥行き最大表示距離と、表示用要素レンズ13の焦点距離と、画素間距離とに基づいて、撮像カメラアレイ20を構成する撮像カメラ21の位置を算出するものである。 The position calculation unit 331 refers to the parameter input from the parameter input unit 31, and based on the maximum depth display distance, the focal length of the display element lens 13, and the inter-pixel distance, an image forming the image pickup camera array 20. The position of the camera 21 is calculated.

具体的には、位置算出手段331は、下記式(2)を用いて、各撮像カメラ21の垂直方向の位置yを算出する。式(2)では、奥行き最大表示距離がDfであり(単位はメートル)、表示用要素レンズ13の焦点距離がDLAfであり(単位はメートル)、画素間距離がPyである(単位はメートル)。
なお、位置算出手段331は、垂直方向と同様、各撮像カメラ21の水平方向及び奥行き方向の位置も算出する。
Specifically, the position calculation unit 331 calculates the position y in the vertical direction of each imaging camera 21 using the following formula (2). In Expression (2), the maximum depth display distance is Df (unit is meter), the focal length of the display element lens 13 is DLAf (unit is meter), and the inter-pixel distance is Py (unit is meter). ..
It should be noted that the position calculation means 331 calculates the positions of the respective imaging cameras 21 in the horizontal direction and the depth direction, as in the vertical direction.

Figure 2020129773
Figure 2020129773

奥行き最大表示距離Dfとは、立体画像表示装置10が表示用要素レンズ13から奥行き方向に表示可能な最大距離のことである。すなわち、後方奥行き最大表示位置は、奥行き最大表示距離Dfの内、表示用要素レンズ13から後方(図1の表示素子11側)への奥行き最大表示位置となる。
ここで、奥行き最大表示距離Dfは、奥行き制御レンズ94の焦点距離Dfと対応している。例えば、立体画像表示装置10及び立体画像撮像装置90が同一サイズであれば、奥行き最大表示距離Df及び焦点距離Dfの値も同一となる。また、立体画像表示装置10及び立体画像撮像装置90のサイズが異なる場合、奥行き最大表示距離Df及び焦点距離Dfは、そのサイズ比に応じた関係となる(主平面γからの距離Δf及び差分距離Δfも同様)。
The maximum depth display distance Df is the maximum distance that the stereoscopic image display device 10 can display in the depth direction from the display element lens 13. That is, the rear maximum depth display position is the maximum depth display position from the display element lens 13 to the rear (the display element 11 side in FIG. 1) within the maximum depth display distance Df.
Here, the maximum depth display distance Df corresponds to the focal length Df of the depth control lens 94. For example, when the stereoscopic image display device 10 and the stereoscopic image capturing device 90 have the same size, the maximum depth display distance Df and the focal length Df also have the same value. When the sizes of the stereoscopic image display device 10 and the stereoscopic image capturing device 90 are different, the maximum depth display distance Df and the focal length Df have a relationship according to the size ratio (distance Δf from the main plane γ and differential distance. Δf is the same).

画素間距離Pyとは、要素画像群を構成する要素画像の中心画素から各計算対象画素までの距離のことである。撮像カメラ21の台数は要素画像の画素数と同じであり、各撮像カメラ21及び各計算対象画素が1対1で対応する。つまり、式(2)に画素間距離Pyが含まれるので、撮像カメラ21の位置yが異なる。 The inter-pixel distance Py is the distance from the central pixel of the elemental images forming the elemental image group to each pixel to be calculated. The number of imaging cameras 21 is the same as the number of pixels of the elemental images, and each imaging camera 21 and each pixel to be calculated have a one-to-one correspondence. That is, since the inter-pixel distance Py is included in the equation (2), the position y of the imaging camera 21 is different.

軸ずれ量算出手段333は、パラメータ入力手段31から入力したパラメータを参照し、画素間距離と、差分距離と、表示用要素レンズ13の焦点距離と、撮像素子25のサイズと、表示素子11のサイズとに基づいて、各撮像カメラ21の軸ずれ量を算出するものである。 The axis shift amount calculation means 333 refers to the parameter input from the parameter input means 31, and refers to the inter-pixel distance, the difference distance, the focal length of the display element lens 13, the size of the image sensor 25, and the display element 11. The amount of axis deviation of each imaging camera 21 is calculated based on the size.

具体的には、軸ずれ量算出手段333は、下記式(3)を用いて、垂直方向で撮像素子25の軸ずれ量dyを算出する(単位はメートル)。式(3)では、差分距離がΔfであり(単位はメートル)、撮像素子25のサイズがCsであり(単位はメートル)、表示素子11のサイズがDsである(単位は画素)。差分距離Δfは、表示用要素レンズ13から後方奥行き最大表示位置までの距離のことである。ここで、式(3)に画素間距離Pyが含まれるので、撮像カメラ21の軸ずれ量dyが異なる。 Specifically, the axis deviation amount calculating unit 333 calculates the axis deviation amount dy of the image pickup device 25 in the vertical direction using the following formula (3) (unit is meter). In Expression (3), the difference distance is Δf (unit is meter), the size of the image sensor 25 is Cs (unit is meter), and the size of the display element 11 is Ds (unit is pixel). The difference distance Δf is the distance from the display element lens 13 to the maximum rear depth display position. Here, since the inter-pixel distance Py is included in the equation (3), the axial shift amount dy of the imaging camera 21 is different.

Figure 2020129773
Figure 2020129773

倍率算出手段335は、パラメータ入力手段31から入力したパラメータを参照し、奥行き制御レンズ94から仮想レンズアレイ95までの距離Aと、奥行き制御レンズ94から撮像用レンズアレイ92までの距離Bとの比である倍率を算出するものである。 The magnification calculation means 335 refers to the parameter input from the parameter input means 31, and ratios the distance A from the depth control lens 94 to the virtual lens array 95 and the distance B from the depth control lens 94 to the imaging lens array 92. Is calculated.

<倍率の算出>
図10を参照し、倍率mの算出について説明する。
図10に示すように、距離Bは、奥行き最大表示距離Dfと差分距離Δfとの和(合計距離)である。また、距離Aは、撮像用レンズアレイ92より距離Bだけ離れた位置(Z3)から、仮想レンズアレイ95までの距離である。
ここで、撮像素子91の奥行き位置をZ1とし、このZ1を原点とする。また、撮像用レンズアレイ92の奥行き位置をZ2とし、奥行き制御レンズ94の奥行き位置をZ3とする。また、主平面βの奥行き位置をZ4とし、仮想レンズアレイ95の奥行き位置をZ5とする。この場合、奥行き位置Z1〜Z5は、下記の式(4)で表すことができる。
<Calculation of magnification>
Calculation of the magnification m will be described with reference to FIG.
As shown in FIG. 10, the distance B is the sum (total distance) of the maximum depth display distance Df and the difference distance Δf. The distance A is the distance from the position (Z3) separated from the imaging lens array 92 by the distance B to the virtual lens array 95.
Here, the depth position of the image sensor 91 is Z1, and this Z1 is the origin. The depth position of the imaging lens array 92 is Z2, and the depth position of the depth control lens 94 is Z3. Further, the depth position of the principal plane β is Z4, and the depth position of the virtual lens array 95 is Z5. In this case, the depth positions Z1 to Z5 can be expressed by the following equation (4).

Figure 2020129773
Figure 2020129773

被写体αが仮想レンズアレイ95よりも撮像素子91側に位置する状態で要素画像群を撮像した場合を考える。この場合、その要素画像群を表示素子11に表示すると、被写体αが飛び出したような立体像を形成する。
一方、被写体αが仮想レンズアレイ95よりも撮像素子91の反対側に位置する状態で要素画像群を撮像した場合を考える。この場合、その要素画像群を表示素子11に表示すると、被写体αが窪んだような立体像を形成する。
Consider a case where the element image group is imaged in a state where the subject α is located closer to the image sensor 91 than the virtual lens array 95. In this case, when the element image group is displayed on the display element 11, a stereoscopic image in which the subject α is projected is formed.
On the other hand, consider a case where the element image group is imaged in a state where the subject α is located on the opposite side of the image sensor 91 with respect to the virtual lens array 95. In this case, when the element image group is displayed on the display element 11, a stereoscopic image in which the subject α is depressed is formed.

非線形奥行き圧縮特性の光学系では、奥行きの圧縮と同時に被写体αの大きさも変化してしまう。従って、奥行き圧縮前後で被写体αの大きさが変化しないように、被写体αを拡大又は縮小する必要がある。 In an optical system having a nonlinear depth compression characteristic, the size of the subject α changes simultaneously with the depth compression. Therefore, it is necessary to enlarge or reduce the subject α so that the size of the subject α does not change before and after the depth compression.

ここで、仮想レンズアレイ95のサイズは、撮像用レンズアレイ92のサイズに倍率mを乗じた値になる。そして、非線形奥行き圧縮特性の光学系では、被写体αのサイズも仮想レンズアレイ95のサイズに応じて拡大又は縮小する。従って、倍率算出手段335は、下記の式(5)を用いて、距離A、Bの比である倍率mを算出し、算出した倍率mを被写体αのサイズに乗算すれば、仮想レンズアレイ95のレンズ面においては被写体αが奥行き圧縮前と同じ大きさになる。 Here, the size of the virtual lens array 95 is a value obtained by multiplying the size of the imaging lens array 92 by the magnification m. Then, in the optical system having the nonlinear depth compression characteristic, the size of the subject α is also enlarged or reduced according to the size of the virtual lens array 95. Therefore, the magnification calculation means 335 calculates the magnification m, which is the ratio of the distances A and B, using the following equation (5), and multiplies the calculated magnification m by the size of the subject α, so that the virtual lens array 95 is obtained. On the lens surface of, the subject α has the same size as before the depth compression.

Figure 2020129773
Figure 2020129773

画角算出手段337は、パラメータ入力手段31から入力したパラメータを参照し、奥行き最大表示距離Dfと、撮像素子25のサイズCsと、表示素子11のサイズDsとに基づいて、撮像カメラ21の画角を算出するものである。 The angle-of-view calculation unit 337 refers to the parameter input from the parameter input unit 31, and based on the maximum depth display distance Df, the size Cs of the image sensor 25, and the size Ds of the display device 11, the image of the imaging camera 21. The angle is calculated.

具体的には、画角算出手段337は、下記の式(6)を用いて、撮像カメラ21の焦点距離Cfを算出し、この焦点距離Cfから撮像カメラ21の画角を算出する。なお、撮像カメラアレイ20は、全ての撮像カメラ21の焦点距離Cfが同じになる。 Specifically, the angle-of-view calculation unit 337 calculates the focal length Cf of the image pickup camera 21 using the following equation (6), and calculates the angle of view of the image pickup camera 21 from the focal length Cf. In the imaging camera array 20, all imaging cameras 21 have the same focal length Cf.

Figure 2020129773
Figure 2020129773

演算手段33は、制御信号として、算出した撮像カメラ21の位置(垂直方向、水平方向及び奥行き方向の位置)と、軸ずれ量と、倍率と、画角とを撮像カメラ制御手段34に出力する。 The calculating unit 33 outputs the calculated position of the image pickup camera 21 (positions in the vertical direction, the horizontal direction, and the depth direction), the amount of misalignment, the magnification, and the angle of view to the image pickup camera control unit 34 as control signals. ..

撮像カメラ制御手段34は、演算手段33から入力した制御信号に基づいて撮像カメラアレイ20を制御し、撮像カメラアレイ20に被写体画像の撮像を指令するものである。本実施形態では、撮像カメラ制御手段34は、撮像カメラアレイ20を構成する撮像カメラ21毎に制御を行う。 The image capturing camera control unit 34 controls the image capturing camera array 20 based on the control signal input from the calculating unit 33, and instructs the image capturing camera array 20 to capture a subject image. In the present embodiment, the imaging camera control unit 34 controls each imaging camera 21 that constitutes the imaging camera array 20.

具体的には、撮像カメラ制御手段34は、制御信号の位置に各撮像カメラ21を移動させる。
また、撮像カメラ制御手段34は、制御信号の軸ずれ量だけ、各撮像カメラ21の撮像素子25をずらす。さらに、撮像カメラ制御手段34は、制御信号の画角に各撮像カメラ21の画角を一致させる。
このとき、撮像カメラ制御手段34は、被写体αのサイズを変更することが困難、かつ、前記倍率mが1より大きい場合、隣接する撮像カメラ21の間隔及び軸ずれ量が倍率mだけ小さくなるように、各撮像カメラ21の位置を修正する。
Specifically, the imaging camera control means 34 moves each imaging camera 21 to the position of the control signal.
Further, the image pickup camera control means 34 shifts the image pickup element 25 of each image pickup camera 21 by the amount of axis deviation of the control signal. Further, the imaging camera control means 34 matches the angle of view of each imaging camera 21 with the angle of view of the control signal.
At this time, the imaging camera control means 34 makes it difficult to change the size of the subject α, and when the magnification m is larger than 1, the distance between the adjacent imaging cameras 21 and the axial deviation amount are reduced by the magnification m. Then, the position of each imaging camera 21 is corrected.

被写体画像入力手段35は、撮像カメラアレイ20が撮像した被写体画像を入力するものである。本実施形態では、被写体画像入力手段35は、撮像カメラアレイ20を構成する各撮像カメラ21から被写体画像を入力する。そして、被写体画像入力手段35は、各撮像カメラ21からの被写体画像を要素画像群生成手段36に出力する。 The subject image input means 35 is for inputting a subject image captured by the image capturing camera array 20. In the present embodiment, the subject image input means 35 inputs a subject image from each of the image pickup cameras 21 forming the image pickup camera array 20. Then, the subject image input means 35 outputs the subject images from the respective imaging cameras 21 to the element image group generation means 36.

要素画像群生成手段36は、被写体画像入力手段35より入力した被写体画像から要素画像群を生成するものである。本実施形態では、要素画像群生成手段36は、画素位置変換テーブルを参照し、各撮像カメラ21が撮像した被写体画像の画素位置を変換することで、要素画像群を生成する。つまり、要素画像群生成手段36は、撮像側と表示側との配列構造の相違を考慮して、被写体画像の各画素を、要素画像群を構成する要素画像の各画素に割り当てる。 The element image group generation means 36 is for generating an element image group from the subject image input from the subject image input means 35. In the present embodiment, the element image group generation unit 36 refers to the pixel position conversion table and converts the pixel position of the subject image captured by each imaging camera 21 to generate the element image group. That is, the element image group generation means 36 allocates each pixel of the subject image to each pixel of the element images forming the element image group in consideration of the difference in array structure between the imaging side and the display side.

ここで、要素画像群生成手段36は、被写体画像の最上段の各画素を、各要素画像の最下段の各画素に割り当てる。また、要素画像群生成手段36は、被写体画像の上から2段目の各画素を、各要素画像の下から2段目の各画素に割り当てる。さらに、要素画像群生成手段36は、左右方向に関しても同様に反転させて、被写体画像の画素を要素画像の画素に割り当てる。このように、要素画像群生成手段36は、被写体画像の画素を上下左右に反転させて要素画像の画素に割り当てることで、立体像の奥行き反転を防止できる。
その後、要素画像群生成手段36は、生成した要素画像群を立体画像表示装置10に出力する。
Here, the element image group generation means 36 allocates each pixel at the top of the subject image to each pixel at the bottom of each element image. Further, the element image group generation means 36 assigns each pixel in the second row from the top of the subject image to each pixel in the second row from the bottom of each element image. Further, the element image group generation means 36 similarly inverts the horizontal direction as well, and assigns the pixels of the subject image to the pixels of the element image. In this way, the element image group generation unit 36 can prevent the depth inversion of the stereoscopic image by inverting the pixels of the subject image vertically and horizontally and assigning the pixels to the pixels of the element image.
After that, the element image group generation means 36 outputs the generated element image group to the stereoscopic image display device 10.

<画素位置変換テーブルの設定:正方形レンズ>
以下、図18〜図20を参照し、表示用要素レンズ13が正方形レンズの場合において、画素位置変換テーブルの設定を具体的に説明する。
<Setting of pixel position conversion table: Square lens>
The setting of the pixel position conversion table when the display element lens 13 is a square lens will be specifically described below with reference to FIGS. 18 to 20.

図18(a)に示すように、撮像カメラ21の撮像素子25は、画素26が正方配列されており、画素26が水平方向及び垂直方向で整列する。
図18(b)に示すように、立体画像表示装置10の表示用レンズアレイ12は、表示用要素レンズ13がデルタ状に配列されている。水平方向(一方の軸方向)では、隣接する表示用要素レンズ13の位置がずれており、表示用要素レンズ13がジグザグに並んでいる。その一方、垂直方向(他方の軸方向)では、隣接する表示用要素レンズ13が整列する。
従って、デルタ配列された表示用要素レンズ13に合わせて、正方配列された撮像素子25の各画素の画素位置を変換し、図18(c)に示すように、要素画像81がデルタ配列された要素画像群80を生成する必要がある。なお、図面を見やすくするため、要素画像81を太線で図示した。
As shown in FIG. 18A, in the image pickup device 25 of the image pickup camera 21, the pixels 26 are arranged in a square array, and the pixels 26 are aligned in the horizontal direction and the vertical direction.
As shown in FIG. 18B, in the display lens array 12 of the stereoscopic image display device 10, the display element lenses 13 are arranged in a delta shape. In the horizontal direction (one axis direction), the positions of the adjacent display element lenses 13 are displaced, and the display element lenses 13 are arranged in a zigzag. On the other hand, in the vertical direction (the other axial direction), the adjacent display element lenses 13 are aligned.
Therefore, the pixel positions of the respective pixels of the image sensor 25 arranged in a square are converted according to the display element lenses 13 arranged in a delta, and the element images 81 are arranged in a delta as shown in FIG. 18C. It is necessary to generate the element image group 80. Note that the element image 81 is shown by a thick line to make the drawing easy to see.

ここで、表示用要素レンズ13は、図19(a)に示すように、正方形レンズ(例えば、正方形状の凸レンズ)であることとする。また、表示用要素レンズ13は、高さ及び幅が等しければよいので、円形レンズ(例えば、円形状の凸レンズ)であってもよい。
なお、図19(b)の長方形レンズについては後記する。
Here, it is assumed that the display element lens 13 is a square lens (for example, a square convex lens) as shown in FIG. Further, the display element lens 13 may be a circular lens (for example, a circular convex lens) as long as it has the same height and width.
The rectangular lens of FIG. 19B will be described later.

以下、水平方向で表示用要素レンズ13の個数(水平個数)をLwとし、垂直方向で表示用要素レンズ13の個数(垂直個数)をLh個とする。
また、水平方向で要素画像81の画素数(水平画素数)をEIxとし、垂直方向で要素画像81の画素数(垂直画素数)をEIyとする。
また、水平方向で撮像素子25の画素数(水平画素数)をEIsxとし、垂直方向で撮像素子25の画素数(垂直画素数)をEIsxとする。
Hereinafter, the number (horizontal number) of the display element lenses 13 in the horizontal direction is Lw, and the number (vertical number) of the display element lenses 13 in the vertical direction is Lh.
Further, the pixel number (horizontal pixel number) of the element image 81 in the horizontal direction is EIx, and the pixel number (vertical pixel number) of the element image 81 in the vertical direction is EIy.
Further, the number of pixels of the image pickup device 25 in the horizontal direction (horizontal pixel number) is EIsx, and the number of pixels of the image pickup device 25 in the vertical direction (vertical pixel number) is EIsx.

以後、説明を簡単にするため、図20(b)に示すように、要素画像81の水平画素数EIxが2画素であり、要素画像81の垂直画素数EIyが2画素であることとする。従って、撮像カメラ21は、図20(a)に示すように、水平方向で要素画像81の水平画素数EIxと同数の2台、垂直方向で要素画像81の垂直画素数EIxと同数の2台、合計4台となる。なお、図20(a)では、各撮像カメラ21が備える撮像素子25(25〜25)を図示した。 Hereinafter, in order to simplify the explanation, as shown in FIG. 20B, the horizontal pixel number EIx of the element image 81 is 2 pixels, and the vertical pixel number EIy of the element image 81 is 2 pixels. Therefore, as shown in FIG. 20A, the number of the imaging cameras 21 is two, which is the same as the number of horizontal pixels EIx of the element image 81 in the horizontal direction, and two that is the same as the number of vertical pixels EIx of the element image 81 in the vertical direction. , Total 4 units. In FIG. 20 (a), the illustrated imaging element 25 (25 1 to 25 4) for each imaging camera 21 is provided.

また、表示用要素レンズ13の水平個数Lwが4個であり、表示用要素レンズ13の垂直個数Lhが3個であることとする。従って、図20(b)に示すように、要素画像81は、水平方向で表示用要素レンズ13の水平個数Lwと同数の4つ配列され、垂直方向で表示用要素レンズ13の垂直個数Lhと同数の3つ配列されている。 Further, it is assumed that the horizontal number Lw of the display element lenses 13 is four and the vertical number Lh of the display element lenses 13 is three. Therefore, as shown in FIG. 20B, four element images 81 are arranged in the horizontal direction, the same number as the horizontal number Lw of the display element lenses 13 and the vertical number Lh of the display element lenses 13 in the vertical direction. Three of the same number are arranged.

撮像素子25の水平画素数EIsxは、下記式(7)に示すように、表示用要素レンズ13の水平個数Lwと要素画像81の水平画素数EIxとを乗じた値(8画素)になる。また、撮像素子25の垂直画素数EIsyは、表示用要素レンズ13の垂直個数Lhと要素画像81の垂直画素数EIxとを乗じた値(6画素)になる。 The number of horizontal pixels EIsx of the image sensor 25 is a value (8 pixels) obtained by multiplying the number of horizontal pixels Lw of the display element lens 13 by the number of horizontal pixels EIx of the element image 81, as shown in the following formula (7). The vertical pixel number EIsy of the image sensor 25 is a value (6 pixels) obtained by multiplying the vertical number Lh of the display element lens 13 by the vertical pixel number EIx of the element image 81.

Figure 2020129773
Figure 2020129773

この場合、水平方向では、要素画像81の水平画素数EIxを2倍にした間隔(4画素間隔)で撮像素子25の画素を取得するように、画素位置変換テーブルを設定する。また、垂直方向では、要素画像81の垂直画素数EIyに等しい間隔(2画素間)で撮像素子25の画素を取得するように、画素位置変換テーブルを設定する。 In this case, in the horizontal direction, the pixel position conversion table is set so that the pixels of the image sensor 25 are acquired at an interval (4 pixel intervals) obtained by doubling the horizontal pixel number EIx of the element image 81. Further, in the vertical direction, the pixel position conversion table is set so that the pixels of the image sensor 25 are acquired at intervals (between two pixels) equal to the vertical pixel number EIy of the element image 81.

なお、図20(a)に示すように、全ての撮像素子25〜25から取得する画素の位置は同一である。また、撮像素子25の画素と、要素画像81の各画素との対応関係を説明するため、撮像素子25〜25及び要素画像81の各画素にA〜Dの文字を付した。 Incidentally, as shown in FIG. 20 (a), the position of the pixel to be obtained from all of the imaging device 25 1 to 25 4 are the same. Moreover, it subjected to the pixel of the imaging device 25, for explaining the correspondence relationship between each pixel of the element image 81, the characters of A~D to each pixel of the image pickup device 25 1 to 25 4 and the element image 81.

また、画素位置変換テーブルでは、撮像カメラ21の位置関係に応じて、撮像素子25〜25と要素画像81との画素A〜Dを対応づける。具体的には、画素位置変換テーブルでは、左上の撮像素子25の画素Aと、要素画像81の左上の画素Aとを対応づける。また、画素位置変換テーブルでは、右上の撮像素子25の画素Bと、要素画像81の右上の画素Bとを対応づける。また、画素位置変換テーブルでは、左下の撮像素子25の画素Cと、要素画像81の左下の画素Cとを対応づける。また、画素位置変換テーブルでは、右下の撮像素子25の画素Dと、要素画像81の右下の画素Dとを対応づける。 Further, the pixel position conversion table, in accordance with the positional relationship between the imaging camera 21, associating pixels A~D the imaging device 25 1 to 25 4 and the element image 81. Specifically, in the pixel position conversion table associates the pixel A in the upper left of the imaging device 25 1 and a pixel A in the upper left of the element image 81. Further, the pixel position conversion table associates the pixel B in the upper right of the image pickup element 25 2, and the upper right of the pixel of the element image 81 B. Further, the pixel position conversion table associates the pixel C at the lower left of the image pickup device 25 3, a pixel C at the lower left of the element image 81. Further, the pixel position conversion table associates the pixel D of the imaging device 25 4 in the lower right, and a pixel D at the lower right of the element image 81.

ここで、表示用レンズアレイ12がデルタ配列のため、図20(b)に示すように、偶数列の要素画像81EVが、奇数列の要素画像81ODより垂直画素数EIy/2(例えば、1画素)だけ垂直方向にずれている。このため、偶数列の要素画像81EVについては、水平方向では2倍のEIx画素間隔+1画素目で、垂直方向ではEIy画素間隔+EIy/2画素目に位置する撮像素子25の画素26を対応させる。言い換えるなら、撮像素子25では、偶数列の要素画像81EVと奇数列の要素画像81ODとに対応する画素位置が、水平方向でEIx画素/2、垂直方向でEIy画素/2だけずれる。例えば、図20(a)に示すように、奇数列の要素画像81ODには撮像素子25で左上の画素26が対応する。この場合、偶数列の要素画像81EVには、左上の画素26から、水平方向に2画素及び垂直方向に1画素だけ移動した画素26が対応する。 Here, since the display lens array 12 is in the delta arrangement, as shown in FIG. 20B, the element image 81 EV in the even-numbered column is more vertical than the element image 81 OD in the odd-numbered column by the vertical pixel number EIy/2 (for example, It is shifted by 1 pixel) in the vertical direction. Therefore, for the even-numbered element images 81 EV , the pixels 26 of the image sensor 25 located at the double EIx pixel interval+1 pixel in the horizontal direction and the EIy pixel interval+EIy/2 pixel in the vertical direction are associated with each other. .. In other words, in the image sensor 25, the pixel positions corresponding to the element images 81 EV in the even columns and the element images 81 OD in the odd columns are shifted by EIx pixels/2 in the horizontal direction and EIy pixels/2 in the vertical direction. For example, as shown in FIG. 20A, the upper left pixel 26 in the image sensor 25 corresponds to the element image 81 OD in the odd-numbered column. In this case, the element image 81 EV in the even-numbered column corresponds to the pixel 26 that is moved by 2 pixels in the horizontal direction and 1 pixel in the vertical direction from the pixel 26 at the upper left.

なお、奇数列と偶数列で要素画像81の画素位置がずれるため、要素画像81の垂直画素数EIy/2が整数になる場合と小数になる場合で画素位置変換テーブルの設定を変える必要がある。
まず、要素画像81の垂直画素数EIy/2が整数になる場合、前記の手順で画素位置変換テーブルを設定すればよい。
Since the pixel positions of the element image 81 are different between the odd-numbered column and the even-numbered column, it is necessary to change the setting of the pixel position conversion table depending on whether the vertical pixel number EIy/2 of the element image 81 is an integer or a decimal number. ..
First, when the vertical pixel number EIy/2 of the element image 81 is an integer, the pixel position conversion table may be set in the above procedure.

次に、要素画像81の垂直画素数EIy/2が小数になる場合、撮像素子25〜25に1対1で対応する画素が存在しないため、上下の画素の画素値平均を要素画像81の当該画素の画素値として求める。また、上下左右の距離に応じた画素の画素値平均を要素画像81の当該画素の画素値としてもよい。 Next, when the vertical pixel number EIy/2 of the element image 81 becomes a decimal number, there is no pixel corresponding to the image pickup devices 25 1 to 25 4 in a one-to-one manner, and thus the average pixel value of the upper and lower pixels is calculated as the element image 81. Is obtained as the pixel value of the relevant pixel. Further, the average pixel value of pixels according to the vertical and horizontal distances may be used as the pixel value of the pixel of the element image 81.

さらに、要素画像81の垂直画素数EIy/2が小数にならなければ、その問題も生じない。つまり、要素画像81の垂直画素数EIy/2が整数となる条件は、垂直画素数EIyが偶数のときである。そこで、垂直画素数EIyが奇数の場合は、下記式(8)を用いて、撮像素子25の垂直画素数EIsyを定義してもよい。なお、撮像素子25の縦横比を等しくするため、要素画像81の水平画素数EIxも2倍している。 Further, if the vertical pixel number EIy/2 of the element image 81 does not become a decimal number, that problem does not occur. That is, the condition that the vertical pixel number EIy/2 of the element image 81 is an integer is when the vertical pixel number EIy is an even number. Therefore, when the vertical pixel number EIy is an odd number, the vertical pixel number EIsy of the image sensor 25 may be defined by using the following equation (8). Note that the horizontal pixel number EIx of the element image 81 is also doubled in order to make the aspect ratio of the image sensor 25 equal.

Figure 2020129773
Figure 2020129773

以上のように、画素位置変換テーブルを設定し、設定した画素位置変換テーブルを画素位置変換テーブル記憶手段32に予め記憶させておけばよい。なお、表示用要素レンズ13が円形レンズの場合でも、画素位置変換テーブルの設定は同様である。 As described above, the pixel position conversion table may be set, and the set pixel position conversion table may be stored in the pixel position conversion table storage means 32 in advance. Even when the display element lens 13 is a circular lens, the setting of the pixel position conversion table is the same.

<画素位置変換テーブルの設定:長方形レンズ>
以下、図19及び図21を参照し、表示用要素レンズ13が長方形レンズの場合において、画素位置変換テーブルの設定を具体的に説明する。
<Setting of pixel position conversion table: rectangular lens>
Hereinafter, the setting of the pixel position conversion table will be specifically described with reference to FIGS. 19 and 21 when the display element lens 13 is a rectangular lens.

ここで、表示用要素レンズ13は、図19(b)に示すように、長方形レンズ(例えば、長方形の凸レンズ)であることとする。また、表示用要素レンズ13は、高さ及び幅が異なればよいので、ハニカムレンズ(例えば、正六角形状の凸レンズ)であってもよい。なお、正六角形状の表示用要素レンズ13は、幅と高さの比が2:√3である。 Here, it is assumed that the display element lens 13 is a rectangular lens (for example, a rectangular convex lens) as shown in FIG. The display element lens 13 may be a honeycomb lens (for example, a regular hexagonal convex lens) as long as the height and width are different. The regular hexagonal display element lens 13 has a width-height ratio of 2:√3.

説明を簡単にするため、図21(b)に示すように、要素画像81の水平画素数EIxが3画素であり、要素画像81の垂直画素数EIyが2画素であることとする。従って、撮像カメラ21は、図21(a)に示すように、水平方向で要素画像81の水平画素数EIxと同数の3台、垂直方向で要素画像81の垂直画素数EIxと同数の2台、合計6台となる。なお、図21(a)では、各撮像カメラ21が備える6枚の撮像素子25(25〜25)を図示した。 To simplify the explanation, as shown in FIG. 21B, it is assumed that the horizontal pixel number EIx of the element image 81 is 3 pixels and the vertical pixel number EIy of the element image 81 is 2 pixels. Therefore, as shown in FIG. 21A, the number of the imaging cameras 21 is three, which is the same as the number of horizontal pixels EIx of the element image 81 in the horizontal direction, and two that is the same as the number of vertical pixels EIx of the element image 81 in the vertical direction. , Total 6 units. In FIG. 21 (a), the illustrated six of the imaging device 25 to the imaging camera 21 is provided (25 1 to 25 6).

また、表示用要素レンズ13の水平個数Lwが4個であり、表示用要素レンズ13の垂直個数Lhが3個であることとする。従って、図21(b)に示すように、要素画像81は、水平方向で表示用要素レンズ13の水平個数Lwと同数の4つ配列され、垂直方向で表示用要素レンズ13の垂直個数Lhと同数の3つ配列されている。 Further, it is assumed that the horizontal number Lw of the display element lenses 13 is four and the vertical number Lh of the display element lenses 13 is three. Therefore, as shown in FIG. 21B, four element images 81 are arranged in the horizontal direction, the same number as the horizontal number Lw of the display element lenses 13, and the vertical number Lh of the display element lenses 13 in the vertical direction. Three of the same number are arranged.

撮像素子25の水平画素数EIsxは、前記式(7)に示すように、表示用要素レンズ13の水平個数Lwと要素画像81の水平画素数EIxとを乗じた値(12画素)になる。また、撮像素子25の垂直画素数EIsyは、表示用要素レンズ13の垂直個数Lhと要素画像81の垂直画素数EIxとを乗じた値(6画素)になる。 The number of horizontal pixels EIsx of the image pickup device 25 is a value (12 pixels) obtained by multiplying the number of horizontal pixels Lw of the display element lens 13 by the number of horizontal pixels EIx of the element image 81, as shown in the equation (7). The vertical pixel number EIsy of the image sensor 25 is a value (6 pixels) obtained by multiplying the vertical number Lh of the display element lens 13 by the vertical pixel number EIx of the element image 81.

この場合、水平方向では、要素画像81の水平画素数EIxを2倍にした間隔(6画素間隔)で撮像素子25の画素を取得するように、画素位置変換テーブルを設定する。また、垂直方向では、要素画像81の垂直画素数EIyに等しい間隔(2画素間隔)で撮像素子25の画素を取得するように、画素位置変換テーブルを設定する。 In this case, in the horizontal direction, the pixel position conversion table is set so that the pixels of the image sensor 25 are acquired at an interval (6 pixel intervals) obtained by doubling the horizontal pixel number EIx of the element image 81. Further, in the vertical direction, the pixel position conversion table is set so that the pixels of the image sensor 25 are acquired at intervals (two pixel intervals) equal to the vertical pixel number EIy of the element image 81.

なお、図21(a)に示すように、全ての撮像素子25〜25から取得する画素の位置は同一である。また、図21では、撮像素子25と、要素画像81との画素の対応関係を説明するため、撮像素子25〜25及び要素画像81の各画素にA〜Fの文字を付した。 Incidentally, as shown in FIG. 21 (a), the position of the pixel to be obtained from all of the imaging device 25 1 to 25 6 are identical. Further, in FIG. 21, an imaging device 25, for explaining the correspondence between the pixels of the element image 81, denoted by A~F characters to each pixel of the image pickup device 25 1 to 25 6 and the element image 81.

また、画素位置変換テーブルでは、撮像カメラ21の位置関係に応じて、撮像素子25〜25と要素画像81との画素A〜Fを対応づける。具体的には、画素位置変換テーブルでは、左上の撮像素子25の画素Aと、要素画像81の左上の画素Aとを対応づける。また、画素位置変換テーブルでは、中央上の撮像素子25の画素Bと、要素画像81の中央上の画素Bとを対応づける。また、画素位置変換テーブルでは、右上の撮像素子25の画素Cと、要素画像81の右上の画素Cとを対応つける。また、画素位置変換テーブルでは、左下の撮像素子25の画素Dと、要素画像81の左下の画素Dとを対応づける。また、画素位置変換テーブルでは、中央下の撮像素子25の画素Eと、要素画像81の中央下の画素Eとを対応つける。また、画素位置変換テーブルでは、右下の撮像素子25の画素Fと、要素画像81の右下の画素Fとを対応づける。 Further, the pixel position conversion table, in accordance with the positional relationship between the imaging camera 21, associating pixels A~F the imaging device 25 1 to 25 6 and the element image 81. Specifically, in the pixel position conversion table associates the pixel A in the upper left of the imaging device 25 1 and a pixel A in the upper left of the element image 81. Further, the pixel position conversion table associates the pixel B of the imaging device 25 2 on the central and the pixel B on the center of the element image 81. Further, the pixel position conversion table, and associates the pixel C at the top right of the image pickup element 25 3, and a pixel C at the top right of the element image 81. Further, the pixel position conversion table associates the pixel D at the lower left of the image pickup device 25 4, and a pixel D at the lower left of the element image 81. Further, the pixel position conversion table, and a pixel E of the imaging device 25 5 lower center, and a pixel E of the bottom center of the element images 81 and associates. Further, the pixel position conversion table associates the pixel F of the imaging device 25 6 the lower right, and the pixel F in the lower right of the element image 81.

ここで、表示用レンズアレイ12がデルタ配列のため、図21(b)に示すように、偶数列の要素画像81EVが、奇数列の要素画像81ODより垂直画素数EIy/2(例えば、1画素)だけ垂直方向にずれている。このため、撮像素子25では、偶数列の要素画像81EVと奇数列の要素画像81ODとに対応する画素位置が、水平方向にEIx画素/2、垂直方向にEIy画素/2だけ垂直方向にずれる。例えば、図21(a)に示すように、奇数列の要素画像81ODには撮像素子25で左上の画素26が対応する。この場合、偶数列の要素画像81EVには、左上の画素26から、水平方向に3画素及び垂直方向に1画素だけ移動した画素26が対応する。 Here, since the display lens array 12 is in the delta arrangement, as shown in FIG. 21B, the element image 81 EV in the even-numbered column is more vertical than the element image 81 OD in the odd-numbered column by the vertical pixel number EIy/2 (for example, It is shifted by 1 pixel) in the vertical direction. Therefore, in the image sensor 25, the pixel positions corresponding to the element images 81 EV in the even columns and the element images 81 OD in the odd columns are EIx pixels/2 in the horizontal direction and EIy pixels/2 in the vertical direction in the vertical direction. It shifts. For example, as shown in FIG. 21A, the pixel 26 at the upper left of the image sensor 25 corresponds to the element images 81 OD in the odd columns. In this case, the even-numbered element image 81 EV corresponds to the pixel 26 that is moved from the upper left pixel 26 by 3 pixels in the horizontal direction and 1 pixel in the vertical direction.

また、長方形状の表示用要素レンズ13では幅と高さの比が異なるため、要素画像群80の縦横を同じ比率で縮小及び拡大すると、要素画像群80に歪みが生じてしまう。そこで、要素画像群80の縦横を同じ比率で縮小又は拡大することを踏まえて、予め要素画像群80の幅と高さの比を変更しておく。具体的には、表示用要素レンズ13では幅と高さの比に合わせて、要素画像群80が縮小又は拡大されるように、画素位置変換テーブルを設定すればよい。例えば、撮像素子25の水平画素サイズを基準とする場合、撮像素子25の垂直画素サイズを2/3にすればよい。また、撮像素子25の垂直画素サイズを基準とする場合、撮像素子25の水平画素サイズを3/2にすればよい。これにより、要素画像群80の生成に寄与する撮像素子25の画素位置と表示用レンズアレイ12のレンズ位置とが、水平方向及び垂直方向で対応するようになる。
なお、立体画質が向上するため、拡大よりも縮小することが好ましい。
In addition, since the rectangular display element lens 13 has a different width-to-height ratio, if the length and width of the element image group 80 are reduced and expanded at the same ratio, the element image group 80 is distorted. Therefore, the width-height ratio of the element image group 80 is changed in advance in consideration of reducing or enlarging the length and width of the element image group 80 at the same ratio. Specifically, in the display element lens 13, the pixel position conversion table may be set so that the element image group 80 is reduced or enlarged according to the width-height ratio. For example, when the horizontal pixel size of the image sensor 25 is used as a reference, the vertical pixel size of the image sensor 25 may be set to 2/3. When the vertical pixel size of the image sensor 25 is used as a reference, the horizontal pixel size of the image sensor 25 may be set to 3/2. As a result, the pixel position of the image sensor 25 that contributes to the generation of the elemental image group 80 and the lens position of the display lens array 12 correspond to each other in the horizontal direction and the vertical direction.
Note that it is preferable to reduce the size rather than the enlargement because the three-dimensional image quality is improved.

以上のように、画素位置変換テーブルを設定し、設定した画素位置変換テーブルを画素位置変換テーブル記憶手段32に予め記憶させておけばよい。なお、表示用要素レンズ13がハニカムレンズの場合でも、画素位置変換テーブルの設定は同様である。 As described above, the pixel position conversion table may be set, and the set pixel position conversion table may be stored in the pixel position conversion table storage means 32 in advance. Even when the display element lens 13 is a honeycomb lens, the setting of the pixel position conversion table is the same.

[立体画像生成装置の動作]
図22を参照し、立体画像生成装置30の動作について説明する(適宜図15参照)。
ここで、画素位置変換テーブル記憶手段32は、画素位置変換テーブルを予め記憶していることとする。
[Operation of stereoscopic image generation device]
The operation of the stereoscopic image generation device 30 will be described with reference to FIG. 22 (see FIG. 15 as needed).
Here, it is assumed that the pixel position conversion table storage means 32 stores the pixel position conversion table in advance.

図22に示すように、パラメータ入力手段31は、要素画像群80の生成に必要な各種パラメータの入力を受け付ける(ステップS1)。
位置算出手段331は、ステップS1で入力したパラメータを参照し、奥行き最大表示距離と、表示用要素レンズ13の焦点距離と、画素間距離とに基づいて、各撮像カメラ21の位置を算出する(ステップS2)。
As shown in FIG. 22, the parameter input unit 31 receives input of various parameters necessary for generating the element image group 80 (step S1).
The position calculating unit 331 calculates the position of each imaging camera 21 based on the maximum depth display distance, the focal length of the display element lens 13, and the inter-pixel distance by referring to the parameters input in step S1. Step S2).

軸ずれ量算出手段333は、ステップS1で入力したパラメータを参照し、画素間距離と、差分距離と、表示用要素レンズ13の焦点距離と、撮像素子25のサイズと、表示素子11のサイズとに基づいて、撮像レンズ27と撮像素子25との軸ずれ量を算出する(ステップS3)。 The axis shift amount calculation means 333 refers to the parameters input in step S1, and refers to the inter-pixel distance, the difference distance, the focal length of the display element lens 13, the size of the image sensor 25, and the size of the display element 11. The amount of axial deviation between the image pickup lens 27 and the image pickup device 25 is calculated based on the above (step S3).

倍率算出手段335は、ステップS1で入力したパラメータを参照し、奥行き制御レンズ94から撮像用レンズアレイ92までの距離と、奥行き制御レンズ94から仮想レンズアレイ95までの距離との比である倍率を算出する(ステップS4)。 The magnification calculation means 335 refers to the parameter input in step S1 and determines the magnification that is the ratio of the distance from the depth control lens 94 to the imaging lens array 92 and the distance from the depth control lens 94 to the virtual lens array 95. Calculate (step S4).

画角算出手段337は、ステップS1で入力した入力したパラメータを参照し、奥行き最大表示距離と、撮像素子25のサイズと、表示素子11のサイズとに基づいて、各撮像カメラ21の画角を算出する(ステップS5)。 The angle-of-view calculation unit 337 refers to the input parameters input in step S1 and determines the angle of view of each imaging camera 21 based on the maximum depth display distance, the size of the image sensor 25, and the size of the display device 11. Calculate (step S5).

撮像カメラ制御手段34は、ステップS2で算出した位置、ステップS3で算出した軸ずれ量、ステップS4で算出した倍率及びステップS5で算出した画角に基づいて、各撮像カメラ21を制御し、各撮像カメラ21に被写体画像の撮像を指令する(ステップS6)。
被写体画像入力手段35は、ステップS6の指令に応じて各撮像カメラ21が撮像した被写体画像の入力を受け付ける(ステップS7)。
The imaging camera control means 34 controls each imaging camera 21 based on the position calculated in step S2, the amount of axial deviation calculated in step S3, the magnification calculated in step S4, and the angle of view calculated in step S5. The imaging camera 21 is instructed to capture a subject image (step S6).
The subject image input means 35 accepts the input of the subject image captured by each of the image capturing cameras 21 in response to the instruction in step S6 (step S7).

要素画像群生成手段36は、ステップS7で入力した被写体画像から要素画像群80を生成する。ここで、要素画像群生成手段36は、画素位置変換テーブルを参照し、被写体画像の画素位置を変換することで、要素画像群80を生成する(ステップS8)。 The element image group generation means 36 generates an element image group 80 from the subject image input in step S7. Here, the element image group generation unit 36 refers to the pixel position conversion table and converts the pixel position of the subject image to generate the element image group 80 (step S8).

[作用・効果]
以上のように、立体画像表示システム1は、撮像レンズ27と撮像素子25との軸をずらし、立体像の奥行きを圧縮できる。これにより、立体画像表示システム1は、表示用レンズアレイ12がデルタ配列の場合でも、立体画像表示装置10が解像度の高い立体像を表示でき、立体画像の画質を向上させることができる。
[Action/effect]
As described above, the stereoscopic image display system 1 can compress the depth of the stereoscopic image by shifting the axes of the imaging lens 27 and the imaging element 25. Accordingly, in the stereoscopic image display system 1, even when the display lens array 12 is in the delta arrangement, the stereoscopic image display device 10 can display a stereoscopic image with high resolution, and the image quality of the stereoscopic image can be improved.

さらに、立体画像表示システム1は、高解像度のカメラや高密度なレンズアレイを必要とせず、簡易な構成で実現することができる。さらに、立体画像表示システム1は、奥行き制御レンズ94に起因したレンズ歪みが発生せず、より高画質な立体画像を提供することができる。 Further, the stereoscopic image display system 1 does not require a high resolution camera or a high density lens array, and can be realized with a simple configuration. Further, the stereoscopic image display system 1 can provide a higher quality stereoscopic image without causing lens distortion due to the depth control lens 94.

(第2実施形態)
[立体画像表示システム]
図15に戻り、第2実施形態に係る立体画像表示システム1Aについて、第1実施形態と異なる点を説明する。
第1実施形態では、撮像素子25の画素数を、表示用要素レンズ13の個数と要素画像81の画素数とを乗じた値とした。
一方、第2実施形態では、撮像素子25Aの画素数を、表示用要素レンズ13の個数の2倍とした点が、第1実施形態と異なる。
(Second embodiment)
[Stereoscopic image display system]
Returning to FIG. 15, the differences between the stereoscopic image display system 1A according to the second embodiment and the first embodiment will be described.
In the first embodiment, the number of pixels of the image sensor 25 is a value obtained by multiplying the number of display element lenses 13 by the number of pixels of the element image 81.
On the other hand, the second embodiment is different from the first embodiment in that the number of pixels of the image sensor 25A is twice the number of the display element lenses 13.

立体画像表示システム1Aは、被写体αの立体像を表示するものであり、図15に示すように、立体画像表示装置10と、撮像カメラアレイ20Aと、立体画像生成装置30Aと、を備える。
撮像カメラアレイ20Aは、複数の撮像カメラ21Aを配列したものである。撮像カメラ21Aは、撮像素子25Aの画素数以外、第1実施形態と同様のため、これ以上の説明を省略する。
The stereoscopic image display system 1A displays a stereoscopic image of the subject α, and includes a stereoscopic image display device 10, an imaging camera array 20A, and a stereoscopic image generation device 30A, as shown in FIG.
The imaging camera array 20A is an array of a plurality of imaging cameras 21A. The image pickup camera 21A is the same as that of the first embodiment except for the number of pixels of the image pickup element 25A, and therefore further description will be omitted.

[立体画像生成装置の構成]
立体画像生成装置30Aは、撮像カメラアレイ20Aが撮像した被写体画像から、立体画像表示装置10が表示する要素画像群80を生成するものである。図15に示すように、立体画像生成装置30Aは、パラメータ入力手段31と、画素位置変換テーブル記憶手段32Aと、演算手段33と、撮像カメラ制御手段34と、被写体画像入力手段35と、要素画像群生成手段36と、を備える。
なお、画素位置変換テーブル記憶手段32A以外の各手段は、第1実施形態と同様のため、説明を省略する。
[Configuration of stereoscopic image generation device]
The stereoscopic image generation device 30A generates an element image group 80 displayed by the stereoscopic image display device 10 from the subject image captured by the imaging camera array 20A. As shown in FIG. 15, the stereoscopic image generation device 30A includes a parameter input unit 31, a pixel position conversion table storage unit 32A, a calculation unit 33, an imaging camera control unit 34, a subject image input unit 35, and an element image. And a group generation means 36.
Note that each unit other than the pixel position conversion table storage unit 32A is the same as that in the first embodiment, and a description thereof will be omitted.

<画素位置変換テーブルの設定:正方形レンズ>
図23を参照し、表示用要素レンズ13が正方形レンズの場合において、画素位置変換テーブルの設定を具体的に説明する。
ここで、要素画像81の画素数及び表示用要素レンズ13の個数が、図20と同様であることとする。つまり、撮像カメラ21Aの台数及び要素画像81の数も、図20と同様となる。
<Setting of pixel position conversion table: Square lens>
The setting of the pixel position conversion table when the display element lens 13 is a square lens will be specifically described with reference to FIG.
Here, it is assumed that the number of pixels of the element image 81 and the number of display element lenses 13 are the same as those in FIG. That is, the number of imaging cameras 21A and the number of element images 81 are the same as those in FIG.

撮像素子25Aの水平画素数EIsxは、下記式(9)に示すように、表示用要素レンズ13の水平個数Lwを2倍した値(8画素)となる。また、撮像素子25Aの垂直画素数EIsyは、表示用要素レンズ13の垂直個数Lhを2倍した値(6画素)となる。 The horizontal pixel number EIsx of the image pickup device 25A is a value (8 pixels) obtained by doubling the horizontal number Lw of the display element lens 13 as shown in the following expression (9). Further, the vertical pixel number EIsy of the image sensor 25A is a value (6 pixels) obtained by doubling the vertical number Lh of the display element lens 13.

Figure 2020129773
Figure 2020129773

この場合、撮像素子25Aの画素を水平方向で4画素間隔で取得し、垂直方向で2画素間隔で取得するように、画素位置変換テーブルを設定する。 In this case, the pixel position conversion table is set so that the pixels of the image sensor 25A are acquired at intervals of 4 pixels in the horizontal direction and at intervals of 2 pixels in the vertical direction.

なお、画素位置変換テーブルの設定自体は、第1実施形態で説明した図20と同様のため、これ以上の説明を省略する。
また、説明の都合上、図20の撮像素子25と図22の撮像素子25Aの画素数が同数となっている。実際には、要素画像81の画素数が2画素であることは極めてまれであり、図22の撮像素子25Aの方が、図20の撮像素子25よりが画素数が少なくなる。
Note that the setting of the pixel position conversion table itself is the same as that of FIG. 20 described in the first embodiment, so further description will be omitted.
Further, for convenience of explanation, the number of pixels of the image pickup device 25 of FIG. 20 and the number of pixels of the image pickup device 25A of FIG. 22 are the same. In reality, it is extremely rare that the element image 81 has two pixels, and the image sensor 25A in FIG. 22 has a smaller number of pixels than the image sensor 25 in FIG.

<画素位置変換テーブルの設定:長方形レンズ>
以下、図24を参照し、表示用要素レンズ13が長方形レンズの場合において、画素位置変換テーブルの設定を具体的に説明する。
ここで、要素画像81の画素数及び表示用要素レンズ13の個数が、図21と同様であることとする。つまり、撮像カメラ21Aの台数及び要素画像81の数も、図21と同様となる。
<Setting of pixel position conversion table: rectangular lens>
Hereinafter, the setting of the pixel position conversion table when the display element lens 13 is a rectangular lens will be specifically described with reference to FIG.
Here, it is assumed that the number of pixels of the element image 81 and the number of display element lenses 13 are the same as those in FIG. That is, the number of imaging cameras 21A and the number of element images 81 are the same as those in FIG.

撮像素子25Aの水平画素数EIsxは、前記式(9)に示すように、表示用要素レンズ13の水平個数Lwを2倍した値(8画素)となる。また、撮像素子25Aの垂直画素数EIsyは、表示用要素レンズ13の垂直個数Lhを2倍した値(6画素)となる。 The horizontal pixel number EIsx of the image pickup device 25A is a value (8 pixels) obtained by doubling the horizontal number Lw of the display element lens 13 as shown in the equation (9). Further, the vertical pixel number EIsy of the image sensor 25A is a value (6 pixels) obtained by doubling the vertical number Lh of the display element lens 13.

この場合、撮像素子25Aの画素を水平方向で4画素間隔で取得し、垂直方向で2画素間隔で取得するように、画素位置変換テーブルを設定する。 In this case, the pixel position conversion table is set so that the pixels of the image sensor 25A are acquired at intervals of 4 pixels in the horizontal direction and at intervals of 2 pixels in the vertical direction.

なお、画素位置変換テーブルの設定自体は、第1実施形態で説明した図21と同様のため、これ以上の説明を省略する。
また、立体画像生成装置30Aの動作は、第1実施形態と同様のため、説明を省略する。
Note that the setting itself of the pixel position conversion table is the same as that of FIG. 21 described in the first embodiment, and therefore further description is omitted.
Further, the operation of the stereoscopic image generation device 30A is similar to that of the first embodiment, and thus the description thereof will be omitted.

[作用・効果]
以上のように、立体画像表示システム1Aは、第1実施形態と同様の効果に加え、撮像カメラ21Aの画素数を低減できるので、構成を簡素化することができる。
[Action/effect]
As described above, since the stereoscopic image display system 1A can reduce the number of pixels of the imaging camera 21A in addition to the same effect as the first embodiment, the configuration can be simplified.

(第3実施形態)
[立体画像表示システム]
図15に戻り、第3実施形態に係る立体画像表示システム1Bについて、第2実施形態と異なる点を説明する。
第2実施形態では、水平方向及び垂直方向の両方で、撮像素子25Aの画素数を、表示用要素レンズ13の個数の2倍とした。
一方、第3実施形態では、垂直方向のみ、撮像素子25Bの画素数を、表示用要素レンズ13の個数の2倍とした点が、第2実施形態と異なる。
(Third Embodiment)
[Stereoscopic image display system]
Returning to FIG. 15, the differences between the stereoscopic image display system 1B according to the third embodiment and the second embodiment will be described.
In the second embodiment, the number of pixels of the image sensor 25A is twice the number of the display element lenses 13 in both the horizontal and vertical directions.
On the other hand, the third embodiment is different from the second embodiment in that the number of pixels of the image sensor 25B is twice the number of the display element lenses 13 only in the vertical direction.

立体画像表示システム1Bは、被写体αの立体像を表示するものであり、図15に示すように、立体画像表示装置10と、撮像カメラアレイ20Bと、立体画像生成装置30Bと、を備える。
撮像カメラアレイ20Bは、複数の撮像カメラ21Bを配列したものである。撮像カメラ21Bは、撮像素子25Bの画素数以外、第2実施形態と同様のため、これ以上の説明を省略する。
The stereoscopic image display system 1B displays a stereoscopic image of the subject α, and includes a stereoscopic image display device 10, an imaging camera array 20B, and a stereoscopic image generation device 30B, as shown in FIG.
The imaging camera array 20B is an array of a plurality of imaging cameras 21B. The image pickup camera 21B is the same as that of the second embodiment except for the number of pixels of the image pickup element 25B, and therefore further description will be omitted.

[立体画像生成装置の構成]
立体画像生成装置30Bは、撮像カメラアレイ20Bが撮像した被写体画像から、立体画像表示装置10が表示する要素画像群80を生成するものである。図15に示すように、立体画像生成装置30Bは、パラメータ入力手段31と、画素位置変換テーブル記憶手段32Bと、演算手段33と、撮像カメラ制御手段34と、被写体画像入力手段35と、要素画像群生成手段36と、を備える。
なお、画素位置変換テーブル記憶手段32B以外の各手段は、第2実施形態と同様のため、説明を省略する。
[Configuration of stereoscopic image generation device]
The stereoscopic image generation device 30B generates the element image group 80 displayed by the stereoscopic image display device 10 from the subject image captured by the imaging camera array 20B. As shown in FIG. 15, the stereoscopic image generation device 30B includes a parameter input unit 31, a pixel position conversion table storage unit 32B, a calculation unit 33, an imaging camera control unit 34, a subject image input unit 35, and an element image. And a group generation means 36.
Note that each unit other than the pixel position conversion table storage unit 32B is the same as that in the second embodiment, and therefore its explanation is omitted.

<画素位置変換テーブルの設定:正方形レンズ>
図25を参照し、表示用要素レンズ13が正方形レンズの場合において、画素位置変換テーブルの設定を具体的に説明する。
ここで、要素画像81の画素数及び表示用要素レンズ13の個数が、図20(b)と同様であることとする。つまり、撮像カメラ21Bの台数及び要素画像81の数も、図20(b)と同様となる。
<Setting of pixel position conversion table: Square lens>
The setting of the pixel position conversion table when the display element lens 13 is a square lens will be specifically described with reference to FIG.
Here, it is assumed that the number of pixels of the element image 81 and the number of display element lenses 13 are the same as those in FIG. That is, the number of imaging cameras 21B and the number of element images 81 are the same as those in FIG.

撮像素子25Bの水平画素数EIsxは、下記式(10)に示すように、表示用要素レンズ13の水平個数Lwと同数(4画素)となる。また、撮像素子25Bの垂直画素数EIsyは、表示用要素レンズ13の垂直個数Lhを2倍した値(6画素)となる。 The horizontal pixel number EIsx of the image sensor 25B is the same as the horizontal number Lw (4 pixels) of the display element lens 13 as shown in the following expression (10). Further, the vertical pixel number EIsy of the image sensor 25B is a value (6 pixels) obtained by doubling the vertical number Lh of the display element lens 13.

Figure 2020129773
Figure 2020129773

この場合、水平方向及び垂直方向において、撮像素子25Bの画素を2画素間隔で取得するように、画素位置変換テーブルを設定する。すなわち、「サイコロの5の目」状に撮像素子25Bの画素を取得するように、画素位置変換テーブルを設定する。
なお、画素位置変換テーブルの設定自体は、第2実施形態と同様のため、これ以上の説明を省略する。
In this case, the pixel position conversion table is set so that the pixels of the image sensor 25B are acquired at intervals of two pixels in the horizontal and vertical directions. That is, the pixel position conversion table is set so that the pixels of the image sensor 25B are acquired in a "fifth die roll" shape.
Note that the setting of the pixel position conversion table itself is the same as in the second embodiment, so further description is omitted.

<画素位置変換テーブルの設定:長方形レンズ>
以下、図26を参照し、表示用要素レンズ13が長方形レンズの場合において、画素位置変換テーブルの設定を具体的に説明する。
<Setting of pixel position conversion table: rectangular lens>
The setting of the pixel position conversion table when the display element lens 13 is a rectangular lens will be specifically described below with reference to FIG.

図19(b)に示すように、縦横比が異なる表示用要素レンズ13に対し、図26(a)に示すように、撮像素子25Bの各画素の縦横比は等しくなる。このため、水平方向において、撮像素子25Bの画素間隔が表示用要素レンズ13のレンズ間隔と同じ比率にならない。このため、水平方向において、撮像素子25Bの画素間隔を変える必要がある。 As shown in FIG. 19B, the display element lenses 13 having different aspect ratios have the same aspect ratio of each pixel of the image sensor 25B as shown in FIG. 26A. Therefore, in the horizontal direction, the pixel spacing of the image sensor 25B does not have the same ratio as the lens spacing of the display element lens 13. Therefore, it is necessary to change the pixel interval of the image sensor 25B in the horizontal direction.

具体的には、図26(a)の撮像素子25Bの垂直画素サイズShを基準とする場合、図26(b)に示すように、撮像素子25Bの水平画素サイズSwを2倍にすればよい。また、図26(a)の撮像素子25Bの水平画素サイズSwを基準とする場合、図26(c)に示すように、撮像素子25Bの垂直画素サイズShを1/2にすればよい。
なお、立体画像生成装置30Bの動作は、第2実施形態と同様のため、説明を省略する。
Specifically, when the vertical pixel size Sh of the image sensor 25B in FIG. 26A is used as a reference, the horizontal pixel size Sw of the image sensor 25B may be doubled as shown in FIG. 26B. .. Further, when the horizontal pixel size Sw of the image sensor 25B in FIG. 26A is used as a reference, the vertical pixel size Sh of the image sensor 25B may be halved as shown in FIG. 26C.
Note that the operation of the stereoscopic image generation device 30B is the same as that of the second embodiment, so description thereof will be omitted.

[作用・効果]
以上のように、立体画像表示システム1Bは、第2実施形態と同様の効果に加え、撮像カメラ21Aの画素数をより低減できるので、構成をさらに簡素化することができる。
[Action/effect]
As described above, in the stereoscopic image display system 1B, in addition to the effects similar to the second embodiment, the number of pixels of the imaging camera 21A can be further reduced, so that the configuration can be further simplified.

(第4実施形態)
[立体画像表示システム]
図15に戻り、第4実施形態に係る立体画像表示システム1Cについて、第1実施形態と異なる点を説明する。
第4実施形態では、撮像カメラ21Cが、斜め方向に半画素ずれるように配置された2枚の撮像素子25Cを備える点が、第1実施形態と異なる。
(Fourth Embodiment)
[Stereoscopic image display system]
Returning to FIG. 15, the differences between the stereoscopic image display system 1C according to the fourth embodiment and the first embodiment will be described.
The fourth embodiment is different from the first embodiment in that the image pickup camera 21C includes two image pickup elements 25C arranged so as to be shifted by half a pixel in the diagonal direction.

立体画像表示システム1Cは、被写体αの立体像を表示するものであり、図15に示すように、立体画像表示装置10と、撮像カメラアレイ20Cと、立体画像生成装置30Cと、を備える。
撮像カメラアレイ20Cは、複数の撮像カメラ21Cを配列したものである。撮像カメラ21Cは、2枚の撮像素子25Bを備えること以外、第1実施形態と同様のため、これ以上の説明を省略する。なお、プリズムやハーフミラーを用いることで、2枚の撮像素子25Bを半画素ずれるように配置できる。
The stereoscopic image display system 1C displays a stereoscopic image of the subject α, and includes a stereoscopic image display device 10, an imaging camera array 20C, and a stereoscopic image generation device 30C, as shown in FIG.
The imaging camera array 20C is an array of a plurality of imaging cameras 21C. The image pickup camera 21C is the same as that of the first embodiment except that the image pickup camera 21C is provided with two image pickup elements 25B, and therefore further description will be omitted. Note that by using a prism or a half mirror, the two image pickup devices 25B can be arranged so as to be shifted by half a pixel.

[立体画像生成装置の構成]
立体画像生成装置30Cは、撮像カメラアレイ20Cが撮像した被写体画像から、立体画像表示装置10が表示する要素画像群80を生成するものである。図15に示すように、立体画像生成装置30Cは、パラメータ入力手段31と、画素位置変換テーブル記憶手段32Cと、演算手段33と、撮像カメラ制御手段34と、被写体画像入力手段35と、要素画像群生成手段36と、を備える。
なお、画素位置変換テーブル記憶手段32C以外の各手段は、第1実施形態と同様のため、説明を省略する。
また、立体画像生成装置30Cの動作は、第1実施形態と同様のため、説明を省略する。
[Configuration of stereoscopic image generation device]
The stereoscopic image generation device 30C generates an element image group 80 displayed by the stereoscopic image display device 10 from a subject image captured by the imaging camera array 20C. As shown in FIG. 15, the stereoscopic image generation device 30C includes a parameter input unit 31, a pixel position conversion table storage unit 32C, a calculation unit 33, an imaging camera control unit 34, a subject image input unit 35, and an element image. And a group generation means 36.
Note that each unit other than the pixel position conversion table storage unit 32C is the same as that in the first embodiment, and a description thereof will be omitted.
Further, the operation of the stereoscopic image generation device 30C is similar to that of the first embodiment, and thus the description thereof is omitted.

<画素位置変換テーブルの設定:正方形レンズ>
図27を参照し、表示用要素レンズ13が正方形レンズの場合において、画素位置変換テーブルの設定を具体的に説明する。
ここで、要素画像81の画素数及び表示用要素レンズ13の個数が、図20と同様であることとする。つまり、撮像カメラ21Aの台数及び要素画像81の数も、図20と同様となる。
<Setting of pixel position conversion table: Square lens>
The setting of the pixel position conversion table in the case where the display element lens 13 is a square lens will be specifically described with reference to FIG.
Here, it is assumed that the number of pixels of the element image 81 and the number of display element lenses 13 are the same as those in FIG. That is, the number of imaging cameras 21A and the number of element images 81 are the same as those in FIG.

各撮像カメラ21Cは、2枚の撮像素子25C(25C11〜25C42)を備える。つまり、1台目の撮像カメラ21Cが撮像素子25C11,25C12を備え、2台目の撮像カメラ21Cが撮像素子25C21,25C22を備える(3台目及び4台目の撮像カメラ21Cも同様)。
各撮像カメラ21Cにおいて、2枚の撮像素子25Cは、互いの画素位置が斜め方向に半画素だけずれるように配置されている。つまり、ペアとなる2枚の撮像素子25Cは、水平方向及び垂直方向に半画素分ずれている。
Each imaging camera 21C is provided with two imaging devices 25C (25C 11 ~25C 42). That is, the first image pickup camera 21C includes the image pickup devices 25C 11 and 25C 12 , and the second image pickup camera 21C includes the image pickup devices 25C 21 and 25C 22 (also the third and fourth image pickup cameras 21C are included). As well).
In each of the image pickup cameras 21C, the two image pickup elements 25C are arranged such that the pixel positions thereof are diagonally displaced from each other by half a pixel. That is, the two image pickup devices 25C forming a pair are displaced by half a pixel in the horizontal and vertical directions.

撮像素子25Cの水平画素数EIsxは、1枚あたり、表示用要素レンズ13の水平個数Lwの1/2(2画素)となる。つまり、2枚の撮像素子25Cの水平画素数EIsxを合計すると、表示用要素レンズ13の水平個数Lwに等しくなる。また、撮像素子25Bの垂直画素数EIsyは、1枚あたり、表示用要素レンズ13の垂直個数Lhと同数(3画素)になる。 The horizontal pixel number EIsx of the image pickup device 25C is 1/2 (2 pixels) of the horizontal number Lw of the display element lenses 13 per one sheet. That is, when the horizontal pixel number EIsx of the two image pickup devices 25C is summed up, it becomes equal to the horizontal number Lw of the display element lenses 13. Further, the vertical pixel number EIsy of the image pickup device 25B is the same number (3 pixels) as the vertical number Lh of the display element lens 13 per one sheet.

ここで、図27(a)に示すように、撮像素子25Cの垂直画素サイズShを基準とする場合、撮像素子25Cの水平画素サイズSwを2倍にすればよい。また、図27(b)に示すように、撮像素子25Cの水平画素サイズSwを基準とする場合、撮像素子25Cの垂直画素サイズShを1/2にすればよい。 Here, as shown in FIG. 27A, when the vertical pixel size Sh of the image sensor 25C is used as a reference, the horizontal pixel size Sw of the image sensor 25C may be doubled. Further, as shown in FIG. 27B, when the horizontal pixel size Sw of the image sensor 25C is used as a reference, the vertical pixel size Sh of the image sensor 25C may be halved.

この場合、画素位置変換テーブルでは、各撮像カメラ21Cの位置関係と、ペアとなる2枚の撮像素子25Cの位置関係とに応じて、2枚の撮像カメラ21Cの画素が交互に対応するように、画素位置変換テーブルを設定する。 In this case, in the pixel position conversion table, the pixels of the two image pickup cameras 21C are arranged to alternately correspond to each other according to the positional relation of the respective image pickup cameras 21C and the positional relation of the two image pickup elements 25C forming a pair. , Pixel position conversion table is set.

なお、図27(c)及び図27(d)では、撮像素子25Cと要素画像81との画素の対応関係を説明するため、撮像素子25C及び要素画像81の各画素にA1〜D2の文字を付した。1台目の撮像カメラ21Cにおいて、ペアとなる2枚の撮像素子25C11,25C12の画素には、それぞれA1,A2の文字を付した。また、2台目の撮像カメラ21Cにおいて、ペアとなる2枚の撮像素子25C21,25C22の画素には、それぞれB1,B2の文字を付した(3台目及び4台目の撮像カメラ21Cも同様)。 27(c) and 27(d), in order to describe the correspondence between the pixels of the image sensor 25C and the element image 81, the characters A1 to D2 are added to the pixels of the image sensor 25C and the element image 81. Attached. In the first image pickup camera 21C, the characters A1 and A2 are attached to the pixels of the two image pickup elements 25C 11 and 25C 12 that form a pair, respectively. Further, in the second unit of the imaging camera 21C, the two pixels of the image sensor 25C 21, 25C 22 in the pair, denoted by B1, B2 letter respectively (third car and four second imaging camera 21C The same).

具体的には、1枚目の撮像素子25C11,25C21,25C31,25C41と、奇数列の要素画像81ODとの画素A1,B1,C1,D1が対応する。また、2枚目の撮像素子25C12,25C22,25C32,25C42と、偶数列の要素画像81EVとの画素A2,B2,C2,D2が対応する。 Specifically, the pixels A1, B1, C1, D1 of the first image pickup device 25C 11 , 25C 21 , 25C 31 , 25C 41 and the element image 81 OD of the odd number column correspond to each other. Further, a second sheet of the imaging device 25C 12, 25C 22, 25C 32 , 25C 42, the pixel A2 between the even column of the element images 81 EV, B2, C2, D2 correspond.

まず、奇数列の要素画像81ODについて説明する。画素位置変換テーブルでは、左上の撮像カメラ21Cで1枚目の撮像素子25C11の画素A1と、要素画像81ODの左上の画素A1とを対応づける。また、画素位置変換テーブルでは、右上の撮像カメラ21Cで1枚目の撮像素子25C21の画素B1と、要素画像81ODの右上の画素B1とを対応づける。また、画素位置変換テーブルでは、左下の撮像カメラ21Cで1枚目の撮像素子25C31の画素C1と、要素画像81ODの左下の画素C1とを対応づける。また、画素位置変換テーブルでは、右下の撮像カメラ21Cで1枚目の撮像素子25C41の画素D1と、要素画像81の右下の画素D1ODとを対応づける。 First, the element images 81 OD in odd columns will be described. In the pixel position conversion table, the pixel A1 of the first image pickup device 25C 11 in the upper left image pickup camera 21C is associated with the upper left pixel A1 of the element image 81 OD . Further, in the pixel position conversion table, the pixel B1 of the first image pickup device 25C 21 of the upper right image pickup camera 21C and the upper right pixel B1 of the element image 81 OD are associated with each other. Further, the pixel position conversion table associates the pixel C1 of the first sheet of the imaging device 25C 31 at the lower left of the image pickup camera 21C, and a lower left pixel C1 element image 81 OD. Further, in the pixel position conversion table, the pixel D1 of the first image sensor 25C 41 in the lower right imaging camera 21C and the lower right pixel D1 OD of the element image 81 are associated with each other.

次に、偶数列の要素画像81EVについて説明する。画素位置変換テーブルでは、左上の撮像カメラ21Cで2枚目の撮像素子25C12の画素A2と、要素画像81EVの左上の画素A2とを対応づける。また、画素位置変換テーブルでは、右上の撮像カメラ21Cで2枚目の撮像素子25C22の画素B2と、要素画像81EVの右上の画素B2とを対応づける。また、画素位置変換テーブルでは、左下の撮像カメラ21Cで2枚目の撮像素子25C32の画素C2と、要素画像81EVの左下の画素C2とを対応づける。また、画素位置変換テーブルでは、右下の撮像カメラ21Cで2枚目の撮像素子25C42の画素D2と、要素画像81EVの右下の画素D2とを対応づける。 Next, the even-numbered element images 81 EV will be described. The pixel position conversion table associates the pixel A2 of the imaging device 25C 12 of the second sheet in the upper left of the imaging camera 21C, the pixel A2 in the upper left of the element image 81 EV. Further, the pixel position conversion table associates the pixel B2 at the top right of the image pickup camera 21C with the second sheet of the imaging device 25C 22, the pixel B2 at the top right of the element image 81 EV. Further, in the pixel position conversion table, the pixel C2 of the second image sensor 25C 32 in the lower left imaging camera 21C is associated with the lower left pixel C2 of the element image 81 EV . Further, in the pixel position conversion table, the pixel D2 of the second image sensor 25C 42 in the lower right imaging camera 21C is associated with the lower right pixel D2 of the element image 81 EV .

[作用・効果]
以上のように、立体画像表示システム1Cは、第1実施形態と同様、表示用レンズアレイ12がデルタ配列の場合でも、立体画像の画質を向上させることができる。
[Action/effect]
As described above, the stereoscopic image display system 1C can improve the image quality of the stereoscopic image even when the display lens array 12 is the delta array, as in the first embodiment.

(第5実施形態)
図28を参照し、本発明の第5実施形態に係る立体画像表示システム1Dについて、第1実施形態と異なる点を説明する。
第1実施形態では、撮像カメラアレイ20の実写画像を処理対象とするのに対して、第5実施形態では、仮想的な撮像カメラアレイ(仮想カメラアレイ)のCG画像を処理対象とする点が異なる。
(Fifth Embodiment)
With reference to FIG. 28, the difference between the stereoscopic image display system 1D according to the fifth embodiment of the present invention and the first embodiment will be described.
In the first embodiment, a real image of the imaging camera array 20 is processed, whereas in the fifth embodiment, a CG image of a virtual imaging camera array (virtual camera array) is processed. different.

仮想カメラアレイとは、仮想的な撮像カメラ(仮想カメラ)を2次元状に配列したものである。
仮想カメラとは、被写体αの3次元モデルを配置した3次元空間内での視点位置及び視点方向や画角等を設定するときの基準である。つまり、CGでは、仮想カメラで被写体αを撮像したような要素画像群80を生成する。なお、各仮想カメラは、第1実施形態で説明した撮像カメラ21(図21)を3次元の仮想空間内に配置したものであるため、これ以上の説明を省略する。
The virtual camera array is a two-dimensional array of virtual imaging cameras (virtual cameras).
The virtual camera is a reference for setting the viewpoint position, the viewpoint direction, the angle of view, etc. in the three-dimensional space in which the three-dimensional model of the subject α is arranged. That is, the CG generates the element image group 80 that looks like the subject α is captured by the virtual camera. Since each virtual camera is the imaging camera 21 (FIG. 21) described in the first embodiment arranged in a three-dimensional virtual space, further description is omitted.

[立体画像生成装置の構成]
立体画像表示システム1Dは、被写体αの立体画像を表示するものであり、図28に示すように、立体画像表示装置10と、立体画像生成装置30Dと、を備える。
立体画像生成装置30Dは、仮想カメラアレイが撮像した被写体画像から、立体画像表示装置10が表示する要素画像群80を生成するものである。
[Configuration of stereoscopic image generation device]
The stereoscopic image display system 1D displays a stereoscopic image of the subject α, and includes a stereoscopic image display device 10 and a stereoscopic image generation device 30D as shown in FIG. 28.
The stereoscopic image generation device 30D generates the element image group 80 displayed by the stereoscopic image display device 10 from the subject image captured by the virtual camera array.

図28に示すように、立体画像生成装置30Dは、パラメータ入力手段31と、画素位置変換テーブル記憶手段32と、演算手段33と、仮想カメラ設定手段(撮像カメラ制御手段)34Dと、要素画像群生成手段(立体画像生成手段)36Dと、3次元モデル入力手段37とを備える。
なお、仮想カメラ設定手段34D、要素画像群生成手段36D及び3次元モデル入力手段37以外は、第1実施形態と同様のため、説明を省略する。
As shown in FIG. 28, the stereoscopic image generation device 30D includes a parameter input unit 31, a pixel position conversion table storage unit 32, a calculation unit 33, a virtual camera setting unit (imaging camera control unit) 34D, and an element image group. It includes a generation unit (stereoscopic image generation unit) 36D and a three-dimensional model input unit 37.
Note that, except for the virtual camera setting unit 34D, the element image group generation unit 36D, and the three-dimensional model input unit 37, the description is omitted because it is the same as the first embodiment.

仮想カメラ設定手段34Dは、演算手段33から入力した制御信号に基づいて仮想的な撮像カメラ(仮想カメラ)を設定するものである。
具体的には、仮想カメラ設定手段34Dは、仮想3次元空間において、制御信号の位置に各仮想カメラを配置する。また、仮想カメラ設定手段34Dは、制御信号の軸ずれ量だけ、各仮想カメラの撮像素子と撮像レンズとをずらして設定する。また、仮想カメラ設定手段34Dは、制御信号の画角に一致するように各仮想カメラの画角を設定する。
The virtual camera setting means 34D sets a virtual imaging camera (virtual camera) based on the control signal input from the calculating means 33.
Specifically, the virtual camera setting means 34D arranges each virtual camera at the position of the control signal in the virtual three-dimensional space. Further, the virtual camera setting unit 34D sets the image pickup element and the image pickup lens of each virtual camera by shifting by the amount of the axis deviation of the control signal. Further, the virtual camera setting means 34D sets the view angle of each virtual camera so as to match the view angle of the control signal.

要素画像群生成手段36Dは、仮想カメラ設定手段34Dが設定した仮想カメラアレイを介して被写体画像を生成し、被写体画像から要素画像群80を生成するものである。
具体的には、要素画像群生成手段36Dは、各仮想カメラを配置した仮想3次元空間内に、後記する3次元モデル入力手段37から入力した3次元モデルを配置する。ここで、要素画像群生成手段36Dは、仮想レンズアレイのレンズ面において、奥行き圧縮前後で被写体の大きさが変化しないように、3次元モデルのサイズを倍率mだけ拡大又は縮小する。そして、要素画像群生成手段36Dは、各仮想カメラで3次元モデルを撮像することで、被写体画像を生成する。さらに、要素画像群生成手段36Dは、第1実施形態と同様の画素位置変換テーブルを参照し、被写体画像の画素位置を変換することで、要素画像群80を生成する。
The element image group generation means 36D generates a subject image via the virtual camera array set by the virtual camera setting means 34D, and generates an element image group 80 from the subject image.
Specifically, the element image group generation unit 36D arranges the three-dimensional model input from the three-dimensional model input unit 37 described below in the virtual three-dimensional space in which the virtual cameras are arranged. Here, the element image group generation unit 36D enlarges or reduces the size of the three-dimensional model by the magnification m so that the size of the subject does not change before and after the depth compression on the lens surface of the virtual lens array. Then, the element image group generation unit 36D generates a subject image by capturing the three-dimensional model with each virtual camera. Further, the element image group generation unit 36D generates the element image group 80 by referring to the pixel position conversion table similar to that of the first embodiment and converting the pixel position of the subject image.

3次元モデル入力手段37は、被写体の3次元形状及び色情報を表した3次元モデルを入力し、入力した3次元モデルを要素画像群生成手段37Dに出力するものである。
3次元モデルの生成手法は、特に制限されないが、例えば、ポリゴン等にテクスチャマッピングを施すことで生成できる。
The three-dimensional model input means 37 inputs a three-dimensional model representing the three-dimensional shape and color information of the subject, and outputs the input three-dimensional model to the element image group generation means 37D.
The method for generating the three-dimensional model is not particularly limited, but can be generated by performing texture mapping on polygons or the like.

[立体画像生成装置の動作]
図29を参照し、立体画像生成装置30Dの動作について説明する。
ここで、画素位置変換テーブル記憶手段32Dは、画素位置変換テーブルを予め記憶していることとする。
なお、ステップS1〜S5の処理は、第1実施形態と同様のため、説明を省略する。
[Operation of stereoscopic image generation device]
The operation of the stereoscopic image generation device 30D will be described with reference to FIG.
Here, it is assumed that the pixel position conversion table storage unit 32D stores the pixel position conversion table in advance.
Note that the processing of steps S1 to S5 is the same as that of the first embodiment, and thus the description thereof is omitted.

仮想カメラ設定手段34Dは、制御信号に基づいて仮想的な撮像カメラ(仮想カメラ)を設定する(ステップS10)。
3次元モデル入力手段37は、被写体の3次元形状及び色情報を表した3次元モデルの入力を受け付ける(ステップS11)。
要素画像群生成手段36Dは、ステップS10で設定した仮想カメラを介して、ステップS11で入力した3次元モデルの被写体画像を生成し、被写体画像から要素画像群80を生成する(ステップS12)。
The virtual camera setting means 34D sets a virtual imaging camera (virtual camera) based on the control signal (step S10).
The three-dimensional model input means 37 receives input of a three-dimensional model representing the three-dimensional shape and color information of the subject (step S11).
The element image group generation unit 36D generates the subject image of the three-dimensional model input in step S11 via the virtual camera set in step S10, and generates the element image group 80 from the subject image (step S12).

[作用・効果]
以上のように、立体画像生成装置30Dは、CGにより被写体画像を生成する場合でも、第1実施形態と同様の効果を奏する。これにより、立体画像生成装置30Dは、表示用レンズアレイ12がデルタ配列の場合でも、立体画像表示装置10が解像度の高い立体像を表示可能となり、立体画像の画質を向上させることができる。
[Action/effect]
As described above, the stereoscopic image generation device 30D has the same effect as that of the first embodiment even when the subject image is generated by CG. As a result, in the stereoscopic image generation device 30D, even when the display lens array 12 is in the delta arrangement, the stereoscopic image display device 10 can display a stereoscopic image with high resolution, and the image quality of the stereoscopic image can be improved.

なお、本実施形態では、立体画像生成装置30Dを第1実施形態に適用することとして説明したが、立体画像生成装置30Dは、第2実施形態〜第4実施形態の何れにも適用することができる。 In the present embodiment, the stereoscopic image generation device 30D has been described as being applied to the first embodiment, but the stereoscopic image generation device 30D may be applied to any of the second to fourth embodiments. it can.

(第6実施形態)
[立体画像表示システム]
図15を参照し、本発明の第6実施形態に係る立体画像表示システム1Eについて、第1実施形態と異なる点を説明する。
第1実施形態では、撮像レンズ27と撮像素子25との軸をずらすのに対し(図17)、第6実施形態では、軸ずれ量dyに応じた画素位置の画素を被写体画像から取得する点が異なる。
(Sixth Embodiment)
[Stereoscopic image display system]
With reference to FIG. 15, a stereoscopic image display system 1E according to a sixth embodiment of the present invention will be described regarding differences from the first embodiment.
In the first embodiment, the axes of the image pickup lens 27 and the image pickup device 25 are displaced from each other (FIG. 17), whereas in the sixth embodiment, the pixel at the pixel position corresponding to the axis deviation amount dy is acquired from the subject image. Is different.

立体画像表示システム1Eは、被写体αの立体像を表示するものであり、図15に示すように、立体画像表示装置10と、撮像カメラアレイ20Eと、立体画像生成装置30Eと、を備える。
撮像カメラアレイ20Eは、複数の撮像カメラ21E(図30)を配列したものである。撮像カメラ21Eは、レンズシフト機能を備えない以外、第1実施形態と同様のため、これ以上の説明を省略する。
The stereoscopic image display system 1E displays a stereoscopic image of the subject α, and includes a stereoscopic image display device 10, an imaging camera array 20E, and a stereoscopic image generation device 30E, as shown in FIG.
The imaging camera array 20E is an array of a plurality of imaging cameras 21E (FIG. 30). The imaging camera 21E is the same as that of the first embodiment except that it does not have a lens shift function, and therefore further description is omitted.

[立体画像生成装置の構成]
立体画像生成装置30Eは、撮像カメラアレイ20Eが撮像した被写体画像から、立体画像表示装置10が表示する要素画像群80を生成するものである。図15に示すように、立体画像生成装置30Eは、パラメータ入力手段31と、画素位置変換テーブル記憶手段32Cと、演算手段33と、撮像カメラ制御手段34と、被写体画像入力手段35と、要素画像群生成手段36Eと、を備える。
なお、要素画像群生成手段36E以外の各手段は、第1実施形態と同様のため、説明を省略する。
[Configuration of stereoscopic image generation device]
The stereoscopic image generation device 30E is for generating an element image group 80 displayed by the stereoscopic image display device 10 from a subject image captured by the imaging camera array 20E. As shown in FIG. 15, the stereoscopic image generation device 30E includes a parameter input unit 31, a pixel position conversion table storage unit 32C, a calculation unit 33, an imaging camera control unit 34, a subject image input unit 35, and an element image. And a group generation means 36E.
Note that each unit other than the element image group generation unit 36E is the same as that in the first embodiment, and a description thereof will be omitted.

要素画像群生成手段36Eは、被写体画像入力手段35より入力した被写体画像から要素画像群を生成するものである。このとき、要素画像群生成手段36Eは、各被写体画像から、軸ずれ量算出手段333で算出した軸ずれ量dyに応じた画素位置の画素値を取得する。 The element image group generation means 36E is for generating an element image group from the subject image input from the subject image input means 35. At this time, the element image group generation unit 36E acquires the pixel value of the pixel position corresponding to the axial deviation amount dy calculated by the axial deviation amount calculation unit 333 from each subject image.

<軸ずれ量に応じた画素位置の画素値の取得手法>
図30を参照し、軸ずれ量dyに応じた画素位置の画素値の取得手法について説明する。
最初に、図30(a)に示すように、軸ずれがない場合を考える(軸ずれ量dy=0)。この場合、要素画像群生成手段36Eは、被写体画像29から、撮像素子25の中心位置を基準として所定サイズの画像領域29を切り出す。つまり、要素画像群生成手段36Eは、撮像素子25の中心位置が被写体画像29の中心位置に対応するので、被写体画像29の中心位置を基準として画像領域29を切り出す。
<Pixel value acquisition method at pixel position according to the amount of misalignment>
With reference to FIG. 30, a method of acquiring the pixel value of the pixel position according to the axis deviation amount dy will be described.
First, as shown in FIG. 30A, consider a case where there is no axis deviation (axis deviation amount dy=0). In this case, the element image group generation means 36E cuts out the image area 29 1 of a predetermined size from the subject image 29 with the center position of the image sensor 25 as a reference. That is, the element image group generation unit 36E, the center position of the image pickup element 25 because it corresponds to the center position of the object image 29, cuts out the image area 29 1 relative to the center position of the subject image 29.

なお、画像領域29は、軸ずれ量dyを考慮して、被写体画像29に収まるサイズで予め設定する。従って、撮像素子25のサイズ(画素数)は、軸ずれ量dyを考慮して、画像領域29よりも大きくする。 Note that the image area 29 1, taking into account the amount of axial deviation dy, preset size to fit in the subject image 29. Therefore, the size (the number of pixels) of the image pickup device 25 is set larger than that of the image region 29 1 in consideration of the axis deviation amount dy.

次に、図30(b)に示すように、軸ずれがある場合を考える。この場合、要素画像群生成手段36Eは、被写体画像29から、撮像素子25の中心から軸ずれ量dyだけ移動した位置を基準として、画像領域29を切り出す。つまり、要素画像群生成手段36Eは、被写体画像29の中心から軸ずれ量dyずれた位置を基準として、画像領域29を切り出す。 Next, as shown in FIG. 30(b), consider the case where there is an axis deviation. In this case, the element image group generation means 36E cuts out the image area 29 1 from the subject image 29 with reference to the position moved from the center of the image sensor 25 by the amount of axial deviation dy. That is, the element image group generation unit 36E cuts out the image region 29 1 with the position offset from the center of the subject image 29 as the axial shift amount dy.

このように、要素画像群生成手段36Eは、撮像素子25の中心から軸ずれ量dyだけ外れた画素位置の画素値を取得することで、撮像レンズ27の光軸と撮像素子25の中心軸とをずらすのと同等の処理を行っている。 In this way, the element image group generation unit 36E obtains the pixel value of the pixel position deviated from the center of the image pickup device 25 by the amount of axial deviation dy, so that the optical axis of the image pickup lens 27 and the central axis of the image pickup device 25 are The same process as shifting is performed.

その後、要素画像群生成手段36Eは、切り出した画像領域29を被写体画像として用いて、要素画像群を生成する。この要素画像群を生成する手法自体は、第1実施形態と同様のため、説明を省略する。 After that, the element image group generation means 36E uses the cut-out image area 29 1 as a subject image to generate an element image group. The method itself for generating this element image group is the same as that in the first embodiment, and therefore its explanation is omitted.

[作用・効果]
以上のように、立体画像生成装置30Eは、被写体画像から取得する画素位置を軸ずれ量dyに応じてずらすことで、第1実施形態と同様の効果を奏する。これにより、立体画像生成装置30Eは、立体画像表示装置10が解像度の高い立体像を表示可能となり、立体画像の画質を向上させることができる。
[Action/effect]
As described above, the stereoscopic image generation device 30E achieves the same effect as that of the first embodiment by shifting the pixel position acquired from the subject image according to the amount of axial deviation dy. As a result, in the stereoscopic image generation device 30E, the stereoscopic image display device 10 can display a stereoscopic image with high resolution, and the image quality of the stereoscopic image can be improved.

なお、本実施形態では、立体画像生成装置30Eを第1実施形態に適用することとして説明したが、立体画像生成装置30Eは、第2実施形態〜第5実施形態の何れにも適用することができる。 Note that, in the present embodiment, the stereoscopic image generation device 30E has been described as being applied to the first embodiment, but the stereoscopic image generation device 30E can be applied to any of the second to fifth embodiments. it can.

(変形例)
以上、本発明の各実施形態を詳述してきたが、本発明は前記した各実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更等も含まれる。
(Modification)
Although the respective embodiments of the present invention have been described above in detail, the present invention is not limited to the above-described embodiments, and includes design changes and the like within a range not departing from the gist of the present invention.

前記した各実施形態では、一方の軸方向を水平方向とし、もう一方の軸方向を垂直方向として説明したが、逆でもよい。つまり、隣接する表示用要素レンズの位置が、垂直方向でずれており、水平方向で整列していてもよい。この場合、要素画像群における各要素画像の配列も、表示用要素レンズの配列に合わせる。 In each of the above-described embodiments, one axial direction is described as a horizontal direction and the other axial direction is described as a vertical direction, but they may be reversed. That is, the positions of the adjacent display element lenses may be shifted in the vertical direction and aligned in the horizontal direction. In this case, the arrangement of each element image in the element image group is also adjusted to the arrangement of the display element lenses.

立体画像表示装置の表示素子の各画素が色ごとに水平方向にストライプ状に配置されている場合を考える。この場合、色ずれを抑制するためには、撮像カメラアレイの水平方向の間隔を3分の1にし、水平方向の軸ずれ量を3分の1にし、水平方向で撮像カメラの台数を3倍にし、色ごとに撮像カメラを割り当てればよい。そして、色ごとに隣り合うカメラからの画素情報から補間することで、色ずれを抑制することができる。例えば、立体画像表示装置の表示素子の各画素内において、赤・緑・青の順番にストライプ状に配置されているRGBストライプ構造であり、緑画素の値をそのまま用いる場合、赤色と青色の画素値を計算する必要がある。赤色画素は、左隣の画素の赤色の画素値と求めようとする赤色画素の最初の画素値から再計算した補間値を利用し、青色画素は、右隣の画素の青色の画素値と求めようとする青色画素の最初の画素値から再計算した補間値を利用すればよい。具体的には、赤色の画素値を算出する場合、求めようとする赤色の画素値の最初の値をv1、左隣の赤色の画素値をv0とした場合、新しい赤色の画素値v1’は、下記式で求められる。
v1’=(v1×2/3)+(v0×1/3)
Consider a case where each pixel of the display element of the stereoscopic image display device is arranged in stripes in the horizontal direction for each color. In this case, in order to suppress color misregistration, the horizontal interval of the image pickup camera array is set to 1/3, the horizontal axis shift amount is set to 1/3, and the number of image pickup cameras in the horizontal direction is tripled. Then, an imaging camera may be assigned for each color. Then, the color shift can be suppressed by interpolating for each color from the pixel information from the adjacent cameras. For example, in each pixel of a display element of a stereoscopic image display device, an RGB stripe structure in which red, green, and blue are arranged in a stripe pattern in order, and when the value of the green pixel is used as it is, the red and blue pixels are used. You need to calculate the value. The red pixel uses the interpolated value recalculated from the first pixel value of the red pixel to be calculated as the red pixel value of the adjacent pixel on the left, and the blue pixel is calculated as the blue pixel value of the adjacent pixel on the right. The interpolated value recalculated from the first pixel value of the desired blue pixel may be used. Specifically, when the red pixel value is calculated, if the initial value of the red pixel value to be obtained is v1 and the left adjacent red pixel value is v0, the new red pixel value v1′ is , Is calculated by the following formula.
v1′=(v1×2/3)+(v0×1/3)

前記した補間の手法では、十分な効果が得られない場合もある。そこで、水平方向のカメラ台数を3倍にした場合の画素位置変換テーブルについて説明する。前記した画素位置変換テーブルでは、色ごとにサンプリングすることを考慮していないため、撮像・表示の各画素に対応する変換テーブルであった。例えば、RGBストライプ構造の表示素子に一致させるために、RGBの各色に対応した3つの画素位置変換テーブルが必要になる。そこで、撮像カメラアレイの水平方向の間隔を3分の1にし、水平方向の軸ずれ量を3分の1にし、水平方向の台数を3倍にした場合、1つの画素位置変換テーブルで変換する方法について説明する。具体的には、水平方向に3倍の台数のカメラアレイをR用、G用、B用カメラとして順番に割り当てる。ここで、G用カメラに割り当てた撮像カメラアレイが前記した撮像カメラアレイと同じ配置であるとする。このG用カメラの両隣のR用カメラ及びB用カメラのデータをG用カメラのRデータ及びBデータとして差し替える。これによって、G用カメラに割り当てた撮像カメラアレイには、RGBストライプ構造の表示素子の色位置に一致するデータを保持していることになるため、前記画素位置変換テーブルをRGBのそれぞれに適用することで、色ずれのない画素位置変換ができる。この方法によれば、RGBのそれぞれに対応した画素位置変換テーブルを用意する必要がなく、G用カメラが取得した画像を補間するデータ領域にあるR用データ領域、B用データ領域のアドレスをそれぞれR用カメラ及びB用カメラのデータ領域を参照して差し替えるだけであり、高速処理が可能になるという利点がある。 In some cases, the above-mentioned interpolation method may not provide a sufficient effect. Therefore, a pixel position conversion table when the number of cameras in the horizontal direction is tripled will be described. Since the pixel position conversion table described above does not consider sampling for each color, it is a conversion table corresponding to each pixel of imaging/display. For example, three pixel position conversion tables corresponding to RGB colors are required in order to match the display elements with the RGB stripe structure. Therefore, when the horizontal interval of the image pickup camera array is set to 1/3, the horizontal axis shift amount is set to 1/3, and the number of units in the horizontal direction is tripled, conversion is performed by one pixel position conversion table. The method will be described. Specifically, three times as many camera arrays in the horizontal direction are sequentially assigned as R, G, and B cameras. Here, it is assumed that the image pickup camera array assigned to the G camera has the same arrangement as the above-mentioned image pickup camera array. The data of the R and B cameras on both sides of the G camera are replaced with the R and B data of the G camera. As a result, since the image pickup camera array assigned to the G camera holds data that matches the color position of the display element having the RGB stripe structure, the pixel position conversion table is applied to each of RGB. As a result, pixel position conversion without color misregistration can be performed. According to this method, it is not necessary to prepare a pixel position conversion table corresponding to each of RGB, and the addresses of the R data area and the B data area in the data area for interpolating the image acquired by the G camera are respectively set. The data areas of the R camera and the B camera are simply referred to and replaced, and there is an advantage that high-speed processing becomes possible.

前記した各実施形態では、光学素子アレイが表示用要素レンズ等の光学素子を2次元に配列した表示用レンズアレイであることとして説明したが、本発明は、これに限定されない。例えば、光学素子アレイは、要素レンズを1次元に配列したレンズアレイであってもよい。また、光学素子アレイは、かまぼこ型の要素レンズ(レンチキュラーレンズ)を1次元に配列したレンチキュラーレンズアレイであってもよい。さらに、光学素子アレイは、ピンホールを1次元又は2次元に配列したピンホールアレイであってもよい。さらに、本発明は、IP方式だけでなく、視差バリア方式にも適用できる。 In each of the above-described embodiments, the optical element array is described as a display lens array in which optical elements such as display element lenses are two-dimensionally arranged, but the present invention is not limited to this. For example, the optical element array may be a lens array in which element lenses are one-dimensionally arranged. Further, the optical element array may be a lenticular lens array in which kamaboko-shaped element lenses (lenticular lenses) are one-dimensionally arranged. Further, the optical element array may be a pinhole array in which pinholes are arranged one-dimensionally or two-dimensionally. Furthermore, the present invention can be applied not only to the IP method but also to the parallax barrier method.

各撮像カメラで撮像した被写体画像と、要素画像群を構成する要素画像の各画素とが1対1で対応する場合、被写体画像の画素数と要素画像の数とが等しくなる。一方、被写体画像の画素数が要素画像の数よりも多くなる場合、オーバーサンプリングになる。この場合、取得する光線の光線幅が狭くなると共に、高い周波数までサンプリング可能となる。また、画素の有効径が小さくなるため、実写の場合であれば感度が下がることになるが、CGでは感度を考慮する必要がない。つまり、オーバーサンプリングした被写体画像から所望の光線に最も近い画素を取得、画素位置の変換を行うことで、画素サイズによる精度の低下を抑えることができる。 When the subject image captured by each imaging camera and each pixel of the element images forming the element image group have a one-to-one correspondence, the number of pixels of the subject image is equal to the number of element images. On the other hand, when the number of pixels of the subject image exceeds the number of element images, oversampling is performed. In this case, the ray width of the ray to be acquired is narrowed and it is possible to sample up to a high frequency. Further, since the effective diameter of the pixel becomes small, the sensitivity is lowered in the case of actual shooting, but it is not necessary to consider the sensitivity in CG. That is, by obtaining the pixel closest to the desired light ray from the oversampled subject image and converting the pixel position, it is possible to suppress a decrease in accuracy due to the pixel size.

前記した各実施形態では、立体画像生成装置を独立したハードウェアとして説明したが、本発明は、これに限定されない。例えば、本発明は、コンピュータが備えるCPU、メモリ、ハードディスク等のハードウェア資源を、前記した立体画像生成装置として協調動作させるプログラムで実現することもできる。これらのプログラムは、通信回線を介して配布してもよく、CD−ROMやフラッシュメモリ等の記録媒体に書き込んで配布してもよい。 In each of the above-described embodiments, the stereoscopic image generation device has been described as independent hardware, but the present invention is not limited to this. For example, the present invention can also be realized by a program that causes hardware resources such as a CPU, a memory, and a hard disk included in a computer to cooperate with each other as the stereoscopic image generation device described above. These programs may be distributed via a communication line, or may be distributed by being written in a recording medium such as a CD-ROM or a flash memory.

1,1A〜1E 立体画像表示システム
10 立体画像表示装置
11 表示素子
12 表示用レンズアレイ(光学素子アレイ)
13 表示用要素レンズ(光学素子)
20,20A〜20C,20E 撮像カメラアレイ
21,21A〜21E 撮像カメラ
22 昇降部材
23 支柱
25,25A〜25C 撮像素子
26 画素
27 撮像レンズ
30,30A〜30E 立体画像生成装置
31 パラメータ入力手段
32,32A〜32D 画素位置変換テーブル記憶手段
33 演算手段
331 位置算出手段
333 軸ずれ量算出手段
335 倍率算出手段
337 画角算出手段
34 撮像カメラ制御手段
34D 仮想カメラ設定手段(撮像カメラ制御手段)
35 被写体画像入力手段
36,36D,36E 要素画像群生成手段(立体画像生成手段)
37 3次元モデル入力手段
80 要素画像群
81 要素画像
90 立体画像撮像装置
91 撮像素子
92 撮像用レンズアレイ
93 撮像用要素レンズ
94 奥行き制御レンズ
95 仮想レンズアレイ
1, 1A to 1E Stereoscopic image display system 10 Stereoscopic image display device 11 Display element 12 Display lens array (optical element array)
13 Display element lens (optical element)
20, 20A to 20C, 20E Imaging camera array 21, 21A to 21E Imaging camera 22 Elevating member 23 Supports 25, 25A to 25C Imaging device 26 Pixel 27 Imaging lens 30, 30A to 30E Stereoscopic image generation device 31 Parameter input means 32, 32A 32D Pixel position conversion table storage means 33 Calculation means 331 Position calculation means 333 Axis deviation amount calculation means 335 Magnification calculation means 337 Field angle calculation means 34 Imaging camera control means 34D Virtual camera setting means (imaging camera control means)
35 subject image input means 36, 36D, 36E element image group generation means (stereoscopic image generation means)
37 3D model input means 80 Element image group 81 Element image 90 Stereoscopic image pickup device 91 Image pickup element 92 Image pickup lens array 93 Image pickup element lens 94 Depth control lens 95 Virtual lens array

Claims (11)

撮像素子の各画素が正方配列された撮像カメラからなる撮像カメラアレイと、
表示素子及び複数の光学素子をデルタ状に配列した光学素子アレイを備える立体画像表示装置の奥行きに応じて、前記立体画像表示装置が表示する要素画像群を生成する立体画像生成装置と、備える立体画像生成システムであって、
前記撮像カメラは、前記撮像素子の画素数が前記光学素子の個数以上であり、
前記立体画像生成装置が、
前記立体画像表示装置の奥行き最大表示距離と、前記光学素子の焦点距離と、前記要素画像群を構成する要素画像の中心画素から前記撮像カメラ毎の計算対象画素までの画素間距離と、前記光学素子アレイから後方奥行き最大表示位置までの差分距離と、前記撮像カメラが備える撮像素子のサイズと、前記表示素子のサイズとを入力するパラメータ入力手段と、
前記奥行き最大表示距離と、前記光学素子の焦点距離と、前記画素間距離とに基づいて、前記撮像カメラの位置を算出する位置算出手段と、
前記画素間距離と、前記差分距離と、前記光学素子の焦点距離と、前記撮像素子のサイズと、前記表示素子のサイズとに基づいて、前記撮像カメラが備える撮像レンズと前記撮像素子との軸ずれ量を算出する軸ずれ量算出手段と、
前記位置算出手段が算出した位置に前記撮像カメラを移動させ、前記軸ずれ量算出手段が算出した軸ずれ量だけ前記撮像レンズと前記撮像素子とをずらす撮像カメラ制御手段と、
前記撮像カメラアレイが撮像した被写体画像から、前記要素画像がデルタ状に配列された要素画像群を生成する立体画像生成手段と、
を備えることを特徴とする立体画像生成システム。
An image pickup camera array including an image pickup camera in which each pixel of the image pickup element is squarely arranged,
A stereoscopic image generation device that generates an element image group to be displayed by the stereoscopic image display device according to the depth of the stereoscopic image display device that includes a display element and an optical element array in which a plurality of optical elements are arranged in a delta shape, and a stereoscopic image including the stereoscopic image generation device. An image generation system,
In the image pickup camera, the number of pixels of the image pickup element is equal to or more than the number of the optical elements,
The stereoscopic image generation device,
The maximum depth display distance of the stereoscopic image display device, the focal length of the optical element, the inter-pixel distance from the central pixel of the elemental images forming the elemental image group to the calculation target pixel of each of the imaging cameras, and the optical Parameter input means for inputting a differential distance from the element array to the maximum rear depth display position, the size of the image pickup device included in the image pickup camera, and the size of the display device,
Position calculating means for calculating the position of the imaging camera based on the maximum depth display distance, the focal length of the optical element, and the inter-pixel distance;
Based on the inter-pixel distance, the difference distance, the focal length of the optical element, the size of the image pickup element, and the size of the display element, the axes of the image pickup lens and the image pickup element included in the image pickup camera. Axis deviation amount calculating means for calculating the deviation amount,
An imaging camera control unit that moves the imaging camera to the position calculated by the position calculation unit and shifts the imaging lens and the image sensor by the axial displacement amount calculated by the axial displacement amount calculation unit,
A stereoscopic image generation unit that generates an element image group in which the element images are arranged in a delta shape from a subject image captured by the imaging camera array;
A stereoscopic image generation system comprising:
撮像素子の各画素が正方配列された撮像カメラからなる撮像カメラアレイと、
表示素子及び複数の光学素子をデルタ状に配列した光学素子アレイを備える立体画像表示装置の奥行きに応じて、前記立体画像表示装置が表示する要素画像群を生成する立体画像生成装置と、備える立体画像生成システムであって、
前記撮像カメラは、前記撮像素子の画素数が前記光学素子の個数以上であり、
前記立体画像生成装置が、
前記立体画像表示装置の奥行き最大表示距離と、前記光学素子の焦点距離と、前記要素画像群を構成する要素画像の中心画素から前記撮像カメラ毎の計算対象画素までの画素間距離と、前記光学素子アレイから後方奥行き最大表示位置までの差分距離と、前記撮像カメラが備える撮像素子のサイズと、前記表示素子のサイズとを入力するパラメータ入力手段と、
前記奥行き最大表示距離と、前記光学素子の焦点距離と、前記画素間距離とに基づいて、前記撮像カメラの位置を算出する位置算出手段と、
前記画素間距離と、前記差分距離と、前記光学素子の焦点距離と、前記撮像素子のサイズと、前記表示素子のサイズとに基づいて、前記撮像カメラが備える撮像レンズと前記撮像素子との軸ずれ量を算出する軸ずれ量算出手段と、
前記位置算出手段が算出した位置に前記撮像カメラを移動させる撮像カメラ制御手段と、
前記撮像カメラアレイが撮像した被写体画像から前記軸ずれ量に応じた画素位置の画素値を取得し、前記要素画像がデルタ状に配列された要素画像群を生成する立体画像生成手段と、
を備えることを特徴とする立体画像生成システム。
An image pickup camera array including an image pickup camera in which each pixel of the image pickup element is squarely arranged,
A stereoscopic image generation device that generates an element image group to be displayed by the stereoscopic image display device according to the depth of the stereoscopic image display device that includes a display element and an optical element array in which a plurality of optical elements are arranged in a delta shape, and a stereoscopic image including the stereoscopic image generation device. An image generation system,
In the image pickup camera, the number of pixels of the image pickup element is equal to or more than the number of the optical elements,
The stereoscopic image generation device,
The maximum depth display distance of the stereoscopic image display device, the focal length of the optical element, the inter-pixel distance from the central pixel of the elemental images forming the elemental image group to the calculation target pixel of each of the imaging cameras, and the optical Parameter input means for inputting a differential distance from the element array to the maximum rear depth display position, the size of the image pickup device included in the image pickup camera, and the size of the display device,
Position calculating means for calculating the position of the imaging camera based on the maximum depth display distance, the focal length of the optical element, and the inter-pixel distance;
Based on the inter-pixel distance, the difference distance, the focal length of the optical element, the size of the image pickup element, and the size of the display element, the axes of the image pickup lens and the image pickup element included in the image pickup camera. Axis deviation amount calculating means for calculating the deviation amount,
Imaging camera control means for moving the imaging camera to the position calculated by the position calculation means,
A stereoscopic image generating unit that acquires a pixel value of a pixel position corresponding to the amount of axis deviation from a subject image captured by the imaging camera array, and generates an element image group in which the element images are arranged in a delta shape;
A stereoscopic image generation system comprising:
前記撮像カメラアレイは、前記要素画像の画素数と同数の前記撮像カメラを備え、
前記撮像カメラは、前記光学素子の個数の半数に等しい画素数の前記撮像素子が半画素ずれるように2枚配置され、
前記立体画像生成手段は、2枚の前記撮像素子の各画素を交互に取得することを特徴とする請求項1又は請求項2に記載の立体画像生成システム。
The imaging camera array includes the same number of the imaging cameras as the number of pixels of the element image,
Two image pickup cameras are arranged such that the image pickup elements having the number of pixels equal to half the number of the optical elements are shifted by half a pixel,
The stereoscopic image generation system according to claim 1 or 2, wherein the stereoscopic image generation unit alternately acquires each pixel of the two image pickup devices.
前記撮像カメラアレイは、前記要素画像の画素数と同数の前記撮像カメラを備え、
前記撮像カメラは、隣接する前記光学素子が整列する一方の軸方向で前記撮像素子の画素数が前記光学素子の個数に等しく、隣接する前記光学素子が整列する他方の軸方向で前記撮像素子の画素数が前記光学素子の個数を2倍した値に等しくなり、
前記立体画像生成手段は、前記一方の軸方向及び前記他方の軸方向で、前記撮像カメラが撮像した画像の各画素を2画素間隔で取得することを特徴とする請求項1又は請求項2に記載の立体画像生成システム。
The imaging camera array includes the same number of the imaging cameras as the number of pixels of the element image,
In the imaging camera, the number of pixels of the imaging element is equal to the number of the optical elements in one axial direction in which the adjacent optical elements are aligned, and the number of pixels of the imaging element in the other axial direction in which the adjacent optical elements are aligned. The number of pixels is equal to twice the number of the optical elements,
3. The stereoscopic image generating means acquires each pixel of an image captured by the imaging camera at intervals of two pixels in the one axial direction and the other axial direction. The stereoscopic image generation system described.
前記光学素子アレイは、正六角形状の前記光学素子がデルタ状に配列されたハニカム構造であり、
前記立体画像生成手段は、前記光学素子の幅及び高さの比に合わせて、前記要素画像群を縮小又は拡大することを特徴とする請求項1から請求項4の何れか一項に記載の立体画像生成システム。
The optical element array is a honeycomb structure in which the regular hexagonal optical elements are arranged in a delta shape,
The three-dimensional image generation means reduces or enlarges the elemental image group in accordance with the ratio of the width and the height of the optical element, according to any one of claims 1 to 4. 3D image generation system.
表示素子及び複数の光学素子をデルタ状に配列した光学素子アレイを備える立体画像表示装置の奥行きに応じて、撮像素子の各画素が正方配列された仮想的な撮像カメラからなる撮像カメラアレイで生成した被写体画像から、前記立体画像表示装置が表示する要素画像群を生成する立体画像生成装置であって、
前記立体画像表示装置の奥行き最大表示距離と、前記光学素子の焦点距離と、前記要素画像群を構成する要素画像の中心画素から前記撮像カメラ毎の計算対象画素までの画素間距離と、前記光学素子アレイから後方奥行き最大表示位置までの差分距離と、前記撮像カメラが備える撮像素子のサイズと、前記表示素子のサイズとを入力するパラメータ入力手段と、
前記奥行き最大表示距離と、前記光学素子の焦点距離と、前記画素間距離とに基づいて、前記撮像カメラの位置を算出する位置算出手段と、
前記画素間距離と、前記差分距離と、前記光学素子の焦点距離と、前記撮像素子のサイズと、前記表示素子のサイズとに基づいて、前記撮像カメラが備える撮像レンズと前記撮像素子との軸ずれ量を算出する軸ずれ量算出手段と、
前記撮像素子の画素数が前記光学素子の個数以上となる前記撮像カメラを、前記位置算出手段が算出した位置及び前記軸ずれ量算出手段が算出した軸ずれ量で設定する撮像カメラ制御手段と、
前記撮像カメラアレイを介して前記被写体画像を生成し、生成した当該被写体画像から、前記要素画像がデルタ状に配列された要素画像群を生成する立体画像生成手段と、
を備えることを特徴とする立体画像生成装置。
Generated by an imaging camera array consisting of a virtual imaging camera in which each pixel of the imaging element is squarely arranged according to the depth of a stereoscopic image display device including a display element and an optical element array in which a plurality of optical elements are arranged in a delta shape. A stereoscopic image generation device for generating an element image group displayed by the stereoscopic image display device from the subject image,
The maximum depth display distance of the stereoscopic image display device, the focal length of the optical element, the inter-pixel distance from the central pixel of the elemental images forming the elemental image group to the calculation target pixel of each of the imaging cameras, and the optical Parameter input means for inputting a differential distance from the element array to the maximum rear depth display position, the size of the image pickup device included in the image pickup camera, and the size of the display device,
Position calculating means for calculating the position of the imaging camera based on the maximum depth display distance, the focal length of the optical element, and the inter-pixel distance;
Based on the inter-pixel distance, the difference distance, the focal length of the optical element, the size of the image pickup element, and the size of the display element, the axes of the image pickup lens and the image pickup element included in the image pickup camera. Axis deviation amount calculating means for calculating the deviation amount,
An image pickup camera control means for setting the image pickup camera in which the number of pixels of the image pickup element is equal to or more than the number of the optical elements, with the position calculated by the position calculation means and the axial deviation amount calculated by the axial deviation amount calculation means;
A stereoscopic image generation unit that generates the subject image via the imaging camera array, and generates, from the generated subject image, a group of element images in which the element images are arranged in a delta shape;
A stereoscopic image generation apparatus comprising:
表示素子及び複数の光学素子をデルタ状に配列した光学素子アレイを備える立体画像表示装置の奥行きに応じて、撮像素子の各画素が正方配列された仮想的な撮像カメラからなる仮想的な撮像カメラアレイで生成した被写体画像から、前記立体画像表示装置が表示する要素画像群を生成する立体画像生成装置であって、
前記立体画像表示装置の奥行き最大表示距離と、前記光学素子の焦点距離と、前記要素画像群を構成する要素画像の中心画素から前記撮像カメラ毎の計算対象画素までの画素間距離と、前記光学素子アレイから後方奥行き最大表示位置までの差分距離と、前記撮像カメラが備える撮像素子のサイズと、前記表示素子のサイズとを入力するパラメータ入力手段と、
前記奥行き最大表示距離と、前記光学素子の焦点距離と、前記画素間距離とに基づいて、前記撮像カメラの位置を算出する位置算出手段と、
前記画素間距離と、前記差分距離と、前記光学素子の焦点距離と、前記撮像素子のサイズと、前記表示素子のサイズとに基づいて、前記撮像カメラが備える撮像レンズと前記撮像素子との軸ずれ量を算出する軸ずれ量算出手段と、
前記撮像素子の画素数が前記光学素子の個数以上となる前記撮像カメラを、前記位置算出手段が算出した位置に設定する撮像カメラ制御手段と、
前記撮像カメラアレイを介して前記被写体画像を生成し、当該被写体画像から前記軸ずれ量に応じた画素位置の画素値を取得し、前記要素画像がデルタ状に配列された要素画像群を生成する立体画像生成手段と、
を備えることを特徴とする立体画像生成装置。
A virtual image pickup camera including a virtual image pickup camera in which each pixel of the image pickup element is squarely arranged according to the depth of a stereoscopic image display device including a display element and an optical element array in which a plurality of optical elements are arranged in a delta shape. A stereoscopic image generation device for generating an element image group displayed by the stereoscopic image display device from a subject image generated by an array,
The maximum depth display distance of the stereoscopic image display device, the focal length of the optical element, the inter-pixel distance from the central pixel of the elemental images forming the elemental image group to the calculation target pixel of each of the imaging cameras, and the optical Parameter input means for inputting a differential distance from the element array to the maximum rear depth display position, the size of the image pickup device included in the image pickup camera, and the size of the display device,
Position calculating means for calculating the position of the imaging camera based on the maximum depth display distance, the focal length of the optical element, and the inter-pixel distance;
Based on the inter-pixel distance, the difference distance, the focal length of the optical element, the size of the image pickup element, and the size of the display element, the axes of the image pickup lens and the image pickup element included in the image pickup camera. Axis deviation amount calculating means for calculating the deviation amount,
Image pickup camera control means for setting the image pickup camera in which the number of pixels of the image pickup element is equal to or more than the number of optical elements, to the position calculated by the position calculation means,
The subject image is generated via the imaging camera array, the pixel value of the pixel position corresponding to the axial shift amount is obtained from the subject image, and the element image group in which the element images are arranged in a delta shape is generated. Stereoscopic image generation means,
A stereoscopic image generation apparatus comprising:
前記撮像カメラアレイは、前記要素画像の画素数と同数の前記撮像カメラを備え、
前記撮像カメラは、前記光学素子の個数の半数に等しい画素数の前記撮像素子が半画素ずれるように2枚配置され、
前記立体画像生成手段は、2枚の前記撮像素子の各画素を交互に取得することを特徴とする請求項6又は請求項7に記載の立体画像生成装置。
The imaging camera array includes the same number of the imaging cameras as the number of pixels of the element image,
Two image pickup cameras are arranged such that the image pickup elements having the number of pixels equal to half the number of the optical elements are shifted by half a pixel,
The three-dimensional image generation device according to claim 6 or 7, wherein the three-dimensional image generation means alternately acquires each pixel of the two image pickup devices.
前記撮像カメラアレイは、前記要素画像の画素数と同数の前記撮像カメラを備え、
前記撮像カメラは、隣接する前記光学素子が整列する一方の軸方向で前記撮像素子の画素数が前記光学素子の個数に等しく、隣接する前記光学素子が整列する他方の軸方向で前記撮像素子の画素数が前記光学素子の個数を2倍した値に等しくなり、
前記立体画像生成手段は、前記一方の軸方向及び前記他方の軸方向で、前記撮像カメラが撮像した画像の各画素を2画素間隔で取得することを特徴とする請求項6又は請求項7に記載の立体画像生成装置。
The imaging camera array includes the same number of the imaging cameras as the number of pixels of the element image,
In the imaging camera, the number of pixels of the imaging element is equal to the number of the optical elements in one axial direction in which the adjacent optical elements are aligned, and the number of pixels in the imaging element in the other axial direction in which the adjacent optical elements are aligned. The number of pixels is equal to twice the number of the optical elements,
8. The stereoscopic image generation means acquires each pixel of an image captured by the imaging camera at intervals of two pixels in the one axial direction and the other axial direction. The stereoscopic image generation device described.
前記光学素子アレイは、正六角形状の前記光学素子がデルタ状に配列されたハニカム構造であり、
前記立体画像生成手段は、前記光学素子の幅及び高さの比に合わせて、前記要素画像群を縮小又は拡大することを特徴とする請求項6から請求項9の何れか一項に記載の立体画像生成装置。
The optical element array is a honeycomb structure in which the regular hexagonal optical elements are arranged in a delta shape,
10. The stereoscopic image generating means reduces or enlarges the elemental image group according to the ratio of the width and the height of the optical element, according to any one of claims 6 to 9. 3D image generation device.
コンピュータを、請求項1から請求項10の何れか一項に記載の立体画像生成装置として機能させるためのプログラム。 A program for causing a computer to function as the stereoscopic image generation device according to any one of claims 1 to 10.
JP2019022359A 2019-02-12 2019-02-12 3D image generation system, 3D image generation device and its program Active JP7308045B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019022359A JP7308045B2 (en) 2019-02-12 2019-02-12 3D image generation system, 3D image generation device and its program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019022359A JP7308045B2 (en) 2019-02-12 2019-02-12 3D image generation system, 3D image generation device and its program

Publications (2)

Publication Number Publication Date
JP2020129773A true JP2020129773A (en) 2020-08-27
JP7308045B2 JP7308045B2 (en) 2023-07-13

Family

ID=72175019

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019022359A Active JP7308045B2 (en) 2019-02-12 2019-02-12 3D image generation system, 3D image generation device and its program

Country Status (1)

Country Link
JP (1) JP7308045B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006235415A (en) * 2005-02-28 2006-09-07 Hitachi Displays Ltd Lens array and display apparatus using the same
JP2014215313A (en) * 2013-04-22 2014-11-17 日本放送協会 Stereoscopic video display device
JP2018133795A (en) * 2017-02-15 2018-08-23 日本放送協会 Stereoscopic image generation device and program thereof

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006235415A (en) * 2005-02-28 2006-09-07 Hitachi Displays Ltd Lens array and display apparatus using the same
JP2014215313A (en) * 2013-04-22 2014-11-17 日本放送協会 Stereoscopic video display device
JP2018133795A (en) * 2017-02-15 2018-08-23 日本放送協会 Stereoscopic image generation device and program thereof

Also Published As

Publication number Publication date
JP7308045B2 (en) 2023-07-13

Similar Documents

Publication Publication Date Title
JP4476905B2 (en) Structure of stereoscopic display image data, recording method of stereoscopic display image data, display reproduction method, recording program, and display reproduction program
KR100730406B1 (en) Three-dimensional display apparatus using intermediate elemental images
TWI510086B (en) Digital refocusing method
US6191808B1 (en) Image processing method with viewpoint compensation and apparatus therefor
JP5751986B2 (en) Image generation device
JP4942221B2 (en) High resolution virtual focal plane image generation method
JP5238429B2 (en) Stereoscopic image capturing apparatus and stereoscopic image capturing system
KR100637363B1 (en) Method for displaying three dimensional image, method for capturing three dimensional image, and three dimensional display apparatus
US7652665B2 (en) Method for producing multi-viewpoint image for three-dimensional image display and program therefor
RU2453922C2 (en) Method of displaying original three-dimensional scene based on results of capturing images in two-dimensional projection
JP4928476B2 (en) Stereoscopic image generating apparatus, method thereof and program thereof
JP6300346B2 (en) IP stereoscopic image estimation apparatus and program thereof
JP5522794B2 (en) Stereoscopic image generating apparatus and program thereof
JP6018468B2 (en) Depth range calculation device and program thereof
JP2006162945A (en) Stereoscopic display apparatus
JP4875680B2 (en) 3D information integration apparatus and 3D information integration program
JP4729011B2 (en) Element image group conversion device, stereoscopic image display device, and element image group conversion program
KR101691297B1 (en) Death-priority integral imaging display system to remove colorbreak
JP7061445B2 (en) Stereoscopic image generator and its program
JP4377656B2 (en) Integral photography apparatus and integral photography display apparatus
JP7308045B2 (en) 3D image generation system, 3D image generation device and its program
JP4049738B2 (en) Stereoscopic video display device and stereoscopic video imaging device
JP6076083B2 (en) Stereoscopic image correction apparatus and program thereof
JP2013003396A (en) Presenting method for three-dimensional image
AU2013308155B2 (en) Method for description of object points of the object space and connection for its implementation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230606

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230703

R150 Certificate of patent or registration of utility model

Ref document number: 7308045

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150