JP6223226B2 - Camera parameter calculation apparatus and program thereof - Google Patents

Camera parameter calculation apparatus and program thereof Download PDF

Info

Publication number
JP6223226B2
JP6223226B2 JP2014034504A JP2014034504A JP6223226B2 JP 6223226 B2 JP6223226 B2 JP 6223226B2 JP 2014034504 A JP2014034504 A JP 2014034504A JP 2014034504 A JP2014034504 A JP 2014034504A JP 6223226 B2 JP6223226 B2 JP 6223226B2
Authority
JP
Japan
Prior art keywords
camera
stereoscopic
lens array
imaging
focal length
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014034504A
Other languages
Japanese (ja)
Other versions
JP2015158646A (en
Inventor
人誌 日浦
人誌 日浦
三科 智之
智之 三科
洗井 淳
淳 洗井
直人 岡市
直人 岡市
一宏 原
一宏 原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting Corp filed Critical Japan Broadcasting Corp
Priority to JP2014034504A priority Critical patent/JP6223226B2/en
Publication of JP2015158646A publication Critical patent/JP2015158646A/en
Application granted granted Critical
Publication of JP6223226B2 publication Critical patent/JP6223226B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Stereoscopic And Panoramic Photography (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

本願発明は、仮想的な撮像カメラのカメラパラメータから、IP立体カメラのカメラパラメータを算出するカメラパラメータ算出装置及びそのプログラムに関する。   The present invention relates to a camera parameter calculation apparatus that calculates camera parameters of an IP stereoscopic camera from camera parameters of a virtual imaging camera, and a program thereof.

従来のインテグラルフォトグラフィ(IP)方式では、1台のカメラで複数の微小レンズが配列されたレンズアレイを通して被写体を撮像する。この時、カメラがレンズアレイの焦平面を撮像するため、レンズアレイを構成する各微小レンズは、微小なカメラと同じ働きをする。その結果、レンズアレイ越しに被写体を撮像した画像は、微小レンズの位置に応じた微小画像(要素画像)が並んだ要素画像群となる。この要素画像群は、被写体からの光線情報を記録した画像であり、記録できる光線数がカメラの解像度に依存する。このため、IP方式での撮像には、高解像度のカメラが必要である。   In the conventional integral photography (IP) system, a subject is imaged through a lens array in which a plurality of microlenses are arranged with one camera. At this time, since the camera captures an image of the focal plane of the lens array, each micro lens constituting the lens array functions in the same manner as the micro camera. As a result, an image obtained by imaging the subject through the lens array becomes an element image group in which minute images (element images) corresponding to the positions of the minute lenses are arranged. This elemental image group is an image in which light information from a subject is recorded, and the number of light rays that can be recorded depends on the resolution of the camera. For this reason, a high-resolution camera is required for imaging by the IP method.

ここで、IP方式では、撮像用レンズアレイの代わりに、カメラを密に並べたカメラアレイに置き換えた撮像装置を用いることで、撮像部の多画素化を実現することができる。この手法によれば、複数台のカメラの位置を高精度に制御する必要がある。   Here, in the IP system, it is possible to realize an increase in the number of pixels of the imaging unit by using an imaging device in which cameras are replaced with a densely arranged camera array instead of the imaging lens array. According to this method, it is necessary to control the positions of a plurality of cameras with high accuracy.

また、従来から、コンピュータグラフィックス(CG)を用いて、IP方式の要素画像群を生成する技術が研究されている。この従来技術では、計算機内で仮想3次元空間を生成し、3次元の被写体及び背景(セット)を実世界と同様に再現し、その仮想3次元空間において被写体からの光線を追跡することで、要素画像群を生成する。要素画像群生成手法として、表示装置の表示面よりも手前に飛び出す映像を生成するために、下記の手法が提案されている。   Conventionally, a technique for generating an IP element image group using computer graphics (CG) has been studied. In this conventional technology, a virtual three-dimensional space is generated in a computer, a three-dimensional subject and a background (set) are reproduced in the same manner as in the real world, and light rays from the subject are tracked in the virtual three-dimensional space. Generate element images. As an element image group generation method, the following method has been proposed in order to generate a video that pops out before the display surface of the display device.

非特許文献1には、被写体からの光線を制御する奥行き制御レンズを通して、被写体からの光線を追跡する手法が記載されている。また、特許文献1,2及び非特許文献2には、要素画像群を生成するための画素と各画素に対応するレンズの中心点を結び、観察者側から見たときに最初にCGオブジェクトに対応する点の情報を取得し、その情報を画素値として計算する手法が記載されている。これらの手法によれば、仮想的なカメラでの撮像回数が、要素画像群の画素数だけ観察者側から見たCGオブジェクトに対応する点を求める回数で済む。   Non-Patent Document 1 describes a method of tracking a light beam from a subject through a depth control lens that controls the light beam from the subject. In Patent Documents 1 and 2 and Non-Patent Document 2, the pixel for generating the element image group and the center point of the lens corresponding to each pixel are connected, and when viewed from the observer side, the first is the CG object. A method is described in which information of corresponding points is acquired and the information is calculated as pixel values. According to these methods, the number of times of imaging with a virtual camera may be the number of times of obtaining points corresponding to the CG object viewed from the observer side by the number of pixels of the element image group.

ここで、特許文献1,2及び非特許文献2に記載の手法では、要素画像群の画素数の回数だけ観察者側からカメラ等で画素値を取得する必要がある。さらなる高速化のために、特許文献3及び非特許文献3には、CGオブジェクトを正射影によるカメラで撮像し、この画像を要素画像群に変換する手法が記載されている。これらの手法によれば、仮想的なカメラでの撮像回数が要素画像の画素数と同じ回数で済む。   Here, in the methods described in Patent Documents 1 and 2 and Non-Patent Document 2, it is necessary to acquire pixel values from the observer side with a camera or the like as many times as the number of pixels in the element image group. In order to further increase the speed, Patent Document 3 and Non-Patent Document 3 describe a technique of capturing a CG object with a camera by orthographic projection and converting this image into an element image group. According to these methods, the number of times of imaging with a virtual camera may be the same as the number of pixels of the element image.

特許第4567422号公報Japanese Patent No. 4567422 再表00/059235号公報No. 00/059235 特開2011−234142号公報JP 2011-234142 A

Spyros S. Athineos et al.,“Physical modeling of a microlens array setup for use in computer generated IP,”Proc.of SPIE-IS&T Electronic Imaging,Vol.5664 pp.472-479,2005Spyros S. Athineos et al., “Physical modeling of a microlens array setup for use in computer generated IP,” Proc. Of SPIE-IS & T Electronic Imaging, Vol.5664 pp.472-479,2005 中島勧 et al.,“Integral Photographyの原理を用いた3Dディスプレイの画像高速作成法”,映像情報メディア学会 Vol. 54, No. 3, pp.420-425 (2000)Nakajima, et al., “High-speed image creation method for 3D displays using the principle of Integral Photography”, The Institute of Image Information and Television Engineers Vol. 54, No. 3, pp.420-425 (2000) M.Katayama et al.,“A method for converting three-dimensional models into auto-stereoscopic images based on integral photography” ,Proc of SPIE-IS&T Vol.6805 68050Z-1 68050Z-8M. Katayama et al., “A method for converting three-dimensional models into auto-stereoscopic images based on integral photography”, Proc of SPIE-IS & T Vol. 6805 68050Z-1 68050Z-8

IP方式では、解像度が、要素画像群を表示した表示画面から離れる程、低下する。従って、IP方式では、表示画面の手前又は奥に位置する立体像がぼけることになる。このとき、立体像のぼけ具合(解像度特性)は、実際に撮像を行わないとわからない。しかし、IP方式では、レンズアレイや奥行制御レンズを適切な位置に配置しなければ、撮像を行うことができない。その結果、IP方式では、立体像で所望の解像度特性を得るため、撮像を繰り返し行うことになり、非常に時間がかかってしまう。   In the IP method, the resolution decreases as the distance from the display screen on which the element image group is displayed. Therefore, in the IP method, a stereoscopic image located in front of or behind the display screen is blurred. At this time, the degree of blur (resolution characteristics) of the stereoscopic image is not known unless actual imaging is performed. However, in the IP system, imaging cannot be performed unless a lens array and a depth control lens are arranged at appropriate positions. As a result, in the IP system, in order to obtain a desired resolution characteristic with a stereoscopic image, imaging is repeatedly performed, which takes a very long time.

また、非特許文献1に記載の手法では、被写体からの光線情報を計算機で光線追跡して求めるため、高速に計算することが困難である。
さらに、特許文献3及び非特許文献3に記載の手法では、要素画像の各画素を近似的に求めているため再生像の画質が劣化する。これに加え、特許文献3及び非特許文献3に記載の手法では、被写体から反射する光線の向きを正確に記録できないため、再生光線の精度も低下してしまう。
Further, according to the method described in Non-Patent Document 1, since light ray information from a subject is obtained by ray tracing with a computer, it is difficult to calculate at high speed.
Further, in the methods described in Patent Document 3 and Non-Patent Document 3, since each pixel of the element image is approximately obtained, the quality of the reproduced image is deteriorated. In addition to this, the methods described in Patent Document 3 and Non-Patent Document 3 cannot accurately record the direction of the light beam reflected from the subject, so that the accuracy of the reproduced light beam also decreases.

以上のように、従来のIP方式は、実写又はCGを問わず、IP立体映像の制作に時間がかってしまう。一方、像再生型であるIP方式は、撮像素子、撮像用レンズアレイ等のカメラパラメータを計算できれば、立体像の解像度特性が決まり、IP立体映像をCG制作できる。これにより、IP方式での制作作業を少なくし、IP立体映像の制作時間を短縮することが可能となる。   As described above, in the conventional IP system, it takes time to produce an IP stereoscopic video regardless of whether it is a live action or a CG. On the other hand, in the IP system that is an image reproduction type, if camera parameters such as an image sensor and an imaging lens array can be calculated, resolution characteristics of a stereoscopic image are determined, and IP stereoscopic video can be produced by CG. As a result, it is possible to reduce the production work in the IP system and shorten the production time of the IP stereoscopic video.

そこで、本願発明は、IP立体映像の制作時間を短縮できるカメラパラメータ算出装置及びそのプログラムを提供することを課題とする。   Accordingly, it is an object of the present invention to provide a camera parameter calculation device and a program thereof that can shorten the production time of IP stereoscopic video.

前記した課題に鑑みて、本願発明に係るカメラパラメータ算出装置は、仮想3次元空間内に配置された仮想的な撮像カメラのカメラパラメータから、レンズアレイと拡散板と立体撮像装置とを備えるIP立体カメラのカメラパラメータを算出するカメラパラメータ算出装置であって、入力手段と、位置算出手段と、方向算出手段と、画角算出手段と、レンズ間隔算出手段と、レンズアレイ焦点距離算出手段と、出力手段と、を備えることを特徴とする。   In view of the above-described problems, a camera parameter calculation apparatus according to the present invention is an IP stereoscopic apparatus including a lens array, a diffusion plate, and a stereoscopic imaging device based on camera parameters of a virtual imaging camera disposed in a virtual three-dimensional space. A camera parameter calculation device for calculating camera parameters of a camera, comprising: input means, position calculation means, direction calculation means, angle of view calculation means, lens interval calculation means, lens array focal length calculation means, and output And means.

かかる構成によれば、カメラパラメータ算出装置は、入力手段に、撮像カメラのカメラパラメータとして、撮像カメラにおけるゼロ視差面の位置及びサイズと、撮像カメラの撮像方向と、撮像カメラの焦点距離と、撮像カメラが備える撮像素子のサイズと、撮像カメラの光軸に対する撮像素子のずれ量とが入力される。
なお、撮像カメラとは、IP立体カメラ以外の仮想的なカメラであり、例えば、仮想的な2眼立体カメラ又は単眼カメラである。
According to such a configuration, the camera parameter calculation device has, as the camera parameter of the imaging camera, the position and size of the zero parallax plane in the imaging camera, the imaging direction of the imaging camera, the focal length of the imaging camera, and the imaging The size of the image sensor provided in the camera and the shift amount of the image sensor with respect to the optical axis of the image camera are input.
The imaging camera is a virtual camera other than the IP stereoscopic camera, for example, a virtual binocular stereoscopic camera or a monocular camera.

また、カメラパラメータ算出装置は、位置算出手段によって、レンズアレイの位置を、ゼロ視差面の位置と同位置で算出する。そして、カメラパラメータ算出装置は、方向算出手段によって、レンズアレイの方向を、撮像方向と同方向で算出する。さらに、カメラパラメータ算出装置は、画角算出手段によって、撮像素子のサイズと、ずれ量と、撮像カメラの焦点距離とが含まれる画角算出式により、レンズアレイの画角を算出する。   In addition, the camera parameter calculation device calculates the position of the lens array at the same position as the position of the zero parallax plane by the position calculation means. Then, the camera parameter calculation device calculates the direction of the lens array in the same direction as the imaging direction by the direction calculation means. Furthermore, the camera parameter calculation device calculates the angle of view of the lens array by an angle of view calculation unit using an angle of view calculation formula including the size of the image sensor, the amount of deviation, and the focal length of the image pickup camera.

また、カメラパラメータ算出装置は、レンズ間隔算出手段によって、ゼロ視差面のサイズと、予め設定されたレンズアレイのレンズ個数とに基づいて、レンズアレイのレンズ間隔を算出する。そして、カメラパラメータ算出装置は、レンズアレイ焦点距離算出手段によって、レンズ間隔と、レンズアレイの画角とに基づいて、レンズアレイの焦点距離を算出する。
このように、カメラパラメータ算出装置は、撮像カメラのカメラパラメータから、IP立体カメラのカメラパラメータを算出することができる。
The camera parameter calculation device calculates the lens interval of the lens array based on the size of the zero parallax surface and the preset number of lenses of the lens array by the lens interval calculation means. Then, the camera parameter calculation device calculates the focal length of the lens array based on the lens interval and the angle of view of the lens array by the lens array focal length calculation means.
As described above, the camera parameter calculation device can calculate the camera parameters of the IP stereoscopic camera from the camera parameters of the imaging camera.

その後、カメラパラメータ算出装置は、出力手段によって、IP立体カメラのカメラパラメータとして、レンズアレイの位置と、レンズアレイの方向と、レンズアレイの画角と、レンズアレイのレンズ間隔と、レンズアレイの焦点距離とを出力する。   After that, the camera parameter calculation device outputs the lens array position, the direction of the lens array, the angle of view of the lens array, the lens interval of the lens array, and the focal point of the lens array as camera parameters of the IP stereoscopic camera. Output the distance.

本願発明によれば、以下のような優れた効果を奏する。
本願発明に係るカメラパラメータ算出装置は、撮像カメラのカメラパラメータからIP立体カメラのカメラパラメータを算出できるので、最初からIP立体カメラのカメラパラメータを決定する必要がない。これによって、カメラパラメータ算出装置は、IP方式での制作作業を少なくし、IP立体映像の制作時間を短縮することができる。
According to the present invention, the following excellent effects can be obtained.
Since the camera parameter calculation apparatus according to the present invention can calculate the camera parameters of the IP stereoscopic camera from the camera parameters of the imaging camera, it is not necessary to determine the camera parameters of the IP stereoscopic camera from the beginning. As a result, the camera parameter calculation apparatus can reduce the production work in the IP system and shorten the production time of the IP stereoscopic video.

従来の2眼立体映像制作システムの概略構成図である。It is a schematic block diagram of the conventional binocular stereoscopic image production system. 第1実施形態に係るIP立体映像制作システムの概略構成図である。1 is a schematic configuration diagram of an IP stereoscopic video production system according to a first embodiment. 第1実施形態において、ゼロ視差面を説明する説明図である。In 1st Embodiment, it is explanatory drawing explaining a zero parallax surface. 図3の撮像素子の拡大図である。FIG. 4 is an enlarged view of the image sensor of FIG. 3. 図2のIP立体カメラの概略図である。It is the schematic of the IP stereoscopic camera of FIG. 図2のIP立体カメラ制御装置の構成を示すブロック図である。It is a block diagram which shows the structure of the IP stereoscopic camera control apparatus of FIG. 第1実施形態において、最大解像度を説明する説明図である。It is explanatory drawing explaining the maximum resolution in 1st Embodiment. 第1実施形態において、観視解像度を説明する説明図である。In 1st Embodiment, it is explanatory drawing explaining viewing resolution. 第1実施形態において、解像度特性を説明する説明図である。In 1st Embodiment, it is explanatory drawing explaining the resolution characteristic. 第1実施形態において、拡散板位置の算出を説明する説明図である。In 1st Embodiment, it is explanatory drawing explaining calculation of a diffusion plate position. 図2のIP立体映像制作システムの全体動作を示すフローチャートである。It is a flowchart which shows the whole operation | movement of the IP stereoscopic video production system of FIG. 図6のIP立体カメラ制御装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the IP stereoscopic camera control apparatus of FIG. 第2実施形態に係るIP立体映像制作システムの概略構成図である。It is a schematic block diagram of the IP stereoscopic video production system which concerns on 2nd Embodiment.

以下、本願発明の実施形態について、適宜図面を参照しながら詳細に説明する。なお、各実施形態において、同一の機能を有する手段には同一の符号を付し、説明を省略した。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings as appropriate. In each embodiment, means having the same function are denoted by the same reference numerals and description thereof is omitted.

[2眼立体映像制作システムの概略]
本願発明の第1実施形態に係るIP立体映像制作システム1(図2)は、従来の2眼立体映像制作システム2を拡張したものである。このため、2眼立体映像制作システム2の概略を説明した後、IP立体映像制作システム1を説明する。
[Outline of binocular stereoscopic video production system]
The IP stereoscopic video production system 1 (FIG. 2) according to the first embodiment of the present invention is an extension of the conventional binocular stereoscopic video production system 2. Therefore, after describing the outline of the binocular stereoscopic video production system 2, the IP stereoscopic video production system 1 will be described.

図1のように、2眼立体映像制作システム2は、仮想3次元空間内に配置された被写体10を2眼立体カメラ(撮像カメラ)20で撮像したような2眼立体映像を生成するものであり、2眼立体カメラ20と、収録再生装置30と、2眼立体テレビ40とを備える。   As shown in FIG. 1, the binocular stereoscopic video production system 2 generates a binocular stereoscopic video image in which a subject 10 arranged in a virtual three-dimensional space is captured by a binocular stereoscopic camera (imaging camera) 20. Yes, a binocular stereoscopic camera 20, a recording / reproducing apparatus 30, and a binocular stereoscopic television 40 are provided.

被写体10は、仮想3次元空間内に配置された被写体である。つまり、被写体10は、CGで表現された3次元モデル(例えば、花)の3次元モデルである。   The subject 10 is a subject arranged in a virtual three-dimensional space. That is, the subject 10 is a three-dimensional model (for example, a flower) represented by CG.

2眼立体カメラ20は、被写体10を2眼立体方式で撮像する仮想的なステレオカメラ20L,20Rである。そして、2眼立体カメラ20は、撮像したステレオ画像を収録再生装置30に出力する。   The binocular stereoscopic camera 20 is virtual stereo cameras 20L and 20R that capture an image of the subject 10 in a binocular stereoscopic manner. Then, the binocular stereoscopic camera 20 outputs the captured stereo image to the recording / playback device 30.

言い換えるなら、2眼立体カメラ20は、CGで2眼立体映像を制作する際に用いられる2眼立体映像制作ソフトウェアの仮想カメラのことである。例えば、2眼立体映像制作ソフトウェアは、2眼立体映像の制作データとして、2眼立体カメラ20のカメラパラメータが設定される。そして、2眼立体映像制作ソフトウェアは、このカメラパラメータが設定された2眼立体カメラ20を用いて、仮想3次元空間内の被写体10を撮像したようなステレオ画像を生成する。   In other words, the binocular stereoscopic camera 20 is a virtual camera of binocular stereoscopic video production software used when producing a binocular stereoscopic video with CG. For example, in the binocular stereoscopic video production software, the camera parameters of the binocular stereoscopic camera 20 are set as production data for the binocular stereoscopic video. Then, the binocular stereoscopic video production software generates a stereo image as if the subject 10 in the virtual three-dimensional space was captured using the binocular stereoscopic camera 20 in which the camera parameters are set.

収録再生装置30は、2眼立体カメラ20で撮像されたステレオ画像を収録すると共に、収録したステレオ画像を2眼立体テレビ40に出力するものである。例えば、収録再生装置30としては、一般的な録画装置があげられる。   The recording / reproducing apparatus 30 records a stereo image captured by the binocular stereoscopic camera 20 and outputs the recorded stereo image to the binocular stereoscopic television 40. For example, the recording / reproducing apparatus 30 includes a general recording apparatus.

2眼立体テレビ40は、収録再生装置30から入力されたステレオ画像を表示する2眼立体表示装置である。例えば、2眼立体テレビ40としては、レンチキュラ方式の立体テレビがあげられる。また、2眼立体テレビ40は、ステレオ画像に含まれる2枚の画像を時分割で交互に表示する立体テレビでもよい。
このようにして、2眼立体映像制作システム2は、2眼立体映像を表示することができる。
The binocular stereoscopic television 40 is a binocular stereoscopic display device that displays a stereo image input from the recording / playback device 30. For example, the twin-lens stereoscopic television 40 may be a lenticular stereoscopic television. In addition, the twin-lens stereoscopic television 40 may be a stereoscopic television that alternately displays two images included in a stereo image in a time division manner.
In this way, the binocular stereoscopic video production system 2 can display the binocular stereoscopic video.

(第1実施形態)
[IP立体映像制作システムの概略]
図2を参照し、本願発明の第1実施形態に係るIP立体映像制作システム1の概略について、説明する(適宜図1参照)。
(First embodiment)
[Outline of IP stereoscopic video production system]
An outline of the IP stereoscopic video production system 1 according to the first embodiment of the present invention will be described with reference to FIG. 2 (see FIG. 1 as appropriate).

図2のように、IP立体映像制作システム1は、IP立体映像を生成するものであり、2眼立体カメラ20と、収録再生装置30と、2眼立体テレビ40と、カメラパラメータ取得装置100と、IP立体カメラ110と、IP立体カメラ制御装置(カメラパラメータ算出装置)120と、収録再生装置130と、IP立体テレビ140とを備える。   As shown in FIG. 2, the IP stereoscopic video production system 1 generates an IP stereoscopic video, and includes a binocular stereoscopic camera 20, a recording / playback device 30, a binocular stereoscopic television 40, a camera parameter acquisition device 100, and the like. , An IP stereoscopic camera 110, an IP stereoscopic camera control device (camera parameter calculation device) 120, a recording / playback device 130, and an IP stereoscopic television 140.

カメラパラメータ取得装置100は、2眼立体カメラ20のカメラパラメータを取得するものである。例えば、カメラパラメータ取得装置100は、API(Application Programming Interface)を介して、2眼立体映像制作ソフトウェアに設定された2眼立体カメラ20のカメラパラメータを取得する。そして、カメラパラメータ取得装置100は、取得した2眼立体カメラ20のカメラパラメータを、IP立体カメラ制御装置120に出力する。   The camera parameter acquisition device 100 acquires camera parameters of the binocular stereoscopic camera 20. For example, the camera parameter acquisition apparatus 100 acquires camera parameters of the binocular stereoscopic camera 20 set in the binocular stereoscopic video production software via an API (Application Programming Interface). Then, the camera parameter acquisition device 100 outputs the acquired camera parameters of the binocular stereoscopic camera 20 to the IP stereoscopic camera control device 120.

この2眼立体カメラ20のカメラパラメータには、2眼立体カメラ20におけるゼロ視差面の位置と、このゼロ視差面のサイズとが含まれる。また、2眼立体カメラ20のカメラパラメータには、2眼立体カメラ20の撮像方向と、2眼立体カメラ20の焦点距離と、2眼立体カメラ20が備える撮像素子のサイズと、2眼立体カメラ20の光軸に対する撮像素子のずれ量とが含まれる。   The camera parameters of the binocular stereoscopic camera 20 include the position of the zero parallax plane in the binocular stereoscopic camera 20 and the size of the zero parallax plane. The camera parameters of the binocular stereoscopic camera 20 include the imaging direction of the binocular stereoscopic camera 20, the focal length of the binocular stereoscopic camera 20, the size of the image sensor included in the binocular stereoscopic camera 20, and the binocular stereoscopic camera. The amount of deviation of the image sensor with respect to the 20 optical axes is included.

<2眼立体カメラのカメラパラメータ>
図3,図4を参照し、2眼立体カメラ20のカメラパラメータについて、説明する。
なお、図3には、ステレオカメラ20L,20Rの撮像素子22L,22Rを図示した。
また、図3では、ゼロ視差面ZDPより被写体10の側で、かつ、ステレオカメラ20L,20Rの撮像領域を合わせた領域をハッチングで図示した。
また、図4には、図3の撮像素子22Rの拡大図を図示した。
<Camera parameters of binocular stereo camera>
The camera parameters of the binocular stereoscopic camera 20 will be described with reference to FIGS.
In FIG. 3, the imaging elements 22L and 22R of the stereo cameras 20L and 20R are shown.
Further, in FIG. 3, an area that is closer to the subject 10 than the zero parallax plane ZDP and that combines the imaging areas of the stereo cameras 20L and 20R is illustrated by hatching.
FIG. 4 shows an enlarged view of the image sensor 22R of FIG.

ゼロ視差面ZDPとは、両眼視差がゼロになる面のことである。つまり、ゼロ視差面ZDPは、図3のように、ステレオカメラ20L,20Rで撮像したステレオ画像が重なり合う面である。
ゼロ視差面ZDPの上端位置PUは、ステレオカメラ20Rにおける撮像領域の上側限界線URと、ステレオカメラ20Lにおける撮像領域の上側限界線ULとの交点で表される。また、ゼロ視差面ZDPの下端位置PDは、ステレオカメラ20Rにおける撮像領域の下側限界線DRと、ステレオカメラ20Lにおける撮像領域の下側限界線DLとの交点で表される。この場合、ゼロ視差面ZDPは、その位置が上端位置PU及び下端位置PDで特定され、そのサイズが上端位置PUから下端位置PDまでの距離で表される。
The zero parallax plane ZDP is a plane where binocular parallax is zero. That is, the zero parallax plane ZDP is a plane where stereo images captured by the stereo cameras 20L and 20R overlap as shown in FIG.
The upper end position PU of the zero parallax plane ZDP is represented by the intersection of the upper limit line UR of the imaging region in the stereo camera 20R and the upper limit line UL of the imaging region in the stereo camera 20L. Further, the lower end position PD of the zero parallax plane ZDP is represented by the intersection of the lower limit line DR of the imaging area in the stereo camera 20R and the lower limit line DL of the imaging area in the stereo camera 20L. In this case, the position of the zero parallax plane ZDP is specified by the upper end position PU and the lower end position PD, and the size is represented by the distance from the upper end position PU to the lower end position PD.

2眼立体カメラ20の撮像方向は、2眼立体カメラ20が被写体10を撮像した方向であり、ステレオカメラ20L,20Rの光軸方向を表す。平行法の場合、図3のように、ステレオカメラ20L,20Rの光軸AL,ARは、平行になる。   The imaging direction of the binocular stereoscopic camera 20 is the direction in which the binocular stereoscopic camera 20 images the subject 10, and represents the optical axis direction of the stereo cameras 20L and 20R. In the case of the parallel method, as shown in FIG. 3, the optical axes AL and AR of the stereo cameras 20L and 20R are parallel.

なお、交差法の場合、2眼立体カメラ20の撮像方向は、ステレオカメラ20L,20Rを結ぶ線に対して垂直な方向となる(図3不図示)。このため、交差法は、立体像の奥行き方向に歪が生じるため、仮想的な2眼立体カメラ20での撮像に適用しないことが好ましい。   In the crossing method, the imaging direction of the binocular stereoscopic camera 20 is a direction perpendicular to the line connecting the stereo cameras 20L and 20R (not shown in FIG. 3). For this reason, the intersection method is preferably not applied to imaging with the virtual binocular stereoscopic camera 20 because distortion occurs in the depth direction of the stereoscopic image.

2眼立体カメラ20の焦点距離は、2眼立体カメラ20が被写体10を撮像したときの焦点距離であり、ステレオカメラ20L,20Rのカメラレンズ(不図示)の焦点距離である。
撮像素子22Rのサイズwは、図4のように、撮像素子22の大きさを表す。
撮像素子22Rのずれ量Δdは、ステレオカメラ20Rの光軸ARと、撮像素子22Rの中心位置CRとのずれ量を表す。
なお、撮像素子22L,22Rのサイズ及びずれ量は同一である。
The focal length of the binocular stereoscopic camera 20 is a focal length when the binocular stereoscopic camera 20 images the subject 10, and is a focal length of camera lenses (not shown) of the stereo cameras 20L and 20R.
The size w of the image sensor 22R represents the size of the image sensor 22 as shown in FIG.
The shift amount Δd of the image sensor 22R represents the shift amount between the optical axis AR of the stereo camera 20R and the center position CR of the image sensor 22R.
Note that the image sensors 22L and 22R have the same size and shift amount.

図2に戻り、IP立体映像制作システム1の概略について、説明を続ける。
IP立体カメラ110は、IP立体カメラ制御装置120からの指令に従って、被写体10をIP立体方式で撮像する仮想カメラである。そして、IP立体カメラ110は、撮像したIP立体映像を収録再生装置130に出力する。
Returning to FIG. 2, the outline of the IP stereoscopic video production system 1 will be described.
The IP stereoscopic camera 110 is a virtual camera that captures an image of the subject 10 by the IP stereoscopic method in accordance with a command from the IP stereoscopic camera control device 120. Then, the IP stereoscopic camera 110 outputs the captured IP stereoscopic video to the recording / playback device 130.

言い換えるなら、IP立体カメラ110は、CGでIP立体映像を生成する際に用いられるIP立体映像制作ソフトウェアの仮想カメラのことである。図5のように、IP立体カメラ110は、撮像用レンズアレイ(レンズアレイ)112と、拡散板(集光部材)114と、高精細カメラ(立体撮像装置)116とを備える。   In other words, the IP stereoscopic camera 110 is a virtual camera of IP stereoscopic video production software used when generating an IP stereoscopic video with CG. As shown in FIG. 5, the IP stereoscopic camera 110 includes an imaging lens array (lens array) 112, a diffusion plate (light condensing member) 114, and a high-definition camera (stereoscopic imaging device) 116.

撮像用レンズアレイ112は、微小レンズ(要素レンズ)112aが2次元状に配列されたものである。
拡散板114は、撮像用レンズアレイ112の出射光を拡散して、高精細カメラ116に集光するものである。
高精細カメラ116は、撮像用レンズアレイ112及び拡散板114を介して、被写体10を撮像して、要素画像群(IP立体映像)を生成するものである。
The imaging lens array 112 is a lens in which microlenses (element lenses) 112a are two-dimensionally arranged.
The diffusion plate 114 diffuses the light emitted from the imaging lens array 112 and focuses it on the high-definition camera 116.
The high-definition camera 116 images the subject 10 via the imaging lens array 112 and the diffusion plate 114 to generate an element image group (IP stereoscopic video).

なお、IP立体カメラ110は、仮想カメラのため、撮像用レンズアレイ112の被写体側(拡散板114の反対側)に絞り(不図示)を備えることができる。この絞りは、撮像用レンズアレイ112の各要素レンズ112aを通過する光量を調整するものである。   Note that since the IP stereoscopic camera 110 is a virtual camera, an aperture (not shown) can be provided on the subject side of the imaging lens array 112 (the side opposite to the diffusion plate 114). This diaphragm adjusts the amount of light passing through each element lens 112a of the imaging lens array 112.

IP立体カメラ制御装置120は、カメラパラメータ取得装置100が取得した2眼立体カメラ20のカメラパラメータから、IP立体カメラ110のカメラパラメータを算出するものである。そして、IP立体カメラ制御装置120は、算出したIP立体カメラ110のカメラパラメータに基づいて、IP立体カメラ110を制御する。具体的には、IP立体カメラ制御装置120は、算出したカメラパラメータに従って被写体10の撮像をIP立体カメラ110に指令すると共に、IP立体カメラ110での撮像に同期してIP立体映像の収録を収録再生装置130に指令する(同期信号)。   The IP stereoscopic camera control device 120 calculates the camera parameters of the IP stereoscopic camera 110 from the camera parameters of the binocular stereoscopic camera 20 acquired by the camera parameter acquisition device 100. Then, the IP stereoscopic camera control device 120 controls the IP stereoscopic camera 110 based on the calculated camera parameters of the IP stereoscopic camera 110. Specifically, the IP stereoscopic camera control device 120 instructs the IP stereoscopic camera 110 to image the subject 10 according to the calculated camera parameters, and records the recording of the IP stereoscopic video in synchronization with the imaging by the IP stereoscopic camera 110. Commands the playback device 130 (synchronization signal).

ここで、IP立体カメラ110のカメラパラメータには、撮像用レンズアレイ112の位置と、撮像用レンズアレイ112の方向と、撮像用レンズアレイ112の画角と、撮像用レンズアレイ112のレンズ間隔と、撮像用レンズアレイ112の焦点距離と、拡散板114の位置と、高精細カメラ116の焦点距離とが含まれる。
なお、IP立体カメラ制御装置120の詳細は、後記する。
Here, the camera parameters of the IP stereoscopic camera 110 include the position of the imaging lens array 112, the direction of the imaging lens array 112, the angle of view of the imaging lens array 112, and the lens interval of the imaging lens array 112. The focal length of the imaging lens array 112, the position of the diffusion plate 114, and the focal length of the high-definition camera 116 are included.
Details of the IP stereoscopic camera control device 120 will be described later.

収録再生装置130は、IP立体カメラ110から入力されたIP立体映像を、IP立体カメラ制御装置120からの指令に従って収録するものである。そして、収録再生装置130は、収録したIP立体映像をIP立体テレビ140に出力する。例えば、収録再生装置130としては、一般的な録画装置があげられる。   The recording / reproducing apparatus 130 records the IP stereoscopic video input from the IP stereoscopic camera 110 in accordance with a command from the IP stereoscopic camera control apparatus 120. Then, the recording / reproducing apparatus 130 outputs the recorded IP stereoscopic video to the IP stereoscopic television 140. For example, the recording / playback device 130 may be a general recording device.

IP立体テレビ140は、収録再生装置130から入力されたIP立体映像を表示するものである。例えば、IP立体テレビ140は、表示用レンズアレイ142と、表示素子144とを備える一般的なIP立体表示装置である(図8参照)。   The IP stereoscopic television 140 displays the IP stereoscopic video input from the recording / playback device 130. For example, the IP stereoscopic television 140 is a general IP stereoscopic display device that includes a display lens array 142 and a display element 144 (see FIG. 8).

[IP立体カメラ制御装置の構成]
図6を参照し、IP立体カメラ制御装置120の構成について、説明する(適宜図2参照)。
図6のように、IP立体カメラ制御装置120は、入力手段210と、IP立体カメラパラメータ算出手段220と、出力手段230と、IP立体カメラ制御手段240とを備える。
なお、IP立体テレビ制御手段250は、後記する変形例1で説明する。
[Configuration of IP Stereo Camera Control Device]
The configuration of the IP stereoscopic camera control device 120 will be described with reference to FIG. 6 (see FIG. 2 as appropriate).
As shown in FIG. 6, the IP stereoscopic camera control device 120 includes an input unit 210, an IP stereoscopic camera parameter calculation unit 220, an output unit 230, and an IP stereoscopic camera control unit 240.
Note that the IP stereoscopic television control unit 250 will be described in Modification 1 described later.

入力手段210は、カメラパラメータ取得装置100から、2眼立体カメラ20のカメラパラメータが入力されるものである。そして、入力手段210は、入力された2眼立体カメラ20のカメラパラメータを、IP立体カメラパラメータ算出手段220に出力する。   The input unit 210 receives camera parameters of the binocular stereoscopic camera 20 from the camera parameter acquisition device 100. Then, the input unit 210 outputs the input camera parameters of the binocular stereoscopic camera 20 to the IP stereoscopic camera parameter calculation unit 220.

IP立体カメラパラメータ算出手段220は、2眼立体カメラ20のカメラパラメータから、IP立体カメラ110のカメラパラメータを算出するものである。そして、IP立体カメラパラメータ算出手段220は、算出したIP立体カメラ110のカメラパラメータを、出力手段230に出力する。   The IP stereoscopic camera parameter calculation means 220 calculates camera parameters of the IP stereoscopic camera 110 from the camera parameters of the binocular stereoscopic camera 20. Then, the IP stereoscopic camera parameter calculation unit 220 outputs the calculated camera parameters of the IP stereoscopic camera 110 to the output unit 230.

図6のように、IP立体カメラパラメータ算出手段220は、レンズアレイパラメータ算出手段221と、絞り量算出手段227と、拡散板位置算出手段(集光部材位置算出手段)228と、高精細カメラ焦点距離算出手段(立体撮像装置焦点距離算出手段)229とを備える。   As shown in FIG. 6, the IP stereoscopic camera parameter calculation means 220 includes a lens array parameter calculation means 221, an aperture amount calculation means 227, a diffuser plate position calculation means (light condensing member position calculation means) 228, and a high-definition camera focus. Distance calculation means (stereoscopic imaging apparatus focal length calculation means) 229.

また、IP立体カメラパラメータ算出手段220は、IP立体カメラ110のカメラパラメータを算出するための初期設定値が入力される。この初期設定値には、撮像用レンズアレイ112のレンズ個数と、撮像用レンズアレイ112の被写界深度と、撮像距離と、高精細カメラ116の画素間隔とが含まれる。   The IP stereoscopic camera parameter calculation means 220 receives an initial setting value for calculating camera parameters of the IP stereoscopic camera 110. This initial set value includes the number of lenses of the imaging lens array 112, the depth of field of the imaging lens array 112, the imaging distance, and the pixel interval of the high-definition camera 116.

撮像用レンズアレイ112のレンズ個数は、撮像用レンズアレイ112が備える要素レンズ112aの個数を表す。通常、撮像用レンズアレイ112のレンズ個数は、IP立体テレビ140が備える表示用レンズアレイ142の要素レンズ142aと同一個数に設定される(図8参照)。
撮像用レンズアレイ112の被写界深度は、撮像用レンズアレイ112が備える要素レンズ112aの被写界深度を表す。
The number of lenses of the imaging lens array 112 represents the number of element lenses 112 a included in the imaging lens array 112. Usually, the number of lenses of the imaging lens array 112 is set to the same number as the element lenses 142a of the display lens array 142 provided in the IP stereoscopic television 140 (see FIG. 8).
The depth of field of the imaging lens array 112 represents the depth of field of the element lens 112 a included in the imaging lens array 112.

高精細カメラ116の画素間隔は、高精細カメラ116が備える撮像素子(不図示)の画素間隔を表す。通常、高精細カメラ116の画素間隔は、IP立体テレビ140が備える表示素子144の画素間隔以下に設定される(図8参照)。
撮像距離は、撮像用レンズアレイ112から被写体10までの距離を表す。
The pixel interval of the high-definition camera 116 represents the pixel interval of an image sensor (not shown) included in the high-definition camera 116. Usually, the pixel interval of the high-definition camera 116 is set to be equal to or less than the pixel interval of the display element 144 included in the IP stereoscopic television 140 (see FIG. 8).
The imaging distance represents the distance from the imaging lens array 112 to the subject 10.

レンズアレイパラメータ算出手段221は、撮像用レンズアレイ112に関するカメラパラメータを算出するものであり、位置算出手段222と、方向算出手段223と、画角算出手段224と、レンズ間隔算出手段225と、レンズアレイ焦点距離算出手段226とを備える。   The lens array parameter calculation unit 221 calculates camera parameters related to the imaging lens array 112, and includes a position calculation unit 222, a direction calculation unit 223, an angle of view calculation unit 224, a lens interval calculation unit 225, and a lens. Array focal length calculation means 226.

位置算出手段222は、撮像用レンズアレイ112の位置を、入力手段210から入力されたゼロ視差面ZDPの位置と同位置で算出するものである。
方向算出手段223は、撮像用レンズアレイ112の方向を、入力手段210から入力された撮像方向と同方向で算出するものである。つまり、方向算出手段223は、撮像用レンズアレイ112が備える要素レンズ112aの光軸を、2眼立体カメラ20の光軸と同方向で算出する。
The position calculation unit 222 calculates the position of the imaging lens array 112 at the same position as the position of the zero parallax plane ZDP input from the input unit 210.
The direction calculation unit 223 calculates the direction of the imaging lens array 112 in the same direction as the imaging direction input from the input unit 210. That is, the direction calculation unit 223 calculates the optical axis of the element lens 112 a included in the imaging lens array 112 in the same direction as the optical axis of the binocular stereoscopic camera 20.

このように、撮像用レンズアレイ112の位置及び方向を、2眼立体カメラ20のゼロ視差面の位置及び撮像方向と同一に配置することで、IP立体カメラ110で撮像するIP立体映像を、2眼立体カメラ20で撮像した2眼立体映像に近似させることができる。   In this way, by arranging the position and direction of the imaging lens array 112 in the same manner as the position and the imaging direction of the zero parallax surface of the binocular stereoscopic camera 20, the IP stereoscopic video imaged by the IP stereoscopic camera 110 is 2 The image can be approximated to a binocular stereoscopic image captured by the eye stereoscopic camera 20.

画角算出手段224は、予め設定された下記式(1)の画角算出式を用いて、撮像用レンズアレイ112の画角を算出するものである。式(1)には、撮像用レンズアレイ112の画角αと、ずれ量Δdと、撮像素子のサイズwと、2眼立体カメラ20の焦点距離fとが含まれる。この撮像用レンズアレイ112の画角αは、図3のハッチング領域の全体が撮影できる画角を表している。   The angle-of-view calculation means 224 calculates the angle of view of the imaging lens array 112 using a preset angle-of-view calculation formula (1) below. Expression (1) includes the angle of view α of the imaging lens array 112, the shift amount Δd, the size w of the imaging device, and the focal length f of the binocular stereoscopic camera 20. An angle of view α of the imaging lens array 112 represents an angle of view at which the entire hatched area in FIG. 3 can be photographed.

Figure 0006223226
Figure 0006223226

レンズ間隔算出手段225は、入力手段210から入力されたゼロ視差面ZDPのサイズと、初期設定値のレンズ個数とに基づいて、撮像用レンズアレイ112のレンズ間隔を算出するものである。
ここで、撮像用レンズアレイ112は、要素レンズ112aを隙間なく配列したものである。このため、撮像用レンズアレイ112のレンズ間隔は、撮像用レンズアレイ112が備える要素レンズ112aの直径を表すことになる。さらに、撮像用レンズアレイ112は、ゼロ視差面ZDPと同一サイズとなる。
従って、レンズ間隔算出手段225は、ゼロ視差面ZDPのサイズを撮像用レンズアレイ112のレンズ個数で除算すれば、撮像用レンズアレイ112のレンズ間隔を算出できる。
The lens interval calculation unit 225 calculates the lens interval of the imaging lens array 112 based on the size of the zero parallax plane ZDP input from the input unit 210 and the number of lenses of the initial setting value.
Here, the imaging lens array 112 is configured by arranging the element lenses 112a without a gap. For this reason, the lens interval of the imaging lens array 112 represents the diameter of the element lens 112 a included in the imaging lens array 112. Further, the imaging lens array 112 has the same size as the zero parallax plane ZDP.
Therefore, the lens interval calculation unit 225 can calculate the lens interval of the imaging lens array 112 by dividing the size of the zero parallax plane ZDP by the number of lenses of the imaging lens array 112.

レンズアレイ焦点距離算出手段226は、レンズ間隔算出手段225が算出したレンズ間隔と、画角算出手段224が算出した画角とに基づいて、撮像用レンズアレイ112の焦点距離を算出するものである。例えば、レンズアレイ焦点距離算出手段226は、一般的なレンズの公式を用いて、撮像用レンズアレイ112のレンズ間隔及び画角から焦点距離を求めることができる。
この撮像用レンズアレイ112の焦点距離は、撮像用レンズアレイ112が備える要素レンズ112aの焦点距離を表す。
The lens array focal length calculation unit 226 calculates the focal length of the imaging lens array 112 based on the lens interval calculated by the lens interval calculation unit 225 and the field angle calculated by the field angle calculation unit 224. . For example, the lens array focal length calculation unit 226 can obtain the focal length from the lens interval and the angle of view of the imaging lens array 112 using a general lens formula.
The focal length of the imaging lens array 112 represents the focal length of the element lens 112a included in the imaging lens array 112.

絞り量算出手段227は、初期設定値の被写界深度及び撮像距離と、レンズアレイ焦点距離算出手段226が算出した焦点距離と、レンズ間隔算出手段225が算出したレンズ間隔とに基づいて、撮像用レンズアレイ112の絞り量を算出するものである。   The aperture amount calculating unit 227 performs imaging based on the initial depth of field and imaging distance, the focal length calculated by the lens array focal length calculating unit 226, and the lens interval calculated by the lens interval calculating unit 225. The aperture amount of the lens array 112 is calculated.

例えば、絞り量算出手段227は、下記の参考文献1に記載の被写界深度算出式を用いて、撮像用レンズアレイ112の絞り量を算出できる。
参考文献1:[online]、被写界深度に関する計算式、[平成26年2月11日検索]、インターネット<http://www.asahi-net.or.jp/~kv5y-aon/DOF/dof.html>
For example, the aperture amount calculation unit 227 can calculate the aperture amount of the imaging lens array 112 using the depth-of-field calculation formula described in Reference Document 1 below.
Reference 1: [online], Formula for Depth of Field, [February 11, 2014 Search], Internet <http://www.asahi-net.or.jp/~kv5y-aon/DOF/ dof.html>

<IP立体方式での解像度特性>
図7〜図9を参照し、カメラパラメータの算出に関連するので、IP立体方式での解像度特性を説明する。
図7では、横軸Zが表示用レンズアレイ142を基準とした奥行値を表し、‘0’が表示用レンズアレイ142の位置となる。
<Resolution characteristics in IP 3D system>
With reference to FIG. 7 to FIG. 9, the resolution characteristics in the IP stereoscopic method will be described because it relates to the calculation of camera parameters.
In FIG. 7, the horizontal axis Z represents the depth value with reference to the display lens array 142, and “0” is the position of the display lens array 142.

図7のように、最大解像度(最大空間周波数)は、表示用レンズアレイ142のレンズ間隔P、及び、表示用レンズアレイ142と視点300との視距離Lに基づいて算出される。
最大解像度とは、表示用レンズアレイ142の間隔Pに依存して決まる解像度であり、表示用レンズアレイ142の位置(図8の奥行値z)における解像度である。
As shown in FIG. 7, the maximum resolution (maximum spatial frequency) is calculated based on the lens interval P of the display lens array 142 and the viewing distance L between the display lens array 142 and the viewpoint 300.
The maximum resolution is a resolution determined depending on the interval P of the display lens array 142, and is the resolution at the position of the display lens array 142 (depth value z in FIG. 8).

図7のように、角度φは、下記の式(2)のように、表示用レンズアレイ142の間隔Pに対する角度を表す。言い換えるなら、角度φは、表示用レンズアレイ142の上端及び視点300を結んだ線と、表示用レンズアレイ142の下端及び視点300を結んだ線とのなす角である。従って、最大解像度βは、下記の式(3)で近似することができる。 As shown in FIG. 7, the angle φ represents an angle with respect to the interval P of the display lens array 142 as in the following formula (2). In other words, the angle φ is an angle formed by a line connecting the upper end of the display lens array 142 and the viewpoint 300 and a line connecting the lower end of the display lens array 142 and the viewpoint 300. Therefore, the maximum resolution β n can be approximated by the following equation (3).

Figure 0006223226
Figure 0006223226

Figure 0006223226
Figure 0006223226

図8のように、観視解像度(観視空間周波数)は、表示用レンズアレイ142と表示素子144との距離g、及び、要素画像群410を構成する要素画像420の画素間隔pに基づいて、算出できる。
観視解像度とは、立体像400を視点300から観視したときの解像度のことである。
As shown in FIG. 8, the viewing resolution (viewing spatial frequency) is based on the distance g between the display lens array 142 and the display element 144 and the pixel interval p of the element image 420 constituting the element image group 410. Can be calculated.
The viewing resolution is the resolution when the stereoscopic image 400 is viewed from the viewpoint 300.

なお、図8では、表示用レンズアレイ142の奥側にあるため、距離gがマイナスになっている。
また、図8では、図面を見易くするため、立体像400における画素、及び、要素画像420の画素を交互に白黒で図示した。
In FIG. 8, the distance g is negative because it is on the far side of the display lens array 142.
Further, in FIG. 8, the pixels in the stereoscopic image 400 and the pixels in the element image 420 are alternately shown in black and white for easy viewing of the drawing.

画素間隔tは、下記の式(4)のように、立体像400における画素の間隔を表す。ここで、立体像400は、奥行値zが示す位置に形成されることとする。   The pixel interval t represents the pixel interval in the stereoscopic image 400 as in the following formula (4). Here, the stereoscopic image 400 is formed at a position indicated by the depth value z.

Figure 0006223226
Figure 0006223226

角度θは、下記の式(5)のように画素間隔tに対する角度を表す。言い換えるなら、角度θは、画素間隔tを、視距離Lから奥行値zを引いた値で除算した近似値である。従って、観視解像度βは、下記の式(6)で示すことができる。   The angle θ represents an angle with respect to the pixel interval t as in the following formula (5). In other words, the angle θ is an approximate value obtained by dividing the pixel interval t by the value obtained by subtracting the depth value z from the viewing distance L. Accordingly, the viewing resolution β can be expressed by the following equation (6).

Figure 0006223226
Figure 0006223226

Figure 0006223226
Figure 0006223226

図9のように、解像度特性γは、下記の式(7)のように、最大解像度β又は観視解像度βの小さな方となる。式(7)において、‘min’は、複数の引数のうち、最小の引数を選択する関数である。 As shown in FIG. 9, the resolution characteristic γ is the smaller of the maximum resolution β n or the viewing resolution β as shown in the following equation (7). In Expression (7), “min” is a function that selects the smallest argument among a plurality of arguments.

Figure 0006223226
Figure 0006223226

図9の例では、解像度特性γは、表示用レンズアレイ142の付近で最大解像度βを表し、表示用レンズアレイ142からある程度離れると観視解像度βを表す。そして、解像度特性γは、表示用レンズアレイ142から離れる程、解像度が低下することを表す。
以上より、IP立体方式での解像度特性及び視域は、表示用レンズアレイ142のレンズ間隔及び焦点距離と、表示素子144の画素間隔とによって決まる。すなわち、解像度特性と視域との間には、トレードオフの関係がある。この視域とは、IP立体映像を正しく表示できる領域のことである。
In the example of FIG. 9, the resolution characteristic γ represents the maximum resolution β n in the vicinity of the display lens array 142, and represents the viewing resolution β when separated from the display lens array 142 to some extent. The resolution characteristic γ represents that the resolution decreases as the distance from the display lens array 142 increases.
As described above, the resolution characteristics and the viewing area in the IP stereoscopic method are determined by the lens interval and focal length of the display lens array 142 and the pixel interval of the display element 144. That is, there is a trade-off relationship between the resolution characteristics and the viewing zone. This viewing area is an area in which IP stereoscopic video can be correctly displayed.

ここで、IP立体方式での解像度特性は、表示側(IP立体テレビ140側)で説明したが、撮像側(IP立体カメラ制御装置120)も同様である。従って、IP立体方式での解像度特性は、撮像用レンズアレイ112のレンズ間隔で制限を受けてしまう。以上より、IP立体方式での視域が2眼立体カメラ20の画角以上になれば、2眼立体カメラ20の撮像領域又はこれ以上の領域で被写体10を撮像できる。   Here, the resolution characteristics in the IP stereoscopic method have been described on the display side (IP stereoscopic television 140 side), but the same applies to the imaging side (IP stereoscopic camera control device 120). Therefore, the resolution characteristic in the IP stereoscopic method is limited by the lens interval of the imaging lens array 112. As described above, if the viewing area in the IP stereoscopic system is equal to or larger than the angle of view of the binocular stereoscopic camera 20, the subject 10 can be imaged in the imaging area of the binocular stereoscopic camera 20 or beyond.

なお、解像度特性は、下記の参考文献2に記載されているため、これ以上の説明を省略する。
参考文献2:H.Hoshino et al.,“Analysis of Resolution Limitation of Integral Photography”,J.Opt.Soc.Am.A,Vol.15,No.8,pp.2059-2065, 1998
Since the resolution characteristics are described in Reference Document 2 below, further explanation is omitted.
Reference 2: H. Hoshino et al., “Analysis of Resolution Limitation of Integral Photography”, J. Opt. Soc. Am. A, Vol. 15, No. 8, pp. 2059-2065, 1998

図6に戻り、IP立体カメラ制御装置120の構成について、説明を続ける。
拡散板位置算出手段228は、レンズアレイ焦点距離算出手段226が算出した焦点距離を基準として、撮像用レンズアレイ112に対する拡散板114の位置を算出するものである(図5参照)。
高精細カメラ焦点距離算出手段229は、高精細カメラ116の焦点距離を、拡散板位置算出手段228が求めた拡散板114の位置に合焦するように算出するものである。
Returning to FIG. 6, the description of the configuration of the IP stereoscopic camera control device 120 will be continued.
The diffusing plate position calculating unit 228 calculates the position of the diffusing plate 114 with respect to the imaging lens array 112 based on the focal length calculated by the lens array focal length calculating unit 226 (see FIG. 5).
The high-definition camera focal length calculation unit 229 calculates the focal length of the high-definition camera 116 so as to focus on the position of the diffusion plate 114 obtained by the diffusion plate position calculation unit 228.

<拡散板の位置及び高精細カメラの焦点距離>
図10を参照し、拡散板114の位置及び高精細カメラ116の焦点距離の算出について、説明する(適宜図6参照)。
図10では、撮像用レンズアレイ112と拡散板114とが距離L1だけ離れており、拡散板114と高精細カメラ116とが距離L2だけ離れている。また、図10では、撮像用レンズアレイ112がゼロ視差面ZDPに位置し、撮像用レンズアレイ112及び拡散板114の端面が平行になっている。
<Diffusion plate position and high-definition camera focal length>
The calculation of the position of the diffusion plate 114 and the focal length of the high-definition camera 116 will be described with reference to FIG. 10 (see FIG. 6 as appropriate).
In FIG. 10, the imaging lens array 112 and the diffusion plate 114 are separated by a distance L1, and the diffusion plate 114 and the high-definition camera 116 are separated by a distance L2. In FIG. 10, the imaging lens array 112 is located on the zero parallax plane ZDP, and the imaging lens array 112 and the end face of the diffusion plate 114 are parallel to each other.

ここで、撮像用レンズアレイ112が無限遠にフォーカスする場合、撮像用レンズアレイ112と拡散板114との端面が平行になり、かつ、距離L1と撮像用レンズアレイ112の焦点距離とが等しくなる。   Here, when the imaging lens array 112 focuses at infinity, the end surfaces of the imaging lens array 112 and the diffusion plate 114 are parallel, and the distance L1 and the focal length of the imaging lens array 112 are equal. .

従って、距離L1を撮像用レンズアレイ112の焦点距離以外にすることで、撮像用レンズアレイ112が任意の位置に合焦する。ここで、距離L1が撮像用レンズアレイ112の焦点距離よりも短い場合、拡散板114よりも高精細カメラ116の側(奥側)に合焦する。また、距離L1が撮像用レンズアレイ112の焦点距離よりも長い場合、拡散板114よりも被写体10の側(手前側)に合焦する。   Therefore, by setting the distance L1 to a value other than the focal length of the imaging lens array 112, the imaging lens array 112 is focused on an arbitrary position. Here, when the distance L1 is shorter than the focal length of the imaging lens array 112, the focus is on the high-definition camera 116 side (back side) rather than the diffusion plate 114. Further, when the distance L1 is longer than the focal length of the imaging lens array 112, the object 10 side (near side) is focused with respect to the diffusion plate 114.

そこで、拡散板位置算出手段228は、撮像用レンズアレイ112の焦点距離を基準に距離L1を長短させて、所望の位置に合焦するように拡散板114の位置を算出する。さらに、高精細カメラ焦点距離算出手段229は、高精細カメラ116が拡散板114に合焦するように、高精細カメラ116の焦点距離を算出する。   Therefore, the diffuser plate position calculating means 228 calculates the position of the diffuser plate 114 so as to focus on a desired position by increasing or decreasing the distance L1 with reference to the focal length of the imaging lens array 112. Further, the high-definition camera focal length calculation unit 229 calculates the focal length of the high-definition camera 116 so that the high-definition camera 116 is focused on the diffusion plate 114.

これにより、撮像用レンズアレイ112の要素レンズ112aは、無限遠ではなく有限の位置に焦点を合わせて、拡散板122に要素画像群を表示させる。すなわち、IP立体カメラ110は、2眼立体カメラ20の合焦位置で最大解像度となるように撮像できる。例えば、2次元映像の制作では、被写体10にフォーカスを合わせ、背景をわざとぼかすことで、被写体10を強調することが行われている。これと同様、拡散板位置算出手段228は、被写体10にフォーカスを合わせることで、無限遠にフォーカスしているときに比べて、立体映像の解像度を向上させることができる。
なお、距離L1が撮像用レンズアレイ112の焦点距離以外の場合、無限遠にフォーカスしたときに比べ、解像度が急激に低下する。
As a result, the element lens 112a of the imaging lens array 112 focuses on a finite position rather than infinity, and causes the diffusion plate 122 to display the element image group. That is, the IP stereoscopic camera 110 can capture an image at the maximum resolution at the in-focus position of the binocular stereoscopic camera 20. For example, in the production of a two-dimensional video, the subject 10 is emphasized by focusing on the subject 10 and intentionally blurring the background. Similarly, the diffusing plate position calculating unit 228 can improve the resolution of the stereoscopic video by focusing on the subject 10 as compared with the case of focusing on infinity.
Note that when the distance L1 is other than the focal length of the imaging lens array 112, the resolution is drastically reduced as compared to when focusing at infinity.

図6に戻り、IP立体カメラ制御装置120の構成について、説明を続ける。
出力手段230は、IP立体カメラパラメータ算出手段220から入力されたIP立体カメラ110のカメラパラメータを、IP立体カメラ制御手段240に出力するものである。
Returning to FIG. 6, the description of the configuration of the IP stereoscopic camera control device 120 will be continued.
The output unit 230 outputs the camera parameters of the IP stereoscopic camera 110 input from the IP stereoscopic camera parameter calculation unit 220 to the IP stereoscopic camera control unit 240.

IP立体カメラ制御手段240は、出力手段230から入力されたIP立体カメラ110のカメラパラメータに基づいて、IP立体カメラ110を制御するものである。
前記したように、IP立体カメラ110は、IP立体映像制作ソフトウェアの仮想カメラである。従って、IP立体カメラ制御手段240は、APIを介して、IP立体カメラ110のカメラパラメータをIP立体映像制作ソフトウェアに設定し、このIP立体カメラ110で撮像されたIP立体映像をIP立体映像制作ソフトウェアに生成させる制御を行う。
その後、IP立体カメラ制御手段240は、撮像したIP立体映像の収録を収録再生装置130に指令する。
The IP stereoscopic camera control unit 240 controls the IP stereoscopic camera 110 based on the camera parameters of the IP stereoscopic camera 110 input from the output unit 230.
As described above, the IP stereoscopic camera 110 is a virtual camera of IP stereoscopic video production software. Therefore, the IP stereoscopic camera control unit 240 sets the camera parameters of the IP stereoscopic camera 110 in the IP stereoscopic video production software via the API, and the IP stereoscopic video captured by the IP stereoscopic camera 110 is set as the IP stereoscopic video production software. Control to be generated.
Thereafter, the IP stereoscopic camera control means 240 commands the recording / playback apparatus 130 to record the captured IP stereoscopic video.

[IP立体映像制作システムの全体動作]
図11を参照し、図2のIP立体映像制作システム1の全体動作について、説明する(適宜図2参照)。
図11のように、カメラパラメータ取得装置100は、2眼立体カメラ20のカメラパラメータを取得する(ステップS1)。
[Overall operation of IP stereoscopic video production system]
With reference to FIG. 11, the overall operation of the IP stereoscopic video production system 1 in FIG. 2 will be described (see FIG. 2 as appropriate).
As shown in FIG. 11, the camera parameter acquisition device 100 acquires camera parameters of the binocular stereoscopic camera 20 (step S1).

IP立体カメラ制御装置120は、ステップS1で取得した2眼立体カメラ20のカメラパラメータから、IP立体カメラ110のカメラパラメータを算出する。そして、IP立体カメラ制御装置120は、算出したIP立体カメラ110のカメラパラメータに基づいて、IP立体カメラ110を制御する(ステップS2:IP立体カメラ制御処理)。
なお、ステップS2の詳細は、後記する。
The IP stereoscopic camera control device 120 calculates camera parameters of the IP stereoscopic camera 110 from the camera parameters of the binocular stereoscopic camera 20 acquired in step S1. Then, the IP stereoscopic camera control device 120 controls the IP stereoscopic camera 110 based on the calculated camera parameters of the IP stereoscopic camera 110 (step S2: IP stereoscopic camera control process).
Details of step S2 will be described later.

IP立体カメラ110は、被写体10を撮像する。そして、収録再生装置130は、IP立体カメラ110が撮像したIP立体映像を収録する(ステップS3)。
IP立体テレビ140は、ステップS3で収録されたIP立体映像を表示する(ステップS4)。
The IP stereoscopic camera 110 images the subject 10. Then, the recording / reproducing device 130 records the IP stereoscopic video captured by the IP stereoscopic camera 110 (step S3).
The IP stereoscopic television 140 displays the IP stereoscopic video recorded in step S3 (step S4).

[IP立体カメラ制御装置の動作]
図12を参照し、図11のIP立体カメラ制御処理について、説明する(適宜図6参照)。
入力手段210は、カメラパラメータ取得装置100から、2眼立体カメラ20のカメラパラメータが入力される(ステップS20)。
[Operation of IP Stereo Camera Control Device]
The IP stereoscopic camera control process of FIG. 11 will be described with reference to FIG. 12 (see FIG. 6 as appropriate).
The input unit 210 receives camera parameters of the binocular stereoscopic camera 20 from the camera parameter acquisition device 100 (step S20).

位置算出手段222は、撮像用レンズアレイ112の位置をゼロ視差面の位置と同位置で算出する(ステップS21)。
方向算出手段223は、撮像用レンズアレイ112の方向を撮像方向と同方向で算出する(ステップS22)。
The position calculation unit 222 calculates the position of the imaging lens array 112 at the same position as the position of the zero parallax surface (step S21).
The direction calculation means 223 calculates the direction of the imaging lens array 112 in the same direction as the imaging direction (step S22).

画角算出手段224は、前記式(1)の画角算出式を用いて、撮像用レンズアレイ112の画角を算出する(ステップS23)。
レンズ間隔算出手段225は、ゼロ視差面のサイズと、初期設定値のレンズ個数とに基づいて、撮像用レンズアレイ112のレンズ間隔を算出する(ステップS24)。
The angle-of-view calculation means 224 calculates the angle of view of the imaging lens array 112 using the angle-of-view calculation formula of the formula (1) (step S23).
The lens interval calculation unit 225 calculates the lens interval of the imaging lens array 112 based on the size of the zero parallax surface and the number of lenses of the initial setting value (step S24).

レンズアレイ焦点距離算出手段226は、ステップS24で算出したレンズ間隔と、ステップS23で算出した画角とに基づいて、撮像用レンズアレイ112の焦点距離を算出する(ステップS25)。
絞り量算出手段227は、被写界深度及び撮像距離と、ステップS25で算出した焦点距離と、ステップS24で算出したレンズ間隔とに基づいて、撮像用レンズアレイ112の絞り量を算出する(ステップS26)。
The lens array focal length calculation unit 226 calculates the focal length of the imaging lens array 112 based on the lens interval calculated in step S24 and the angle of view calculated in step S23 (step S25).
The aperture amount calculation means 227 calculates the aperture amount of the imaging lens array 112 based on the depth of field and the imaging distance, the focal length calculated in step S25, and the lens interval calculated in step S24 (step S26).

拡散板位置算出手段228は、ステップS25で算出した焦点距離を基準として、拡散板114の位置を算出する(ステップS27)。
高精細カメラ焦点距離算出手段229は、高精細カメラ116の焦点距離を、ステップS27で求めた拡散板114の位置に合焦するように算出する(ステップS28)。
The diffusing plate position calculating means 228 calculates the position of the diffusing plate 114 with reference to the focal length calculated in step S25 (step S27).
The high-definition camera focal length calculation unit 229 calculates the focal length of the high-definition camera 116 so as to focus on the position of the diffusion plate 114 obtained in step S27 (step S28).

IP立体カメラ制御手段240は、ステップS21〜S28で求めたIP立体カメラ110のカメラパラメータに基づいて、IP立体カメラ110を制御する。例えば、IP立体カメラ制御手段240は、IP立体カメラ110のカメラパラメータをIP立体映像制作ソフトウェアに設定する(ステップS29)。   The IP stereoscopic camera control unit 240 controls the IP stereoscopic camera 110 based on the camera parameters of the IP stereoscopic camera 110 obtained in steps S21 to S28. For example, the IP stereoscopic camera control unit 240 sets the camera parameters of the IP stereoscopic camera 110 in the IP stereoscopic video production software (step S29).

[作用・効果]
IP立体カメラ制御装置120は、2眼立体カメラ20のカメラパラメータからIP立体カメラ110のカメラパラメータを算出できるので、最初からIP立体カメラ110のカメラパラメータを決定する必要がない。これによって、IP立体カメラ制御装置120は、IP方式での制作作業を少なくし、IP立体映像の制作時間を短縮することができる。
[Action / Effect]
Since the IP stereoscopic camera control device 120 can calculate the camera parameters of the IP stereoscopic camera 110 from the camera parameters of the binocular stereoscopic camera 20, it is not necessary to determine the camera parameters of the IP stereoscopic camera 110 from the beginning. As a result, the IP stereoscopic camera control device 120 can reduce the production work of the IP system and shorten the production time of the IP stereoscopic video.

さらに、IP立体カメラ制御装置120は、2眼立体映像を制作したときの制作データ(2眼立体カメラ20のカメラパラメータ)を利用できるので、2眼立体映像の奥行表現をIP立体映像に反映させることができ、制作者が意図した高品質なIP立体映像を制作できる。   Furthermore, since the IP stereoscopic camera control device 120 can use production data (camera parameters of the binocular stereoscopic camera 20) when the binocular stereoscopic video is produced, the depth expression of the binocular stereoscopic video is reflected in the IP stereoscopic video. Can produce high-quality IP stereoscopic video intended by the creator.

(第2実施形態)
[IP立体映像制作システムの概略]
図13を参照し、本願発明の第2実施形態に係るIP立体映像制作システム1Bについて、第1実施形態と異なる点を説明する。
IP立体映像制作システム1Bは、2眼立体カメラ20ではなく単眼カメラ(撮像カメラ)150のカメラパラメータを用いて、IP立体カメラ110のカメラパラメータを算出する点が、第1実施形態と異なる。
(Second Embodiment)
[Outline of IP stereoscopic video production system]
With reference to FIG. 13, an IP stereoscopic video production system 1B according to the second embodiment of the present invention will be described while referring to differences from the first embodiment.
The IP stereoscopic video production system 1B is different from the first embodiment in that the camera parameters of the IP stereoscopic camera 110 are calculated using the camera parameters of the monocular camera (imaging camera) 150 instead of the binocular stereoscopic camera 20.

図13のように、IP立体映像制作システム1Bは、収録再生装置30と、カメラパラメータ取得装置100Bと、IP立体カメラ110と、IP立体カメラ制御装置(カメラパラメータ算出装置)120Bと、収録再生装置130と、IP立体テレビ140と、単眼カメラ150と、2次元テレビ160とを備える。
以下、単眼カメラ150及び2次元テレビ160を先に説明した後、カメラパラメータ取得装置100B及びIP立体カメラ制御装置120Bを説明する。
As shown in FIG. 13, the IP stereoscopic video production system 1B includes a recording / playback device 30, a camera parameter acquisition device 100B, an IP stereoscopic camera 110, an IP stereoscopic camera control device (camera parameter calculation device) 120B, and a recording / playback device. 130, an IP stereoscopic television 140, a monocular camera 150, and a two-dimensional television 160.
Hereinafter, after describing the monocular camera 150 and the two-dimensional television 160 first, the camera parameter acquisition device 100B and the IP stereoscopic camera control device 120B will be described.

単眼カメラ150は、仮想3次元空間内に配置された被写体10を撮像する仮想カメラである。そして、単眼カメラ150は、撮像したCG画像を収録再生装置30に出力する。
言い換えるなら、単眼カメラ150は、CG制作の際に用いられるCG画像制作ソフトウェアの仮想カメラのことである。例えば、CG画像制作ソフトウェアは、CG画像の制作データとして、単眼カメラ150のカメラパラメータを設定する。そして、CG画像制作ソフトウェアは、前記したカメラパラメータが設定された単眼カメラ150を用いて、被写体10を撮像したようなCG画像を生成する。
The monocular camera 150 is a virtual camera that captures an image of the subject 10 arranged in a virtual three-dimensional space. Then, the monocular camera 150 outputs the captured CG image to the recording / playback apparatus 30.
In other words, the monocular camera 150 is a virtual camera of CG image production software used in CG production. For example, the CG image production software sets the camera parameters of the monocular camera 150 as CG image production data. Then, the CG image production software generates a CG image as if the subject 10 was captured using the monocular camera 150 in which the camera parameters are set.

2次元テレビ160は、収録再生装置30から入力されたCG画像を2次元表示するものである。例えば、2次元テレビ160は、液晶パネルディスプレイ等のフラットパネルディスプレイを用いた一般的なディスプレイ装置である。   The two-dimensional television 160 displays the CG image input from the recording / reproducing apparatus 30 in two dimensions. For example, the two-dimensional television 160 is a general display device using a flat panel display such as a liquid crystal panel display.

カメラパラメータ取得装置100Bは、単眼カメラ150のカメラパラメータを取得するものである。すなわち、カメラパラメータ取得装置100Bは、CG画像制作ソフトウェアに設定されたカメラパラメータを取得する。そして、カメラパラメータ取得装置100Bは、取得した単眼カメラ150のカメラパラメータを、IP立体カメラ制御装置120Bに出力する。   The camera parameter acquisition device 100B acquires camera parameters of the monocular camera 150. That is, the camera parameter acquisition device 100B acquires camera parameters set in the CG image production software. Then, the camera parameter acquisition apparatus 100B outputs the acquired camera parameters of the monocular camera 150 to the IP stereoscopic camera control apparatus 120B.

この単眼カメラ150のカメラパラメータには、単眼カメラ150の撮像位置と、単眼カメラ150の撮像方向と、単眼カメラ150の焦点距離と、単眼カメラ150が備える撮像素子のサイズと、単眼カメラ150の光軸に対する撮像素子のずれ量とが含まれる。   The camera parameters of the monocular camera 150 include the imaging position of the monocular camera 150, the imaging direction of the monocular camera 150, the focal length of the monocular camera 150, the size of the image sensor included in the monocular camera 150, and the light of the monocular camera 150. The amount of displacement of the image sensor with respect to the axis is included.

ここで、単眼カメラ150のカメラパラメータのうち、撮像方向と、焦点距離と、撮像素子のサイズと、ずれ量とは、2眼立体カメラ20のカメラパラメータと同様に扱うことができる。   Here, among the camera parameters of the monocular camera 150, the imaging direction, the focal length, the size of the imaging device, and the shift amount can be handled in the same manner as the camera parameters of the binocular stereoscopic camera 20.

また、単眼カメラ150でゼロ視差面を扱わないため、単眼カメラ150のカメラパラメータには、ゼロ視差面の位置及びサイズが含まれない。そこで、カメラパラメータ取得装置100Bは、単眼カメラ150の撮像位置及び焦点距離を用いて、ゼロ視差面の位置を補う。   In addition, since the monocular camera 150 does not handle the zero parallax plane, the camera parameters of the monocular camera 150 do not include the position and size of the zero parallax plane. Therefore, the camera parameter acquisition apparatus 100B supplements the position of the zero parallax plane using the imaging position and focal length of the monocular camera 150.

単眼カメラ150の撮像位置及び焦点距離から、単眼カメラ150がフォーカスしている焦点位置z2が分かる(以後、「焦点位置情報」)。一般的な2次元画像では、単眼カメラ150の焦点位置が、視聴者に注視して欲しい位置であることが多い。また、前記したように、IP立体方式では、撮像用レンズアレイ112の付近で最大解像度が得られ、撮像用レンズアレイ112から離れる程に解像度が低下する。さらに、撮像用レンズアレイ112は、ゼロ視差面に配置される。このように、カメラパラメータ取得装置100Bは、単眼カメラ21の焦点位置をゼロ視差面の位置として扱う。   From the imaging position and focal length of the monocular camera 150, the focal position z2 on which the monocular camera 150 is focused is known (hereinafter, “focal position information”). In general two-dimensional images, the focal position of the monocular camera 150 is often the position that the viewer wants to watch. As described above, in the IP stereoscopic system, the maximum resolution is obtained in the vicinity of the imaging lens array 112, and the resolution decreases as the distance from the imaging lens array 112 increases. Further, the imaging lens array 112 is disposed on the zero parallax plane. Thus, the camera parameter acquisition device 100B handles the focal position of the monocular camera 21 as the position of the zero parallax plane.

また、ゼロ視差面のサイズw2は、下記の式(8)のように、撮像素子のサイズw、単眼カメラ150の光学主点と撮像素子との距離f2、及び、焦点位置z2から求めることができる。そこで、カメラパラメータ取得装置100Bは、式(8)を変形した式(9)を用いて、ゼロ視差面のサイズw2を取得できる。
なお、単眼カメラ150の光学主点とは、単眼カメラ150が備えるレンズの主点位置のことである。
Further, the size w2 of the zero parallax plane can be obtained from the size w of the image sensor, the distance f2 between the optical principal point of the monocular camera 150 and the image sensor, and the focal position z2 as in the following equation (8). it can. Therefore, the camera parameter acquisition device 100B can acquire the size w2 of the zero parallax plane using Expression (9) obtained by modifying Expression (8).
Note that the optical principal point of the monocular camera 150 is the principal point position of the lens provided in the monocular camera 150.

Figure 0006223226
Figure 0006223226

Figure 0006223226
Figure 0006223226

IP立体カメラ制御装置120Bは、カメラパラメータ取得装置100Bが取得した単眼カメラ150のカメラパラメータから、IP立体カメラ110のカメラパラメータを算出するものである。
なお、IP立体カメラ制御装置120Bは、第1実施形態と同様にIP立体カメラ110のカメラパラメータを算出できるため、これ以上の説明を省略する。
The IP stereoscopic camera control device 120B calculates camera parameters of the IP stereoscopic camera 110 from the camera parameters of the monocular camera 150 acquired by the camera parameter acquisition device 100B.
Since the IP stereoscopic camera control device 120B can calculate the camera parameters of the IP stereoscopic camera 110 as in the first embodiment, further description thereof is omitted.

[作用・効果]
IP立体カメラ制御装置120Bは、単眼カメラ150のカメラパラメータからIP立体カメラ110のカメラパラメータを算出できるので、第1実施形態と同様、IP立体映像の制作時間を短縮することができる。
[Action / Effect]
Since the IP stereoscopic camera control device 120B can calculate the camera parameters of the IP stereoscopic camera 110 from the camera parameters of the monocular camera 150, the IP stereoscopic video production time can be shortened as in the first embodiment.

さらに、IP立体カメラ制御装置120Bは、無数に存在するCG画像を制作したときの制作データ(単眼カメラ150のカメラパラメータ)を利用して、様々なIP立体映像を制作できるので、汎用性を向上させることができる。   Furthermore, the IP stereoscopic camera control device 120B can produce various IP stereoscopic images using production data (camera parameters of the monocular camera 150) when producing innumerable CG images, thus improving versatility. Can be made.

(変形例1)
本願発明に係るIP立体カメラ制御装置は、前記した各実施形態に限定されず、その趣旨を逸脱しない範囲で変形を加えることができる。
(Modification 1)
The IP stereoscopic camera control device according to the present invention is not limited to the above-described embodiments, and modifications can be made without departing from the spirit thereof.

図6に戻り、本願発明の変形例1に係るIP立体カメラ制御装置120Cについて、説明する(適宜図2,図8参照)。
IP立体カメラ制御装置120Cは、IP立体カメラ制御装置120がIP立体テレビ制御手段250をさらに備えたものである。
Returning to FIG. 6, the IP stereoscopic camera control device 120C according to the first modification of the present invention will be described (see FIGS. 2 and 8 as appropriate).
The IP stereoscopic camera control device 120 </ b> C is a device in which the IP stereoscopic camera control device 120 further includes IP stereoscopic television control means 250.

本来、IP方式での解像度特性は、撮像側の解像度特性と表示側の解像度特性との積によって定まる。しかし、前記した第1実施形態では、表示側の解像度を一定とみなし、撮像側の解像度特性のみを考慮している。そこで、変形例1では、撮像側の解像度特性に加え、表示側の解像度特性も考慮することとした。   Originally, the resolution characteristic in the IP system is determined by the product of the resolution characteristic on the imaging side and the resolution characteristic on the display side. However, in the first embodiment described above, the resolution on the display side is assumed to be constant, and only the resolution characteristics on the imaging side are considered. Therefore, in the first modification, in addition to the resolution characteristic on the imaging side, the resolution characteristic on the display side is also taken into consideration.

具体的には、IP立体テレビ制御手段250は、IP立体テレビ140の表示用レンズアレイ142と表示素子144との距離を、被写体10の位置に応じて制御する。ここでは、IP立体テレビ制御手段250は、この距離を拡散板位置算出手段228と同様の手法で求めて、その駆動をIP立体テレビ140に指令する。   Specifically, the IP stereoscopic television control unit 250 controls the distance between the display lens array 142 of the IP stereoscopic television 140 and the display element 144 according to the position of the subject 10. Here, the IP stereoscopic television control means 250 obtains this distance by the same method as the diffusion plate position calculation means 228 and commands the IP stereoscopic television 140 to drive it.

ここで、IP立体テレビ140は、表示用レンズアレイ142と表示素子144との距離を調整する距離調整機構を備える。つまり、IP立体テレビ140は、図8の距離gを調整する距離調整機構を備える。例えば、IP立体テレビ140は、距離調整機構として、表示素子144の表示面法線方向に延長したレールと、表示用レンズアレイ142を搭載する台座とを備える。この台座は、レール上で駆動するためのモータを備える。そして、IP立体テレビ140は、IP立体テレビ制御手段250からの指令に従って、レールに載せられた台座が駆動する。   Here, the IP stereoscopic television 140 includes a distance adjustment mechanism that adjusts the distance between the display lens array 142 and the display element 144. That is, the IP stereoscopic television 140 includes a distance adjustment mechanism that adjusts the distance g in FIG. For example, the IP stereoscopic television 140 includes a rail extending in the normal direction of the display surface of the display element 144 and a pedestal on which the display lens array 142 is mounted as a distance adjustment mechanism. The pedestal includes a motor for driving on the rail. Then, in the IP 3D television 140, a pedestal mounted on the rail is driven according to a command from the IP 3D television control means 250.

これによって、IP立体カメラ制御装置120Cは、表示側の解像度特性も調整できるので、IP立体映像の解像度をさらに向上させることができる。
なお、IP立体カメラ制御装置120Cは、初期設定値として被写体10の位置が入力され、入力された被写体10の位置を記憶する被写体情報記憶部(不図示)を備えてもよい。
As a result, the IP stereoscopic camera control device 120C can also adjust the resolution characteristics on the display side, so that the resolution of the IP stereoscopic video can be further improved.
Note that the IP stereoscopic camera control device 120C may include a subject information storage unit (not shown) that receives the position of the subject 10 as an initial setting value and stores the input position of the subject 10.

(変形例2)
前記した各実施形態では、IP立体カメラ110が仮想カメラであることとしたが、IP立体カメラ110が実写カメラであってもよい。つまり、IP立体カメラ制御装置120は、算出したIP立体カメラ110のカメラパラメータに従って、実在するIP立体カメラ110を制御してもよい。
(Modification 2)
In each of the above-described embodiments, the IP stereoscopic camera 110 is a virtual camera, but the IP stereoscopic camera 110 may be a live-action camera. That is, the IP stereoscopic camera control device 120 may control the existing IP stereoscopic camera 110 according to the calculated camera parameters of the IP stereoscopic camera 110.

例えば、撮像用レンズアレイ112及び拡散板114の位置は、IP立体カメラ110が変形例1と同様の距離調整機構を備えることで、制御できる。また、撮像用レンズアレイ112の方向は、IP立体カメラ110を自律移動型の雲台に搭載することで、制御できる。また、高精細カメラ116の焦点距離は、高精細カメラ116のフォーカスリングを駆動することで、制御できる。   For example, the positions of the imaging lens array 112 and the diffusion plate 114 can be controlled when the IP stereoscopic camera 110 includes the same distance adjustment mechanism as that of the first modification. The direction of the imaging lens array 112 can be controlled by mounting the IP stereoscopic camera 110 on an autonomously moving pan head. Further, the focal length of the high definition camera 116 can be controlled by driving the focus ring of the high definition camera 116.

また、撮像用レンズアレイ112の画角及び焦点距離は、撮像用レンズアレイ112を微小カメラからなるカメラアレイとすることで、制御できる。このとき、撮像用レンズアレイ112のレンズ間隔は、カメラアレイで撮像された要素画像群にレンズ数変換処理を施すことで、制御できる。
以上のように、IP立体カメラ制御装置120Cは、IP立体カメラ110が実写カメラの場合でも制御可能である。
Further, the angle of view and the focal length of the imaging lens array 112 can be controlled by making the imaging lens array 112 a camera array composed of a micro camera. At this time, the lens interval of the imaging lens array 112 can be controlled by performing lens number conversion processing on the element image group captured by the camera array.
As described above, the IP stereoscopic camera control device 120C can be controlled even when the IP stereoscopic camera 110 is a live-action camera.

(その他変形例)
IP立体カメラ制御装置120,120B,120CがIP立体カメラ110を制御することとして説明したが、IP立体カメラ110のカメラパラメータを算出するだけでもよい。つまり、IP立体カメラ制御装置120,120B,120Cは、IP立体カメラ制御手段240を備えなくともよい。
この場合でも、IP立体カメラ制御装置120,120B,120Cが算出したカメラパラメータに従って制作作業を行えば、IP立体映像の制作時間を短縮できる。
(Other variations)
Although the IP stereoscopic camera control devices 120, 120B, and 120C have been described as controlling the IP stereoscopic camera 110, the camera parameters of the IP stereoscopic camera 110 may only be calculated. That is, the IP stereoscopic camera control devices 120, 120 </ b> B, and 120 </ b> C may not include the IP stereoscopic camera control unit 240.
Even in this case, if the production work is performed according to the camera parameters calculated by the IP stereoscopic camera control devices 120, 120B, and 120C, the production time of the IP stereoscopic video can be shortened.

IP立体カメラ制御装置120,120B,120Cが絞り量算出手段227を備えることとして説明したが、絞り量算出手段227を備えなくともよい。つまり、IP立体カメラ制御装置120,120B,120Cは、IP立体カメラ110のカメラパラメータとして、絞り量を算出しなくともよい。   Although the IP stereoscopic camera control devices 120, 120B, and 120C have been described as including the aperture amount calculation unit 227, the aperture amount calculation unit 227 may not be included. That is, the IP stereoscopic camera control devices 120, 120 </ b> B, and 120 </ b> C do not have to calculate the aperture amount as the camera parameter of the IP stereoscopic camera 110.

IP立体カメラ制御装置120,120B,120Cを独立したハードウェアとして説明したが、本願発明は、これに限定されない。例えば、IP立体カメラ制御装置120,120B,120Cは、コンピュータが備えるCPU、メモリ、ハードディスク等のハードウェア資源を、前記した各手段として協調動作させるIP立体カメラ制御プログラムで実現することもできる。このプログラムは、通信回線を介して配布してもよく、CD−ROMやフラッシュメモリ等の記録媒体に書き込んで配布してもよい。   The IP stereoscopic camera control devices 120, 120B, and 120C have been described as independent hardware, but the present invention is not limited to this. For example, the IP stereoscopic camera control devices 120, 120B, and 120C can also be realized by an IP stereoscopic camera control program that causes hardware resources such as a CPU, a memory, and a hard disk included in a computer to operate cooperatively as the above-described units. This program may be distributed through a communication line, or may be distributed by writing in a recording medium such as a CD-ROM or a flash memory.

IP立体カメラ110が拡散板114を備えることとしたが、拡散板114を備えずともよい。さらに、IP立体カメラ110は、集光部材として、拡散板114の代わりに集光レンズ(不図示)を備えてもよい。   Although the IP stereoscopic camera 110 includes the diffusion plate 114, the diffusion plate 114 may not be included. Furthermore, the IP stereoscopic camera 110 may include a condensing lens (not shown) instead of the diffusion plate 114 as a condensing member.

1,1B IP立体映像制作システム
2 2眼立体映像制作システム
10 被写体
20 2眼立体カメラ(撮像カメラ)
20L,20R ステレオカメラ
22L,22R 撮像素子
30 収録再生装置
40 2眼立体テレビ
100,100B カメラパラメータ取得装置
110 IP立体カメラ
112 撮像用レンズアレイ(レンズアレイ)
114 拡散板(集光部材)
116 高精細カメラ(立体撮像装置)
120,120B,120C IP立体カメラ制御装置(カメラパラメータ算出装置)
130 収録再生装置
140 IP立体テレビ
150 単眼カメラ(撮像カメラ)
160 2次元テレビ
210 入力手段
220 IP立体カメラパラメータ算出手段
221 レンズアレイパラメータ算出手段
222 位置算出手段
223 方向算出手段
224 画角算出手段
225 レンズ間隔算出手段
226 レンズアレイ焦点距離算出手段
227 絞り量算出手段
228 拡散板位置算出手段(集光部材位置算出手段)
229 高精細カメラ焦点距離算出手段(立体撮像装置焦点距離算出手段)
230 出力手段
240 IP立体カメラ制御手段
250 IP立体テレビ制御手段
1,1B IP stereoscopic video production system 2 Binocular stereoscopic video production system 10 Subject 20 Binocular stereoscopic camera (imaging camera)
20L, 20R Stereo camera 22L, 22R Image sensor 30 Recording / playback device 40 Binocular stereoscopic television 100, 100B Camera parameter acquisition device 110 IP stereoscopic camera 112 Imaging lens array (lens array)
114 Diffuser (Condensing member)
116 High-definition camera (stereoscopic imaging device)
120, 120B, 120C IP stereoscopic camera control device (camera parameter calculation device)
130 Recording / Playback Device 140 IP Stereo Television 150 Monocular Camera (Imaging Camera)
160 Two-dimensional television 210 Input means 220 IP stereoscopic camera parameter calculation means 221 Lens array parameter calculation means 222 Position calculation means 223 Direction calculation means 224 Angle of view calculation means 225 Lens interval calculation means 226 Lens array focal length calculation means 227 Aperture amount calculation means 228 Diffuser position calculation means (light collecting member position calculation means)
229 High-definition camera focal length calculation means (stereoscopic imaging apparatus focal length calculation means)
230 Output means 240 IP stereoscopic camera control means 250 IP stereoscopic television control means

Claims (7)

仮想3次元空間内に配置された仮想的な撮像カメラのカメラパラメータから、レンズアレイと立体撮像装置とを備えるIP立体カメラのカメラパラメータを算出するカメラパラメータ算出装置であって、
前記撮像カメラのカメラパラメータとして、前記撮像カメラにおけるゼロ視差面の位置及びサイズと、前記撮像カメラの撮像方向と、前記撮像カメラの焦点距離と、前記撮像カメラが備える撮像素子のサイズと、前記撮像カメラの光軸に対する前記撮像素子のずれ量とが入力される入力手段と、
前記レンズアレイの位置を、前記ゼロ視差面の位置と同位置で算出する位置算出手段と、
前記レンズアレイの方向を、前記撮像方向と同方向で算出する方向算出手段と、
前記撮像素子のサイズと、前記ずれ量と、前記撮像カメラの焦点距離とが含まれる画角算出式により、前記レンズアレイの画角を算出する画角算出手段と、
前記ゼロ視差面のサイズと、予め設定された前記レンズアレイのレンズ個数とに基づいて、前記レンズアレイのレンズ間隔を算出するレンズ間隔算出手段と、
前記レンズ間隔と、前記レンズアレイの画角とに基づいて、前記レンズアレイの焦点距離を算出するレンズアレイ焦点距離算出手段と、
前記IP立体カメラのカメラパラメータとして、前記レンズアレイの位置と方向と画角とレンズ間隔と焦点距離とを出力する出力手段と、を備えることを特徴とするカメラパラメータ算出装置。
A camera parameter calculation device that calculates camera parameters of an IP stereoscopic camera including a lens array and a stereoscopic imaging device from camera parameters of a virtual imaging camera arranged in a virtual three-dimensional space,
As camera parameters of the imaging camera, the position and size of the zero parallax plane in the imaging camera, the imaging direction of the imaging camera, the focal length of the imaging camera, the size of the imaging device included in the imaging camera, and the imaging An input means for inputting the shift amount of the image sensor with respect to the optical axis of the camera;
Position calculating means for calculating the position of the lens array at the same position as the position of the zero parallax plane;
Direction calculating means for calculating the direction of the lens array in the same direction as the imaging direction;
An angle-of-view calculating means for calculating an angle of view of the lens array by an angle-of-view calculating formula including the size of the image sensor, the shift amount, and the focal length of the imaging camera;
A lens interval calculating means for calculating a lens interval of the lens array based on the size of the zero parallax surface and a preset number of lenses of the lens array;
Lens array focal length calculation means for calculating the focal length of the lens array based on the lens interval and the angle of view of the lens array;
An apparatus for calculating a camera parameter, comprising: output means for outputting the position, direction, angle of view, lens interval, and focal length of the lens array as camera parameters of the IP stereoscopic camera.
前記レンズアレイの出射光を前記立体撮像装置に集光する集光部材が備えられたIP立体カメラについて、前記レンズアレイの焦点距離を基準とした前記集光部材の位置を算出する集光部材位置算出手段と、
前記立体撮像装置が前記集光部材の位置に合焦するように、前記立体撮像装置の焦点距離を算出する立体撮像装置焦点距離算出手段と、
前記出力手段は、前記IP立体カメラのカメラパラメータとして、前記集光部材の位置及び前記立体撮像装置の焦点距離をさらに出力することを特徴とする請求項1に記載のカメラパラメータ算出装置。
Condensing member position for calculating the position of the condensing member with reference to the focal length of the lens array for an IP stereoscopic camera provided with a condensing member that condenses the light emitted from the lens array on the stereoscopic imaging device A calculation means;
Stereoscopic imaging device focal length calculating means for calculating a focal length of the stereoscopic imaging device so that the stereoscopic imaging device is focused on the position of the light collecting member;
The camera parameter calculation apparatus according to claim 1, wherein the output unit further outputs a position of the light collecting member and a focal length of the stereoscopic imaging device as camera parameters of the IP stereoscopic camera.
前記出力手段は、前記IP立体カメラのカメラパラメータとして、仮想3次元空間内に配置された仮想IP立体カメラのカメラパラメータを出力し、
前記仮想IP立体カメラのカメラパラメータに基づいて、前記仮想IP立体カメラを制御するIP立体カメラ制御手段、をさらに備えることを特徴とする請求項1又は請求項2に記載のカメラパラメータ算出装置。
The output means outputs camera parameters of a virtual IP stereoscopic camera arranged in a virtual three-dimensional space as camera parameters of the IP stereoscopic camera,
The camera parameter calculation apparatus according to claim 1, further comprising: an IP stereoscopic camera control unit that controls the virtual IP stereoscopic camera based on a camera parameter of the virtual IP stereoscopic camera.
前記入力手段は、前記撮像カメラのカメラパラメータとして、前記撮像カメラの被写界深度がさらに入力され、
前記被写界深度と、前記レンズアレイの焦点距離と、前記レンズ間隔と、予め設定された前記レンズアレイから被写体までの距離とに基づいて、前記レンズアレイの絞り量を算出する絞り量算出手段、をさらに備え、
前記出力手段は、前記IP立体カメラのカメラパラメータとして、前記レンズアレイの絞り量をさらに出力することを特徴とする請求項1から請求項3の何れか一項に記載のカメラパラメータ算出装置。
The input means further inputs the depth of field of the imaging camera as a camera parameter of the imaging camera,
Aperture amount calculation means for calculating the aperture amount of the lens array based on the depth of field, the focal length of the lens array, the lens interval, and a preset distance from the lens array to the subject. Further comprising
4. The camera parameter calculation apparatus according to claim 1, wherein the output unit further outputs an aperture amount of the lens array as a camera parameter of the IP stereoscopic camera. 5.
前記出力手段は、前記IP立体カメラのカメラパラメータとして、実空間内に配置された実写IP立体カメラのカメラパラメータを出力し、
前記実写IP立体カメラのカメラパラメータに基づいて、前記実写IP立体カメラを制御するIP立体カメラ制御手段、をさらに備えることを特徴とする請求項1又は請求項2に記載のカメラパラメータ算出装置。
The output means outputs camera parameters of a live-action IP stereoscopic camera arranged in real space as camera parameters of the IP stereoscopic camera,
The camera parameter calculation apparatus according to claim 1, further comprising: an IP stereoscopic camera control unit that controls the actual shooting IP stereoscopic camera based on a camera parameter of the actual shooting IP stereoscopic camera.
前記入力手段は、2眼立体カメラ又は単眼カメラの何れかである前記撮像カメラのカメラパラメータが入力されることを特徴とする請求項1から請求項5の何れか一項に記載のカメラパラメータ算出装置。   The camera parameter calculation according to any one of claims 1 to 5, wherein the input unit receives camera parameters of the imaging camera which is either a binocular stereoscopic camera or a monocular camera. apparatus. コンピュータを、請求項1から請求項6の何れか一項に記載のカメラパラメータ算出装置として機能させるためのカメラパラメータ算出プログラム。   The camera parameter calculation program for functioning a computer as a camera parameter calculation apparatus as described in any one of Claims 1-6.
JP2014034504A 2014-02-25 2014-02-25 Camera parameter calculation apparatus and program thereof Active JP6223226B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014034504A JP6223226B2 (en) 2014-02-25 2014-02-25 Camera parameter calculation apparatus and program thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014034504A JP6223226B2 (en) 2014-02-25 2014-02-25 Camera parameter calculation apparatus and program thereof

Publications (2)

Publication Number Publication Date
JP2015158646A JP2015158646A (en) 2015-09-03
JP6223226B2 true JP6223226B2 (en) 2017-11-01

Family

ID=54182660

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014034504A Active JP6223226B2 (en) 2014-02-25 2014-02-25 Camera parameter calculation apparatus and program thereof

Country Status (1)

Country Link
JP (1) JP6223226B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107305632B (en) * 2017-02-16 2020-06-12 武汉极目智能技术有限公司 Monocular computer vision technology-based target object distance measuring method and system

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4440066B2 (en) * 2004-10-14 2010-03-24 キヤノン株式会社 Stereo image generation program, stereo image generation system, and stereo image generation method
JP4567422B2 (en) * 2004-11-19 2010-10-20 有限会社ディー・エッチ・エス How to create a 3D image
WO2007048197A1 (en) * 2005-10-26 2007-05-03 The University Of Sydney Systems for providing a 3d image
WO2011052064A1 (en) * 2009-10-30 2011-05-05 キヤノン株式会社 Information processing device and method
JP5313187B2 (en) * 2010-02-03 2013-10-09 日本放送協会 Stereoscopic image correction apparatus and stereoscopic image correction method
JP5452801B2 (en) * 2010-04-28 2014-03-26 日本放送協会 Stereoscopic image generating apparatus and program thereof
JP5522794B2 (en) * 2010-10-15 2014-06-18 日本放送協会 Stereoscopic image generating apparatus and program thereof

Also Published As

Publication number Publication date
JP2015158646A (en) 2015-09-03

Similar Documents

Publication Publication Date Title
JP5968107B2 (en) Image processing method, image processing apparatus, and program
TWI507807B (en) Auto focusing mthod and apparatus
JP6202910B2 (en) Video processing apparatus, control method therefor, and program
JP5814692B2 (en) Imaging apparatus, control method therefor, and program
US9253470B2 (en) 3D camera
JP6300346B2 (en) IP stereoscopic image estimation apparatus and program thereof
JP2011248693A (en) Image processing system, image processing method, image processing program and imaging apparatus
JP2013042301A (en) Image processor, image processing method, and program
JP2014153890A (en) Image processing apparatus, imaging apparatus, control method, and program
US20150287208A1 (en) Image processing apparatus, image pickup apparatus, image processing method, and non-transitory computer-readable storage medium
JP6095266B2 (en) Image processing apparatus and control method thereof
JPWO2011070774A1 (en) 3D video processing apparatus and 3D video processing method
JP2014026051A (en) Image capturing device and image processing device
JP4729011B2 (en) Element image group conversion device, stereoscopic image display device, and element image group conversion program
JP2015175982A (en) Image processor, image processing method, and program
JP2014112783A (en) Image processing device, image processing method and program, and image pickup device provided with image processing device
JP6223226B2 (en) Camera parameter calculation apparatus and program thereof
KR101275127B1 (en) 3-dimension camera using focus variable liquid lens applied and method of the same
JP6004741B2 (en) Image processing apparatus, control method therefor, and imaging apparatus
JP2015084518A (en) Image processing apparatus, image processing method, program and recording medium
JP6377225B2 (en) Image processing apparatus, control method therefor, and program
JP6813936B2 (en) Ray 3D capture camcorders and televisions that move or move televisions, parallel ray filter devices, leveled liquid crystals or optical cells to generate real images formed on the anterior and posterior surfaces of the television. A parallel ray filter having a set of movable lenses including a multifocal soft lens, a method for obtaining the device.
JP6684118B2 (en) Binocular stereoscopic image generation device and its program
JP2013110711A (en) Image processing apparatus, image processing method and program
JP2012212965A (en) Imaging apparatus and interchangeable lens

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170104

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170830

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170905

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171003

R150 Certificate of patent or registration of utility model

Ref document number: 6223226

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250