JP2012227700A - Information processor and program - Google Patents

Information processor and program Download PDF

Info

Publication number
JP2012227700A
JP2012227700A JP2011093066A JP2011093066A JP2012227700A JP 2012227700 A JP2012227700 A JP 2012227700A JP 2011093066 A JP2011093066 A JP 2011093066A JP 2011093066 A JP2011093066 A JP 2011093066A JP 2012227700 A JP2012227700 A JP 2012227700A
Authority
JP
Japan
Prior art keywords
imaging
shape
camera
virtual
entrance pupil
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011093066A
Other languages
Japanese (ja)
Inventor
Tatsuro Koizumi
達朗 小泉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2011093066A priority Critical patent/JP2012227700A/en
Publication of JP2012227700A publication Critical patent/JP2012227700A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an information processor which, when composing an image that appears to be an image taken with a virtual camera composed of an optical system having an aperture of a fixed size using images taken by plural cameras, optimally controls the direction and the angle of field of each camera, thereby improving an image quality more than that when the control is not performed.SOLUTION: Respective cameras are controlled such that light beams pass through an imaging device conjugate surface 602 and an entrance pupil 606, thereby enabling efficient acquisition of light beam information. Actual multi-eye cameras are arrayed and orientations of the cameras can be changed in a three-dimensional manner. Then, control information is obtained by: determining a common portion of the shapes that can be obtained through perspective projection of the entrance pupil 606 and the imaging device conjugate surface 602 on a camera control information is desired to be obtained; calculating as an evaluation value a minimum angle of field capable of covering the common portion; and optimizing the rotation amount of the camera so as to reduce the calculated evaluation value.

Description

本発明は、複数のカメラにより撮像した画像を用いて、仮想視点画像を合成する情報処理装置およびプログラムに関するものである。   The present invention relates to an information processing apparatus and a program for synthesizing a virtual viewpoint image using images captured by a plurality of cameras.

従来、デジタルカメラによる撮影で取得できる画像の分解能、ノイズ、ボケ味、画角、視点などは、撮像に用いるデジタルカメラの光学系や撮像素子の特性と配置によって、その取り得る範囲が制限されていた。これに対して、複数のカメラにより撮像した複数の画像を用いて、単一の仮想カメラで撮像したかのような画像を合成し、個々のカメラの前述の制限を超えるような画像の取得を可能にする技術が存在する(例えば、特許文献1および非特許文献1参照)。   Conventionally, the range of image resolution, noise, blur, angle of view, viewpoint, etc. that can be acquired by shooting with a digital camera is limited by the characteristics and arrangement of the digital camera's optical system and image sensor. It was. On the other hand, using multiple images captured by multiple cameras, it combines images as if they were captured by a single virtual camera, and acquires images that exceed the aforementioned limitations of individual cameras. There are technologies that enable this (see, for example, Patent Document 1 and Non-Patent Document 1).

特許文献1記載の方法では、複数のカメラにより撮像を行い、取得した画像間の対応関係に基づいて仮想カメラ視点の画像を合成する。この時、仮想カメラの視野をカメラの台数に基づいて分割し、各分割視野を必ず2台のカメラがカバーするように、その画角と向きを制御することで、分解能を維持したまま仮想カメラの画角を広くすることが可能となる。また、非特許文献1記載の方法では、複数のパンフォーカスに近いカメラで撮像した画像を合成することで、一定の大きさの開口を持った(ボケの生じる)光学系からなる仮想カメラで撮像したかのようなボケ味のある画像を取得することが可能となる。   In the method described in Patent Document 1, images are captured by a plurality of cameras, and an image at a virtual camera viewpoint is synthesized based on the correspondence between acquired images. At this time, the virtual camera field of view is divided based on the number of cameras, and the angle of view and orientation are controlled so that the two cameras always cover each divided field of view. It is possible to widen the angle of view. Further, according to the method described in Non-Patent Document 1, images are captured by a virtual camera including an optical system having a certain size (blur) by combining images captured by a plurality of cameras close to pan focus. It is possible to acquire a blurred image as if it were.

特開2005−80015号公報JP-A-2005-80015

A. Isaksen et al., “Dynamically Reparameterized Light Fields”, ACM SIGGRAPH, pp. 297-306 (2000)A. Isaksen et al. "Dynamically Reparameterized Light Fields", ACM SIGGRAPH, pp. 297-306 (2000) Z. Zhang “A flexible new technique for camera calibration” IEEE Transactions on Pattern Analysis and Machine Intelligence, 22(11):1330-1334, 2000Z. Zhang “A flexible new technique for camera calibration” IEEE Transactions on Pattern Analysis and Machine Intelligence, 22 (11): 1330-1334, 2000 佐藤淳(1999). コンピュータビジョン -視覚の幾何学- コロナ社 p80-96,149-156Sato Jun (1999). Computer Vision-Visual Geometry-Corona p80-96, 149-156

しかしながら、特許文献1記載の方法では、前述の制限を超えるような画像のうち画角を広くすることは可能だが、画面全体に焦点があった画像しか得られず、有限な大きさの瞳をもつカメラで撮像したかのようなボケ味を再現することができない。また、視差画像間の対応点の関係に基づいて仮想カメラの画像を合成するため、被写体ぶれまたは透明被写体若しくはコントラストの低い被写体の撮影などでは、合成に失敗する可能性がある。   However, with the method described in Patent Document 1, it is possible to widen the angle of view among images that exceed the above-mentioned limitations, but only an image that is focused on the entire screen can be obtained, and a finite size pupil is obtained. The blur cannot be reproduced as if it were taken with a camera. Further, since the images of the virtual camera are synthesized based on the relationship between the corresponding points between the parallax images, there is a possibility that the synthesis may fail when shooting a subject blur, a transparent subject, or a subject with low contrast.

一方、非特許文献1記載の方法では、一定の大きさの開口を持った光学系からなる仮想カメラで撮像したかのような画像を再現することができ、被写体ぶれまたは透明被写体若しくはコントラストの低い被写体の撮影などにおける合成の失敗もない。しかしながら、仮想カメラの開口の大きさの変更に伴い、各カメラが撮像する範囲に過不足が生じるため、分解能、ノイズ、ボケ味の自然さといった画質面の特性が劣化するという問題がある。   On the other hand, the method described in Non-Patent Document 1 can reproduce an image as if it was picked up by a virtual camera composed of an optical system having an aperture of a certain size, and subject blur or transparent subject or low contrast. There is no composition failure when shooting a subject. However, as the size of the aperture of the virtual camera is changed, there is a problem in that image quality characteristics such as resolution, noise, and naturalness of blur are deteriorated because the range captured by each camera becomes excessive and insufficient.

本発明の目的は、非特許文献1のように複数のカメラの画像を用いて、一定の大きさの開口を持つ光学系からなる仮想カメラで撮像したかのような画像を合成する場合、各カメラの向きと画角を最適に制御することで、より高い画質を得る手段を提供することにある。   The object of the present invention is to use images from a plurality of cameras as in Non-Patent Document 1, and to synthesize images as if they were captured by a virtual camera consisting of an optical system having an aperture of a certain size, An object of the present invention is to provide a means for obtaining higher image quality by optimally controlling the camera direction and angle of view.

このような課題を解決するため、本発明の情報処理装置は、入射瞳形状および撮像素子共役面形状により規定される仮想的な撮像系の特性を有する撮像装置の画像を処理する情報処理装置であって、複数の撮像手段の各々が撮像する範囲を制御する複数の制御手段を備え、制御手段は、複数の撮像手段の各々が撮像する範囲を、入射瞳形状を有する仮想的な撮像系の入射瞳と、撮像素子共役面形状を有する仮想的な撮像系の撮像素子に共役な面とを、ともに通過する光線の量を、より大きくなるよう制御することを特徴とする。   In order to solve such a problem, the information processing apparatus of the present invention is an information processing apparatus that processes an image of an imaging apparatus having virtual imaging system characteristics defined by an entrance pupil shape and an imaging element conjugate plane shape. And a plurality of control means for controlling a range captured by each of the plurality of imaging means, wherein the control means defines a range captured by each of the plurality of imaging means of a virtual imaging system having an entrance pupil shape. The amount of light passing through the entrance pupil and the plane conjugate to the imaging element of the virtual imaging system having the imaging element conjugate plane shape is controlled to be larger.

本発明は、複数のカメラの画像を用いて、一定の大きさの開口を持つ光学系からなる仮想カメラで撮像したかのような画像を合成する場合、各カメラの向きと画角を最適に制御することで、制御を行わない場合に比べて画質を向上させることができる。   The present invention optimizes the orientation and angle of view of each camera when combining images as if they were captured by a virtual camera consisting of an optical system having an aperture of a certain size using images from a plurality of cameras. By controlling, it is possible to improve the image quality compared to the case where the control is not performed.

実施例1である複数のカメラからなる撮像装置の一例を模式図である。1 is a schematic diagram illustrating an example of an imaging apparatus including a plurality of cameras that is Embodiment 1. FIG. 実施例1の撮像装置の構成を表すブロック図である。1 is a block diagram illustrating a configuration of an imaging apparatus according to a first embodiment. 撮像部の構成の例を表すブロック図である。It is a block diagram showing the example of a structure of an imaging part. デジタル信号処理部の構成例を表すブロック図である。It is a block diagram showing the structural example of a digital signal processing part. 実施例1の撮像装置による撮影時の手順を表すフローチャートである。3 is a flowchart illustrating a procedure at the time of shooting by the imaging apparatus according to the first embodiment. カメラにおいて画像に寄与する光線と寄与しない光線について説明する図である。It is a figure explaining the light ray which contributes to an image in a camera, and the light ray which does not contribute. 実施例1の撮像装置における各カメラの最適な向きと画角について説明する図である。FIG. 3 is a diagram illustrating an optimum direction and an angle of view of each camera in the imaging apparatus according to the first embodiment. 実施例1の撮像装置における御情報算出方法の説明に付随する、各座標軸と撮像素子共役面、入射瞳の位置関係を示した図である。FIG. 6 is a diagram illustrating a positional relationship between each coordinate axis, an imaging element conjugate plane, and an entrance pupil, accompanying the description of the information calculation method in the imaging apparatus according to the first embodiment. 実施例1の撮像装置における制御情報算出部の構成を示すブロック図である。FIG. 3 is a block diagram illustrating a configuration of a control information calculation unit in the imaging apparatus according to the first embodiment. 実施例1の撮像装置における制御情報算出の手順を表すフローチャートである。3 is a flowchart illustrating a control information calculation procedure in the imaging apparatus according to the first embodiment. 画像の座標軸と画像サイズ、光学中心の関係を示した図である。It is the figure which showed the relationship between the coordinate axis of an image, image size, and an optical center. 本実施例の画像合成の方法における、各座標軸と撮像素子共役面の位置関係を示した図である。It is the figure which showed the positional relationship of each coordinate axis and an image pick-up element conjugate surface in the image composition method of a present Example. 本実施例の各カメラ座標軸と世界座標軸の関係を示す図である。It is a figure which shows the relationship between each camera coordinate axis and a world coordinate axis of a present Example. 実施例2の撮像装置における各カメラの最適な向きと画角について説明する図である。FIG. 10 is a diagram illustrating an optimum direction and angle of view of each camera in the imaging apparatus according to the second embodiment. 実施例2の撮像装置における御情報算出方法の説明に付随する、各座標軸と撮像素子共役面、入射瞳の位置関係を示した図である。FIG. 10 is a diagram illustrating a positional relationship between each coordinate axis, an imaging element conjugate plane, and an entrance pupil, which accompanies the description of the information calculation method in the imaging apparatus according to the second embodiment. 実施例2の制御情報算出部の構成を示すブロック図である。It is a block diagram which shows the structure of the control information calculation part of Example 2. 実施例2の撮像装置における制御情報算出の手順を表すフローチャートである。10 is a flowchart illustrating a control information calculation procedure in the imaging apparatus according to the second embodiment.

[実施例1]
<撮像装置の全体構成>
図1は、本発明における実施例1である複数のカメラを備えた撮像装置の模式図である。カメラボディ101の、(a)が前面の図であり、(b)が背面の図である。カメラ105ないし129は、前面(a)に格子状に配置されている。カメラボディ101には、撮影ボタン102、ディスプレイ103および操作ボタン104が配置してある。操作ボタン104およびディスプレイ103を用いて撮影に関する種々の設定を行い、撮影ボタン102を押下することで、カメラ105〜129による撮像が行われる。取得した複数の画像を用いて画像合成を行った結果は、ディスプレイ103に1枚の画像として表示される。以降このような複数のカメラからなる撮像装置を多眼カメラと呼ぶ。
[Example 1]
<Overall configuration of imaging device>
FIG. 1 is a schematic diagram of an imaging apparatus including a plurality of cameras that is Embodiment 1 of the present invention. (A) of the camera body 101 is a front view, and (b) is a rear view. The cameras 105 to 129 are arranged in a lattice pattern on the front surface (a). On the camera body 101, a shooting button 102, a display 103, and an operation button 104 are arranged. Various settings relating to shooting are performed using the operation button 104 and the display 103, and when the shooting button 102 is pressed, images are captured by the cameras 105 to 129. The result of image composition using the plurality of acquired images is displayed as one image on the display 103. Hereinafter, such an imaging apparatus including a plurality of cameras is referred to as a multi-lens camera.

図2は、図1の多眼カメラの各処理部を表している。撮像部201〜225は、図1のカメラ105〜129のそれぞれの撮像部に相当し、各々バス226を介して受信した制御情報と撮像指示とに基づいて撮像を行い、取得した画像データをバス226に出力する。   FIG. 2 shows each processing unit of the multi-lens camera of FIG. The imaging units 201 to 225 correspond to the imaging units of the cameras 105 to 129 in FIG. 1, respectively, and perform imaging based on the control information and the imaging instruction received via the bus 226, and the acquired image data is a bus. Output to 226.

図3を用いて撮像部201〜225を詳細に説明する。撮像部201〜225は各々、制御部301、A/D変換部302、バッファ303、撮像素子304、シャッター305、レンズ306、開口絞り307、レンズ308、カメラ方向駆動部309、レンズ駆動部310およびレンズ駆動部311より構成される。レンズ306、絞り307およびレンズ308は光学系を構成し、撮影対象の被写体の像を結像する。結像した像は、撮像素子304によって電気信号に変換され、A/D変換部302によってデジタル画像データに変換される。変換されたデジタル画像データは、バッファ303に格納される。格納されたデータは、バス226を介して適宜読みだされる。制御部301は、バス226を介して撮像の指示を受け取ることで、シャッター305を開閉して撮像素子304を制御し撮像を実行する。   The imaging units 201 to 225 will be described in detail with reference to FIG. Each of the imaging units 201 to 225 includes a control unit 301, an A / D conversion unit 302, a buffer 303, an imaging element 304, a shutter 305, a lens 306, an aperture stop 307, a lens 308, a camera direction driving unit 309, a lens driving unit 310, and The lens driving unit 311 is configured. The lens 306, the diaphragm 307, and the lens 308 constitute an optical system and form an image of the subject to be photographed. The formed image is converted into an electrical signal by the image sensor 304 and converted into digital image data by the A / D converter 302. The converted digital image data is stored in the buffer 303. The stored data is read appropriately through the bus 226. Upon receiving an imaging instruction via the bus 226, the control unit 301 opens and closes the shutter 305 to control the imaging element 304 and execute imaging.

また、カメラ方向駆動部309は、カメラの向きを変える機械装置であり、後述するように最適な光軸の方向に光学系を向ける。レンズ駆動部310、311はレンズの光軸方向の位置を変える機械装置であり、2枚のレンズと撮像素子との位置関係から、ピント位置と焦点距離をコントロールする。各駆動部309〜311はそれぞれ図示しないモーターなどによって駆動され、その駆動量は、バス226を介して受け取ったピント位置、画角、カメラ向きの情報に基づいて、制御部301によって制御される。   The camera direction drive unit 309 is a mechanical device that changes the orientation of the camera, and directs the optical system in the direction of the optimum optical axis as will be described later. The lens driving units 310 and 311 are mechanical devices that change the position of the lens in the optical axis direction, and control the focus position and the focal length from the positional relationship between the two lenses and the image sensor. Each of the driving units 309 to 311 is driven by a motor or the like (not shown), and the driving amount is controlled by the control unit 301 based on the information on the focus position, the angle of view, and the camera orientation received via the bus 226.

CPU229は、各構成の処理全体を制御するプロセッサであり、 ROM227やRAM228に格納された命令を順に読み込み、解釈し、その結果に従って処理を実行する。また、ROM227とRAM228は、その処理に必要なプログラム、データ、作業領域などをCPU229に提供する。   The CPU 229 is a processor that controls the entire processing of each component, and sequentially reads and interprets instructions stored in the ROM 227 and RAM 228, and executes processing according to the result. The ROM 227 and the RAM 228 provide the CPU 229 with programs, data, work areas, and the like necessary for the processing.

表示部231は一般的には液晶ディスプレイが広く用いられており、例えば図1に示すようなカメラボディ101の背面ディスプレイ103などを使用することができる。表示部231は、表示制御部230により制御され、CG生成部235や後述の画像合成部240から受け取った文字や画像の表示を行う。   Generally, a liquid crystal display is widely used as the display unit 231. For example, a rear display 103 of the camera body 101 as shown in FIG. 1 can be used. The display unit 231 is controlled by the display control unit 230 and displays characters and images received from the CG generation unit 235 and an image composition unit 240 described later.

操作部232は、ボタンやダイヤルなどを用いることができ、例えば図1の操作ボタン104、撮影ボタン102などである。CPU229は、これらの操作部232を介してユーザー指示を受け取る。後述する合成や撮像についてのパラメータ設定は、ROM227、RAM228、CPU229、表示制御部230、表示部231、操作部232およびCG生成部235などが連携することで実現されるユーザーインターフェースを介して行われる。外部メモリ制御部233は、PCその他メディア234(例えば、ハードディスク、メモリーカード、CFカード、SDカード、USBメモリ)に接続してデータの入出力をするためのインターフェースである。外部メモリ制御部233は、CPU229から出力指示を受け取ることで、RAM228に格納されているデータなどを外部のPCその他メディアに出力する。   The operation unit 232 can use buttons, dials, and the like, such as the operation button 104 and the shooting button 102 in FIG. The CPU 229 receives a user instruction via these operation units 232. Parameter setting for composition and imaging, which will be described later, is performed via a user interface realized by cooperation of the ROM 227, RAM 228, CPU 229, display control unit 230, display unit 231, operation unit 232, CG generation unit 235, and the like. . The external memory control unit 233 is an interface for inputting / outputting data by connecting to a PC or other media 234 (for example, hard disk, memory card, CF card, SD card, USB memory). Upon receiving an output instruction from the CPU 229, the external memory control unit 233 outputs data stored in the RAM 228 to an external PC or other media.

CG生成部235は、ユーザーインターフェースを実現するための文字やグラフィックなどを生成する。デジタル信号処理部236は各撮像部から得られたデジタル画像データに対して、ノイズ低減処理、ホワイトバランス処理、色変換処理、ガンマ処理を施す。デジタル信号処理部236の構成を図4に示す。撮像部201〜225によって撮像し取得したままのデジタル画像データに対しては、画素値を輝度に比例する出力とし、撮像素子依存のノイズを低減することで、物理的に忠実になるようデータに変換を施す。また、画像合成後の画像は、好ましい画質になるよう調整する。   The CG generation unit 235 generates characters and graphics for realizing a user interface. The digital signal processing unit 236 performs noise reduction processing, white balance processing, color conversion processing, and gamma processing on the digital image data obtained from each imaging unit. The configuration of the digital signal processing unit 236 is shown in FIG. For digital image data that has been captured and acquired by the imaging units 201 to 225, the pixel value is output in proportion to the luminance, and the noise that is dependent on the imaging element is reduced, so that the data is physically faithful. Apply conversion. Further, the image after the image synthesis is adjusted so as to have a desirable image quality.

圧縮・伸張部237は、撮像し信号処理を施した画像や、画像合成により生成した画像をJpegやMpegなどのファイルフォーマットに変換する処理を行う。制御情報算出部238はユーザーにより設定されたパラメータに基づいて、撮像部201〜225の画角、向きの制御情報を算出する。画角と向きの制御情報の算出方法、およびパラメータについては後で詳述する。   The compression / decompression unit 237 performs processing for converting an image that has been captured and subjected to signal processing, or an image generated by image synthesis into a file format such as Jpeg or Mpeg. The control information calculation unit 238 calculates the control information of the angle of view and the orientation of the imaging units 201 to 225 based on the parameters set by the user. The calculation method and parameters of the angle of view and orientation control information will be described in detail later.

キャリブレーション部239は、制御情報算出部238によって算出された制御情報や、撮像部201〜225によって撮像され、デジタル信号処理部236により信号処理を施された画像に基づいて、各カメラの個々の内部パラメータを算出する。同様に、キャリブレーション部239は、制御情報や、信号処理を施された画像に基づいて、各カメラの個々の外部パラメータの算出を行う。また、画像の歪曲の補正もキャリブレーション部239にて行う。画像合成部240は撮像部201〜225によって撮像され、デジタル信号処理部236により信号処理を施された画像を、ユーザーにより設定されたパラメータに基づいて合成し、仮想カメラによって撮像したかのような画像を生成する。なお、実際の装置の構成要素は上記以外にも存在するが、本件発明を明瞭に説明するため、その説明を省略する。本件発明の撮像装置は、撮像部201〜225および制御情報算出部238に特徴がある。   The calibration unit 239 is configured based on the control information calculated by the control information calculation unit 238 and the images captured by the imaging units 201 to 225 and subjected to signal processing by the digital signal processing unit 236. Calculate internal parameters. Similarly, the calibration unit 239 calculates individual external parameters of each camera based on the control information and the signal-processed image. The calibration unit 239 also corrects image distortion. The image compositing unit 240 synthesizes the images captured by the image capturing units 201 to 225 and subjected to the signal processing by the digital signal processing unit 236 based on the parameters set by the user, and as if captured by a virtual camera. Generate an image. Although there are other components of the actual apparatus other than the above, the description thereof will be omitted for the purpose of clearly explaining the present invention. The imaging apparatus of the present invention is characterized by the imaging units 201 to 225 and the control information calculation unit 238.

<撮影時の処理の流れ>
図5は、多眼カメラによる撮影時の全体の処理の流れを示すフローチャートである。各処理のうち、本件発明に特徴的な処理である、ステップS502の制御情報の算出およびステップS507のキャリブレーションについては、後に詳述する。まず、ステップS501にてユーザーによりパラメータの設定が行われる。パラメータとは合成や撮像の際の挙動を制御する基礎となる数値であり、後で詳述する。パラメータの設定はROM227、RAM228、CPU229、表示制御部230、表示部231、操作部232およびCG生成部235などが連携することで実現されるユーザーインターフェースを介して行われる。
<Flow of processing during shooting>
FIG. 5 is a flowchart showing an overall processing flow at the time of photographing with a multi-lens camera. Of these processes, the calculation of control information in step S502 and the calibration in step S507, which are processes characteristic of the present invention, will be described in detail later. First, in step S501, parameters are set by the user. The parameter is a numerical value that serves as a basis for controlling the behavior during composition and imaging, and will be described in detail later. The parameter setting is performed via a user interface realized by cooperation of the ROM 227, RAM 228, CPU 229, display control unit 230, display unit 231, operation unit 232, CG generation unit 235, and the like.

設定されたパラメータは、バス226を介してRAM228に格納される。ステップS502では設定されたパラメータに基づいて、各カメラの制御情報の算出が行われる。すなわち、パラメータの設定が終わると、制御情報算出部238が、RAM228よりパラメータを読み出して、各カメラを制御するための値を算出し、RAM228に格納する(後述の制御情報の算出)。ステップS503では、算出された制御情報に従って各カメラの制御を行う。すなわち、バス226を介して撮像部201〜225の制御部301に制御情報が渡され、それぞれ受け取った値に基づいてカメラ方向駆動部309並びにレンズ駆動部310および311を制御する。制御情報に基づいて制御が完了した時点で、撮像可能な待ち受け状態となる。   The set parameters are stored in the RAM 228 via the bus 226. In step S502, control information of each camera is calculated based on the set parameters. That is, when the parameter setting is completed, the control information calculation unit 238 reads the parameter from the RAM 228, calculates a value for controlling each camera, and stores it in the RAM 228 (calculation of control information described later). In step S503, each camera is controlled according to the calculated control information. That is, control information is passed to the control unit 301 of the imaging units 201 to 225 via the bus 226, and the camera direction driving unit 309 and the lens driving units 310 and 311 are controlled based on the received values. When control is completed based on the control information, the camera enters a standby state in which imaging can be performed.

ステップS504では、ユーザーによる撮像の指示を、操作部232を介してユーザーから受ける。撮像の指示は、受け取られるとバス226を介して撮像部201〜225の制御部301に伝達される。撮像の指示が伝達されると、S505では撮像の実行が行われる。すなわち、制御部301により、撮像素子304のリセット、シャッター305の開、シャッター305の閉および撮像素子304からの画像信号の読み出しという順に制御が行われる。読み出された信号は、A/D変換部302によりデジタル化され、バッファ303へ格納して撮像の処理は終了する。   In step S504, an imaging instruction from the user is received from the user via the operation unit 232. When the imaging instruction is received, the imaging instruction is transmitted to the control unit 301 of the imaging units 201 to 225 via the bus 226. When the imaging instruction is transmitted, the imaging is executed in S505. That is, the control unit 301 performs control in the order of reset of the image sensor 304, opening of the shutter 305, closing of the shutter 305, and reading of the image signal from the image sensor 304. The read signal is digitized by the A / D converter 302, stored in the buffer 303, and the imaging process ends.

ステップS506で、デジタル信号処理部236は、撮像部201〜225の各々のバッファ303から画像データを読み出し、デジタル信号処理を行ってRAM228に格納する。S507で、キャリブレーション部239は、RAM228に格納された制御情報と、画像データとに基づいて各カメラのキャリブレーション処理を行うとともに各カメラの内部パラメータおよび外部パラメータを求める。キャリブレーションの結果によって歪曲補正された画像並びにキャリブレーションにより求めた各カメラの内部パラメータおよび外部パラメータは、RAM228に格納される。   In step S506, the digital signal processing unit 236 reads the image data from each of the buffers 303 of the imaging units 201 to 225, performs digital signal processing, and stores it in the RAM 228. In S507, the calibration unit 239 performs calibration processing for each camera based on the control information stored in the RAM 228 and the image data, and obtains internal parameters and external parameters for each camera. The image whose distortion has been corrected by the result of calibration and the internal parameters and external parameters of each camera obtained by the calibration are stored in the RAM 228.

ステップS508で画像合成部240は、RAM228に格納されたパラメータ、歪曲補正済み画像並びに各カメラの内部パラメータおよび外部パラメータに基づいて、仮想カメラ画像の合成を行う。合成された画像はRAM228に格納される。ステップS509でデジタル信号処理部236は、RAM228に格納された合成画像に対して画像処理を行う。ステップS510で圧縮・伸張部237は、RAM228に画像処理済みの合成画像の圧縮を行い、圧縮された画像はRAM228に格納される。ステップS511で外部メモリ制御部233は、圧縮済みの画像を外部メモリに保存する。ステップS512で、合成画像を、表示制御部230を介して表示部231に表示する。   In step S508, the image composition unit 240 performs composition of the virtual camera image based on the parameters stored in the RAM 228, the distortion-corrected image, the internal parameters of each camera, and the external parameters. The synthesized image is stored in the RAM 228. In step S509, the digital signal processing unit 236 performs image processing on the composite image stored in the RAM 228. In step S510, the compression / decompression unit 237 compresses the composite image that has undergone image processing in the RAM 228, and the compressed image is stored in the RAM 228. In step S511, the external memory control unit 233 stores the compressed image in the external memory. In step S512, the composite image is displayed on the display unit 231 via the display control unit 230.

<制御情報算出の概要>
ユーザーにより設定されたパラメータに従って、制御情報算出部238にて多眼カメラを構成する各カメラの画角と向きを制御するための情報、すなわち制御情報の算出について以下に詳述する。ここではまず説明を簡単にため、実際は3次元で行われる処理を2次元で説明する。
<Outline of control information calculation>
Information for controlling the angle of view and the orientation of each camera constituting the multi-view camera in the control information calculation unit 238 according to the parameters set by the user, that is, calculation of control information will be described in detail below. Here, in order to simplify the description, processing actually performed in three dimensions will be described in two dimensions.

本発明では、仮想的な撮像系を仮定し、その撮像系で撮像したかのように画像を合成する際の画質が最良となる、多眼カメラを構成するように各カメラの制御を行う。実際のカメラは、種々の特性のレンズ、絞り、シャッターおよび撮像素子などを様々に組み合わせて構成され、結果極めて多様な種類が存在するが、本実施例では撮像部として共通する属性により仮想的な撮像計を特定する。すなわち、例えば種々のレンズを組み合わせた複数のカメラがあったとしても撮像系として設定された属性が同じであれば、異なるレンズの組合せを使用したとしても光学系としては同一として考えるのである。このように設定された属性がパラメータであり、仮想的な撮像系を表現する情報となる。したがって、画質を最良とするためには、仮想的な撮像系で撮像した場合の画像に寄与する光線を過不足のなく取得するように各カメラを制御するためのパラメータが必要になる。   In the present invention, a virtual imaging system is assumed, and each camera is controlled so as to constitute a multi-lens camera with the best image quality when combining images as if they were captured by the imaging system. An actual camera is composed of various combinations of lenses, diaphragms, shutters, and image sensors having various characteristics. As a result, there are a wide variety of types. Identify the imaging meter. That is, for example, even if there are a plurality of cameras in which various lenses are combined, if the attributes set as the imaging system are the same, even if different lens combinations are used, the optical systems are considered to be the same. The attribute set in this way is a parameter, and is information representing a virtual imaging system. Therefore, in order to obtain the best image quality, it is necessary to have parameters for controlling each camera so that light rays contributing to an image when captured by a virtual imaging system are acquired without excess or deficiency.

図6を用いて、仮想的な撮像系で撮像した場合の画像に寄与する光線について説明する。この撮像系はカメラのレンズに相当する光学系612と、撮像素子に相当する撮像素子面601とからなる。すなわち、光学系612は、実際のカメラではレンズ603、604や、開口絞り605などの構成要素からなる。光学系の性質は、前側焦点609、後側焦点608、前側主点611、後側主点612、入射瞳606および射出瞳607で表すことができる。光学系の特性として影響を与えるのは、この各点および各瞳であり、どのような点と動を選択するかが決定すれば、実際の光学系の構造としては本実施例以外の構造であっても構わない。さらに、撮像素子面601、焦点608、609、主点611、612から撮像素子面601に共役な面として、撮像素子共役面602を求めることができる。この撮像系で撮像した場合に画像に寄与する光線の条件は、屈折されながら開口絞り605を通過し撮像素子面601に到達するというものである。換言すると、撮像素子共役面602と入射瞳606を通るような直線が、この撮像系で撮像した場合に画像に寄与する光線ということになる。   With reference to FIG. 6, a description will be given of light rays that contribute to an image when captured by a virtual imaging system. This imaging system includes an optical system 612 corresponding to a camera lens and an imaging element surface 601 corresponding to an imaging element. That is, the optical system 612 includes components such as lenses 603 and 604 and an aperture stop 605 in an actual camera. The properties of the optical system can be represented by a front focal point 609, a rear focal point 608, a front principal point 611, a rear principal point 612, an entrance pupil 606, and an exit pupil 607. It is these points and pupils that affect the characteristics of the optical system. If it is determined what point and movement to select, the actual optical system structure may be a structure other than this example. It does not matter. Further, the imaging element conjugate plane 602 can be obtained as a plane conjugate to the imaging element plane 601 from the imaging element plane 601, the focal points 608 and 609, and the principal points 611 and 612. The condition of light rays contributing to the image when imaged by this imaging system is that the light passes through the aperture stop 605 while being refracted and reaches the image sensor surface 601. In other words, a straight line passing through the imaging element conjugate plane 602 and the entrance pupil 606 is a light ray that contributes to an image when the imaging system captures an image.

図6においては、光線A 613は入射瞳606を通るが、撮像素子共役面602を通らないため、撮像素子面601上に到達しない。光線B 614は撮像素子共役面602を通るが入射瞳606を通らないため、開口絞り605によって遮られてしまう。光線C 615は撮像素子共役面602、入射瞳606を共に通るので撮像素子面601上に到達する。したがって、入射瞳および撮像素子共役面という2つの平面図形を通ることが、合成画像を作成する場合に寄与することとなる光線の条件である。つまり、ユーザーにより設定されるパラメータとは、本質的には仮想カメラ入射瞳の形状と位置、仮想カメラ撮像素子共役面の形状と位置に関する情報である。実際のシステムではこのような情報は直感的に理解しにくいので、ユーザーにも理解しやすいような項目を選択させる。例えば、撮像素子の形状、ピント位置、焦点距離、F値、仮想カメラに用いる仮想的なレンズの種類などとしてユーザーに示し、このような情報からパラメータを算出するようにしてもかまわない。   In FIG. 6, the light ray A 613 passes through the entrance pupil 606, but does not pass through the image sensor conjugate plane 602, and therefore does not reach the image sensor surface 601. The light beam B 614 passes through the imaging element conjugate plane 602 but does not pass through the entrance pupil 606, and is thus blocked by the aperture stop 605. Since the light ray C 615 passes through both the image sensor conjugate surface 602 and the entrance pupil 606, it reaches the image sensor surface 601. Therefore, passing through two plane figures, that is, the entrance pupil and the imaging element conjugate plane, is a light ray condition that contributes to creating a composite image. That is, the parameters set by the user are essentially information on the shape and position of the virtual camera entrance pupil and the shape and position of the virtual camera imaging element conjugate plane. In an actual system, such information is difficult to understand intuitively, so items that are easy to understand for the user are selected. For example, the shape of the image sensor, the focus position, the focal length, the F value, the type of virtual lens used for the virtual camera, etc. may be shown to the user, and the parameters may be calculated from such information.

図7を用いてカメラの制御方法を概念的に説明する。前述の撮像する画像に寄与する光線の条件より、図7に示すように撮像素子共役面602と入射瞳606とを通るように各カメラを制御することで、効率よく光線情報を取得できる。つまり、あるカメラの位置をr、撮像素子共役面602の端部の位置をf1、f2、入射瞳606の端部の位置をp1、p2、カメラの画角をα、カメラのx軸からの角度をβとすると、式(1)および式(2)のような関係になる。なお、ここではx軸方向の単位ベクトルをe1、y軸方向の単位ベクトルをe2とする。 The camera control method will be conceptually described with reference to FIG. By controlling each camera so as to pass through the imaging element conjugate plane 602 and the entrance pupil 606 as shown in FIG. 7 based on the condition of the light rays contributing to the image to be captured, light information can be acquired efficiently. That is, the position of a certain camera is r, the positions of the ends of the image sensor conjugate plane 602 are f 1 and f 2 , the positions of the ends of the entrance pupil 606 are p 1 and p 2 , the camera angle of view is α, When the angle from the x-axis is β, the relationship is as shown in equations (1) and (2). Here, the unit vector in the x-axis direction is e 1 , and the unit vector in the y-axis direction is e 2 .

Figure 2012227700
Figure 2012227700

Figure 2012227700
Figure 2012227700

従って、各カメラで効率よく光線情報を取得するためには、各カメラについて以下の式(3)および式(4)で求められる画角αと向きβとなるように制御すれば良い。   Therefore, in order to efficiently acquire the light ray information with each camera, it is only necessary to control each camera so as to have the angle of view α and the direction β obtained by the following expressions (3) and (4).

Figure 2012227700
Figure 2012227700

Figure 2012227700
Figure 2012227700

実際の多眼カメラは、アレイ上に並んでおり三次元的に向きを変えるため、式(3)、式(4)ように単純にはカメラの画角や向きの最適値を求めることはできない。この場合、まず、入射瞳606と撮像素子共役面602とを制御情報を求めたいカメラに透視投影して得られる形状の共通部分を求める。そして、これを覆うことができる最小の画角を評価値として算出し、算出された評価値が小さくなるようカメラの回転量を最適化することで制御情報を求めれば良い。この点を図8を用いて説明する。制御情報を求めようとするカメラの光学中心の位置をtとし、長方形の撮像素子601上の座標軸を辺に沿ってu軸,v軸とする。多眼カメラの世界座標の軸をx軸,y軸,z軸とし、初期状態ではu軸とx軸、v軸とy軸が平行になっているとする。ここで、対象としているカメラ方向駆動部が、光学中心位置を保ったまま、y軸周りの回転θ、z軸周りの回転φによってカメラの向きを変えられる機構とすると、距離1の平面上への透視カメラ行列Mpは式(5)のようになる。 Since actual multi-lens cameras are arranged on the array and change their orientation three-dimensionally, it is not possible to simply determine the optimum values for the angle of view and orientation of the camera as in equations (3) and (4). . In this case, first, a common portion of the shape obtained by perspective projection of the entrance pupil 606 and the imaging element conjugate plane 602 on the camera for which control information is desired is obtained. Then, the minimum angle of view that can cover this is calculated as an evaluation value, and the control information may be obtained by optimizing the rotation amount of the camera so that the calculated evaluation value becomes small. This point will be described with reference to FIG. Assume that the position of the optical center of the camera for which control information is to be obtained is t, and the coordinate axes on the rectangular image sensor 601 are u-axis and v-axis along the sides. Assume that the world coordinate axes of the multi-lens camera are the x-axis, y-axis, and z-axis, and the u-axis and x-axis, and the v-axis and y-axis are parallel in the initial state. Here, if the target camera direction drive unit is a mechanism that can change the orientation of the camera by the rotation θ around the y-axis and the rotation φ around the z-axis while maintaining the optical center position, it is on a plane of distance 1 The perspective camera matrix M p is as shown in Equation (5).

Figure 2012227700
Figure 2012227700

Figure 2012227700
Figure 2012227700

Figure 2012227700
入射瞳形状、撮像素子共役面形状を多角形で表すとし、それぞれの3次元空間上でのN個の頂点の斉次座標をpn、fnと置く。このとき、距離1の平面上に透視投影したときの2次元座標 (pu n , pv n)、(fu n , fv n)は、式(8)のようになる。
Figure 2012227700
Assume that the entrance pupil shape and the imaging element conjugate plane shape are represented by polygons, and the homogeneous coordinates of N vertices in each three-dimensional space are set as p n and f n . At this time, the two-dimensional coordinates (p u n , p v n ) and (f u n , f v n ) when perspective-projected on the plane of distance 1 are as shown in Expression (8).

Figure 2012227700
Figure 2012227700

共通部分を求めて多角形として表したときのN’個の頂点を(cu n , cv n)とし、撮像素子のu軸方向と、v軸方向の大きさをsu、svとすると最小化すべき評価値Eは式(9)のようになる。 N ′ vertices when the common part is obtained and expressed as a polygon are (c u n , c v n ), and the u-axis direction and the v-axis direction size of the image sensor are su , s v Then, the evaluation value E to be minimized is as shown in Equation (9).

Figure 2012227700
Figure 2012227700

Eを最小化するθとφが回転角度の最適値であり、この時のEをEminとするとu軸方向の画角αu、v軸方向の画角αvそれぞれの最適値は式(10)のようになる。 Θ and φ that minimize E are the optimum values of the rotation angle, and when E is E min at this time, the optimum values of the angle of view α u in the u- axis direction and the angle of view α v in the v-axis direction are given by the formula ( 10)

Figure 2012227700
Figure 2012227700

最小化の方法はランダムに回転角度を変えながら、距離1の平面上に置いた(cu n , cv n)の射影変換を繰り返し、評価値を最小化する回転角度を探索する方法などを用いることができる。 The method of minimization is to change the rotation angle at random, repeat the projective transformation of (c u n , c v n ) placed on the plane of distance 1, and search for the rotation angle that minimizes the evaluation value, etc. Can be used.

なお、本実施例で示したカメラの動き方は一例であり、パラメータの取り方は実施時の機械的機構に即して設定すれば良く、本実施例はそれを限定するものではない。また、各カメラの向きと画角は、入射瞳と撮像素子共役面とを通過する光線をとらえ、撮像に寄与する光線情報を取得できるよう設定されていればよく、本実施例1はその算出方法を限定するものではない。また、各カメラの向きを変えるかわりに、撮像素子とレンズの相対位置を光軸と垂直方向に変化させることで光学中心をずらし、撮像の範囲を変える構成としてもかまわない。   It should be noted that the way of movement of the camera shown in this embodiment is an example, and the method of taking parameters may be set in accordance with the mechanical mechanism at the time of implementation, and this embodiment does not limit it. The direction and angle of view of each camera need only be set so as to be able to capture light rays that pass through the entrance pupil and the imaging element conjugate plane and acquire light ray information that contributes to imaging. The method is not limited. Further, instead of changing the orientation of each camera, the optical center may be shifted by changing the relative position of the imaging element and the lens in the direction perpendicular to the optical axis to change the imaging range.

<制御情報算出部の構成>
図9を用いて制御情報算出部238の構成について説明する。制御情報算出部238はバス226と接続されており、バス226を介してRAM 228に格納された情報を取得する。入射瞳形状設定部901は、RAM228から取得した仮想的な撮像系を表現するようなパラメータに基づいて、入射瞳形状の三次元形状を設定する。パラメータによる入射瞳の設定方法の一例としては、パラメータごとにあらかじめ入射瞳形状がわかっている仮想的撮像系をROM227にIDと関連付けて格納しておく方法がある。このようにして格納しておいて、ROM227に格納された入射瞳形状からパラメータに合致するものを読み込む方法などがある。他にも多眼カメラに対する仮想撮像系の位置、仮想撮像系内での入射瞳の位置、大きさなどをパラメータとし、多眼カメラの座標での入射瞳形状に変換するなどの方法もある。
<Configuration of control information calculation unit>
The configuration of the control information calculation unit 238 will be described with reference to FIG. The control information calculation unit 238 is connected to the bus 226, and acquires information stored in the RAM 228 via the bus 226. The entrance pupil shape setting unit 901 sets the three-dimensional shape of the entrance pupil shape based on the parameters representing the virtual imaging system acquired from the RAM 228. As an example of a method for setting the entrance pupil by parameters, there is a method in which a virtual imaging system whose entrance pupil shape is known in advance for each parameter is stored in the ROM 227 in association with the ID. There is a method of reading data that matches the parameters from the entrance pupil shape stored in the ROM 227 in such a manner. In addition, there is a method in which the position of the virtual imaging system with respect to the multi-view camera, the position and size of the entrance pupil in the virtual imaging system, etc. are used as parameters and converted into the entrance pupil shape in the coordinates of the multi-view camera.

撮像素子共役面形状設定部902は、仮想的な撮像系を規定するパラメータをRAM228から取得し、撮像素子共役面の三次元形状を設定する。パラメータとしては仮想的な撮像系を識別するIDと合焦距離とを用いて撮像素子共役面を算出しても良い。また、多眼カメラに対する仮想撮像系の位置、仮想撮像系の撮像素子サイズ、焦点距離、主点位置、合焦距離などをパラメータとし、撮像素子共役面形状を算出しても良い。本実施例は、仮想的な撮像系を規定するパラメータの表現を限定するものではなく、入射瞳形状および撮像素子共役面形状を取得することができる情報があればどのような表現でもかまわない。   The imaging element conjugate plane shape setting unit 902 acquires parameters defining a virtual imaging system from the RAM 228, and sets the three-dimensional shape of the imaging element conjugate plane. The imaging element conjugate plane may be calculated using an ID for identifying a virtual imaging system and a focusing distance as parameters. Further, the imaging element conjugate plane shape may be calculated using the position of the virtual imaging system with respect to the multi-lens camera, the imaging element size of the virtual imaging system, the focal length, the principal point position, the focusing distance, and the like as parameters. This embodiment does not limit the expression of the parameters that define the virtual imaging system, and any expression may be used as long as there is information that can acquire the entrance pupil shape and the imaging element conjugate plane shape.

入射瞳形状射影部903は、まず、予めキャリブレーションを行って求めてある、制御情報を算出する対象であるカメラの外部パラメータ(位置、姿勢)をRAM228から読み込む。そして、読み込んだ対象カメラの位置、姿勢を用いて入射瞳形状設定部901で設定された入射瞳形状を射影する。撮像素子共役面射影部904は、まず、予めキャリブレーションで求めてある、制御情報の算出対象のカメラの外部パラメータをRAM228から読み込む。そして、読み込んだ対象カメラの位置、姿勢を用いて入射瞳形状設定部902で設定された撮像素子共役面形状を射影する。   First, the entrance pupil shape projection unit 903 reads, from the RAM 228, external parameters (position and orientation) of a camera for which control information is calculated, which has been obtained in advance by calibration. Then, the entrance pupil shape set by the entrance pupil shape setting unit 901 is projected using the read position and orientation of the target camera. First, the imaging element conjugate plane projection unit 904 reads, from the RAM 228, external parameters of a camera whose control information is to be calculated, which has been obtained in advance by calibration. Then, the image sensor conjugate plane shape set by the entrance pupil shape setting unit 902 is projected using the read position and orientation of the target camera.

共通部分形状算出部905は、入射瞳形状射影部903と撮像素子共役面形状射影部904とによって求めた2次元形状の共通部分形状を算出する。最適制御値算出部906は、共通部分形状算出部905で求めた共通部分形状と、RAM228から読み込んだカメラの外部パラメータとを用いて、カメラの最適な画角と向きを算出する。以上の構成により行われる制御情報算出処理の流れを以下に説明する。   The common part shape calculation unit 905 calculates a two-dimensional common part shape obtained by the entrance pupil shape projection unit 903 and the imaging element conjugate plane shape projection unit 904. The optimal control value calculation unit 906 calculates the optimal field angle and orientation of the camera using the common part shape obtained by the common part shape calculation unit 905 and the external parameters of the camera read from the RAM 228. The flow of the control information calculation process performed with the above configuration will be described below.

<制御情報算出処理の流れ>
図10を用いて制御所法算出処理の流れについて説明する。ステップS1001では仮想撮像系を規定するパラメータを取得する。あらかじめユーザーにより設定された、仮想撮像系を規定するパラメータは、入射瞳形状設定部901と撮像素子共役面形状設定部902とにより、RAM228から読み込まれる。
<Flow of control information calculation processing>
The flow of the control center method calculation process will be described with reference to FIG. In step S1001, parameters that define the virtual imaging system are acquired. Parameters that define the virtual imaging system set in advance by the user are read from the RAM 228 by the entrance pupil shape setting unit 901 and the imaging element conjugate plane shape setting unit 902.

ステップS1002では制御情報算出の対象となっているカメラの外部パラメータを取得する。カメラの外部パラメータは、入射瞳形状射影部903、撮像素子共役面形状射影部904および最適制御値算出部906により、RAM228から読み込まれる。ここで、外部パラメータは、あらかじめキャリブレーション部239により算出され、RAM228内に格納されているが、これに限られない。ステップS1003では入射瞳形状設定部903が、ステップ1001で取得した仮想撮像系を規定するパラメータに基づいて入射瞳形状を設定する。ステップS1004では撮像素子共役面形状設定部904が、ステップ1001で取得した仮想撮像系を規定するパラメータに基づいて撮像素子共役面形状を設定する。   In step S1002, external parameters of the camera for which control information is calculated are acquired. External parameters of the camera are read from the RAM 228 by the entrance pupil shape projection unit 903, the imaging element conjugate plane shape projection unit 904, and the optimum control value calculation unit 906. Here, the external parameter is calculated in advance by the calibration unit 239 and stored in the RAM 228, but is not limited thereto. In step S1003, the entrance pupil shape setting unit 903 sets the entrance pupil shape based on the parameter that defines the virtual imaging system acquired in step 1001. In step S1004, the imaging element conjugate plane shape setting unit 904 sets the imaging element conjugate plane shape based on the parameters that define the virtual imaging system acquired in step 1001.

ステップS1005ではステップS1003で設定した入射瞳形状を、ステップS1002で取得したカメラの外部パラメータに従って射影する。射影は上述の式(5)および式(8)によって説明した方法で入射瞳形状射影部903が行う。   In step S1005, the entrance pupil shape set in step S1003 is projected according to the external parameters of the camera acquired in step S1002. The projection is performed by the entrance pupil shape projection unit 903 by the method described by the above formulas (5) and (8).

ステップS1006では、ステップS1004で設定した撮像素子共役面形状を、ステップS1002で取得した外部パラメータに従って射影する。射影は上述の式(5)および式(8)を用いて説明した方法で撮像素子共役面形状射影部904が行う。ステップS1007では、ステップS1005で求めた射影された入射瞳形状と、ステップS1005で求めた射影された撮像素子共役面形状との共通部分形状を、共通部分形状算出部905が算出する。   In step S1006, the imaging device conjugate plane shape set in step S1004 is projected according to the external parameter acquired in step S1002. The projection is performed by the imaging element conjugate plane shape projection unit 904 by the method described using the above formulas (5) and (8). In step S1007, the common partial shape calculation unit 905 calculates a common partial shape between the projected entrance pupil shape obtained in step S1005 and the projected image sensor conjugate plane shape obtained in step S1005.

ステップS1008では最適制御値としてのカメラの向きと画角を、ステップS1007で算出した共通部分形状と、ステップS1002で取得した外部パラメータとを用いて、式(9)および式(10)を用いて説明した方法で行う。この最適制御値の算出は、最適制御値算出部906が行う。   In step S1008, the camera direction and the angle of view as the optimum control values are calculated using the common part shape calculated in step S1007 and the external parameters acquired in step S1002, using equations (9) and (10). Do as described. The optimum control value is calculated by the optimum control value calculation unit 906.

<キャリブレーションの処理>
キャリブレーション部239にて実行するキャリブレーション処理について説明する。ここで、キャリブレーションとは、カメラの内部パラメータ、外部パラメータ、歪曲収差の係数などを求めることである。各カメラが予め決められた位置に高精度に設置され、向きや画角も高精度に制御され、光学系も無収差ないしはあらかじめ求めたテーブルから収差補正が可能ならば、キャリブレーションは必要ない。このような高精度の設置や制御などができない場合、キャリブレーションを行う必要があるが、このような技術は本技術分野で知られたものを使用することができる。
<Calibration process>
A calibration process executed by the calibration unit 239 will be described. Here, the calibration means obtaining an internal parameter, an external parameter, a distortion coefficient, and the like of the camera. If each camera is installed at a predetermined position with high accuracy, the direction and angle of view are controlled with high accuracy, and the optical system can also correct aberrations without aberration or from a previously determined table, calibration is not necessary. When such high-precision installation and control cannot be performed, it is necessary to perform calibration. For such a technique, a technique known in this technical field can be used.

すなわち、例えば非特許文献2に開示されている技術により、カメラの向き・画角の制御後に、既知のパターンが印刷されたチャートを複数回撮影することによって、カメラの内部パラメータ、外部パラメータ、歪曲収差の係数を求めることができる。また、歪曲収差が無視できる場合、非特許文献3に開示されている技術により、3視点以上の画像を撮像することで、チャートを用いなくても内部パラメータを求めることができる。さらに、カメラの向きと相対的な位置も、各カメラ間の基本行列から求めることができる。この場合、カメラの位置はスケールの不定性があるため、任意の2つのカメラの間隔を基準の長さとして用いることで、不定性を解消する。   That is, for example, by using the technique disclosed in Non-Patent Document 2, after the camera orientation / angle of view is controlled, a chart on which a known pattern is printed is shot a plurality of times, so that the camera's internal parameters, external parameters, distortion A coefficient of aberration can be obtained. When distortion is negligible, the internal parameters can be obtained without using a chart by capturing images of three or more viewpoints by the technique disclosed in Non-Patent Document 3. Furthermore, the camera orientation and relative position can also be obtained from the basic matrix between the cameras. In this case, since the position of the camera has indefiniteness of the scale, the indefiniteness is eliminated by using the interval between any two cameras as the reference length.

<画像合成の処理>
撮像部201〜224で撮像され、デジタル信号処理部236で処理された複数の撮像画像を、画像合成部240により、あたかも所定のパラメータで規定される仮想カメラで撮像したかのように合成する処理について説明する。ここでは図1に示すような格子状に配列されたカメラ(カメラアレイ)によって得た光線情報から、理想光学系の属性を持つ仮想撮像系で撮像された画像となるよう合成を行う。
<Image composition processing>
A process of combining a plurality of captured images captured by the image capturing units 201 to 224 and processed by the digital signal processing unit 236 as if they were captured by a virtual camera defined by predetermined parameters by the image combining unit 240 Will be described. Here, composition is performed from light ray information obtained by a camera (camera array) arranged in a lattice shape as shown in FIG. 1 so as to be an image captured by a virtual imaging system having an attribute of an ideal optical system.

図11に示すように、横倍率をMとすると仮想撮像系においては、撮像素子面601上の(x,y)の位置にある画素に入射する光線は、すべて撮像素子共役面602上の(x/M,y/M)の位置を通過する。したがって、各カメラによって撮像した画像を撮像素子共役面602上に投影したものを重ね合わせて、仮想カメラの画素数に従いサンプリングすることで、仮想撮像系で撮像される画像が得られる。   As shown in FIG. 11, in the virtual imaging system when the lateral magnification is M, all the light rays incident on the pixel at the position (x, y) on the imaging device surface 601 are on the imaging device conjugate surface 602 ( Pass through the position x / M, y / M). Therefore, an image captured by the virtual imaging system is obtained by superimposing the images captured by the respective cameras and projecting them on the imaging element conjugate plane 602 and sampling according to the number of pixels of the virtual camera.

まず、各カメラによって撮像した画像を撮像素子共役面602上に投影する方法について説明する。ここで座標は、x軸、y軸をカメラアレイ面内でそれぞれ撮像素子共役面602の横方向と縦方向に平行にとり、z軸を仮想撮像系の光軸上に沿ってカメラアレイから撮像素子共役面602に向かってとる。n番目のカメラの横画角をθx n、縦画角をθy n、横画素数をsx n、縦画素数をsy n、および画像上の光学中心位置を(cx n,cy n)とすると、内部パラメータ行列Anは式(11)となる。このとき、画像座標xyを用いると、各パラメータは図12のように示される。 First, a method for projecting an image captured by each camera onto the image sensor conjugate plane 602 will be described. Here, the coordinates are such that the x-axis and the y-axis are parallel to the horizontal and vertical directions of the imaging element conjugate plane 602 in the camera array plane, and the z-axis is along the optical axis of the virtual imaging system from the camera array to the imaging element. It is taken toward the conjugate plane 602. The horizontal angle of view of the nth camera is θ x n , the vertical angle of view is θ y n , the number of horizontal pixels is s x n , the number of vertical pixels is s y n , and the optical center position on the image is (c x n , c y n ), the internal parameter matrix A n is expressed by Equation (11). At this time, when the image coordinates xy are used, each parameter is shown as shown in FIG.

Figure 2012227700
Figure 2012227700

また、各カメラ座標を、x軸が画面左方向、y軸が画面上方向、z軸が光軸方向になるようにとり、世界座標から見た各カメラ座標のx,y,z軸方向の単位ベクトルをそれぞれ、vx n、vy n、vz nとする。このとき、各カメラの位置をtnとすると、各カメラ座標から世界座標への座標変換行列Mnは式(12)となる。各カメラ座標軸と世界座標軸の関係を図13に示す。 Each camera coordinate is in the left direction of the screen, the y axis is the top direction of the screen, and the z axis is in the direction of the optical axis. Let the vectors be v x n , v y n , and v z n , respectively. At this time, assuming that the position of each camera is t n , the coordinate transformation matrix M n from each camera coordinate to the world coordinate is expressed by Equation (12). FIG. 13 shows the relationship between each camera coordinate axis and the world coordinate axis.

Figure 2012227700
Figure 2012227700

各カメラにおけるある画像座標を(x,y)としたときに、撮像素子共役面上の(x,y)に対応する点の位置を求める。求める点の斉次座標をhn(x,y)は式(13)となる。 When a certain image coordinate in each camera is (x, y), the position of a point corresponding to (x, y) on the image sensor conjugate plane is obtained. H n (x, y) is the equation (13) for the homogeneous coordinates of the desired point.

Figure 2012227700
Figure 2012227700

ここで、k(x,y)はn番目のカメラにおける画像座標(x,y)を撮像素子共役面上に投影した時の、深度を表す。λは定数倍の不定性を表す係数である。世界座標の原点から撮像素子共役面602までの距離をdとすると、式(14)が成り立つ。 Here, k (x, y) represents the depth when the image coordinates (x, y) in the n-th camera are projected onto the image sensor conjugate plane. λ is a coefficient representing indefiniteness of a constant multiple. When the distance from the origin of the world coordinates to the imaging element conjugate plane 602 is d, Expression (14) is established.

Figure 2012227700
Figure 2012227700

この式(14)を、1/ k(x,y) について解き、Bnを用いて式(15)のように示す。 This equation (14) is solved for 1 / k (x, y) , and expressed as equation (15) using B n .

Figure 2012227700
Figure 2012227700

式(13)および式(15)を用いると、撮像素子共役面上に投影された点の座標(u,v)は2次元斉次座標で記述すると式(16)となる。   When Expression (13) and Expression (15) are used, the coordinates (u, v) of the points projected on the imaging element conjugate plane are expressed by Expression (16) when described in two-dimensional homogeneous coordinates.

Figure 2012227700
Figure 2012227700

すなわち、式(16)に従って射影変換することで、各カメラの画像を撮像素子共役面上に投影することができる。一般に変換対処である画像データは離散的な位置でサンプリングされた画像であるので、射影変換の際にはバイリニア補間や、キュービック補間でデータのない部分を埋める。   That is, by performing projective transformation in accordance with Expression (16), the image of each camera can be projected on the imaging element conjugate plane. In general, image data that is a conversion countermeasure is an image sampled at discrete positions, and therefore, when projective conversion is performed, a portion having no data is filled by bilinear interpolation or cubic interpolation.

次に入射瞳を考慮すると、現実の有限の大きさの瞳を有する光学系では焦点が合わない部分は当然ボケるので、複数の画像を合成して仮想的な撮像系による画像を取得する場合、自然なボケを再現する必要がある。このようなボケを再現するために、本発明では入射瞳を通る光線のみを撮像素子共役面上に重ね合わせる。ここで、図8に示すように入射瞳606の形状をM個の点の集まりP=(p1,p2…pm…pM)を直線で繋いだものとして考える(図8ではMは8)。Pに属する各点を、n番目のカメラから撮像素子共役面602上に投影した時の斉次座標P’nを、Pのn番目のカメラへの透視投影に式(16)を適用することで、式(17)が得られる。 Next, when considering the entrance pupil, the part that is out of focus is naturally blurred in an optical system with an actual finite size pupil, so when multiple images are combined to acquire an image from a virtual imaging system It is necessary to reproduce natural blur. In order to reproduce such a blur, in the present invention, only the light rays passing through the entrance pupil are superimposed on the imaging element conjugate plane. Here, as shown in FIG. 8, the shape of the entrance pupil 606 is considered as a collection of M points P = (p 1 , p 2 ... P m ... P M ) connected by a straight line (in FIG. 8, M is 8). Applying equation (16) to the perspective projection of the homogeneous coordinates P ′ n when each point belonging to P is projected from the n-th camera onto the image sensor conjugate plane 602 to the n-th camera of P Thus, equation (17) is obtained.

Figure 2012227700
Figure 2012227700

得られたP’nから、n番目のカメラによって撮像素子共役面上に投影されたPに、囲まれた位置では1を、それ以外の位置では0を持つマスクDnを考える。式(16)に基づいて作った画像をInとすると、合成により得られる画像Iは式(18)により計算することができる。 From the obtained P 'n, the n-th camera P projected on the imaging element conjugate plane by a 1 in position surrounded, and in the other position considering the mask D n with 0. When an image made on the basis of the equation (16) and I n, the image I obtained by synthesis can be calculated by the equation (18).

Figure 2012227700
Figure 2012227700

以上、仮想カメラで撮像したかのような画像を合成する処理について説明したが、本実施例で示した方法は一例であり、本実施例は画像の合成方法を限定するものではない。従って、実施例1によれば、多眼カメラによる複数の画像を合成して有限な大きさの瞳を持つ単一の仮想カメラで撮像したかのような画像を生成することができる。すなわち、多眼カメラを構成する各カメラの向きと画角を最適にすることで、より高画質な仮想カメラ画像を得ることが可能になる。   The processing for synthesizing an image as if captured by a virtual camera has been described above. However, the method shown in the present embodiment is an example, and the present embodiment does not limit the image synthesizing method. Therefore, according to the first embodiment, it is possible to generate an image as if it was captured by a single virtual camera having a pupil of a finite size by combining a plurality of images from a multi-view camera. In other words, by optimizing the orientation and angle of view of each camera constituting the multi-view camera, it becomes possible to obtain a higher-quality virtual camera image.

[実施例2]
実施例1では、仮想カメラ画像においてピントの合っている位置が、撮像時に指定されるものとして、多眼カメラ上の各カメラの向きと画角を最適に制御するものとした。しかしながら、撮像後に仮想カメラのピント位置を指定したいという要求も存在する。本実施例では、撮像後の仮想カメラのピント位置の変更に対応できる範囲での、多眼カメラ上の各カメラの向きと画角を最適に制御するよう処理を行う。
[Example 2]
In the first embodiment, it is assumed that the in-focus position in the virtual camera image is designated at the time of imaging, and the orientation and angle of view of each camera on the multi-lens camera are optimally controlled. However, there is a demand for specifying the focus position of the virtual camera after imaging. In this embodiment, processing is performed so as to optimally control the orientation and angle of view of each camera on the multi-lens camera within a range that can accommodate the change in the focus position of the virtual camera after imaging.

実施例2は実施例1と比較して、図2における制御情報算出部238に差異がある。本実施例では、制御情報算出の方法における実施例1と実施例2の差異を中心に説明する。   The second embodiment is different from the first embodiment in the control information calculation unit 238 in FIG. In the present embodiment, the difference between the first embodiment and the second embodiment in the control information calculation method will be mainly described.

撮像後に仮想カメラのピント位置を指定するためには、図14に示すように撮像素子共役面の位置が前側焦点から無限遠までのどの位置であっても、各カメラが不足なく光線を取得できるように向きと画角を設定する必要がある。撮像素子共役面が前側焦点609から無限遠焦点まで変化することを考慮すると、撮像素子共役面の軌跡は無限遠平面と前側焦点609からなる四角錐1401を形成する。この四角錐1401および入射瞳606をともに通る光線を捉えられるように、多眼カメラ上の各カメラの向きと画角を制御するための制御情報を、本実施例の制御情報算出部238で算出する。   In order to specify the focus position of the virtual camera after imaging, each camera can acquire light rays without any shortage, regardless of the position of the imaging element conjugate plane from the front focus to infinity, as shown in FIG. It is necessary to set the direction and angle of view. Considering that the imaging element conjugate plane changes from the front focal point 609 to the infinity focal point, the locus of the imaging element conjugate plane forms a quadrangular pyramid 1401 composed of the infinity plane and the front focal point 609. Control information for controlling the orientation and angle of view of each camera on the multi-lens camera is calculated by the control information calculation unit 238 of the present embodiment so that the ray passing through both the quadrangular pyramid 1401 and the entrance pupil 606 can be captured. To do.

ここで、実施例1では撮像素子共役面形状を多角形602で表し、その三次元空間上での頂点の斉次座標をfnと表した。本実施例2ではこれに替えて、無限遠にピントを合わせた際の撮像素子共役面形状1501の頂点の斉次座標finf n、および前側焦点609の斉次座標fpointを用いる。この時の座標軸と撮像素子共役面および入射瞳606頂点の位置関係を図15に示す。finf n、fpointを式(5)の透視投影行列を用いて透視投影すると、その結果得られる2次元座標(finf u n , finf v n)、(ff u , ff v)は式(19)として求まる。 Here, in Example 1, the imaging device conjugate plane shape is represented by a polygon 602, and the homogeneous coordinates of the apex in the three-dimensional space are represented by f n . In the second embodiment, instead of this, the homogeneous coordinates f inf n of the apex of the imaging element conjugate plane shape 1501 when focused at infinity and the homogeneous coordinates f point of the front focal point 609 are used. FIG. 15 shows the positional relationship between the coordinate axes, the imaging element conjugate plane, and the vertex of the entrance pupil 606 at this time. When f inf n and f point are perspective projected using the perspective projection matrix of Equation (5), the resulting two-dimensional coordinates (f inf u n , f inf v n ), (f f u , f f v ) Is obtained as equation (19).

Figure 2012227700
Figure 2012227700

(finf u n , finf v n)と(ff u , ff v)の凸包を求めれば、これが画像に寄与する光線が通過する撮像素子共役面軌跡の錐体1401を、Z=1の平面上に透視投影した際の図形である。この図形と、式(8)により得られる入射瞳形状の共通部分とを求め、その頂点を(c’u n , c’v n)と置けば、最小化すべき評価値は式(20)のようになる。 If the convex hull of (f inf u n , f inf v n ) and (f f u , f f v ) is obtained, the cone 1401 of the imaging element conjugate plane trajectory through which the light rays contributing to the image pass is expressed as Z = It is a figure when it is perspective-projected on the plane of 1. If this figure and the common part of the entrance pupil shape obtained by the equation (8) are obtained, and the vertex is set as (c′u n, c ′ v n ), the evaluation value to be minimized is the equation (20). It becomes like this.

Figure 2012227700
Figure 2012227700

式(20)に基づいて実施例1における制御情報の算出と同様に、評価値の最小化を行い、最小となるカメラ向きと画角を求めれば、実施例2における最適なカメラ向きと画角を求めることができる。   Similar to the calculation of the control information in the first embodiment based on the equation (20), if the evaluation value is minimized and the minimum camera orientation and angle of view are obtained, the optimum camera orientation and angle of view in the second embodiment are obtained. Can be requested.

実施例2における制御情報算出部の構成を図16に示す。実施例1における制御情報算出部238と比較して、撮像素子共役面形状設定部902が撮像素子共役面形状設定部1601に、撮像素子共役面軌跡形状設定部903が撮像素子共役面軌跡形状設定部1602となっている。すなわち、撮像素子共役面軌跡形状設定部1601は、仮想撮像系の合焦距離が焦点から無限遠まで変化することで形成される撮像素子共役面軌跡の立体1401を、仮想的な撮像系を表すパラメータから設定する。撮像素子共役面軌跡形状射影部1602は、撮像素子共役面軌跡形状設定部1601で設定した軌跡の立体1401を射影する。   FIG. 16 shows the configuration of the control information calculation unit in the second embodiment. Compared with the control information calculation unit 238 in the first embodiment, the imaging element conjugate plane shape setting unit 902 is set to the imaging element conjugate plane shape setting unit 1601, and the imaging element conjugate plane locus shape setting unit 903 is set to the imaging element conjugate plane locus setting. Part 1602. In other words, the imaging element conjugate plane locus shape setting unit 1601 represents the solid 1401 of the imaging element conjugate plane locus formed by changing the focusing distance of the virtual imaging system from the focal point to infinity, representing the virtual imaging system. Set from parameters. The imaging element conjugate plane locus shape projection unit 1602 projects the locus solid 1401 set by the imaging element conjugate plane locus shape setting unit 1601.

実施例2における制御情報算出処理の流れを図17に示す。実施例1における制御情報算出処理と比較して、ステップS1004およびステップS1006が、それぞれステップS1701およびステップS1702となっている。ステップS1701では撮像素子共役面軌跡形状設定部1601が仮想撮像系の合焦距離が焦点から無限遠まで変化することで形成される撮像素子共役面軌跡の立体1401を算出する。ステップS1702では、撮像素子共役面軌跡形状射影部1602がステップS1701で設定した立体1401を、式(19)で説明される方法に基づいて射影する。   FIG. 17 shows the flow of the control information calculation process in the second embodiment. Compared with the control information calculation process in the first embodiment, step S1004 and step S1006 are step S1701 and step S1702, respectively. In step S1701, the imaging element conjugate plane locus shape setting unit 1601 calculates a solid 1401 of the imaging element conjugate plane locus formed when the in-focus distance of the virtual imaging system changes from the focal point to infinity. In step S1702, the imaging element conjugate plane locus shape projection unit 1602 projects the solid 1401 set in step S1701 based on the method described in Expression (19).

以上説明したように、実施例2によれば、撮像後に仮想カメラのピント位置の変更を可能にすることができる。すなわち、多眼カメラを構成する各カメラの向きと画角を前側焦点から無限までの範囲の撮像素子共役面で最適になるようにすることで、より高画質な仮想カメラ画像を得ることが可能になる。   As described above, according to the second embodiment, the focus position of the virtual camera can be changed after imaging. In other words, it is possible to obtain a higher-quality virtual camera image by optimizing the orientation and angle of view of each camera constituting the multi-lens camera on the imaging element conjugate plane in the range from the front focus to infinity. become.

[その他の実施形態]
また、本発明は、以下の処理を実行することによっても実現される。すなわち、上述した実施例の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。また、本発明は、複数のプロセッサが連携して処理を行うことによっても実現できるものである。
[Other Embodiments]
The present invention can also be realized by executing the following processing. That is, software (program) for realizing the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads the program. It is a process to be executed. The present invention can also be realized by a plurality of processors cooperating to perform processing.

Claims (11)

入射瞳形状および撮像素子共役面形状により規定される仮想的な撮像系の特性を有する撮像装置の画像を処理する情報処理装置であって、
複数の撮像手段の各々が撮像する範囲を制御する複数の制御手段
を備え、
前記制御手段は、前記複数の撮像手段の各々が撮像する範囲を、前記入射瞳形状を有する前記仮想的な撮像系の入射瞳と、前記撮像素子共役面形状を有する前記仮想的な撮像系の撮像素子に共役な面とを、ともに通過する光線の量を、より大きくなるよう制御することを特徴とする情報処理装置。
An information processing apparatus for processing an image of an imaging apparatus having a virtual imaging system characteristic defined by an entrance pupil shape and an imaging element conjugate plane shape,
A plurality of control means for controlling a range in which each of the plurality of imaging means images;
The control means includes a range of images picked up by each of the plurality of imaging means, the entrance pupil of the virtual imaging system having the entrance pupil shape, and the virtual imaging system having the imaging element conjugate plane shape. An information processing apparatus that controls an amount of light that passes through a surface conjugate with an imaging element to be larger.
前記制御手段は、各撮像手段の被写体に対する画角と方向とを制御することを特徴とする請求項1に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the control unit controls an angle of view and a direction with respect to a subject of each imaging unit. ユーザーから入射瞳形状および撮像素子共役面形状を設定するパラメータを受信する受信手段をさらに備えたことを特徴とする請求項1または2に記載の情報処理装置。   The information processing apparatus according to claim 1, further comprising receiving means for receiving parameters for setting an entrance pupil shape and an imaging element conjugate plane shape from a user. 前記制御手段は、前記仮想的な撮像系の合焦距離を前側焦点から無限遠焦点まで変化させたときの各撮像素子共役面形状について、前記入射瞳形状を有する前記仮想的な撮像系の入射瞳と、前記撮像素子共役面形状を有する前記仮想的な撮像系の撮像素子に共役な面とを、ともに通過する光線の量を、より大きくなるよう制御することを特徴とする請求項1ないし3のいずれかに記載の情報処理装置。   The control means is configured to input the virtual imaging system having the entrance pupil shape with respect to each imaging element conjugate plane shape when the focal distance of the virtual imaging system is changed from the front focus to the infinity focus. The amount of light passing through the pupil and the plane conjugate with the imaging element of the virtual imaging system having the imaging element conjugate plane shape is controlled to be larger. 4. The information processing apparatus according to any one of 3. 前記仮想的な撮像系の合焦距離を変化させたときに前記仮想的な撮像系の撮像素子に共役な面が描く軌跡の形状を設定する撮像素子共役面軌跡形状設定手段をさらに備えたことを特徴とする請求項4に記載の情報処理装置。   Further provided is an image sensor conjugate plane trajectory shape setting means for setting a shape of a trajectory drawn by a plane conjugate to the image sensor of the virtual image pickup system when the focal distance of the virtual image pickup system is changed. The information processing apparatus according to claim 4. 入射瞳形状および撮像素子共役面形状により規定される仮想的な撮像系の特性を有する撮像装置の画像を処理する情報処理装置であって、
複数の撮像手段の各々が撮像する範囲を制御する複数の制御手段と
を備え、
前記制御手段は、前記複数の撮像手段の各々が撮像する範囲を、前記入射瞳形状を有する前記仮想的な撮像系の入射瞳と、前記撮像素子共役面形状を有する前記仮想的な撮像系の撮像素子に共役な面とを、ともに通過する光線のうち、前記複数の撮像手段の各々が撮像する領域に含まれない光線がより少なくなるよう制御することを特徴とする情報処理装置。
An information processing apparatus for processing an image of an imaging apparatus having a virtual imaging system characteristic defined by an entrance pupil shape and an imaging element conjugate plane shape,
A plurality of control means for controlling the range of images captured by each of the plurality of imaging means,
The control means includes a range of images picked up by each of the plurality of imaging means, the entrance pupil of the virtual imaging system having the entrance pupil shape, and the virtual imaging system having the imaging element conjugate plane shape. An information processing apparatus that controls such that light rays that pass through a plane conjugate with an image pickup element are not included in an area captured by each of the plurality of image pickup means.
前記制御手段は、各撮像手段の被写体に対する画角と方向とを制御することを特徴とする請求項6に記載の情報処理装置。   The information processing apparatus according to claim 6, wherein the control unit controls an angle of view and a direction with respect to a subject of each imaging unit. ユーザーから入射瞳形状および撮像素子共役面形状を設定するパラメータを受信する受信手段をさらに備えたことを特徴とする請求項6または7に記載の情報処理装置。   8. The information processing apparatus according to claim 6, further comprising receiving means for receiving parameters for setting an entrance pupil shape and an imaging element conjugate plane shape from a user. 前記制御手段は、前記仮想的な撮像系の合焦距離を前側焦点から無限遠焦点まで変化させたときの各撮像素子共役面形状について前記入射瞳形状を有する前記仮想的な撮像系の入射瞳と、前記撮像素子共役面形状を有する前記仮想的な撮像系の撮像素子に共役な面とを、ともに通過する光線のうち、前記複数の撮像手段の各々が撮像する領域に含まれない光線がより少なくなるよう制御することを特徴とする請求項6ないし8のいずれかに記載の情報処理装置。   The control means includes the entrance pupil of the virtual imaging system having the entrance pupil shape with respect to each imaging element conjugate plane shape when the focal distance of the virtual imaging system is changed from the front focus to the infinity focus. And light rays that pass through both of the surfaces conjugate to the imaging element of the virtual imaging system having the shape of the imaging element conjugate surface and are not included in an area captured by each of the plurality of imaging units. The information processing apparatus according to claim 6, wherein the information processing apparatus is controlled to be less. 前記仮想的な撮像系の合焦距離を変化させたときに前記仮想的な撮像系の撮像素子に共役な面が描く軌跡の形状を設定する撮像素子共役面軌跡形状設定手段をさらに備えたことを特徴とする請求項9に記載の情報処理装置。   Further provided is an image sensor conjugate plane trajectory shape setting means for setting a shape of a trajectory drawn by a plane conjugate to the image sensor of the virtual image pickup system when the focal distance of the virtual image pickup system is changed. The information processing apparatus according to claim 9. コンピュータを請求項1から10のいずれか1項に記載の情報処理装置の制御手段として機能させるためのプログラム。   The program for functioning a computer as a control means of the information processing apparatus of any one of Claim 1 to 10.
JP2011093066A 2011-04-19 2011-04-19 Information processor and program Withdrawn JP2012227700A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011093066A JP2012227700A (en) 2011-04-19 2011-04-19 Information processor and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011093066A JP2012227700A (en) 2011-04-19 2011-04-19 Information processor and program

Publications (1)

Publication Number Publication Date
JP2012227700A true JP2012227700A (en) 2012-11-15

Family

ID=47277426

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011093066A Withdrawn JP2012227700A (en) 2011-04-19 2011-04-19 Information processor and program

Country Status (1)

Country Link
JP (1) JP2012227700A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014107631A (en) * 2012-11-26 2014-06-09 Nikon Corp Image formation method and device
WO2016132267A3 (en) * 2015-02-19 2016-11-03 Spark S.R.L. A video management system and method
JP2019522909A (en) * 2016-06-30 2019-08-15 インターデジタル シーイー パテント ホールディングス Apparatus and method for generating data representing a pixel beam

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014107631A (en) * 2012-11-26 2014-06-09 Nikon Corp Image formation method and device
WO2016132267A3 (en) * 2015-02-19 2016-11-03 Spark S.R.L. A video management system and method
JP2019522909A (en) * 2016-06-30 2019-08-15 インターデジタル シーイー パテント ホールディングス Apparatus and method for generating data representing a pixel beam
JP7075892B2 (en) 2016-06-30 2022-05-26 インターディジタル・シーイー・パテント・ホールディングス・ソシエテ・パ・アクシオンス・シンプリフィエ Devices and methods for generating data representing pixel beams

Similar Documents

Publication Publication Date Title
JP5988790B2 (en) Image processing apparatus, imaging apparatus, image processing method, and image processing program
JP6112824B2 (en) Image processing method and apparatus, and program.
JP5618943B2 (en) Image processing method, imaging apparatus, image processing apparatus, and image processing program
JP5725953B2 (en) Imaging apparatus, control method therefor, and information processing apparatus
US20130162779A1 (en) Imaging device, image display method, and storage medium for displaying reconstruction image
JP2012249070A (en) Imaging apparatus and imaging method
JP6047025B2 (en) Imaging apparatus and control method thereof
JP2013009274A (en) Image processing device, image processing method, and program
JP2012186790A (en) Image processing device, imaging device, image processing method, and program
JP5882789B2 (en) Image processing apparatus, image processing method, and program
JP6397281B2 (en) Imaging apparatus, control method thereof, and program
JP7170224B2 (en) Three-dimensional generation method and three-dimensional generation device
JP2013026844A (en) Image generation method and device, program, recording medium, and electronic camera
JP2012199805A (en) Imaging apparatus
JP2014010783A (en) Image processing apparatus, image processing method, and program
JP5452801B2 (en) Stereoscopic image generating apparatus and program thereof
TWI501193B (en) Computer graphics using AR technology. Image processing systems and methods
JP2012227700A (en) Information processor and program
JP2008109481A (en) Image generating apparatus
JP2016201788A (en) Image processing system, imaging apparatus, image processing method, and program
JP5743769B2 (en) Image processing apparatus and image processing method
JP6732440B2 (en) Image processing apparatus, image processing method, and program thereof
JP2019133214A (en) Image display apparatus, video display system including apparatus, image display method and program for displaying image
JP5721891B2 (en) Imaging device
JP2014164497A (en) Information processor, image processing method and program

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140701