JP6602412B2 - Information processing apparatus and method, information processing system, and program. - Google Patents

Information processing apparatus and method, information processing system, and program. Download PDF

Info

Publication number
JP6602412B2
JP6602412B2 JP2018041221A JP2018041221A JP6602412B2 JP 6602412 B2 JP6602412 B2 JP 6602412B2 JP 2018041221 A JP2018041221 A JP 2018041221A JP 2018041221 A JP2018041221 A JP 2018041221A JP 6602412 B2 JP6602412 B2 JP 6602412B2
Authority
JP
Japan
Prior art keywords
imaging
group
imaging devices
subject
belonging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018041221A
Other languages
Japanese (ja)
Other versions
JP2018129825A (en
Inventor
哲 鳥居
圭一 澤田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018041221A priority Critical patent/JP6602412B2/en
Publication of JP2018129825A publication Critical patent/JP2018129825A/en
Priority to JP2019187183A priority patent/JP6915016B2/en
Application granted granted Critical
Publication of JP6602412B2 publication Critical patent/JP6602412B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Exposure Control For Cameras (AREA)
  • Details Of Cameras Including Film Mechanisms (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Studio Devices (AREA)

Description

本発明は被写体の形状推定に関する技術である。   The present invention is a technique related to object shape estimation.

複数の撮像部で撮像した画像を用いた技術として、複数のカメラで同一の被写体を異なる視点から撮像した複数の画像間の画素値の整合を取ることで被写体の形状を推定する技術が存在する。このように画像から高精度に被写体形状を推定するためには、各撮像部が形状を推定したい被写体にフォーカスを合わせて撮像を行う必要がある。更に、形状を推定したい被写体が複数存在する場合には、全ての被写体にフォーカスを合わせて撮像を行う必要がある。   As a technique using images captured by a plurality of imaging units, there is a technique for estimating the shape of a subject by matching pixel values between a plurality of images obtained by capturing the same subject from different viewpoints with a plurality of cameras. . Thus, in order to estimate the subject shape with high accuracy from the image, it is necessary for each imaging unit to perform imaging while focusing on the subject whose shape is to be estimated. Further, when there are a plurality of subjects whose shapes are to be estimated, it is necessary to focus on all the subjects and perform imaging.

複数の撮像部が複数の被写体にフォーカスを合わせる技術として、特許文献1記載の技術が知られている。特許文献1には、各撮像装置で異なる被写体にフォーカスし、かつ各撮像部のフォーカス位置が互いの撮像部の被写界深度内に入るように、各撮像部の撮像条件を設定することが記載されている。   A technique described in Patent Document 1 is known as a technique in which a plurality of imaging units focus on a plurality of subjects. In Patent Literature 1, the imaging conditions of each imaging unit are set so that each imaging device focuses on a different subject and the focus position of each imaging unit falls within the depth of field of each imaging unit. Are listed.

特開2012−44540号公報JP 2012-44540 A

しかしながら、特許文献1に記載の技術では、被写体の形状情報を精度よく算出できない恐れがあった。例えば、被写体が複数の場合、各撮像部が別々の被写体上にフォーカス位置を算出し、それら全てのフォーカス位置が被写界深度内に入るように、各撮像部について大きなF値が設定されてしまう。F値が大きい場合、露出を適正にするためにISO感度を大きくするか、シャッタースピードを遅くする必要がある。しかし、ISO感度を大きくすればノイズが増加してしまい、シャッタースピードを遅くすれば被写体ぶれが発生してしまうという課題があった。   However, with the technique described in Patent Document 1, there is a possibility that the shape information of the subject cannot be accurately calculated. For example, when there are a plurality of subjects, each imaging unit calculates a focus position on a separate subject, and a large F value is set for each imaging unit so that all the focus positions are within the depth of field. End up. When the F value is large, it is necessary to increase the ISO sensitivity or reduce the shutter speed in order to make the exposure appropriate. However, if the ISO sensitivity is increased, noise increases, and if the shutter speed is decreased, subject blurring occurs.

そこで本発明では、被写体の形状情報を精度よく算出できるようにするための技術を提供することを目的とする。   Accordingly, an object of the present invention is to provide a technique for enabling accurate calculation of subject shape information.

上記課題を解決するために、本発明の情報処理装置は、複数の撮像装置による撮像画像に基づいてオブジェクトの形状推定を行う情報処理装置であって、第1グループに属する複数の撮像装置による撮像画像に基づいて第1オブジェクトの形状推定処理を行うと共に、前記第1グループとは異なる第2グループに属する複数の撮像装置による撮像画像に基づいて前記第1オブジェクトとは異なる第2オブジェクトの形状推定処理を行う処理手段と、前記処理手段による形状推定処理の結果を出力する出力手段と、を有し、前記第1グループに属する撮像装置と、前記第2グループに属する撮像装置は、交互に配置されることを特徴とする。 In order to solve the above problems, an information processing apparatus of the present invention is an information processing apparatus for performing shape estimation of the object based on the captured image by a plurality of imaging devices, imaging by the plurality of imaging devices belonging to the first group The shape estimation processing of the first object is performed based on the image, and the shape estimation of the second object different from the first object is performed based on the captured images by a plurality of imaging devices belonging to the second group different from the first group A processing unit that performs processing, and an output unit that outputs a result of the shape estimation process performed by the processing unit. The imaging devices belonging to the first group and the imaging devices belonging to the second group are alternately arranged. It is characterized by being.

被写体の形状情報を精度よく算出できるようになる。   The shape information of the subject can be calculated with high accuracy.

撮像システムの構成例を示す図。The figure which shows the structural example of an imaging system. 実施例1の情報処理装置の構成を示す図。1 is a diagram illustrating a configuration of an information processing apparatus according to a first embodiment. 実施例1の情報処理装置の機能構成を示す図。1 is a diagram illustrating a functional configuration of an information processing apparatus according to a first embodiment. 実施例1の情報処理装置で行われる処理の流れを示すフローチャート。3 is a flowchart illustrating a flow of processing performed by the information processing apparatus according to the first embodiment. 被写界深度と被写体奥行きの関係を説明する図。The figure explaining the relationship between depth of field and subject depth. 実施例1の組分け処理を説明する図。FIG. 5 is a diagram for explaining grouping processing according to the first embodiment. 実施例1のパラメータ決定処理を説明する図。FIG. 6 is a diagram for explaining parameter determination processing according to the first embodiment. 実施例2の組分け処理の流れを示すフローチャート。9 is a flowchart showing a flow of grouping processing according to the second embodiment. 撮像部の各被写体に対するビジビリティの例を示す図。The figure which shows the example of the visibility with respect to each to-be-photographed object of an imaging part. 実施例2の組分け処理を説明する図。The figure explaining the grouping process of Example 2. FIG. 実施例3の情報処理装置の機能構成を示す図。FIG. 9 is a diagram illustrating a functional configuration of an information processing apparatus according to a third embodiment. 実施例3の情報処理装置で行われる処理の流れを示すフローチャート。10 is a flowchart illustrating a flow of processing performed by the information processing apparatus according to the third embodiment.

<実施例1>
本実施例では、複数の撮像部を利用して、複数の被写体を含むシーンを異なる方向から撮影する場合に、撮像部を複数の組に分割し、組ごとに異なる被写体にフォーカスを合わせて撮影する例について説明する。これにより、全ての被写体にフォーカスを合わせた状態で撮像を行うことができる。なお、本実施例で用いられる撮像部の数は、撮像対象の被写体の数に比べると十分に多いものとする。
<Example 1>
In this embodiment, when shooting a scene including a plurality of subjects from different directions using a plurality of imaging units, the imaging unit is divided into a plurality of groups, and shooting is performed by focusing on different subjects for each group. An example will be described. Thereby, imaging can be performed in a state where all the subjects are in focus. Note that the number of imaging units used in this embodiment is sufficiently larger than the number of subjects to be imaged.

以下、本実施例の撮像システムの構成について説明する。図1は、本実施例の撮像システム構成例を示す図である。本実施例の撮像システムは8つの撮像部101〜108と情報処理装置109とを含み、撮像部101〜108は、2つの被写体を取り囲むようにそれぞれ異なる視点位置に配置されている。撮像部101〜108は、被写体の光情報をセンサで受光し、A/D変換を施すことによって撮像した画像のデジタルデータ(撮像画像データ)を取得する。情報処理装置109は、撮像部101〜108の撮像条件を算出し、算出した撮像条件に応じて撮像部101〜108を制御する。尚、本実施例では、8つの撮像部101〜108を用いる場合を例として説明を行うが、撮像部の数はこれに限られず、任意の数の撮像部を用いることができる。   Hereinafter, the configuration of the imaging system of the present embodiment will be described. FIG. 1 is a diagram illustrating a configuration example of an imaging system according to the present embodiment. The imaging system of the present embodiment includes eight imaging units 101 to 108 and an information processing device 109, and the imaging units 101 to 108 are arranged at different viewpoint positions so as to surround two subjects. The imaging units 101 to 108 receive optical information of a subject with a sensor, and acquire digital data (captured image data) of an image captured by performing A / D conversion. The information processing device 109 calculates the imaging conditions of the imaging units 101 to 108 and controls the imaging units 101 to 108 according to the calculated imaging conditions. In this embodiment, the case where eight image pickup units 101 to 108 are used will be described as an example. However, the number of image pickup units is not limited to this, and an arbitrary number of image pickup units can be used.

次に、情報処理装置109の構成について説明する。図2は、情報処理装置109の内部構成を示すブロック図である。情報処理装置109は、CPU201、RAM202、ROM203、HDD I/F204、HDD205、入力I/F206、出力I/F207、システムバス208とを有している。   Next, the configuration of the information processing apparatus 109 will be described. FIG. 2 is a block diagram showing an internal configuration of the information processing apparatus 109. The information processing apparatus 109 includes a CPU 201, a RAM 202, a ROM 203, an HDD I / F 204, an HDD 205, an input I / F 206, an output I / F 207, and a system bus 208.

CPU201は情報処理装置109の各構成部を制御するプロセッサであり、RAM202とROM203は、それぞれ情報処理装置109で扱われる種々のデータを記憶するメモリである。CPU201は、RAM202をワークメモリとして、ROM203に格納されたプログラムを実行し、システムバス208を介して情報処理装置109の各構成部を統括的に制御する。これにより、後述する様々な処理が実行される。   The CPU 201 is a processor that controls each component of the information processing apparatus 109, and the RAM 202 and the ROM 203 are memories that store various data handled by the information processing apparatus 109. The CPU 201 executes a program stored in the ROM 203 using the RAM 202 as a work memory, and comprehensively controls each component of the information processing apparatus 109 via the system bus 208. Thereby, various processes described later are executed.

HDDI/F204は、例えばシリアルATA(SATA)等のインタフェイスであり、二次記憶装置としてのHDD205を接続する。CPU201は、HDDI/F204を介したHDD205からのデータ読み出し及びHDD205へのデータ書き込みが可能である。さらにCPU201は、HDD205に格納されたデータをRAM202に展開し、同様に、RAM202に展開されたデータをHDD205に保存することが可能である。そしてCPU201は、RAM202に展開したデータをプログラムとみなし、実行することができる。なお、二次記憶装置はHDDの他、光ディスクドライブ等の記憶デバイスでもよい。   The HDD I / F 204 is an interface such as serial ATA (SATA), for example, and connects the HDD 205 as a secondary storage device. The CPU 201 can read data from the HDD 205 and write data to the HDD 205 via the HDD I / F 204. Further, the CPU 201 can expand the data stored in the HDD 205 to the RAM 202, and can similarly store the data expanded in the RAM 202 in the HDD 205. The CPU 201 can regard the data expanded in the RAM 202 as a program and execute it. The secondary storage device may be a storage device such as an optical disk drive in addition to the HDD.

入力I/F206は、例えばUSBやIEEE1394等のシリアルバスインタフェイスである。CPU201は、入力I/F206を介して、撮像部101〜108、操作部209(例えば、マウスやキーボード)、外部メモリ211(例えば、ハードディスク、メモリーカード、CFカード、SDカード、USBメモリ)などからデータを取得する。どのようなデータを取得するかについては後述する。   The input I / F 206 is a serial bus interface such as USB or IEEE1394. The CPU 201 via the input I / F 206 from the imaging units 101 to 108, the operation unit 209 (for example, mouse and keyboard), the external memory 211 (for example, hard disk, memory card, CF card, SD card, USB memory) and the like. Get the data. What data is acquired will be described later.

出力I/F207は、例えばDVIやHDMI(登録商標)等の映像出力インタフェイスである。CPU201は、出力I/F207を介して、表示部210(ディスプレイなどの各種出力デバイス)に、撮像部101〜108の撮像画像や、撮像画像に対し何らかの処理を行い合成した画像を表示することができる。なお、タッチパネル式のディスプレイが操作部209と表示部210を兼ねてもよい。なお、情報処理装置109の構成要素は上記以外にも存在するが、本発明の主眼ではないので、説明を省略する。   The output I / F 207 is a video output interface such as DVI or HDMI (registered trademark). The CPU 201 can display the captured image of the imaging units 101 to 108 or an image synthesized by performing some processing on the captured image on the display unit 210 (various output devices such as a display) via the output I / F 207. it can. Note that a touch panel display may serve as the operation unit 209 and the display unit 210. Although there are other components of the information processing apparatus 109 than those described above, the description thereof is omitted because it is not the main point of the present invention.

次に、本実施例の情報処理装置109における撮像部101〜108のフォーカス位置決定処理の流れについて、図3に示すブロック図と、図4に示すフローチャートを参照して説明する。本実施例の情報処理装置109は、CPU201がROM203に格納された、図4のフローチャートに示すプログラムを実行し、図3に示す機能構成部としての役割を果たすことでフォーカス位置の決定処理を行う。なお、全ての処理をCPU201が行わずともよく、一部又は全部の処理を、同様の機能を有する処理回路などで置き換えてもよい。また、以下の処理に先立ちユーザによって撮像部101〜108についてそれぞれF値とシャッタースピードが設定済みで、ROM203に記憶してあるものとする。なお、ここで、各撮像部のF値は各撮像部で設定可能な最小値(開放値)に設定してある。   Next, the flow of focus position determination processing of the imaging units 101 to 108 in the information processing apparatus 109 according to the present embodiment will be described with reference to the block diagram shown in FIG. 3 and the flowchart shown in FIG. In the information processing apparatus 109 according to the present exemplary embodiment, the CPU 201 executes the program illustrated in the flowchart of FIG. 4 stored in the ROM 203, and performs the focus position determination process by serving as the function configuration unit illustrated in FIG. . Note that the CPU 201 does not have to perform all the processing, and some or all of the processing may be replaced with a processing circuit having a similar function. Further, it is assumed that the F value and the shutter speed are set for each of the imaging units 101 to 108 by the user prior to the following processing and stored in the ROM 203. Here, the F value of each imaging unit is set to the minimum value (open value) that can be set in each imaging unit.

まず、ステップS401では、位置取得部301において、被写体形状測定時の撮像部101〜108の三次元位置、及び姿勢(撮像部の前方を表す三次元ベクトルと、撮像部の上方を表す三次元ベクトル)を示す情報を取得する。撮像部の三次元位置、及び姿勢は、入力I/F206を介して撮像部101〜108や外部メモリ211から取得する。または、操作部209を介してユーザに入力された値を取得するようにしてもよい。なお、外部から入力された値を撮像部の位置姿勢を示す情報として取得する代わりに、撮像部が取得した撮像画像データからstructure from motionなどの既存手法により、撮像部の位置姿勢を示す情報を算出するようにしても構わない。位置取得部301は、ここで取得した各撮像部の位置姿勢を示す情報を、比較部303とパラメータ決定部305に出力してステップS402に進む。   First, in step S401, in the position acquisition unit 301, the three-dimensional positions and orientations of the imaging units 101 to 108 at the time of subject shape measurement (a three-dimensional vector representing the front of the imaging unit and a three-dimensional vector representing the upper side of the imaging unit). ) Is acquired. The three-dimensional position and orientation of the imaging unit are acquired from the imaging units 101 to 108 and the external memory 211 via the input I / F 206. Alternatively, a value input by the user via the operation unit 209 may be acquired. In addition, instead of acquiring externally input values as information indicating the position and orientation of the imaging unit, information indicating the position and orientation of the imaging unit is obtained from the captured image data acquired by the imaging unit using an existing method such as structure from motion. You may make it calculate. The position acquisition unit 301 outputs the information indicating the position and orientation of each imaging unit acquired here to the comparison unit 303 and the parameter determination unit 305, and the process proceeds to step S402.

ステップS402では、形状取得部302において、撮像する複数の被写体のおおまかな位置と形状とを示す形状情報を取得する。形状情報は、被写体と撮像部101〜108との三次元的な相対位置を示す情報と各被写体の空間的な広がりを示す情報とを含み、例えば三次元空間にプロットされた複数の点群の座標で表わされる。被写体の形状情報は、予め何らかの方法で測定しRAM202やROM203に記憶してあるものとする。なお、被写体の形状情報の測定にはどのような方法を用いてもよく、3次元デジタイザ(3Dスキャナ)など不図示の外部センサを利用して測定してもよいし、撮像部101〜108のプレビューとして得られる多視点画像を利用して形状を推定してもよい。多視点画像から被写体の形状を推定する方法としては、例えば、多視点画像間の画素の位置ずれに基づいて距離を測定する既存手法であるMulti View Stereoを利用することができる。被写体の形状情報の取得方法については、本発明の主眼ではないため詳細な説明は省略する。いずれの方法で被写体の形状を取得するにしても、撮影前のプレビューの段階において逐次被写体の形状を取得し、ROM203を更新することが望ましい。なお、プレビューで得られた多視点画像から形状推定を行う場合には、各撮像部のF値を大きくして被写界深度を深くした状態で撮像された画像を用いると、各被写体の大まかな形状情報を容易に得ることができる。形状取得部302は、取得した形状情報を比較部303に出力し、ステップS403に進む。   In step S402, the shape acquisition unit 302 acquires shape information indicating the approximate positions and shapes of a plurality of subjects to be imaged. The shape information includes information indicating a three-dimensional relative position between the subject and the imaging units 101 to 108 and information indicating a spatial extent of each subject. For example, the shape information includes a plurality of point groups plotted in a three-dimensional space. Expressed in coordinates. It is assumed that the subject shape information is measured in advance by some method and stored in the RAM 202 or ROM 203. Note that any method may be used for measuring the shape information of the subject, and measurement may be performed using an external sensor (not shown) such as a three-dimensional digitizer (3D scanner). The shape may be estimated using a multi-viewpoint image obtained as a preview. As a method for estimating the shape of the subject from the multi-viewpoint image, for example, Multi View Stereo, which is an existing method for measuring the distance based on the positional deviation of the pixels between the multi-viewpoint images, can be used. Since the method for acquiring the shape information of the subject is not the main point of the present invention, a detailed description thereof will be omitted. Whichever method is used to acquire the shape of the subject, it is desirable to sequentially acquire the shape of the subject and update the ROM 203 at the preview stage before shooting. In addition, when shape estimation is performed from a multi-viewpoint image obtained in the preview, if an image captured in a state where the F-number of each imaging unit is increased and the depth of field is deepened, a rough approximation of each subject is used. Can be obtained easily. The shape acquisition unit 302 outputs the acquired shape information to the comparison unit 303, and proceeds to step S403.

続いてステップS403では、比較部303が、各撮像部の被写界深度を取得する。ここでは、撮像前にあらかじめ設定されたF値と撮像部から被写体までの距離とから被写界深度を算出する方法を示す。まず、ROM203から撮像部101〜108のF値をそれぞれ取得する。また、形状取得部302から入力された形状情報に基づいて、各撮像部から被写体までの距離である被写体距離を取得する。ここでは、各撮像部から全被写体の形状の重心位置までの距離を被写体距離とする。n番目の撮像部における被写界深度DnはF値をFn、被写体距離をdnとすると下記式で算出することができる。   Subsequently, in step S403, the comparison unit 303 acquires the depth of field of each imaging unit. Here, a method of calculating the depth of field from the F value set in advance before imaging and the distance from the imaging unit to the subject is shown. First, F values of the imaging units 101 to 108 are acquired from the ROM 203, respectively. Further, based on the shape information input from the shape acquisition unit 302, a subject distance that is a distance from each imaging unit to the subject is acquired. Here, the distance from each imaging unit to the position of the center of gravity of the shape of all the subjects is defined as the subject distance. The depth of field Dn in the n-th imaging unit can be calculated by the following equation where F value is Fn and subject distance is dn.

Figure 0006602412
Figure 0006602412

ここで、εは許容錯乱円の直径、fnはレンズの焦点距離を表している。許容錯乱円の直径εは、どのくらいまでの大きさのボケを許容するかを示す値である。許容錯乱円の直径は撮像部のセンササイズ、センサ上の画素ピッチなどによって変わる値だが、例えばAPS−Cサイズのセンサの場合、一般に0.019mmという値を用いられる。尚、被写界深度を算出するには上記以外のどのような方法を用いてもよい。また、上記のように処理の度に算出するのではなく、予め算出した値をテーブルとしてROM203に記憶しておき、それを参照することで被写体深度を取得するようにしてもよい。比較部303は、上記いずれかの方法によって、撮像部101〜108の全てについて被写界深度Dnを取得する。   Here, ε represents the diameter of the allowable circle of confusion, and fn represents the focal length of the lens. The diameter ε of the allowable circle of confusion is a value indicating how much blur is allowed. The diameter of the permissible circle of confusion varies depending on the sensor size of the imaging unit, the pixel pitch on the sensor, and the like. For example, in the case of an APS-C size sensor, a value of 0.019 mm is generally used. Any method other than the above may be used to calculate the depth of field. In addition, instead of calculating each time as described above, values calculated in advance may be stored in the ROM 203 as a table, and the subject depth may be acquired by referring to it. The comparison unit 303 acquires the depth of field Dn for all of the imaging units 101 to 108 by any one of the methods described above.

続いて、ステップS404では、比較部303が、ステップS403で取得した被写界深度と、形状取得部302から入力された形状情報とを比較し、撮像部101〜108が一度の撮影で全ての被写体を被写界深度内に収めることができるかを判断する。被写体の形状情報を利用して各撮像部の光軸上での被写体の奥行きを算出し、ステップS403で取得した被写界深度と比較する。ここで、光軸上での被写体の奥行きとは、撮像部の光軸上において被写体のうちの最も手前にある被写体の最も手前にある点から、最も奥にある被写体の最も奥にある点までの距離である。被写界深度の方が大きい場合は全ての被写体が被写界深度内に収まり、他方、被写界深度の方が小さい場合は被写界深度に収まらないと判断される。ここで、撮像部の光軸は撮像部の三次元位置を始点として、撮像部の前方を表す三次元ベクトルと平行な方向を持つ線分である。   Subsequently, in step S404, the comparison unit 303 compares the depth of field acquired in step S403 with the shape information input from the shape acquisition unit 302, and the imaging units 101 to 108 perform all the shootings once. It is determined whether the subject can be within the depth of field. The depth of the subject on the optical axis of each imaging unit is calculated using the shape information of the subject, and compared with the depth of field acquired in step S403. Here, the depth of the subject on the optical axis is from the point closest to the subject closest to the subject on the optical axis of the imaging unit to the point farthest from the subject farthest. Is the distance. When the depth of field is larger, all the objects are within the depth of field, while when the depth of field is smaller, it is determined that the subject is not within the depth of field. Here, the optical axis of the imaging unit is a line segment having a direction parallel to a three-dimensional vector representing the front of the imaging unit, starting from the three-dimensional position of the imaging unit.

図5に処理の概念図を示す。尚、図5は図示の都合上2次元で被写体や撮像部、被写体深度を記載するが、実際にはこれらは3次元で表現され、以下の説明は3次元に単純に拡張が可能である。図5(a)は、撮像部501で2つの被写体を撮影する場合を示している。線分502は撮像部501の光軸を表しており、範囲503が光軸上の被写体の奥行きを表わしている。また、グレーで色づけした領域505は、撮像部501の被写界深度内に含まれるフォーカス領域を表している。この領域外にある被写体は、フォーカス範囲外になってしまうため、撮影画像中ではぼけてしまう。従って、この場合は一度の撮影では全ての被写体を被写界深度内に収めることはできない。一方、図5(b)は撮像部501とは位置が異なる撮像部506を用いた場合を示す図である。図5(b)では、光軸上の被写体奥行き508よりもフォーカス領域509の方が大きいため、一度の撮影で全ての被写体を被写界深度内に収めることができる。ここでは、比較部303が、全ての撮像部について上述の比較を行い、各撮像部について、被写界深度内に収めることができない被写体が存在するかどうかを判定する。撮像部101〜108のうち、一度に被写体全体を被写界深度内に収めることができない撮像部がある場合はステップS405へ進む。他方、全ての撮像部において、被写体全体を被写界深度内に収めて撮像することができる場合にはステップS406へ進む。   FIG. 5 shows a conceptual diagram of the processing. Note that FIG. 5 illustrates the subject, the imaging unit, and the subject depth in two dimensions for convenience of illustration, but in actuality, these are represented in three dimensions, and the following description can be simply expanded to three dimensions. FIG. 5A shows a case where the imaging unit 501 captures two subjects. A line segment 502 represents the optical axis of the imaging unit 501, and a range 503 represents the depth of the subject on the optical axis. A region 505 colored in gray represents a focus region included within the depth of field of the imaging unit 501. A subject outside this area is out of the focus range, and is blurred in the captured image. Therefore, in this case, it is not possible to fit all the subjects within the depth of field by one shooting. On the other hand, FIG. 5B is a diagram illustrating a case where the imaging unit 506 having a position different from that of the imaging unit 501 is used. In FIG. 5B, since the focus area 509 is larger than the subject depth 508 on the optical axis, it is possible to fit all subjects within the depth of field by one shooting. Here, the comparison unit 303 performs the above-described comparison for all the imaging units, and determines whether there is a subject that cannot be accommodated within the depth of field for each imaging unit. If any of the imaging units 101 to 108 cannot capture the entire subject within the depth of field at one time, the process proceeds to step S405. On the other hand, if all the imaging units can capture the entire subject within the depth of field, the process proceeds to step S406.

続いて、ステップS405では、組分け部304が、一度に全ての被写体を被写界深度に収めることができない撮像部が存在する場合に、撮像部101〜108を、それぞれが少なくとも一つの被写体に対応する複数の組に分ける。なお、組分け部304で行われる処理の詳細については後述する。組分け部304は、ここで行われた組分けの結果をパラメータ決定部305に出力し、ステップS406に進む。   Subsequently, in step S405, when there is an imaging unit in which the grouping unit 304 cannot fit all subjects within the depth of field at one time, the imaging units 101 to 108 are each assigned to at least one subject. Divide into corresponding pairs. Details of processing performed in the grouping unit 304 will be described later. The grouping unit 304 outputs the result of the grouping performed here to the parameter determination unit 305, and proceeds to step S406.

最後に、ステップS406では、パラメータ決定部305が、組分け部304から入力された組分けの結果と、各撮像部と各被写体との位置関係に基づいて、撮像部101〜108のそれぞれについて、フォーカス距離を示すフォーカスパラメータを決定する。ここでは、同一組に割り振られた撮像部は同一の被写体にフォーカスを合わせ、グループごとに異なる被写体にフォーカスを合わせるように、フォーカスパラメータを決定する。なお、ここで、フォーカスパラメータは、各撮像部のフォーカス距離でもよいし、各撮像部のレンズ―センサ間距離などでもよい。なお、パラメータ決定部305で行われる処理の詳細は後述する。パラメータ決定部305は、ここで決定されたフォーカスパラメータを撮像部101〜108に出力し、処理を終了する。以下、ステップS405の組分け処理とステップS406のパラメータ決定処理の詳細について説明する。   Lastly, in step S406, the parameter determination unit 305 determines whether each of the imaging units 101 to 108 is based on the grouping result input from the grouping unit 304 and the positional relationship between each imaging unit and each subject. A focus parameter indicating a focus distance is determined. Here, the imaging units assigned to the same set determine the focus parameter so that the same subject is focused and different subjects are focused for each group. Here, the focus parameter may be a focus distance of each imaging unit, or a lens-sensor distance of each imaging unit. Details of processing performed by the parameter determination unit 305 will be described later. The parameter determination unit 305 outputs the focus parameter determined here to the imaging units 101 to 108 and ends the process. Hereinafter, details of the grouping process in step S405 and the parameter determination process in step S406 will be described.

<組分け処理>
まず、前述のステップS405の組分け処理の詳細について説明する。なお、本処理は、一度に全ての被写体を被写界深度に収めることができない撮像部が存在する場合に実施する。
<Grouping process>
First, details of the grouping process in step S405 described above will be described. This process is performed when there is an imaging unit that cannot fit all subjects within the depth of field at one time.

本実施例の組分け処理では、撮像部101〜108を被写体の数と等しい数の組に分ける。例えば、被写体が2つ存在する場合は、撮像部101〜108を1つ目の被写体に対応する第1の組と、2つ目の被写体に対応する第2の組へと分割する。各撮像部の組分け方法としては任意の方法を用いることが可能である。例えば、本実施例では、図6(a)に示すように、隣り合う各撮像部を交互に異なる組に割り振る。図6(a)の例では、被写体1に対応する第1の組には撮像部101、103、105、107の4つの撮像部が、被写体2に対応する第2の組には撮像部102、104、106、108の4つの撮像部が割り振られている。   In the grouping process of the present embodiment, the imaging units 101 to 108 are divided into a number of groups equal to the number of subjects. For example, when there are two subjects, the imaging units 101 to 108 are divided into a first set corresponding to the first subject and a second set corresponding to the second subject. An arbitrary method can be used as a method for grouping the image pickup units. For example, in this embodiment, as shown in FIG. 6A, adjacent image capturing units are alternately assigned to different groups. In the example of FIG. 6A, four imaging units 101, 103, 105, and 107 are included in the first set corresponding to the subject 1, and the imaging unit 102 is included in the second set corresponding to the subject 2. , 104, 106, and 108 are allocated.

被写体が3つの場合は、図6(b)に示すように、被写体1に対応する第1の組には撮像部101、104、107が、被写体2に対応する第2の組には撮像部102、105、108が、被写体3に対応する第3の組には撮像部103、106が割り振られる。このように、上記の例では各撮像部を順番に各組へ割り振った。このような組分けの仕方であれば、各被写体に対して均等に撮像部を割り振ることができる。なお、ここで用いることができる組分け方法は上記の物に限られず、ランダムに割り振りを行ってもよいし、他の規則に従って割り振りを行ってもよい。また、各組には均等な数の撮像部を割り当てる例を示したが、各グループの撮像部の数は必ずしも均等である必要はない。さらに、組分けは撮像ごとに固定である必要はなく、撮影の度に新たに設定し直したり、時刻に応じて組分けを変更するようにしてもよい。   When there are three subjects, as shown in FIG. 6B, the imaging units 101, 104, and 107 are in the first group corresponding to the subject 1, and the imaging unit is in the second group corresponding to the subject 2. The imaging units 103 and 106 are allocated to the third group in which 102, 105, and 108 correspond to the subject 3. Thus, in the above example, each imaging unit is assigned to each set in order. With such a grouping method, the imaging units can be equally allocated to the respective subjects. Note that the grouping method that can be used here is not limited to the above-described method, and may be randomly assigned or assigned according to other rules. In addition, although an example in which an equal number of imaging units is assigned to each group has been shown, the number of imaging units in each group is not necessarily equal. Furthermore, the grouping does not need to be fixed for each image pickup, and may be newly set every time shooting is performed, or the grouping may be changed according to time.

<パラメータ決定処理>
次に、前述のステップS406の、フォーカスパラメータ決定処理の詳細について説明する。本処理では、各組に対応する被写体にフォーカスが合うように、各組に属する撮像部のフォーカス距離を設定する。
<Parameter determination process>
Next, details of the focus parameter determination processing in step S406 described above will be described. In this process, the focus distances of the imaging units belonging to each group are set so that the subject corresponding to each group is in focus.

図7(a)に示すように、パラメータ決定部305は、被写体1に対応する第1の組に属する撮像部101、103、105、107について、被写体1にフォーカスが合うようにフォーカス距離を決定する。このとき、パラメータ決定部305は、被写体の形状情報から被写体1の重心位置701を求め、各撮像部から重心位置までの距離702、703、704、705を算出し、対応する各撮像部のフォーカス距離とする。   As illustrated in FIG. 7A, the parameter determination unit 305 determines the focus distance so that the subject 1 is focused on the imaging units 101, 103, 105, and 107 belonging to the first set corresponding to the subject 1. To do. At this time, the parameter determination unit 305 obtains the gravity center position 701 of the subject 1 from the shape information of the subject, calculates the distances 702, 703, 704, and 705 from each imaging unit to the gravity center position, and focuses the corresponding imaging units. Distance.

同様に、図7(b)に示すように、パラメータ決定部305は、被写体2に対応する第2の組に属する撮像部102、104、106、108について、被写体2にフォーカスが合うようにフォーカス距離を決定する。なお、ステップS404において、一度の撮影で全ての被写体を被写界深度内に収めることができると判断された場合には、組数が1であるとして扱い、全ての被写体の重心位置と各撮像部との距離を、各撮像部のフォーカス距離とする。   Similarly, as shown in FIG. 7B, the parameter determination unit 305 focuses the imaging units 102, 104, 106, and 108 belonging to the second group corresponding to the subject 2 so that the subject 2 is in focus. Determine the distance. If it is determined in step S404 that all the subjects can be accommodated within the depth of field by one shooting, the number of sets is treated as 1, and the gravity center positions of all subjects and the respective imaging The distance from the image capturing unit is defined as the focus distance of each image capturing unit.

パラメータ決定部305は、ここで設定されたフォーカス距離に基づいて、各撮像部に出力するためのフォーカスパラメータを決定する。フォーカスパラメータとしては、フォーカス距離そのものを出力するようにしてもよいし、フォーカス距離を示す情報であれば、各撮像部のレンズ―センサ間距離などをフォーカスパラメータとして出力するようにしてもよい。出力するフォーカスパラメータの種類は、出力先の撮像部の構成に応じて決定すればよい。例えば、出力先の撮像部が、入力されたフォーカス距離に応じて光学系の制御信号を生成する機能を有している場合には、フォーカスパラメータとしてフォーカス距離そのものを出力すればよい。   The parameter determination unit 305 determines a focus parameter to be output to each imaging unit based on the focus distance set here. As the focus parameter, the focus distance itself may be output, or as long as the information indicates the focus distance, the lens-sensor distance of each imaging unit may be output as the focus parameter. The type of focus parameter to be output may be determined according to the configuration of the imaging unit that is the output destination. For example, if the output destination imaging unit has a function of generating an optical system control signal in accordance with the input focus distance, the focus distance itself may be output as the focus parameter.

以上が本実施例の撮像システムで行われる処理である。上記の処理によれば、複数の撮像部が複数の被写体を異なる方向から撮像する場合に、F値が小さな状態でも全ての被写体にフォーカスして撮像することができる。なお、上記では撮像する被写体が複数存在する場合について説明を行ったが、本発明は、被写体のサイズが大きく一度の撮影では被写界深度内に収まらない場合にも適用が可能である。その場合、一つの被写体を各撮像部の被写界深度に収まるサイズの複数のパーツへ分けることで上記の方法を適用することが可能である。また、被写界深度に入らない大きなサイズの被写体と複数の被写体とが存在する場合についても同様に適用が可能である。   The above is the processing performed in the imaging system of the present embodiment. According to the above processing, when a plurality of imaging units capture a plurality of subjects from different directions, all the subjects can be focused and imaged even when the F value is small. In the above description, the case where there are a plurality of subjects to be imaged has been described. However, the present invention can also be applied to a case where the size of the subject is large and the image does not fall within the depth of field in one shooting. In that case, it is possible to apply the above method by dividing one subject into a plurality of parts having a size that fits within the depth of field of each imaging unit. Further, the present invention can be similarly applied to a case where there are a large-size subject and a plurality of subjects that do not fall within the depth of field.

なお、本実施例において、形状取得部302は、フォーカスパラメータを用いた撮像におけるF値よりも大きなF値で撮像された複数の画像に基づいて導出された、複数の被写体の形状と撮像部との位置関係を示す形状情報を取得する取得手段として機能する。また、組分け部304は、前記取得手段によって取得された前記形状情報に基づいて、前記複数の撮像部を、それぞれが前記複数の被写体のうちの少なくとも1つに対応する複数の組に分ける組分け手段として機能する。また、パラメータ決定部305は、取得手段によって取得された形状情報と、組分け手段による組分けとに基づいて、複数の撮像部がそれぞれ対応する被写体にフォーカスするように、フォーカスパラメータを決定する決定手段として機能する。   In this embodiment, the shape acquisition unit 302 includes a plurality of subject shapes and imaging units derived based on a plurality of images captured with an F value larger than the F value in imaging using a focus parameter. It functions as an acquisition means for acquiring shape information indicating the positional relationship between the two. In addition, the grouping unit 304 divides the plurality of imaging units into a plurality of groups each corresponding to at least one of the plurality of subjects based on the shape information acquired by the acquisition unit. It functions as a dividing means. Further, the parameter determination unit 305 determines the focus parameter so that the plurality of imaging units focus on the corresponding subjects based on the shape information acquired by the acquisition unit and the grouping by the grouping unit. Functions as a means.

<実施例2>
実施例1では、予め決められたパターンを用いて撮像部を各被写体へ割り振ることで組分け処理を行う例を示した。本実施例では、撮像部の組分けの際に、各撮像部から被写体が見えているかどうかを考慮して、各被写体へ割り振る撮像部を決定する。これによって、撮像部から見えていない被写体に対してその撮像部を割り振ってしまい、結果として撮影が無駄になってしまうことを防ぐことができる。
<Example 2>
In the first embodiment, an example is shown in which the grouping process is performed by allocating an imaging unit to each subject using a predetermined pattern. In the present embodiment, when grouping the imaging units, the imaging units to be allocated to each subject are determined in consideration of whether the subject is visible from each imaging unit. Accordingly, it is possible to prevent the imaging unit from being allocated as a result of allocating the imaging unit to a subject that is not visible from the imaging unit.

本実施例の情報処理装置109の構成は、実施例1と同様である。ただし、組分け部304で行われる処理が実施例1とは異なる。以下では、本実施例の組分け部304で行われる処理について説明し、実施例1と同様の動作をする他の要素に関する説明は省略する。   The configuration of the information processing apparatus 109 of this embodiment is the same as that of the first embodiment. However, the processing performed in the grouping unit 304 is different from that in the first embodiment. Hereinafter, processing performed by the grouping unit 304 of the present embodiment will be described, and description of other elements that perform the same operations as those of the first embodiment will be omitted.

図8に、本実施例における組分け処理のフローチャートを示す。まず、ステップS801において、組分け部304は、各撮像部について各被写体に関するビジビリティ情報を算出する。ここで、ビジビリティ情報とは、各撮像部から各被写体がどれぐらい見えているかの度合いを示す情報である。   FIG. 8 shows a flowchart of the grouping process in this embodiment. First, in step S801, the grouping unit 304 calculates visibility information regarding each subject for each imaging unit. Here, the visibility information is information indicating how much each subject is visible from each imaging unit.

ビジビリティ情報は、位置取得部301で取得した各撮像部の位置・姿勢と、形状取得部302で取得した被写体の形状情報から算出することができる。例えば、撮像部101からの被写体1のビジビリティを算出する場合、撮像部101から被写体1の間に遮る物体がないかどうかを調べればよい。被写体1上の様々な点について撮像部101との間に遮る物体がないことが確認できた場合、撮像部101から被写体1は「見える」と判定することができる。逆に、被写体1上の複数の点について撮像部101との間に遮る物体が所定の閾値以上の割合で存在する場合、撮像部101から被写体1は「見えない」と判定することができる。なお、被写体が見えるか見えないかを判定するための閾値としては任意の値を用いることができるが、本実施例では50%という値を用いる。なお、ビジビリティは、各被写体の像を各撮像部の撮像センサに、各撮像部に近い被写体が優先されるように射影した時に、本来撮像センサに射影されるはずの像の何%が他の被写体の像に置き換わっているかを算出することで計算することができる。   Visibility information can be calculated from the position / posture of each imaging unit acquired by the position acquisition unit 301 and the shape information of the subject acquired by the shape acquisition unit 302. For example, when the visibility of the subject 1 from the imaging unit 101 is calculated, it may be checked whether there is an obstructing object between the imaging unit 101 and the subject 1. When it can be confirmed that there are no obstructing objects between the imaging unit 101 at various points on the subject 1, the imaging unit 101 can determine that the subject 1 is “visible”. On the other hand, if there are objects that block between a plurality of points on the subject 1 and the imaging unit 101 at a ratio equal to or higher than a predetermined threshold, the imaging unit 101 can determine that the subject 1 is “invisible”. An arbitrary value can be used as a threshold for determining whether or not the subject is visible, but a value of 50% is used in this embodiment. Visibility means that when an image of each subject is projected on the imaging sensor of each imaging unit so that a subject close to each imaging unit is given priority, what percentage of the image that should originally be projected on the imaging sensor This can be calculated by calculating whether the subject image is replaced.

その他のビジビリティ情報の算出方法として、ビジビリティ情報を算出する被写体、撮像部、その他の被写体を結んで成す角度が所定の値より大きい場合は「見える」と判定し、逆に所定の値より小さい場合は「見えない」と判定する方法もある。上述の2方法以外にもあらゆる方法でビジビリティを算出することができる。   As another method for calculating the visibility information, if the angle formed by connecting the subject for which the visibility information is calculated, the imaging unit, and the other subject is larger than a predetermined value, it is determined to be “visible”, and conversely, it is smaller than the predetermined value. There is also a method to determine that is “invisible”. Visibility can be calculated by any method other than the two methods described above.

前述の図6(a)の状況におけるビジビリティを図9に示す。ここでは、各撮像部から被写体が見える場合を○、被写体が見えない場合を×で表わしている。例えば、撮像部101は被写体1、被写体2ともに○であり、撮像部1からはどちらの被写体も見えることを表している。また、撮像部102からは、被写体1は見えないが、被写体2は見えることを表す。組分け部304は、各撮像部の各被写体に対するビジビリティを算出し、各撮像部から各被写体が見えるか見えないかの判定を行ったら、ステップS802に進む。   FIG. 9 shows the visibility in the situation shown in FIG. Here, the case where the subject is visible from each imaging unit is indicated by ◯, and the case where the subject is not visible is indicated by ×. For example, the imaging unit 101 indicates that both the subject 1 and the subject 2 are ◯, and both the subjects can be seen from the imaging unit 1. Further, the imaging unit 102 indicates that the subject 1 cannot be seen but the subject 2 is visible. When the grouping unit 304 calculates the visibility of each subject of each imaging unit and determines whether each subject is visible or not visible from each imaging unit, the process proceeds to step S802.

ステップS802では、組分け部304が、各撮像部を、各撮像部から見えている被写体に基づいて組分けする。各被写体への撮像部の割り振りは、ビジビリティ情報のうち○の数が少ない撮像部から行われる。まず、ビジビリティ情報に○が1つしかない撮像部、つまり1つの被写体しか見えていない撮像部は、○がついた被写体へ割り振られる。次にビジビリティ情報に○が2つある撮像部は、○がついた2つの被写体のうちのいずれかの被写体へ割り振られる。この時、2つの被写体のうちどちらに割り振るかはランダムに決定される。続いて○が3つある撮像部は、○がついた3つの被写体から、ランダムにひとつの被写体が選択され、その被写体に割り振られる。以降、○の数を増やしていき、全ての撮像部について、いずれかの被写体への割り振りが行われる。上記では、各撮像部をランダムにひとつの被写体へ割り振ると説明したが、各被写体に割り振る撮像部の数が均一になるように撮像部を割り振るようにしてもよい。   In step S <b> 802, the grouping unit 304 groups each imaging unit based on the subject visible from each imaging unit. The imaging unit is assigned to each subject from an imaging unit with a small number of circles in the visibility information. First, an imaging unit having only one circle in the visibility information, that is, an imaging unit in which only one subject is visible is assigned to a subject with circle. Next, an imaging unit having two circles in the visibility information is assigned to any one of the two objects circled. At this time, which of the two subjects is allocated is determined at random. Subsequently, the imaging unit having three circles selects one subject at random from the three subjects circled and assigns them to the subject. Thereafter, the number of circles is increased, and all of the imaging units are allocated to any subject. In the above description, each imaging unit is randomly allocated to one subject. However, the imaging units may be allocated so that the number of imaging units allocated to each subject is uniform.

図10に図6(a)の状況において、ビジビリティに基づく撮像部の組分けが行われた結果の例を示す。図10(a)において、被写体1が見えている撮像部のうち、撮像部101、撮像部104、撮像部106、撮像部107が被写体1に対応する第1の組として割り振られた。また、図10(b)において、被写体2が見えている撮像部のうち、撮像部102、撮像部103、撮像部105、撮像部108が被写体2に対応する第2の組として割り振られた。   FIG. 10 shows an example of the result of grouping the imaging units based on visibility in the situation of FIG. In FIG. 10A, among the imaging units in which the subject 1 is visible, the imaging unit 101, the imaging unit 104, the imaging unit 106, and the imaging unit 107 are allocated as the first set corresponding to the subject 1. In FIG. 10B, among the imaging units in which the subject 2 is visible, the imaging unit 102, the imaging unit 103, the imaging unit 105, and the imaging unit 108 are allocated as a second set corresponding to the subject 2.

以上が本実施例の各撮像部の組分け処理である。以上の処理によれば、見えない被写体に撮像部が割り振られてしまい、撮影の結果が無駄になってしまうことを防ぐことができる。その結果、全ての被写界深度を被写界深度内に収めた良好な多視点画像を撮像することができるようになる。   The above is the grouping process of each imaging unit of the present embodiment. According to the above processing, it is possible to prevent the imaging unit from being assigned to the invisible subject and the result of the imaging from being wasted. As a result, it becomes possible to capture a good multi-viewpoint image in which all the depths of field fall within the depth of field.

<実施例3>
本実施例では、情報処理装置109で決定されたフォーカスパラメータを用いて撮像された画像データに基づいて、被写体の形状情報を精度よく算出する例について説明する。実施例1および2との共通点については説明を省略し、差異点についてのみ述べる。本実施例の情報処理装置109の構成は、図11に示すように、実施例1および2の構成に形状推定部1101を加えたものである。以下、本実施例の情報処理装置109で行われる処理について、図12に示すフローチャートを参照して説明する。
<Example 3>
In the present embodiment, an example will be described in which shape information of a subject is accurately calculated based on image data captured using a focus parameter determined by the information processing apparatus 109. Description of points common to the first and second embodiments is omitted, and only differences are described. As shown in FIG. 11, the configuration of the information processing apparatus 109 according to the present embodiment is obtained by adding a shape estimation unit 1101 to the configurations of the first and second embodiments. Hereinafter, processing performed by the information processing apparatus 109 according to the present exemplary embodiment will be described with reference to a flowchart illustrated in FIG.

ステップS401〜S406の処理が終了すると、形状推定部1101は、ステップS406で決定されたフォーカスパラメータを用いて撮像部101〜108により新たに撮像された撮像画像データを取得する(ステップS1201)。次に、形状推定部1101は、ステップS1201で取得した撮像画像データに基づいて、各被写体のより詳細な形状情報を推定する。各被写体の形状情報の推定には、実施例1で述べたものと同様に、Multiview Stereoなどの公知の手法を用いることができる。この時、各被写体の距離情報を取得するために用いる画像データは、対応する撮像部により撮像された画像データが用いられる。対応する撮像部により撮像された画像データは、対応する被写体にフォーカスが合った、ノイズの少ない画像データであるため、被写体の形状情報を高精度に求めることができる。なお、この時、各被写体に対応する撮像部が分かるように、各撮像部は、各撮像画像データに対応する被写体を示すメタデータを付加して出力するようにしてもよい。   When the processes in steps S401 to S406 are completed, the shape estimation unit 1101 acquires captured image data newly captured by the imaging units 101 to 108 using the focus parameter determined in step S406 (step S1201). Next, the shape estimation unit 1101 estimates more detailed shape information of each subject based on the captured image data acquired in step S1201. For the estimation of the shape information of each subject, a known method such as Multiview Stereo can be used in the same manner as described in the first embodiment. At this time, the image data used for acquiring the distance information of each subject is the image data captured by the corresponding imaging unit. Since the image data picked up by the corresponding image pickup unit is image data with little noise and focused on the corresponding subject, the shape information of the subject can be obtained with high accuracy. At this time, each imaging unit may add and output metadata indicating the subject corresponding to each captured image data so that the imaging unit corresponding to each subject can be understood.

また、被写体の形状情報の推定精度をより向上させるために、各撮像部の組分けの際に、隣接する少なくとも2つの撮像部を1つの小グループとし、各撮像部の組を複数の小グループの集合で構成するようにしてもよい。このように組分けを行うことによって、被写体の同じ面を撮像する撮像部が少なくとも2つ確保されるようになるので、各被写体の形状情報を精度よく求めることができる可能性が上昇する。同様の効果を得るためには、各撮像部を、少なくとも2つ以上の光学系を有する複眼カメラに置き換えてもよい。   Further, in order to further improve the estimation accuracy of the shape information of the subject, at the time of grouping each imaging unit, at least two adjacent imaging units are set as one small group, and each imaging unit set is divided into a plurality of small groups. You may make it comprise by the set of. By performing the grouping in this way, at least two imaging units that capture the same surface of the subject are secured, so that the possibility that the shape information of each subject can be obtained with high accuracy is increased. In order to obtain the same effect, each imaging unit may be replaced with a compound eye camera having at least two or more optical systems.

<その他の実施形態>
本発明の実施形態は上記に挙げたものに限られずその他の様々な形態をとることができる。例えば、上記の実施例では、組分け部304が、各撮像部がそれぞれ一つの被写体に対応するように撮像部の組分けを行ったが、複数の被写体が被写界深度内に含まれる場合には、各撮像部がそれぞれ複数の被写体に対応するように組分けを行うようにしてもよい。
また、上記の実施例では、比較部303が、F値が各撮像部の開放値である場合に、各被写体の奥行きと各撮像部の被写界深度を比較したが、F値は開放値に限られず、所定の閾値を超えない範囲でF値を変化させながら比較を行うようにしてもよい。被写体の形状に応じて撮像に用いるF値を変更させる場合は、パラメータ決定部305は、F値など、撮像に用いる被写界深度を示す情報をフォーカスパラメータに追加して撮像部101〜108に追加するようにすればよい。
<Other embodiments>
Embodiments of the present invention are not limited to those described above, and can take other various forms. For example, in the above embodiment, the grouping unit 304 has grouped the imaging units so that each imaging unit corresponds to one subject, but a plurality of subjects are included in the depth of field. Alternatively, the grouping may be performed so that each imaging unit corresponds to a plurality of subjects.
In the above embodiment, the comparison unit 303 compares the depth of each subject and the depth of field of each imaging unit when the F value is the open value of each imaging unit. However, the comparison may be performed while changing the F value within a range not exceeding a predetermined threshold. When the F value used for imaging is changed according to the shape of the subject, the parameter determination unit 305 adds information indicating the depth of field used for imaging, such as the F value, to the focus parameter and adds the information to the imaging units 101 to 108. Add it.

実施例2では、各撮像部を、ビジビリティが閾値を超えている被写体にランダムで振り分ける例について説明したが、ビジビリティが閾値を超えている被写体が複数存在する場合に、よりビジビリティが大きい被写体を優先的に割り当てるようにしてもよい。
また、上記の実施例では、被写体を囲むように撮像部を配置した撮像システムについて説明したが、撮像部の配置例はこれに限られず、各撮像部がある一つの平面上に並べて配置された多眼カメラなどにも適用することができる。
In the second embodiment, an example has been described in which each imaging unit is randomly assigned to a subject whose visibility exceeds the threshold. However, when there are a plurality of subjects whose visibility exceeds the threshold, priority is given to a subject with greater visibility. May be assigned automatically.
In the above embodiment, the imaging system in which the imaging units are arranged so as to surround the subject has been described. However, the arrangement example of the imaging units is not limited to this, and each imaging unit is arranged side by side on one plane. It can also be applied to multi-lens cameras.

本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。   The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

101〜108 撮像部
109 情報処理装置
201 CPU
202 RAM
203 ROM
301 位置取得部
302 形状取得部
303 比較部
304 組分け部
305 パラメータ決定部
101-108 Imaging unit 109 Information processing device 201 CPU
202 RAM
203 ROM
301 Position Acquisition Unit 302 Shape Acquisition Unit 303 Comparison Unit 304 Grouping Unit 305 Parameter Determination Unit

Claims (17)

複数の撮像装置による撮像画像に基づいてオブジェクトの形状推定を行う情報処理装置であって、
第1グループに属する複数の撮像装置による撮像画像に基づいて第1オブジェクトの形状推定処理を行うと共に、前記第1グループとは異なる第2グループに属する複数の撮像装置による撮像画像に基づいて前記第1オブジェクトとは異なる第2オブジェクトの形状推定処理を行う処理手段と、
前記処理手段による形状推定処理の結果を出力する出力手段と、を有し、
前記第1グループに属する撮像装置と、前記第2グループに属する撮像装置は交互に配置されることを特徴とする情報処理装置。
An information processing apparatus for performing shape estimation of the object based on the captured image by a plurality of imaging devices,
The shape estimation process of the first object is performed based on images captured by a plurality of imaging devices belonging to the first group, and the first object is based on images captured by a plurality of imaging devices belonging to a second group different from the first group. Processing means for performing shape estimation processing of a second object different from one object;
Output means for outputting the result of the shape estimation processing by the processing means ,
The image processing apparatus belonging to the first group and the image capturing apparatus belonging to the second group are alternately arranged .
前記第1グループに属する複数の撮像装置及び前記第2グループに属する複数の撮像装置のそれぞれの撮像パラメータを制御する制御手段を有することを特徴とする請求項1に記載の情報処理装置。 The information processing apparatus according to claim 1, characterized in that it comprises a control means for controlling each of the imaging parameters of the plurality of imaging devices belonging to a plurality of imaging devices and the second group belonging to the first group. 前記第1グループ及び第2グループを少なくとも含む複数のグループに各撮像装置をグルーピングするグルーピング手段を有することを特徴とする請求項1又は2に記載の情報処理装置。 The information processing apparatus according to claim 1, further comprising a grouping unit configured to group each imaging apparatus into a plurality of groups including at least the first group and the second group. 前記グルーピング手段は、前記第1オブジェクトを撮像するための撮像装置の数と、前記第2オブジェクトを撮像するための撮像装置の数とが一致するようグルーピングすることを特徴とする請求項に記載の情報処理装置。 The grouping unit, according to claim 3, characterized in that the grouping so that the number of the imaging device for imaging the first object, the number of the imaging device for imaging the second object matches Information processing device. 前記グルーピング手段は、前記第1グループに属する撮像装置の数と、前記第2グループに属する撮像装置の数とが一致するようグルーピングすることを特徴とする請求項に記載の情報処理装置。 The information processing apparatus according to claim 3 , wherein the grouping unit performs grouping so that the number of imaging devices belonging to the first group matches the number of imaging devices belonging to the second group. 複数の撮像装置による撮像画像に基づいてオブジェクトの形状推定を行う情報処理システムであって、
第1グループに属する複数の撮像装置による撮像画像に基づいて第1オブジェクトの形状推定処理を行うと共に、前記第1グループとは異なる第2グループに属する複数の撮像装置による撮像画像に基づいて前記第1オブジェクトとは異なる第2オブジェクトの形状推定処理を行う処理手段と、
前記処理手段による形状推定処理の結果を出力する出力手段と、を有し、
前記第1グループに属する撮像装置と、前記第2グループに属する撮像装置は交互に配置されることを特徴とする情報処理システム。
An information processing system that performs shape estimation of the object based on the captured image by a plurality of imaging devices,
The shape estimation process of the first object is performed based on the captured images by the plurality of imaging devices belonging to the first group, and the first object is based on the captured images by the plurality of imaging devices belonging to the second group different from the first group. Processing means for performing shape estimation processing of a second object different from one object;
Output means for outputting the result of the shape estimation processing by the processing means ,
An information processing system , wherein imaging devices belonging to the first group and imaging devices belonging to the second group are alternately arranged .
前記第1グループに属する複数の撮像装置及び前記第2グループに属する複数の撮像装置のそれぞれの撮像パラメータを制御する制御手段を有することを特徴とする請求項6に記載の情報処理システム。 The information processing system according to claim 6, characterized in that it comprises a control means for controlling each of the imaging parameters of the plurality of imaging devices belonging to a plurality of imaging devices and the second group belonging to the first group. 前記第1オブジェクトを撮像するための撮像装置の数と、前記第2オブジェクトを撮像するための撮像装置の数とは一致することを特徴とする請求項6又は7に記載の情報処理システム。 The information processing system according to claim 6 or 7, wherein the number of imaging devices for imaging the first object matches the number of imaging devices for imaging the second object. 前記第1グループに属する撮像装置の数と、前記第2グループに属する撮像装置の数とは一致することを特徴とする請求項6乃至8のうち、何れか1項に記載の情報処理システム。 The information processing system according to any one of claims 6 to 8, wherein the number of imaging devices belonging to the first group matches the number of imaging devices belonging to the second group. 前記複数の撮像装置は、少なくとも前記第1オブジェクトと、前記第2オブジェクトを取り囲むように配置されることを特徴とする請求項6乃至9のうち、何れか1項に記載の情報処理システム。 The plurality of imaging devices, at least the a first object, an information processing system as claimed in one of claim 6 to 9, any one, characterized in that it is arranged to surround the second object. 形状推定の対象となるオブジェクトの位置と、複数の撮像装置のそれぞれの被写界深度とに基づいて、前記複数の撮像装置をグルーピングするか否かを判定する判定手段を有することを特徴とする請求項6乃至10のうち、何れか1項に記載の情報処理システム。 The position of the object to be shape estimation, based on the respective depth of field of the plurality of imaging devices, and having determining means for determining whether to group the plurality of imaging devices The information processing system according to any one of claims 6 to 10. 複数の撮像装置による撮像画像に基づいてオブジェクトの形状推定を行う 方法であって、
第1グループに属する複数の撮像装置による撮像画像に基づいて第1オブジェクトの形状推定処理を行う第1ステップと、
前記第1グループとは異なる第2グループに属する複数の撮像装置による撮像画像に基づいて前記第1オブジェクトとは異なる第2オブジェクトの形状推定処理を行う第2ステップと、前記第1ステップ及び第2ステップにおける形状推定処理の結果を出力する出力ステップと、を有し、
前記第1グループに属する撮像装置と、前記第2グループに属する撮像装置は交互に配置されることを特徴とする方法。
A method for performing shape estimation of the object based on the captured image by a plurality of imaging devices,
A first step of performing shape estimation processing of the first object based on images captured by a plurality of imaging devices belonging to the first group;
A second step of performing shape estimation processing of a second object different from the first object based on images captured by a plurality of imaging devices belonging to a second group different from the first group; the first step and the second step; An output step for outputting a result of the shape estimation process in the step ,
The imaging apparatus belonging to the first group and the imaging apparatus belonging to the second group are alternately arranged .
前記第1グループに属する複数の撮像装置及び前記第2グループに属する複数の撮像装置のそれぞれの撮像パラメータを制御する制御ステップを有することを特徴とする請求項12に記載の方法。 The method of claim 12, characterized in that it comprises a control step of controlling the respective imaging parameters of a plurality of imaging devices belonging to a plurality of imaging devices and the second group belonging to the first group. 前記第1グループ及び第2グループを少なくとも含む複数のグループに各撮像装置をグルーピングするグルーピングステップを有することを特徴とする請求項12又は13に記載の方法。 The method according to claim 12, further comprising a grouping step of grouping each imaging device into a plurality of groups including at least the first group and the second group. 前記第1オブジェクトを撮像するための撮像装置の数と、前記第2オブジェクトを撮像するための撮像装置の数とが一致するよう前記グルーピングステップにおいて各撮像装置がグルーピングされることを特徴とする請求項14に記載の方法。 Claims, wherein the number of the imaging device for imaging the first object, that the imaging devices are grouped in the grouping step to the number of matches of the imaging device for imaging the second object Item 15. The method according to Item 14. 前記第1グループに属する撮像装置の数と、前記第2グループに属する撮像装置の数とが一致するよう前記グルーピングステップにおいて各撮像装置がグルーピングされることを特徴とする請求項14に記載の方法。 The method of claim 14, wherein the number of the image pickup apparatus belonging to the first group, that the imaging devices are grouped in the grouping step to the number of the image pickup apparatus belonging to the second group matches . コンピュータに請求項12乃至16のうち、何れか1項に記載の方法を実行させるためのプログラム。   A program for causing a computer to execute the method according to any one of claims 12 to 16.
JP2018041221A 2018-03-07 2018-03-07 Information processing apparatus and method, information processing system, and program. Active JP6602412B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018041221A JP6602412B2 (en) 2018-03-07 2018-03-07 Information processing apparatus and method, information processing system, and program.
JP2019187183A JP6915016B2 (en) 2018-03-07 2019-10-10 Information processing equipment and methods, information processing systems, and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018041221A JP6602412B2 (en) 2018-03-07 2018-03-07 Information processing apparatus and method, information processing system, and program.

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2014122534A Division JP6305232B2 (en) 2014-06-13 2014-06-13 Information processing apparatus, imaging apparatus, imaging system, information processing method, and program.

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019187183A Division JP6915016B2 (en) 2018-03-07 2019-10-10 Information processing equipment and methods, information processing systems, and programs

Publications (2)

Publication Number Publication Date
JP2018129825A JP2018129825A (en) 2018-08-16
JP6602412B2 true JP6602412B2 (en) 2019-11-06

Family

ID=63173161

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018041221A Active JP6602412B2 (en) 2018-03-07 2018-03-07 Information processing apparatus and method, information processing system, and program.

Country Status (1)

Country Link
JP (1) JP6602412B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020108139A (en) * 2018-03-07 2020-07-09 キヤノン株式会社 Information processing apparatus and method, information processing system, and program

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7487266B2 (en) 2022-08-15 2024-05-20 キヤノン株式会社 Image processing device, image processing method, and program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5251841B2 (en) * 2009-11-19 2013-07-31 オムロン株式会社 Image processing apparatus and image processing program
JP5661373B2 (en) * 2010-08-20 2015-01-28 キヤノン株式会社 Imaging system, imaging apparatus, and control method thereof

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020108139A (en) * 2018-03-07 2020-07-09 キヤノン株式会社 Information processing apparatus and method, information processing system, and program

Also Published As

Publication number Publication date
JP2018129825A (en) 2018-08-16

Similar Documents

Publication Publication Date Title
KR101803712B1 (en) Image processing apparatus, control method, program, and recording medium
JP6112824B2 (en) Image processing method and apparatus, and program.
JP4752918B2 (en) Image processing apparatus, image collation method, and program
WO2019105214A1 (en) Image blurring method and apparatus, mobile terminal and storage medium
US9076214B2 (en) Image acquisition apparatus and image processing apparatus using selected in-focus image data
JP6319972B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP6694234B2 (en) Distance measuring device
DK3189493T3 (en) PERSPECTIVE CORRECTION OF DIGITAL PHOTOS USING DEPTH MAP
JP6602412B2 (en) Information processing apparatus and method, information processing system, and program.
JP6544978B2 (en) Image output apparatus, control method therefor, imaging apparatus, program
JP6305232B2 (en) Information processing apparatus, imaging apparatus, imaging system, information processing method, and program.
JP5968379B2 (en) Image processing apparatus and control method thereof
JP6622575B2 (en) Control device, control method, and program
JP6395429B2 (en) Image processing apparatus, control method thereof, and storage medium
WO2017187935A1 (en) Information processing apparatus, information processing method, and program
JP5925109B2 (en) Image processing apparatus, control method thereof, and control program
JP6915016B2 (en) Information processing equipment and methods, information processing systems, and programs
JP6843552B2 (en) Image processing equipment, image processing methods and programs.
JP6655869B2 (en) Image processing apparatus, image processing method, and program
JP6351364B2 (en) Information processing apparatus, information processing method, and program
JP6320165B2 (en) Image processing apparatus, control method therefor, and program
JP7195785B2 (en) Apparatus, method and program for generating 3D shape data
JP2009186369A (en) Depth information acquisition method, depth information acquiring device, program, and recording medium
JP6344903B2 (en) Image processing apparatus, control method therefor, imaging apparatus, and program
JP2016072924A (en) Image processing system and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180307

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190405

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190910

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191008

R151 Written notification of patent or utility model registration

Ref document number: 6602412

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151