JP2012060512A - Multi-eye imaging apparatus and program - Google Patents

Multi-eye imaging apparatus and program Download PDF

Info

Publication number
JP2012060512A
JP2012060512A JP2010203223A JP2010203223A JP2012060512A JP 2012060512 A JP2012060512 A JP 2012060512A JP 2010203223 A JP2010203223 A JP 2010203223A JP 2010203223 A JP2010203223 A JP 2010203223A JP 2012060512 A JP2012060512 A JP 2012060512A
Authority
JP
Japan
Prior art keywords
search
unit
range
parallax
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010203223A
Other languages
Japanese (ja)
Inventor
Seiichi Tanaka
誠一 田中
Tomoya Shimura
智哉 紫村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2010203223A priority Critical patent/JP2012060512A/en
Publication of JP2012060512A publication Critical patent/JP2012060512A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To suppress increase in throughput and amount of use memory in generation of parallax data by stereo matching processing.SOLUTION: A multi-eye imaging apparatus is provided with: a plurality of imaging units; and a parallax calculation unit which calculates the parallax data by stereo matching processing of searching videos taken by at least two imaging units among the plurality of imaging units, for corresponding pixels. The parallax calculation unit is provided with: a small range corresponding pixel search unit which calculates the parallax data by searching for the corresponding pixels in a range smaller than the whole parallax range of the two imaging units; and a search range control unit which controls the range searched by the small range corresponding pixel search unit.

Description

本発明は、多眼撮像装置およびプログラムに関する。   The present invention relates to a multi-eye imaging apparatus and a program.

近年、映像の迫力や臨場感を高めるために立体映像装置の開発が盛んである。立体画像を生成する技術としては、特許文献1のように左チャンネル(L)用と右チャンネル(R)用の2台のカメラを左右に配置し、被写体を同時に撮影する技術が知られている。また、立体画像を表示する技術としては、左チャンネル(L)の画像と右(R)チャンネルの画像を一つの表示画面上に1画素毎に交互に表示すると共に、かまぼこ型のレンズを所定の間隔で並べたレンチキュラーレンズや、細かいスリットを所定の間隔で並べたでパララックスバリアや、微細偏光素子を規則正しく配列させたパターニング位相差板などの特殊な光学系を用いて鑑賞者の左目と右目で見える領域を調整して、鑑賞者の左目には左チャンネル(L)の画像のみが、右目には右チャンネル(R)の画像のみが見えるようにする技術が知られている。   In recent years, stereoscopic image devices have been actively developed in order to enhance the power and presence of images. As a technique for generating a stereoscopic image, there is known a technique in which two cameras for a left channel (L) and a right channel (R) are arranged on the left and right to simultaneously photograph a subject as in Patent Document 1. . Further, as a technique for displaying a stereoscopic image, a left channel (L) image and a right (R) channel image are alternately displayed on a single display screen for each pixel, and a kamaboko-shaped lens is provided in a predetermined manner. The left and right eyes of the viewer using a special optical system such as a lenticular lens arranged at intervals, a parallax barrier with fine slits arranged at a predetermined interval, and a patterning phase difference plate with regularly arranged fine polarizing elements A technique is known in which only the left channel (L) image is visible to the viewer's left eye and only the right channel (R) image is visible to the right eye.

2台のカメラで被写体を同時に撮影した映像は、立体映像として表示できる他にも、被写体までの距離を測定することも可能である。被写体までの距離はステレオマッチングと呼ばれる方法で求められる。ステレオマッチングは複数の撮影画像の対応画素を求めてそのズレ量である視差(距離)情報を算出する技術である。撮影した画素毎にステレオマッチングを行うことにより、各撮影画素の視差(距離)情報が算出できる。この視差(距離)データを画面毎に表したものは「視差マップ」或いは「デプスマップ」と呼ばれている。   In addition to being able to display as a stereoscopic image, an image obtained by simultaneously photographing an object with two cameras, it is also possible to measure the distance to the object. The distance to the subject is obtained by a method called stereo matching. Stereo matching is a technique for obtaining corresponding pixels of a plurality of captured images and calculating parallax (distance) information, which is a shift amount. By performing stereo matching for each captured pixel, parallax (distance) information of each captured pixel can be calculated. A representation of this parallax (distance) data for each screen is called a “parallax map” or “depth map”.

この視差マップは、これまで単一カメラの撮影では取得することができなかった被写体の3次元情報を示すものであり、様々な活用が検討されている。例えば、上記の立体画像を表示する際に、視差マップをもとに画像処理をすることによって立体感の調整が可能である。更に、特許文献2のように複数のカメラを用いて高精細な映像を生成する技術において、複数のカメラ映像を高精細化合成処理する時に、左映像のどの画素と右映像のどの画素を合成するかの判断材料として視差マップが必要不可欠となる。   This parallax map shows three-dimensional information of a subject that could not be acquired by shooting with a single camera until now, and various uses are being studied. For example, when the stereoscopic image is displayed, the stereoscopic effect can be adjusted by performing image processing based on the parallax map. Furthermore, in the technology for generating a high-definition video using a plurality of cameras as in Patent Document 2, when a high-definition synthesis process is performed on a plurality of camera videos, which pixel of the left video and which pixel of the right video are combined. A parallax map is indispensable for determining whether to do this.

特開2006−251613号公報JP 2006-251613 A 特表2007−520166号公報Special table 2007-520166

しかしながら上述のステレオマッチング処理は画素単位で対応画素探索を行うため、非常に多くの処理量と使用メモリ量を必要とするという問題がある。近年、撮像デバイスの画素数が格段に増加していること、動画撮影のためにはリアルタイム処理が必要なことなどの理由から、この問題が顕著になってきた。   However, since the above-described stereo matching processing searches for corresponding pixels in units of pixels, there is a problem that a very large amount of processing and memory usage are required. In recent years, this problem has become prominent because the number of pixels of the imaging device has increased remarkably and real-time processing is necessary for moving image shooting.

本発明はこのような課題に鑑みてなされたもので、その目的は、ステレオマッチング処理により視差データを生成する際の処理量と使用メモリ量の増大を抑えることができる多眼撮像装置およびプログラムを提供することにある。   The present invention has been made in view of such problems, and an object of the present invention is to provide a multi-view imaging apparatus and program capable of suppressing an increase in processing amount and memory usage when generating parallax data by stereo matching processing. It is to provide.

(1)この発明は上述した課題を解決するためになされたもので、本発明の多眼撮像装置は、複数の撮像部と、前記複数の撮像部のうち、少なくとも2つの撮像部が撮影した映像から対応画素を探索するステレオマッチング処理により視差データを算出する視差算出部とを備えた多眼撮像装置であって、前記視差算出部は、前記2つの撮像部の全視差範囲より小さい範囲の対応画素を探索して視差データを算出する小範囲対応画素探索部と、前記小範囲対応画素探索部が探索する範囲を制御する探索範囲制御部とを備えることを特徴とする。 (1) The present invention has been made to solve the above-described problems, and the multi-lens imaging device of the present invention has taken a plurality of imaging units and at least two imaging units among the plurality of imaging units. A multi-view imaging device including a parallax calculation unit that calculates parallax data by a stereo matching process for searching for a corresponding pixel from a video, wherein the parallax calculation unit has a smaller range than a total parallax range of the two imaging units. A small-range corresponding pixel search unit that searches for corresponding pixels and calculates parallax data, and a search range control unit that controls a range searched by the small-range corresponding pixel search unit.

(2)また、本発明の多眼撮像装置は、上述の多眼撮像装置であって、前記小範囲対応画素探索部は、予め設定された画素数を探索し、前記探索範囲制御部は、前記全視差範囲を探索可能な回数だけ、前記小範囲対応画素探索部を実行させることを特徴とする。 (2) The multi-view imaging apparatus of the present invention is the multi-view imaging apparatus described above, wherein the small range corresponding pixel search unit searches for a preset number of pixels, and the search range control unit includes: The small range corresponding pixel search unit is executed as many times as the total parallax range can be searched.

(3)また、本発明の多眼撮像装置は、上述の多眼撮像装置であって、前記探索範囲制御部は、前記撮像部のフレームレートに基づき、リアルタイムに処理できるように探索する範囲を決定し、前記決定に従い、前記小範囲対応画素探索部を制御することを特徴とする。 (3) Moreover, the multi-view imaging apparatus of the present invention is the multi-view imaging apparatus described above, and the search range control unit is configured to search a range to be processed in real time based on a frame rate of the imaging unit. It is determined, and the small range corresponding pixel search unit is controlled according to the determination.

(4)また、本発明の多眼撮像装置は、上述の多眼撮像装置であって、前記探索範囲制御部は、前記撮像部の焦点位置情報に基づき、探索する範囲を決定し、前記決定に従い、前記小範囲対応画素探索部を制御することを特徴とする。 (4) The multi-view imaging apparatus of the present invention is the multi-view imaging apparatus described above, wherein the search range control unit determines a search range based on focal position information of the imaging unit, and the determination The small range corresponding pixel search unit is controlled according to the above.

(5)また、本発明の多眼撮像装置は、上述の多眼撮像装置であって、前記探索範囲制御部は、前記撮像部の焦点位置情報に基づき、前記撮像部の被写界深度に対応する範囲を、探索する範囲として決定し、前記決定に従い、前記小範囲対応画素探索部を制御すること を特徴とする。 (5) Moreover, the multi-view imaging apparatus of the present invention is the multi-view imaging apparatus described above, wherein the search range control unit determines the depth of field of the imaging unit based on the focal position information of the imaging unit. A corresponding range is determined as a search range, and the small range corresponding pixel search unit is controlled according to the determination.

(6)また、本発明の多眼撮像装置は、上述の多眼撮像装置であって、前記探索範囲制御部は、ユーザが設定した撮影モードに基づき、探索する範囲を決定し、前記決定に従い、前記小範囲対応画素探索部を制御することを特徴とする。 (6) The multi-view imaging apparatus of the present invention is the multi-view imaging apparatus described above, wherein the search range control unit determines a search range based on a shooting mode set by a user, and follows the determination. The small range corresponding pixel search unit is controlled.

(7)また、本発明のプログラムは、複数の撮像部を備えた多眼撮像装置のコンピュータを前記複数の撮像部のうち、少なくとも2つの撮像部が撮影した映像から対応画素を探索するステレオマッチング処理により視差データを算出する視差算出部として機能させるプログラムであって、前記視差算出部は、前記2つの撮像部の全視差範囲より小さい範囲の対応画素を探索して視差データを算出する小範囲対応画素探索部と、前記小範囲対応画素探索部が探索する範囲を制御する探索範囲制御部とを備えることを特徴とする。 (7) Further, the program of the present invention is a stereo matching that searches a computer of a multi-view imaging apparatus including a plurality of imaging units for corresponding pixels from images captured by at least two imaging units among the plurality of imaging units. A program that functions as a parallax calculation unit that calculates parallax data by processing, wherein the parallax calculation unit searches for corresponding pixels in a range smaller than the total parallax range of the two imaging units and calculates a parallax data The image processing apparatus includes a corresponding pixel search unit and a search range control unit that controls a range searched by the small range corresponding pixel search unit.

この発明によれば、ステレオマッチング処理により視差データを生成する際の処理量と使用メモリ量の増大を抑えることができる。   According to the present invention, it is possible to suppress an increase in the amount of processing and the amount of memory used when generating parallax data by stereo matching processing.

本発明の第1の実施形態に係る多眼撮像装置10の概観を示す外観図である。1 is an external view showing an overview of a multi-eye imaging device 10 according to a first embodiment of the present invention. 同実施形態における多眼撮像装置10の機能構成を示す概略ブロック図である。It is a schematic block diagram which shows the function structure of the multiview imaging device 10 in the embodiment. 同実施形態における視差算出部21の機能構成を示す概略ブロック図である。It is a schematic block diagram which shows the function structure of the parallax calculation part 21 in the embodiment. 同実施形態におけるエピポーラライン平行化後の参照画像RGを示す図である。It is a figure which shows the reference image RG after the epipolar line parallelization in the same embodiment. 同実施形態におけるエピポーラライン平行化後の基準画像BGを示す図である。It is a figure which shows the reference | standard image BG after the epipolar line parallelization in the same embodiment. 同実施形態における参照注目ブロックRBを示す図である。It is a figure which shows the reference attention block RB in the same embodiment. 同実施形態における基準注目ブロックBBを示す図である。It is a figure showing standard attention block BB in the embodiment. 同実施形態における探索範囲制御部34による制御の例を示す図である。It is a figure showing an example of control by search range control part 34 in the embodiment. 同実施形態における探索範囲制御部34による制御の他の例を示す図である。It is a figure which shows the other example of control by the search range control part 34 in the embodiment. 同実施形態における探索範囲制御部34による制御の他の例を示す図である。It is a figure which shows the other example of control by the search range control part 34 in the embodiment. 同実施形態における探索範囲制御部34による制御の他の例を示す図である。It is a figure which shows the other example of control by the search range control part 34 in the embodiment. 同実施形態における探索範囲制御部34および小範囲対応点探索部33の処理を説明するフローチャートである。It is a flowchart explaining the process of the search range control part 34 and the small range corresponding point search part 33 in the embodiment. 同実施形態における探索範囲制御部34および小範囲対応点探索部33の処理の別の例を説明するフローチャートである。It is a flowchart explaining another example of the process of the search range control part 34 and the small range corresponding point search part 33 in the embodiment. 同実施形態における映像合成処理部20の機能構成を示す概略ブロック図である。It is a schematic block diagram which shows the function structure of the image | video synthetic | combination process part 20 in the embodiment. 同実施形態における高解像度合成処理部403の機能構成を示す概略ブロック図である。It is a schematic block diagram which shows the function structure of the high resolution synthetic | combination process part 403 in the embodiment. 本発明の第2の実施形態に係る多眼撮像装置10aの機能構成を示す概略ブロック図である。It is a schematic block diagram which shows the function structure of the multiview imaging device 10a which concerns on the 2nd Embodiment of this invention. 同実施形態における視差算出部21aの機能構成を示す概略ブロック図である。It is a schematic block diagram which shows the function structure of the parallax calculation part 21a in the embodiment. 同実施形態における探索範囲制御部34aによる制御の例を説明する図である。It is a figure explaining the example of control by the search range control part 34a in the embodiment. 同実施形態における探索範囲制御部34aによる制御の他の例を説明する図である。It is a figure explaining other examples of control by search range control part 34a in the embodiment. 本発明の第3の実施形態に係る多眼撮像装置10bの機能構成を示す概略ブロック図である。It is a schematic block diagram which shows the function structure of the multiview imaging device 10b which concerns on the 3rd Embodiment of this invention. 同実施形態における視差算出部21bの機能構成を示す概略ブロック図である。It is a schematic block diagram which shows the function structure of the parallax calculation part 21b in the embodiment. 同実施形態における探索範囲制御部34bによる制御の例を説明する図である。It is a figure explaining the example of control by the search range control part 34b in the embodiment. 同実施形態における探索範囲制御部34bによる制御の他の例を説明する図である。It is a figure explaining other examples of control by search range control part 34b in the embodiment. 同実施形態における探索範囲制御部34bによる制御の他の例を説明する図である。It is a figure explaining other examples of control by search range control part 34b in the embodiment. 同実施形態における探索範囲制御部34bによる制御の他の例を説明する図である。It is a figure explaining other examples of control by search range control part 34b in the embodiment. 本発明の第4の実施形態に係る視差算出部21cの機能構成を示す概略ブロック図である。It is a schematic block diagram which shows the function structure of the parallax calculation part 21c which concerns on the 4th Embodiment of this invention. 同実施形態における探索範囲制御部34cによる制御の例を説明する図である。It is a figure explaining the example of control by the search range control part 34c in the embodiment.

[第1の実施形態]
本発明の第1の実施形態について、図面を参照して詳細に説明する。図1は、本発明の第1の実施形態に係る多眼撮像装置10の概観を示す外観図である。図1に示すように、本実施形態における多眼撮像装置10は、4系統の撮像部101、102、103、104を含んで構成される。撮像部101は、多眼撮像装置10の正面に向かって、左側上段に配置されている。撮像部102は、右側上段に配置されている。撮像部103は、左側下段に配置されている。撮像部104は、右側下段に配置されている。なお、撮像部101、102、103、104の間の横方向および上下方向の距離は同じ、すなわち、撮像部101、102、103、104は正方形の各頂点に配置されている。
[First Embodiment]
A first embodiment of the present invention will be described in detail with reference to the drawings. FIG. 1 is an external view showing an overview of a multi-view imaging apparatus 10 according to the first embodiment of the present invention. As shown in FIG. 1, the multi-lens imaging device 10 according to the present embodiment includes four systems of imaging units 101, 102, 103, and 104. The imaging unit 101 is arranged on the upper left side toward the front of the multi-eye imaging device 10. The imaging unit 102 is arranged on the upper right side. The imaging unit 103 is arranged on the lower left side. The imaging unit 104 is arranged on the lower right side. Note that the horizontal and vertical distances between the imaging units 101, 102, 103, and 104 are the same, that is, the imaging units 101, 102, 103, and 104 are arranged at the vertices of a square.

図2は、多眼撮像装置10の機能構成を示す概略ブロック図である。多眼撮像装置10は、撮像部101、102、103、104、映像合成処理部20、視差算出部21、イメージセンサ制御部22、AF(Auto Focus)制御部23、撮影モード設定部24を含んで構成される。撮像部101、102、103、104の各々は、フォーカス機能を有する撮像レンズ群11と、撮像レンズ群11により、撮像面に結像したイメージを光電変換して映像信号として出力するイメージセンサ12(例えばCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなど)を備える。なお、撮像部101は、映像信号RUを出力し、撮像部102は、映像信号LUを出力し、撮像部103は、映像信号RDを出力し、撮像部104は、映像信号LDを出力する。   FIG. 2 is a schematic block diagram illustrating a functional configuration of the multi-eye imaging apparatus 10. The multi-view imaging apparatus 10 includes imaging units 101, 102, 103, 104, a video composition processing unit 20, a parallax calculation unit 21, an image sensor control unit 22, an AF (Auto Focus) control unit 23, and a shooting mode setting unit 24. Consists of. Each of the imaging units 101, 102, 103, and 104 has an imaging lens group 11 having a focus function, and an image sensor 12 (photographing the image formed on the imaging surface by the imaging lens group 11 and outputting it as a video signal. For example, a complementary metal oxide semiconductor (CMOS) image sensor is provided. The imaging unit 101 outputs a video signal RU, the imaging unit 102 outputs a video signal LU, the imaging unit 103 outputs a video signal RD, and the imaging unit 104 outputs a video signal LD.

撮像レンズ群11は光軸方向に移動可能に配置されており、撮像レンズ群11が光軸方向に移動することによって、撮像部の焦点を調整し、被写体からの光をイメージセンサ12上に結像する。なお、撮像部101、102、103、104の各々は、図示していないモータを搭載しており、その動力で撮像レンズ群11を移動させる。
撮影モード設定部24は、ユーザの設定入力に従い、風景撮影、人物ポートレイト撮影、接写撮影(マクロ撮影)などの撮影モードを、設定する。イメージセンサ制御部22は、撮影モード設定部24からの撮影モードの設定に基づき、各撮像部101、102、103、104のイメージセンサ12の撮影画素数やフレームレートの設定を行い、設定した画素数やフレームレートなどのイメージセンサ制御情報を視差算出部21に出力する。
The imaging lens group 11 is arranged so as to be movable in the optical axis direction. When the imaging lens group 11 moves in the optical axis direction, the focus of the imaging unit is adjusted and the light from the subject is condensed on the image sensor 12. Image. Each of the imaging units 101, 102, 103, and 104 is equipped with a motor (not shown), and moves the imaging lens group 11 with its power.
The shooting mode setting unit 24 sets shooting modes such as landscape shooting, portrait portrait shooting, and close-up shooting (macro shooting) in accordance with user setting input. Based on the setting of the shooting mode from the shooting mode setting unit 24, the image sensor control unit 22 sets the number of shooting pixels and the frame rate of the image sensor 12 of each of the imaging units 101, 102, 103, and 104, and sets the set pixels. The image sensor control information such as the number and the frame rate is output to the parallax calculation unit 21.

AF制御部23は、入力された撮像部101の映像信号RUの輝度情報からコントラスト値を算出し、コントラスト値が増加する方向に撮像レンズ群11を所定量ずつ移動して、コントラスト値が増加しなくなる位置、即ち、コントラスト値が最大となる位置に撮像レンズ群11を自動調整する。なお、AF制御部23は、撮影モード設定部24からの撮影モードの設定に基づき、撮像レンズ群11を移動させる際の基点や、移動させる範囲を決定する。また、各撮像部101、102、103、104には、AF制御部23から同じ駆動信号が入力されるため、各撮像部101、102、103、104のフォーカス位置が全て同じになるように制御される。
尚、本実施形態のAF制御部23は、撮像した映像信号のコントラスト値を評価値としてAF制御を行なうとして説明したが、その他に赤外線や超音波を照射してその射波が戻るまでの時間や照射角度により距離を検出する、所謂アクティブ方式によるAF方式でAF制御を行うようにしてもよい。
The AF control unit 23 calculates a contrast value from the luminance information of the input video signal RU of the imaging unit 101, moves the imaging lens group 11 by a predetermined amount in a direction in which the contrast value increases, and the contrast value increases. The imaging lens group 11 is automatically adjusted to the position where the contrast value disappears, that is, the position where the contrast value is maximized. The AF control unit 23 determines a base point for moving the imaging lens group 11 and a moving range based on the setting of the shooting mode from the shooting mode setting unit 24. In addition, since the same drive signal is input from the AF control unit 23 to each of the imaging units 101, 102, 103, and 104, control is performed so that the focus positions of the imaging units 101, 102, 103, and 104 are all the same. Is done.
Note that the AF control unit 23 of the present embodiment has been described as performing AF control using the contrast value of the captured video signal as an evaluation value, but in addition to this, the time until the wave returns after irradiation with infrared rays or ultrasonic waves Alternatively, the AF control may be performed by the so-called active AF method in which the distance is detected by the irradiation angle.

4つの撮像部101、102、103、104が出力した4系統の映像信号RU、LU、の全ては映像合成処理部20に入力される。更に、2つの撮像部101と102で撮影された映像信号RU、LUは視差算出部21にも入力される。視差算出部21は入力された2つの映像信号間の対応画素探索を行い、その探索結果から2つの撮像部間の視差データD(距離データと等価)を算出して映像合成処理部20に出力する。映像合成処理部20は入力された視差データDに基づき、映像信号RU、LU、RD、LDを合成処理して、縦方向および横方向の解像度が映像信号RUなどの2倍の高精細映像を生成し、その映像信号である高精細映像信号Gを出力する。   All of the four video signals RU and LU output from the four imaging units 101, 102, 103, and 104 are input to the video composition processing unit 20. Furthermore, the video signals RU and LU photographed by the two imaging units 101 and 102 are also input to the parallax calculation unit 21. The parallax calculation unit 21 performs a corresponding pixel search between the two input video signals, calculates parallax data D (equivalent to distance data) between the two imaging units from the search result, and outputs the parallax data D to the video composition processing unit 20 To do. The video composition processing unit 20 synthesizes the video signals RU, LU, RD, and LD based on the input parallax data D to produce a high-definition video whose vertical and horizontal resolution is twice that of the video signal RU or the like. The high-definition video signal G that is the video signal is generated.

図3は、視差算出部21の機能構成を示す概略ブロック図である。視差算出部21は、図2に示す撮像部101が出力した映像信号RUが表す画像(以下、基準画像という)と、撮像部102が出力した映像信号LUが表す画像(以下、参照画像という)から、視差データを算出する。視差算出部21は、座標変換部31、座標変換部32、小範囲対応点探索部33、探索範囲制御部34を含んで構成される。2つの座標変換部31、32は、基準画像と参照画像の画像平面を同一平面上に乗せることを目的に、両方の画像を幾何学変換(座標変換)してエピポーララインを平行化する。なお、座標変換部31が、基準画像、すなわち映像信号RUの画像を変換し、座標変換部32が、参照画像、すなわち映像信号LUの画像を変換する。座標変換部31は、カメラパラメータ記憶部30−1を備える。カメラパラメータ記憶部30−1は、撮像部101固有の焦点距離やレンズ歪みパラメータなどの内部パラメータ、および4つの撮像部101、102、103、104間の位置関係を表す外部パラメータを予め保持している。   FIG. 3 is a schematic block diagram illustrating a functional configuration of the parallax calculation unit 21. The parallax calculation unit 21 includes an image represented by the video signal RU output from the imaging unit 101 illustrated in FIG. 2 (hereinafter referred to as a reference image) and an image represented by the video signal LU output from the imaging unit 102 (hereinafter referred to as a reference image). From this, the parallax data is calculated. The parallax calculation unit 21 includes a coordinate conversion unit 31, a coordinate conversion unit 32, a small range corresponding point search unit 33, and a search range control unit 34. The two coordinate conversion units 31 and 32 parallelize the epipolar lines by performing geometric conversion (coordinate conversion) on both images for the purpose of placing the image plane of the base image and the reference image on the same plane. The coordinate conversion unit 31 converts the standard image, that is, the image of the video signal RU, and the coordinate conversion unit 32 converts the reference image, that is, the image of the video signal LU. The coordinate conversion unit 31 includes a camera parameter storage unit 30-1. The camera parameter storage unit 30-1 holds in advance internal parameters such as a focal length and lens distortion parameters specific to the imaging unit 101, and external parameters representing the positional relationship between the four imaging units 101, 102, 103, and 104. Yes.

同様に、座標変換部32は、カメラパラメータ記憶部30−2を備える。カメラパラメータ記憶部30−2は、撮像部102固有のカメラパラメータ(内部パラメータ、外部パラメータ)を保持している。座標変換部31、32は、エピポーララインが平行となった基準画像と参照画像の映像信号を、小範囲対応画素探索部33に出力する。小範囲対応画素探索部33は、エピポーララインが平行となった基準画像の各画素に対応する参照画像中の画素を、探索範囲制御部34に指定された画素から、小範囲対応画素探索部33に予め設定された画素数αで決まる所定の範囲(探索範囲)を探索して検出する。小範囲対応画素探索部33は、基準画像の各画素から、検出した対応する画素までの画像中の距離を、その基準画像の画素における視差データDとして出力する。探索範囲制御部34は、イメージセンサ制御部22が出力したイメージセンサ制御情報Cと、撮影モード設定部24が出力した撮影モードMとに基づき、小範囲対応点探索部33における探索処理にて探索する範囲を決定し、小範囲対応点探索部33に出力する。なお、探索範囲制御部34および小範囲対応点探索部33の詳細については、後述する。   Similarly, the coordinate conversion unit 32 includes a camera parameter storage unit 30-2. The camera parameter storage unit 30-2 holds camera parameters (internal parameters, external parameters) unique to the imaging unit 102. The coordinate conversion units 31 and 32 output the video signal of the reference image and the reference image in which the epipolar lines are parallel to the small range corresponding pixel search unit 33. The small range corresponding pixel search unit 33 searches for pixels in the reference image corresponding to each pixel of the base image in which the epipolar lines are parallel from the pixels designated by the search range control unit 34. A predetermined range (search range) determined by the number of pixels α set in advance is searched for and detected. The small range corresponding pixel search unit 33 outputs the distance in the image from each pixel of the reference image to the detected corresponding pixel as the parallax data D in the pixel of the reference image. The search range control unit 34 searches by the search processing in the small range corresponding point search unit 33 based on the image sensor control information C output by the image sensor control unit 22 and the shooting mode M output by the shooting mode setting unit 24. The range to be determined is determined and output to the small range corresponding point search unit 33. Details of the search range control unit 34 and the small range corresponding point search unit 33 will be described later.

図4〜図7を用いて、小範囲対応画素探索部33による対応画素の探索処理、すなわちステレオマッチング処理を説明する。図4は、エピポーラライン平行化後の参照画像RGを示す図である。図5は、エピポーラライン平行化後の基準画像BGを示す図である。基準画像BG上の画素に対応する参照画像RG上の画素(対応画素)を求めるための基準画像BG上の注目画素の移動方法について、図5を参照して説明する。小範囲対応画素探索部33は、基準画像BG上の注目画素を中心とするブロック(以下、基準注目ブロックBBという)を画像左上端(開始ブロックBS)からライン方向に右側へ1画素毎に移動させ、移動させた基準注目ブロックBBがラインの右端に到達した場合は、1ライン下の左端からライン方向に右側へ基準注目ブロックBBを移動させる。これを、基準注目ブロックBBが、基準画像BGの右下端のブロック(終了ブロックBE)に来るまで繰り返す。   A corresponding pixel search process by the small range corresponding pixel search unit 33, that is, a stereo matching process will be described with reference to FIGS. FIG. 4 is a diagram illustrating the reference image RG after the epipolar line is parallelized. FIG. 5 is a diagram showing the reference image BG after parallelizing the epipolar lines. A method of moving a pixel of interest on the reference image BG for obtaining a pixel (corresponding pixel) on the reference image RG corresponding to a pixel on the reference image BG will be described with reference to FIG. The small range corresponding pixel search unit 33 moves a block centering on the target pixel on the reference image BG (hereinafter referred to as the reference target block BB) from the upper left corner of the image (start block BS) to the right in the line direction for each pixel. When the moved reference attention block BB reaches the right end of the line, the reference attention block BB is moved to the right in the line direction from the left end one line below. This is repeated until the reference block of interest BB comes to the block at the lower right end (end block BE) of the reference image BG.

次に、小範囲対応画素探索部33が、図5に示す基準画像BGのある1つの基準注目ブロックBBに類似する参照画像RG上のブロックを探索する処理動作について、図4を参照して説明する。小範囲対応画素探索部33は、探索範囲制御部34から指定された座標のブロック(探索開始ブロック)から、ライン方向に右側へ参照注目ブロックRBを1画素毎に移動させていき、探索開始ブロックRSから探索範囲だけライン方向に離れたブロックである探索終了ブロックREまで繰り返す。この参照注目ブロックの探索を、小範囲対応画素探索部33は、図5に示す基準注目ブロックBBの各々について行う。なお、図4では、探索開始ブロックRSは、図5に示す基準画像BG上の基準注目ブロックBBの座標(x、y)と同じ座標となる参照画像RG上のブロック(最小視差ブロック)となっている。   Next, the processing operation in which the small range corresponding pixel search unit 33 searches for a block on the reference image RG similar to one reference target block BB in the reference image BG shown in FIG. 5 will be described with reference to FIG. To do. The small range corresponding pixel search unit 33 moves the reference attention block RB to the right in the line direction from the block of coordinates (search start block) designated by the search range control unit 34 for each pixel. It repeats until the search end block RE which is a block separated from the RS in the line direction by the search range. The small range corresponding pixel search unit 33 searches this reference attention block for each of the reference attention blocks BB shown in FIG. In FIG. 4, the search start block RS is a block (minimum parallax block) on the reference image RG having the same coordinates as the coordinates (x, y) of the reference block BB on the reference image BG shown in FIG. ing.

図4に示す最大視差探索範囲は、撮像部101〜104が撮影可能な(焦点が合う)距離の範囲である。図5の基準注目ブロックと同じ座標にある最小視差ブロックが最も遠い位置(無限遠)に対応し、図4の最大視差ブロックが最も近い距離に対応する。図4に示すように小範囲対応画素探索部33の探索範囲は全視差探索範囲よりも小さい範囲となっている。探索する範囲は処理量とメモリ量に大きく関係しており、小範囲対応画素探索部33のように探索範囲を小さく設定することによって、処理量とメモリ量を小さく抑えることが可能となる。   The maximum parallax search range illustrated in FIG. 4 is a range of distances that the imaging units 101 to 104 can capture (focus on). The minimum parallax block at the same coordinates as the reference target block in FIG. 5 corresponds to the farthest position (infinity), and the maximum parallax block in FIG. 4 corresponds to the closest distance. As shown in FIG. 4, the search range of the small range corresponding pixel search unit 33 is smaller than the entire parallax search range. The search range is greatly related to the processing amount and the memory amount, and the processing amount and the memory amount can be suppressed small by setting the search range to be small like the small range corresponding pixel search unit 33.

次に、基準注目ブロックと類似する参照注目ブロックの決定方法について図6および図7を参照して説明する。図7は、基準注目ブロックBBを示しており、基準画像BG上の注目画素を中心とする横M×縦Nのサイズのブロックである。図6は、参照注目ブロックRBを示しており、参照画像RG上の注目画素を中心とする横M×縦Nのサイズのブロックである。図6に示す参照注目ブロックRBおよび図7に示す基準注目ブロックBB上の任意の画素を表すために、横方向をi、縦方向をjとした時の座標(i、j)の画素値をそれぞれR(i、j)、T(i、j)とする。本実施形態では、類似度を求める方法として、一般的に多く用いられているSAD(Sum of Absolute Difference)を用いる。SADは、(1)式に示す類似度判定式のようにR(i、j)とT(i、j)の差分の絶対値をブロックの全画素について求め、それを合計した値(SSAD)である。 Next, a reference attention block determination method similar to the reference attention block will be described with reference to FIGS. FIG. 7 shows the reference target block BB, which is a block of size of horizontal M × vertical N with the target pixel on the reference image BG as the center. FIG. 6 shows the reference attention block RB, which is a block having a size of horizontal M × vertical N with the target pixel on the reference image RG as the center. In order to represent an arbitrary pixel on the reference target block RB shown in FIG. 6 and the reference target block BB shown in FIG. 7, the pixel value of the coordinates (i, j) when the horizontal direction is i and the vertical direction is j is Let R (i, j) and T (i, j) respectively. In this embodiment, SAD (Sum of Absolute Difference), which is generally used, is used as a method for obtaining the similarity. SAD calculates the absolute value of the difference between R (i, j) and T (i, j) for all the pixels of the block as in the similarity determination formula shown in equation (1), and sums them (S SAD ).

Figure 2012060512
Figure 2012060512

小範囲対応画素探索部33は、前述した図4に示す参照画像RG上の探索範囲内の各参照注目ブロックRBの中でSSADの値が最も小さくなる参照注目ブロックを、基準注目ブロックBBと類似していると決定する。そして、小範囲対応画素探索部33は、類似していると決定した参照注目ブロックRBの中心の画素を、基準注目ブロックBBの中心の画素(注目画素)に対応する画素とする。尚、本実施形態では、基準画像BG上の注目画素に類似する参照画像RG上の画素をSADの類似度評価関数で探索したが、この手法に限定されるものではなく、基準画像上と参照画像上の類似画素を探索する手法であればどのような手法を使用して、視差データを求めても良い。 The small range corresponding pixel search unit 33 sets the reference attention block having the smallest value of S SAD as the reference attention block BB among the reference attention blocks RB in the search range on the reference image RG shown in FIG. 4 described above. Determined to be similar. Then, the small range corresponding pixel search unit 33 sets the center pixel of the reference target block RB determined to be similar to the pixel corresponding to the center pixel (target pixel) of the reference target block BB. In the present embodiment, a pixel on the reference image RG similar to the target pixel on the standard image BG is searched using the SAD similarity evaluation function. However, the present invention is not limited to this method. Any technique may be used to obtain the parallax data as long as it is a technique for searching for similar pixels on the image.

この探索開始ブロックの座標は、探索範囲制御部34により、小範囲対応画素探索部33に設定される。図3及び図8を用いて探索範囲制御部34による制御方法の例を説明する。図3に示すように、探索範囲制御部34には、イメージセンサ制御情報Cが入力されている。探索範囲制御部34は、入力されたイメージセンサ制御情報Cから得られる撮影映像の画素数から全視差探索範囲の画素数を算出する。全視差探索範囲の算出とは、最大視差が撮影画素何画素分に相当するかを算出することである。最大視差は、カメラの焦点距離(FL)、撮影できる最も近い距離(MD)、2台のカメラ間距離(CI)から決まり、最大視差=FL×CI/MDである。従って、イメージセンサの横幅がWで、撮影画素は640×480画素の場合、全視差探索範囲=最大視差×640画素/Wとなる。該画素数を小範囲対応画素探索部33の探索範囲(予め設定された画素数α)で割り、全視差探索範囲(最小視差ブロックSDから最大視差ブロックMD)を探索するには小範囲対応画素探索部33を何回実行する必要があるかを算出する。   The coordinates of the search start block are set in the small range corresponding pixel search unit 33 by the search range control unit 34. The example of the control method by the search range control part 34 is demonstrated using FIG.3 and FIG.8. As shown in FIG. 3, image sensor control information C is input to the search range control unit 34. The search range control unit 34 calculates the number of pixels in the entire parallax search range from the number of pixels of the captured video obtained from the input image sensor control information C. The calculation of the total parallax search range is to calculate how many pixels the shooting parallax corresponds to. The maximum parallax is determined from the focal length (FL) of the camera, the closest distance (MD) that can be photographed, and the distance (CI) between the two cameras, and the maximum parallax = FL × CI / MD. Therefore, when the horizontal width of the image sensor is W and the shooting pixel is 640 × 480 pixels, the total parallax search range = maximum parallax × 640 pixels / W. In order to search the entire parallax search range (from the minimum parallax block SD to the maximum parallax block MD) by dividing the number of pixels by the search range (preset pixel number α) of the small range correspondence pixel search unit 33, the small range correspondence pixel It calculates how many times the search unit 33 needs to be executed.

図8は、全視差探索に必要な小範囲対応画素探索部33の実行回数が4回と算出された例を示すものである。図8に示すように探索する範囲をずらしながら、探索範囲1から4まで4回実行するように、探索範囲制御部34は、小範囲対応画素探索部33を制御する。小範囲対応画素探索部33は、この4回の実行のうち、最もSSADの値が最も小さくなる参照注目ブロックを、基準注目ブロックBBと類似していると決定する。この制御方法は、小範囲対応画素探索部33による探索を複数回実行するため処理時間は長くなるが、実行1回当たりのメモリ使用量が少ないため、従来よりも少ない処理量で最も遠い距離から最も近い距離までの全ての視差を探索することが可能である。 FIG. 8 shows an example in which the number of executions of the small range corresponding pixel search unit 33 necessary for the full parallax search is calculated to be four times. As shown in FIG. 8, the search range control unit 34 controls the small range corresponding pixel search unit 33 so that the search range 1 to 4 is executed four times while shifting the search range. The small range corresponding pixel search unit 33 determines that the reference attention block having the smallest value of S SAD among the four executions is similar to the reference attention block BB. In this control method, since the search by the small range corresponding pixel search unit 33 is executed a plurality of times, the processing time becomes long. However, since the memory usage per execution is small, the processing distance is less than the conventional distance from the farthest distance. It is possible to search all the parallaxes up to the nearest distance.

また、全視差探索範囲の全てを探索するのではなく、撮影モード設定部24が出力する撮影モードの情報に応じて、その一部分を探索するよう制御することも可能である。例えば、撮影モードが、遠景の撮影を対象としている風景モードであるときは、探索範囲制御部34は、図9に示すように最小視差ブロックSDを探索開始ブロックに設定する。これにより、探索範囲制御部34は、最小視差ブロックSDの位置から1回のみ探索するように小範囲対応画素探索部33を設定することになる。このため、小範囲対応画素探索部33は、小さい視差範囲(即ち遠い撮影距離にある被写体)のみを探索する。   It is also possible to perform control so as to search a part of the entire parallax search range according to the shooting mode information output from the shooting mode setting unit 24 instead of searching the entire parallax search range. For example, when the shooting mode is a landscape mode for shooting a distant view, the search range control unit 34 sets the minimum parallax block SD as a search start block as shown in FIG. Accordingly, the search range control unit 34 sets the small range corresponding pixel search unit 33 so as to search only once from the position of the minimum parallax block SD. For this reason, the small range corresponding pixel search unit 33 searches only a small parallax range (that is, a subject at a far shooting distance).

また、例えば、撮影モードが、接写撮影など小さい物体に近づいて撮影する接写撮影モードであるときは、探索範囲制御部34は、図10に示すように、最大視差ブロックから予め設定された画素数αだけ左側のブロックを探索開始ブロックRSに設定する。これにより、探索範囲制御部34は、全視差探索範囲の最大視差ブロックの位置まで1回のみ探索するように小範囲対応画素探索部33を設定することになる。このため、小範囲対応画素探索部33は、大きい視差範囲(即ち近い撮影距離にある被写体)のみを探索する。   For example, when the shooting mode is a close-up shooting mode in which a close-up shooting is performed such as close-up shooting, the search range control unit 34 sets the number of pixels set in advance from the maximum parallax block as shown in FIG. The block on the left side by α is set as the search start block RS. Accordingly, the search range control unit 34 sets the small range corresponding pixel search unit 33 so as to search only once up to the position of the maximum parallax block in the entire parallax search range. For this reason, the small range corresponding pixel search unit 33 searches only a large parallax range (that is, a subject at a close shooting distance).

また、例えば、撮影モードが、人物を撮影するポートレートモードなど、被写体が中間位置にあるモードであれば、探索範囲制御部34は、図11に示すように、全視差探索範囲の中心から、予め設定された画素数αの半分だけ左側のブロックを探索開始ブロックRSに設定する。これにより、探索範囲制御部34は、全視差探索範囲の中心部分を1回だけ探索するように小範囲対応画素探索部33を設定することになる。このため、小範囲対応画素探索部33は、中間位置にある被写体のみを探索する。   Further, for example, if the shooting mode is a mode in which the subject is at an intermediate position, such as a portrait mode for shooting a person, the search range control unit 34 starts from the center of the total parallax search range as shown in FIG. The block on the left side by a half of the preset pixel number α is set as the search start block RS. Accordingly, the search range control unit 34 sets the small range corresponding pixel search unit 33 so as to search the central portion of the entire parallax search range only once. For this reason, the small range corresponding pixel search unit 33 searches only the subject at the intermediate position.

探索範囲制御部34および小範囲対応点探索部33が1画面分の視差データを生成する流れを図12に示す処理フローを参照して説明する。まず、探索範囲制御部34は、小範囲対応点探索部33の探索範囲と実行回数を決定する(ステップS900)。ここでは図8〜図11で説明したように、入力されるイメージセンサ制御情報の画素数や撮影モードを用いて、探索範囲と実行回数を決定する。続いて、決定した探索範囲と、基準注目ブロックの位置とに基づき、探索開始ブロックを設定して小範囲対応点探索部33を実行させる(ステップS901)。小範囲対応点探索部33は、この実行後、SAD最小値と視差データを得て記憶する(ステップS902)。次に、探索範囲制御部34は、ステップS900で決定した回数だけ小範囲対応点探索部33を実行したか否かを判定し(ステップS903)、実行していなければ小範囲対応点探索部33に、次の探索開始ブロックを設定して(ステップS904)、ステップS902に戻る。   A flow in which the search range control unit 34 and the small range corresponding point search unit 33 generate parallax data for one screen will be described with reference to a processing flow shown in FIG. First, the search range control unit 34 determines the search range and the number of executions of the small range corresponding point search unit 33 (step S900). Here, as described with reference to FIGS. 8 to 11, the search range and the number of executions are determined using the number of pixels and the shooting mode of the input image sensor control information. Subsequently, based on the determined search range and the position of the reference block of interest, a search start block is set and the small range corresponding point search unit 33 is executed (step S901). After this execution, the small range corresponding point search unit 33 obtains and stores the SAD minimum value and the parallax data (step S902). Next, the search range control unit 34 determines whether or not the small range corresponding point search unit 33 has been executed the number of times determined in step S900 (step S903). Next, the next search start block is set (step S904), and the process returns to step S902.

これらステップS902からステップS904を実行回数分繰り返した後、小範囲対応点探索部33は、実行回数分記憶したSAD最小値の中から最小のSAD値を選択し、視差データDとして出力する(ステップS905)。最後に、探索範囲制御部34は、1画面分の処理が終了したか否かを判定する(ステップS906)。この判定の結果、終了していなければ、探索範囲制御部34は、基準注目ブロックを1画素移動して(ステップS907)、ステップS901に戻る。ステップS906の判定の結果、終了している、すなわち基準注目ブロックが基準画像の終了ブロックとなっていたら、処理を衆力する。これにより、基準画像上の各画素の視差データを求める。   After repeating these steps S902 to S904 for the number of executions, the small range corresponding point search unit 33 selects the minimum SAD value from among the SAD minimum values stored for the number of executions, and outputs it as the parallax data D (step). S905). Finally, the search range control unit 34 determines whether or not the processing for one screen has been completed (step S906). As a result of this determination, if not completed, the search range control unit 34 moves the reference target block by one pixel (step S907), and returns to step S901. If the result of determination in step S906 is that the processing has been completed, that is, if the reference block of interest is the end block of the reference image, the processing is boosted. Thereby, parallax data of each pixel on the reference image is obtained.

図12のフローチャートでは、画素単位で探索範囲を変更しながら小範囲対応点探索部33を複数回実行して視差値を算出する処理を説明したが、画面単位で探索範囲を変更するようにしてもよい。この場合の処理を、図13のフローチャートを用いて説明する。尚、図12と同じ処理ステップには同じ符号を用いる。S900からS902までの処理は同じなので、説明を省略する。次に、探索範囲制御部34は、1画面分の処理が終了したか否かの判定を行う(ステップS906)、終了していなければ基準注目ブロックと探索範囲を1画素移動して(ステップS101)、ステップS902に戻る。これらステップS902、S906、S101を1画面分の処理が終了するまで繰返した後、ステップS900で決定した回数だけ小範囲対応点探索部33を実行したか否かを、探索範囲制御部34は判定する(ステップS903)。この判定の結果、決定した回数だけ実行していなければ、探索範囲制御部34は、基準画像の注目ブロックを開始位置に戻し(ステップS102)、小範囲対応点探索部33に次の探索範囲を設定して(ステップS904)、再度、S902、S906、S101の処理を1画面分行う。   In the flowchart of FIG. 12, the process of calculating the parallax value by executing the small range corresponding point search unit 33 a plurality of times while changing the search range in units of pixels has been described. However, the search range is changed in units of screens. Also good. The processing in this case will be described using the flowchart of FIG. The same reference numerals are used for the same processing steps as in FIG. Since the processing from S900 to S902 is the same, the description thereof is omitted. Next, the search range control unit 34 determines whether or not the processing for one screen has been completed (step S906). If not, the search range control unit 34 moves the reference target block and the search range by one pixel (step S101). ), The process returns to step S902. After repeating these steps S902, S906, and S101 until the processing for one screen is completed, the search range control unit 34 determines whether or not the small range corresponding point search unit 33 has been executed the number of times determined in step S900. (Step S903). As a result of this determination, if the determined number of times has not been executed, the search range control unit 34 returns the target block of the reference image to the start position (step S102), and sets the next search range to the small range corresponding point search unit 33. After setting (step S904), the processing of S902, S906, and S101 is performed for one screen again.

実行回数分の繰り返した後、小範囲対応点探索部33は、各画素で実行回数分のSAD最小値から最小のSAD値を選択して、視差データDとして出力する(ステップS103)。本処理フローは、図12の処理フローと比較して、探索範囲の設定をするステップS904の回数が少なくなる。ステップS904は探索範囲内の全画素値を読み込みなおす必要があるため処理量が多い。S904の回数を減らすことで処理量軽減が可能となる。尚、図20では画面単位で探索範囲を更新する例を説明したが、画面単位の他に例えばライン単位や装置が搭載するメモリ単位などで探索範囲を更新する処理フローも可能である。   After repeating for the number of executions, the small range corresponding point search unit 33 selects the minimum SAD value from the SAD minimum values for the number of executions for each pixel and outputs it as the parallax data D (step S103). In the present processing flow, the number of times of step S904 for setting the search range is reduced as compared with the processing flow of FIG. Step S904 requires a large amount of processing because it is necessary to read all pixel values within the search range. The amount of processing can be reduced by reducing the number of times of S904. Although the example in which the search range is updated in units of screens has been described with reference to FIG. 20, a processing flow in which the search range is updated in units of lines or memory units installed in the apparatus is also possible in addition to screen units.

図14は、映像合成処理部20の機能構成を示す概略ブロック図である。映像合成処理部20は、位置合わせ補正処理部401−1、位置合わせ補正処理部401−2、位置合わせ補正処理部401−3、位置合わせ補正処理部401−4、高解像度合成処理部403を含んで構成される。また、位置合わせ補正処理部401−1は、カメラパラメータ記憶部402−1を含んで構成される。位置合わせ補正処理部401−2は、カメラパラメータ記憶部402−2を含んで構成される。位置合わせ補正処理部401−3は、カメラパラメータ記憶部402−3を含んで構成される。位置合わせ補正処理部401−4は、カメラパラメータ記憶部402−4を含んで構成される。   FIG. 14 is a schematic block diagram illustrating a functional configuration of the video composition processing unit 20. The video composition processing unit 20 includes an alignment correction processing unit 401-1, an alignment correction processing unit 401-2, an alignment correction processing unit 401-3, an alignment correction processing unit 401-4, and a high resolution composition processing unit 403. Consists of including. The alignment correction processing unit 401-1 includes a camera parameter storage unit 402-1. The alignment correction processing unit 401-2 includes a camera parameter storage unit 402-2. The alignment correction processing unit 401-3 includes a camera parameter storage unit 402-3. The alignment correction processing unit 401-4 includes a camera parameter storage unit 402-4.

位置合わせ補正処理部401−1、401−2、401−3、401−4は、視差算出部21が出力する視差データDと、各々が備えるカメラパラメータ記憶部402−1、402−2、402−3、402−4が記憶する各撮像部の向きや姿勢やレンズ歪の状態を示すに基づき、映像信号RU、LU、RD、LDの画像間で、同一の座標位置の画素が同じ被写体位置を捕らえるように、映像信号RU、LU、RD、LDの画像を変換する位置合わせを行う。高解像度合成処理部403は、4つの位置合わせ補正処理部401−1、401−2、401−3、401−4が位置合わせをした画像を用いて、高精細化合成を行い、合成結果の画像を表す高精細映像信号Gを出力する。   The alignment correction processing units 401-1, 401-2, 401-3, and 401-4 are the parallax data D output from the parallax calculation unit 21 and the camera parameter storage units 402-1, 402-2, and 402 included in each. -3 and 402-4 indicate the orientation and orientation of each imaging unit and the state of lens distortion, and the pixels at the same coordinate position are the same subject position between the images of the video signals RU, LU, RD, and LD. So that the images of the video signals RU, LU, RD, and LD are converted. The high-resolution composition processing unit 403 performs high-definition composition using images that have been aligned by the four alignment correction processing units 401-1, 401-2, 401-3, and 401-4. A high-definition video signal G representing an image is output.

位置合わせ補正処理部401−1〜401−4の動作を説明する。カメラパラメータ記憶部402−1〜402−4が記憶し、各撮像部の向きや姿勢やレンズ歪の状態を示すカメラパラメータは、パターン形状が既知の市松模様チェッカーパターンを姿勢やアングルを変えながら数回撮像して、その撮影画像から算出するカメラキャリブレーションで求めることができる。カメラパラメータは外部パラメータと内部パラメータから構成され、外部パラメータはカメラの姿勢を示すヨー、ピッチ、ロールの3軸ベクトルと、平行移動成分を示す3軸の並進ベクトルの計6パラメータから構成される。また内部パラメータは、画像中心位置、イメージセンサ上で仮定した座標の角度とアスペクト比、焦点距離の5パラメータから構成される。   The operation of the alignment correction processing units 401-1 to 401-4 will be described. Camera parameters that are stored in the camera parameter storage units 402-1 to 402-4 and indicate the orientation, orientation, and lens distortion state of each imaging unit are numerical values while changing the posture and angle of a checkered checker pattern whose pattern shape is known. It can be obtained by camera calibration calculated from the captured image after multiple imaging. The camera parameters are composed of external parameters and internal parameters, and the external parameters are composed of a total of six parameters including a three-axis vector of yaw, pitch, and roll indicating the posture of the camera and a three-axis translation vector indicating a translation component. The internal parameters are composed of five parameters: the image center position, the angle and aspect ratio of the coordinates assumed on the image sensor, and the focal length.

ここでは撮像部101を基準の撮像部として、他の撮像部102、103、104の映像を撮像部101の映像に合せるものとして説明する。被写体まで距離を表す視差データDと、基準の撮像部101と、他の撮像部102、103、104との間隔(カメラ基線長)から算出されるシフト量をカメラパラメータの外部パラメータである並進量に加味したパラメータを用いて幾何学補正処理することで、位置合わせ補正処理部401−1〜401−4は、映像信号RU、LU、RD、LDが表す画像が被写体の同じ点を同じ位置(画素)で捕らえるように位置を合わせることができる。なお、図14に示すように、位置合わせ補正処理部401−1は、映像信号RUを処理し、位置合わせ補正処理部401−2は、映像信号LUを処理し、位置合わせ補正処理部401−3は、映像信号RDを処理し、位置合わせ補正処理部401−4は、映像信号LDを処理する。   Here, the image capturing unit 101 is used as a reference image capturing unit, and the images of the other image capturing units 102, 103, and 104 are matched with the images of the image capturing unit 101. The shift amount calculated from the parallax data D representing the distance to the subject, the interval (camera baseline length) between the reference imaging unit 101 and the other imaging units 102, 103, and 104 is a translation amount that is an external parameter of the camera parameter. By performing the geometric correction process using the parameters added to the above, the alignment correction processing units 401-1 to 401-4 can detect the same point of the subject in the image represented by the video signals RU, LU, RD, and LD at the same position ( The position can be adjusted so as to be captured by (pixel). As shown in FIG. 14, the registration correction processing unit 401-1 processes the video signal RU, and the registration correction processing unit 401-2 processes the video signal LU, and the registration correction processing unit 401-. 3 processes the video signal RD, and the alignment correction processing unit 401-4 processes the video signal LD.

次に、高解像度合成処理部403による合成処理の一例を図15に示す。ここでは、4つの撮像部101、102、103、104の解像度がVGA(640×480画素)で、その4倍の画素数であるQuad−VGAの画素(1280×960画素)への高解像度化する合成処理を行う場合で説明する。図15に示すように、Quad−VGAの画素(1280×960画素)の隣接する4つの画素に、異なる撮像部が出力した映像信号に基づく画像RU1、LU1、RD1、LD1の同一座標の画素を割り当てて合成することで高解像度の画像を得る。ここで、画像RU1は、位置合わせ補正処理部401−1が、映像信号RUを処理して生成した画像である。同様に、画像LU1は、位置合わせ補正処理部401−2が、映像信号LUを処理して生成した画像である。画像RD1は、位置合わせ補正処理部401−3が、映像信号RDを処理して生成した画像である。画像LD1は、位置合わせ補正処理部401−4が、映像信号LDを処理して生成した画像である。   Next, an example of the synthesis process by the high resolution synthesis processing unit 403 is shown in FIG. Here, the resolution of the four imaging units 101, 102, 103, and 104 is VGA (640 × 480 pixels), and the resolution is increased to Quad-VGA pixels (1280 × 960 pixels), which is four times the number of pixels. This will be described in the case of performing the combining process. As shown in FIG. 15, pixels having the same coordinates of the images RU1, LU1, RD1, and LD1 based on video signals output from different imaging units are added to four adjacent pixels of Quad-VGA pixels (1280 × 960 pixels). A high-resolution image is obtained by assigning and compositing. Here, the image RU1 is an image generated by processing the video signal RU by the alignment correction processing unit 401-1. Similarly, the image LU1 is an image generated by processing the video signal LU by the alignment correction processing unit 401-2. The image RD1 is an image generated by the alignment correction processing unit 401-3 processing the video signal RD. The image LD1 is an image generated by the alignment correction processing unit 401-4 processing the video signal LD.

このように、小範囲対応画素探索部33の探索範囲は全視差探索範囲よりも小さい範囲となっている。探索する範囲は処理量と使用メモリ量に大きく関係しており、探索範囲を小さく設定しているので、ステレオマッチング処理の処理量と使用メモリ量を小さく抑えることができる。   Thus, the search range of the small range corresponding pixel search unit 33 is smaller than the entire parallax search range. The search range is largely related to the amount of processing and the amount of memory used, and since the search range is set small, the amount of processing and the amount of memory used for stereo matching processing can be kept small.

[第2の実施形態]
本発明の第2の実施形態について、図面を参照して詳細に説明する。図16は、本実施形態に係る多眼撮像装置10aの機能構成を示す概略ブロック図である。同図において図2の各部に対応する部分には同一の符号(101〜104、11、12、20、23)を付け、その説明を省略する。多眼撮像装置10aは、動画を撮像する装置である。多眼撮像装置10aは、撮像部101、102、103、104、映像合成処理部20、視差算出部21a、イメージセンサ制御部22a、AF制御部23を含んで構成される。イメージセンサ制御部22aは、図2のイメージセンサ制御部22が出力するイメージセンサ制御情報Cに、撮像部101〜104のイメージセンサ12のフレームレートを示す情報を加えたイメージセンサ制御情報C’を視差算出部21aに出力する。視差算出部21aは、このイメージセンサ制御情報C’を用いて、視差データを算出する。
[Second Embodiment]
A second embodiment of the present invention will be described in detail with reference to the drawings. FIG. 16 is a schematic block diagram illustrating a functional configuration of the multi-lens imaging device 10a according to the present embodiment. In the figure, the same reference numerals (101 to 104, 11, 12, 20, 23) are assigned to portions corresponding to the respective portions in FIG. 2, and the description thereof is omitted. The multi-eye imaging device 10a is a device that captures moving images. The multi-eye imaging device 10a includes imaging units 101, 102, 103, and 104, a video composition processing unit 20, a parallax calculation unit 21a, an image sensor control unit 22a, and an AF control unit 23. The image sensor control unit 22a adds image sensor control information C ′ obtained by adding information indicating the frame rate of the image sensor 12 of the imaging units 101 to 104 to the image sensor control information C output by the image sensor control unit 22 of FIG. It outputs to the parallax calculation part 21a. The parallax calculation unit 21a calculates parallax data using the image sensor control information C ′.

図17は、視差算出部21aの機能構成を示す概略ブロック図である。同図において図3の各部に対応する部分には同一の符号(30−1、30−2、31〜33)を付け、その説明を省略する。視差算出部21aは、座標変換部31、32、小範囲対応点探索部33、探索範囲制御部34aを含んで構成される。探索範囲制御部34aは、イメージセンサ制御情報C’に基づき、小範囲対応点探索部33を制御する。   FIG. 17 is a schematic block diagram illustrating a functional configuration of the parallax calculation unit 21a. In the figure, the same reference numerals (30-1, 30-2, 31 to 33) are assigned to portions corresponding to the respective portions in FIG. The parallax calculation unit 21a includes coordinate conversion units 31 and 32, a small range corresponding point search unit 33, and a search range control unit 34a. The search range control unit 34 a controls the small range corresponding point search unit 33 based on the image sensor control information C ′.

図18は、探索範囲制御部34aによる小範囲対応点探索部33の制御方法の例を説明する図である。探索範囲制御部34aは、入力されたイメージセンサ制御情報C’からフレームレートを取得して、1フレーム当たりの処理時間を算出する。その後、探索範囲制御部34aは、あらかじめ保持している小範囲対応画素探索部33の1回当たり処理時間で、1フレーム当たりの処理時間を割って、1フレーム内に処理できる小範囲対応画素探索部33の処理回数を算出する。更に、探索範囲制御部34aは、1フレーム内に処理できる処理回数を、イメージセンサ制御情報C’から得られる1フレームの画素数で割って、各画素当たりの処理可能な小範囲対応画素探索部33の実行回数を算出する。   FIG. 18 is a diagram illustrating an example of a control method of the small range corresponding point search unit 33 by the search range control unit 34a. The search range control unit 34a obtains a frame rate from the input image sensor control information C ', and calculates a processing time per frame. Thereafter, the search range control unit 34a divides the processing time per frame by the processing time per time of the small range corresponding pixel search unit 33 held in advance, and can perform processing within one frame. The number of processing times of the unit 33 is calculated. Further, the search range control unit 34a divides the number of processes that can be processed in one frame by the number of pixels in one frame obtained from the image sensor control information C ′, and can process a small range corresponding pixel search unit for each pixel. The number of executions 33 is calculated.

図18は1画素当たりの処理回数が2回と算出された例を示すものである。この例では、探索範囲制御部34aは、全視差探索範囲の中心に探索範囲(探索範囲1、探索範囲2)を設定している。具体的には、探索範囲制御部34aは、予め設定された画素数αに処理回数を乗算し、さらに2で割る。探索範囲制御部34aは、この2で割った結果の画素数分、全視差探索範囲の中心から左側の位置を、探索範囲1の探索開始ブロックRS1とうし、探索範囲1の探索終了ブロックの位置を、探索範囲2の探索開始ブロックRS2とする。これにより、探索範囲制御部34aは、小範囲対応点探索部33が、全視差探索範囲の中央部分を2回探索するように制御する。この制御方法は、全視差探索範囲すべてを探索することはできないが、撮影した映像の同じフレームレートの動画視差マップを、リアルタイムに出力することが可能となる。   FIG. 18 shows an example in which the number of processes per pixel is calculated as two. In this example, the search range control unit 34a sets a search range (search range 1, search range 2) at the center of the entire parallax search range. Specifically, the search range control unit 34a multiplies the preset number of pixels α by the number of processings and further divides by two. The search range control unit 34a uses the position on the left side from the center of the total parallax search range by the number of pixels as a result of dividing by 2 as the search start block RS1 of the search range 1, and the position of the search end block of the search range 1 Is a search start block RS2 of the search range 2. Thereby, the search range control unit 34a controls the small range corresponding point search unit 33 to search the central portion of the entire parallax search range twice. This control method cannot search the entire disparity search range, but can output a moving image disparity map having the same frame rate of the captured video in real time.

図19は、探索範囲制御部34aによる小範囲対応点探索部33の制御方法の他の例を説明する図である。図18では、1フレーム内に処理できる小範囲対応画素探索部33の処理回数(2回)を連続した探索範囲に設定したが、図19に示すように、全視差探索範囲で等間隔となるように分散して設定するようにしてもよい。図19では1回目に小範囲対応画素探索部33が探索する範囲(探索範囲1)を細線で、2回目に探索する範囲(探索範囲2)を太線で示している。この例では、探索範囲制御部34aは、全視差探索範囲を、算出された処理回数+1個の領域に均等に分割し、領域の各境界から予め設定された画素数αの半分だけ左側の位置を、各探索範囲(探索範囲1、探索範囲2)の探索開始ブロックRS1’、RS2’とする。このように探索範囲を等間隔に分散して設定することで、全視差探索範囲の大まかに探索した動画視差マップを出力することが可能となる。   FIG. 19 is a diagram for explaining another example of the control method of the small range corresponding point search unit 33 by the search range control unit 34a. In FIG. 18, the processing count (two times) of the small range corresponding pixel search unit 33 that can be processed in one frame is set to a continuous search range. However, as shown in FIG. 19, the entire parallax search range is equally spaced. In such a manner, it may be set in a distributed manner. In FIG. 19, the range (search range 1) searched by the small range corresponding pixel search unit 33 for the first time is indicated by a thin line, and the range searched for the second time (search range 2) by a bold line. In this example, the search range control unit 34a equally divides the entire parallax search range into the calculated number of processes + 1 region, and positions the left side by a half of the preset number of pixels α from each boundary of the region. Are the search start blocks RS1 ′ and RS2 ′ of each search range (search range 1, search range 2). Thus, by setting the search range to be distributed at equal intervals, it is possible to output a moving image parallax map roughly searched for the entire parallax search range.

視差データを利用する映像処理が動画のリアルタイム処理をする場合は、視差データ算出にもリアルタイム処理が必要になる。例えば、立体映像の立体感を調整しながら撮影を行う場合には、撮影映像の視差データをリアルタイムに算出して立体感調整映像処理を行う必要があり、本実施形態では、それが可能となる。   When video processing using parallax data performs real-time processing of a moving image, real-time processing is also required for parallax data calculation. For example, in the case of shooting while adjusting the stereoscopic effect of a stereoscopic image, it is necessary to calculate parallax data of the captured image in real time and perform stereoscopic effect adjustment image processing, which is possible in this embodiment. .

[第3の実施形態]
本発明の第3の実施形態について、図面を参照して詳細に説明する。図20は、本実施形態に係る多眼撮像装置10bの機能構成を示す概略ブロック図である。同図において図2の各部に対応する部分には同一の符号(101〜104、11、12、20、22)を付け、その説明を省略する。多眼撮像装置10bは、撮像部101、102、103、104、映像合成処理部20、視差算出部21b、イメージセンサ制御部22、AF制御部23bを含んで構成される。AF制御部23bは、撮像レンズ群11をフォーカスさせた位置、すなわちレンズとイメージセンサ間の距離を示す焦点位置情報Fを、視差算出部21bに出力する。視差算出部21bは、この焦点位置情報Fを用いて、視差データDを算出する。
[Third Embodiment]
A third embodiment of the present invention will be described in detail with reference to the drawings. FIG. 20 is a schematic block diagram illustrating a functional configuration of the multi-lens imaging device 10b according to the present embodiment. In the figure, the same reference numerals (101 to 104, 11, 12, 20, 22) are assigned to portions corresponding to the respective portions in FIG. 2, and the description thereof is omitted. The multi-eye imaging device 10b includes imaging units 101, 102, 103, and 104, a video composition processing unit 20, a parallax calculation unit 21b, an image sensor control unit 22, and an AF control unit 23b. The AF control unit 23b outputs, to the parallax calculation unit 21b, the focus position information F indicating the focus position of the imaging lens group 11, that is, the distance between the lens and the image sensor. The parallax calculation unit 21b calculates the parallax data D using the focal position information F.

図21は、視差算出部21bの機能構成を示す概略ブロック図である。同図において図3の各部に対応する部分には同一の符号(30−1、30−2、31〜33)を付け、その説明を省略する。視差算出部21bは、座標変換部31、32、小範囲対応点探索部33、探索範囲制御部34bを含んで構成される。探索範囲制御部34bは、イメージセンサ制御情報Cおよび焦点位置情報Fに基づき、小範囲対応点探索部33を制御する。   FIG. 21 is a schematic block diagram illustrating a functional configuration of the parallax calculation unit 21b. In the figure, the same reference numerals (30-1, 30-2, 31 to 33) are assigned to portions corresponding to the respective portions in FIG. The parallax calculation unit 21b includes coordinate conversion units 31 and 32, a small range corresponding point search unit 33, and a search range control unit 34b. The search range control unit 34 b controls the small range corresponding point search unit 33 based on the image sensor control information C and the focal position information F.

図21に示すように、探索範囲制御部34bにはAF制御部23bからの焦点位置情報Fが入力されている。探索範囲制御部34は、入力された焦点位置情報F(焦点を合わせた注目被写体の距離)の視差値を計算する。具体的には、探索範囲制御部34は、まず、撮像レンズ群11の焦点距離f(mm)、焦点位置情報Fであるレンズとイメージセンサ12間の距離l(mm)を用いて、被写体までの撮影距離L(mm)を以下の(1)式を用いて算出する。ここで、焦点位置情報Fが表すレンズとイメージセンサ12間の距離は、レンズ群11と光学的に等しい架空の凸レンズとイメージセンサ12間の距離である。次に、探索範囲制御部34は、算出した撮影距離Lと、撮像部101と102のカメラ間隔t(mm)、及び焦点距離f(mm)を用いて、視差値d(mm)を以下の(2)式を用いて算出する。   As shown in FIG. 21, the focus position information F from the AF control unit 23b is input to the search range control unit 34b. The search range control unit 34 calculates the parallax value of the input focal position information F (distance of the focused subject focused). Specifically, the search range controller 34 first uses the focal length f (mm) of the imaging lens group 11 and the distance l (mm) between the lens and the image sensor 12 as the focal position information F to reach the subject. Is calculated using the following equation (1). Here, the distance between the lens represented by the focal position information F and the image sensor 12 is the distance between the fictitious convex lens optically equal to the lens group 11 and the image sensor 12. Next, the search range control unit 34 uses the calculated shooting distance L, the camera interval t (mm) between the imaging units 101 and 102, and the focal length f (mm) to set the parallax value d (mm) as follows: (2) Calculate using the formula.

Figure 2012060512
Figure 2012060512

Figure 2012060512
Figure 2012060512

そして、探索範囲制御部34は、イメージセンサ12のピクセルピッチから視差値d(mm)をピクセル数に換算した視差値dp(画素)を求める。そして、図22に示すようにその焦点位置の視差値dpが中心となるように小範囲対応画素探索部33の探索範囲を設定する。すなわち、探索範囲制御部34は、視差値dpから予め設定された画素数α(探索範囲)の半分を引いた画素数だけ、全視差探索範囲の左端(最小視差ブロックSDの位置)から右側の位置を、探索開始ブロックRSの位置とする。   Then, the search range control unit 34 obtains a parallax value dp (pixel) obtained by converting the parallax value d (mm) into the number of pixels from the pixel pitch of the image sensor 12. Then, as shown in FIG. 22, the search range of the small range corresponding pixel search unit 33 is set so that the parallax value dp of the focal position is centered. That is, the search range control unit 34 sets the number of pixels obtained by subtracting half of the preset number of pixels α (search range) from the parallax value dp to the right side from the left end (position of the minimum parallax block SD) of the entire parallax search range. Let the position be the position of the search start block RS.

この本実施形態における制御方法により、高精細化映像処理にとって、最も重要な視差データである焦点を合わせた注目被写体の付近の視差データを、少ない処理量と使用メモリ量で算出することができる。   With the control method according to this embodiment, the parallax data near the focused subject, which is the most important parallax data for high-definition video processing, can be calculated with a small amount of processing and the amount of memory used.

焦点位置情報から得られる視差値を用いた他の制御方法例について、図23、図24、図25を用いて示す。図23は焦点位置の視差値dpが探索する範囲の中心になるように2回の探索範囲を設定した例である。例えば、1フレーム内に処理できる小範囲対応画素探索部33の処理回数が2回と計算された場合、図23に示す制御が有効である。図24は焦点位置の視差値dpから最小視差ブロックSD側を探索する範囲とするように設定した例である。図24の例は焦点位置から遠い被写体について視差の探索を行うものであり、例えば風景をバックに撮影をした場合に有効な制御方法である。反対に図25は焦点位置の視差値dpから最大視差ブロックMD側を探索する範囲とするように設定した例である。図25の例は焦点位置から近い被写体について視差の探索を行うものであり、例えば手前に物を置きその後に人物を撮影した場合などに有効な制御方法である。   Other control method examples using the parallax value obtained from the focal position information will be described with reference to FIGS. 23, 24, and 25. FIG. 23 shows an example in which the search range is set twice so that the parallax value dp at the focal position is at the center of the search range. For example, when the number of processing times of the small range corresponding pixel search unit 33 that can be processed in one frame is calculated as 2, the control shown in FIG. 23 is effective. FIG. 24 shows an example in which the parallax value dp at the focal position is set to be a range for searching for the minimum parallax block SD side. The example of FIG. 24 searches for a parallax for a subject far from the focal position, and is an effective control method when, for example, shooting is performed against a landscape. On the other hand, FIG. 25 shows an example in which the maximum parallax block MD side is searched from the parallax value dp at the focal position. The example of FIG. 25 searches for a parallax for a subject close to the focal position, and is an effective control method when, for example, an object is placed in front and a person is photographed.

なお、これらの制御方法のいずれを選択するかを、第1の実施形態と同様に、ユーザが設定する撮影モードに応じて決定するようにしてもよい。
また、AF制御部22bは、オートフォーカスにより焦点位置を調整し、その焦点位置を示す焦点位置情報Fを視差算出部21bに出力するとして説明したが、マニュアルフォーカスにより調整された焦点位置を示す焦点位置情報を出力するようにしてもよい。
Note that which of these control methods is to be selected may be determined according to the shooting mode set by the user, as in the first embodiment.
The AF control unit 22b has been described as adjusting the focal position by autofocus and outputting the focal position information F indicating the focal position to the parallax calculation unit 21b. However, the focus indicating the focal position adjusted by manual focus is described. The position information may be output.

[第4の実施形態]
本発明の第4の実施形態について、図面を参照して詳細に説明する。本実施形態における多眼撮像装置10cは、図20に示す多眼撮像装置10bと同様の構成であるが、視差算出部21bに変えて、視差算出部21cを有する点のみが異なる。図26は、本実施形態に係る視差算出部21cの機能構成を示す概略ブロック図である。同図において図21の各部に対応する部分には同一の符号(30−1、30−2、31〜33)を付け、その説明を省略する。視差算出部21cは、座標変換部31、32、小範囲対応点探索部33、探索範囲制御部34cを含んで構成される。
[Fourth Embodiment]
A fourth embodiment of the present invention will be described in detail with reference to the drawings. The multi-eye imaging device 10c in the present embodiment has the same configuration as the multi-eye imaging device 10b shown in FIG. 20, except that it has a parallax calculation unit 21c instead of the parallax calculation unit 21b. FIG. 26 is a schematic block diagram illustrating a functional configuration of the parallax calculation unit 21c according to the present embodiment. In the figure, the same reference numerals (30-1, 30-2, 31 to 33) are assigned to portions corresponding to the respective portions in FIG. 21, and the description thereof is omitted. The parallax calculation unit 21c includes coordinate conversion units 31 and 32, a small range corresponding point search unit 33, and a search range control unit 34c.

探索範囲制御部34cは、撮影距離毎に、撮像レンズ群11の光学仕様から得られる被写界深度の値をテーブルで保持している。探索範囲制御部34cは、入力された焦点位置情報F(焦点を合わせた注目被写体の距離)を用いて、被写体までの撮影距離を算出し、テーブルを参照して被写界深度に応じた視差範囲を取得する。そして、図27に示すようにその被写界深度の視差範囲を埋めるように、小範囲対応画素探索部33の探索範囲を設定する。この制御方法は、焦点が合っている全ての被写体の視差を探索することができる。   The search range control unit 34c holds a value of the depth of field obtained from the optical specifications of the imaging lens group 11 in a table for each shooting distance. The search range control unit 34c calculates the shooting distance to the subject using the input focal position information F (the distance of the focused subject of interest), and refers to the table to determine the parallax according to the depth of field. Get the range. Then, the search range of the small range corresponding pixel search unit 33 is set so as to fill the parallax range of the depth of field as shown in FIG. This control method can search for the parallax of all subjects in focus.

なお、上述の各実施形態において、生成した視差データを用いる映像処理として高精細化合成処理(映像合成処理部20)を挙げて説明したが、これに限らず、その他の映像処理であってもよい。
また、第1、第3、第4の各実施形態における多眼撮像装置は、静止画を撮像する装置であってもよいし、動画を撮像する装置であってもよい。
また、上述の各実施形態において、小範囲対応画素探索部33は、予め設定された画素数αを探索範囲の幅とし、探索範囲制御部から探索の開始位置を設定されるとして説明したが、探索範囲制御部が、小範囲対応画素探索部33が探索する開始位置と探索する幅とを制御するようにしてもよい。
In each of the above-described embodiments, the high-definition synthesis process (video synthesis processing unit 20) is described as the video process using the generated parallax data. However, the present invention is not limited thereto, and other video processes may be performed. Good.
In addition, the multi-lens imaging device in each of the first, third, and fourth embodiments may be a device that captures a still image or may be a device that captures a moving image.
Further, in each of the above-described embodiments, the small range corresponding pixel search unit 33 has been described on the assumption that the preset number of pixels α is the width of the search range, and the search start position is set by the search range control unit. The search range control unit may control the start position and the search width that the small range corresponding pixel search unit 33 searches.

また、各実施形態における視差算出部の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより視差算出部の処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。   Also, a program for realizing the function of the parallax calculation unit in each embodiment is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read into a computer system and executed to calculate the parallax. May be processed. Here, the “computer system” includes an OS and hardware such as peripheral devices.

また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。   The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Furthermore, the “computer-readable recording medium” dynamically holds a program for a short time like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. In this case, a volatile memory in a computer system serving as a server or a client in that case, and a program that holds a program for a certain period of time are also included. The program may be a program for realizing a part of the functions described above, and may be a program capable of realizing the functions described above in combination with a program already recorded in a computer system.

以上、この発明の実施形態を図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計変更等も含まれる。   The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes design changes and the like within a scope not departing from the gist of the present invention.

複数の撮像部を有するデジタルスチルカメラおよびデジタルビデオカメラに用いて好適であるが、これらに限定されない。   Although it is suitable for use in a digital still camera and a digital video camera having a plurality of imaging units, it is not limited to these.

10、10a、10b、10c…多眼撮像装置
101、102、103、104…撮像部
11…撮像レンズ群
12…イメージセンサ
20…映像合成処理部
21、21a、21b、21c…視差算出部
22、22a、…イメージセンサ制御部
23、23b…AF制御
24…撮影モード制御部
30−1、30−2…カメラパラメータ記憶部
31、32…座標変換部
33…小範囲対応点探索部
34、34a、34b、34c…探索範囲制御部
10, 10a, 10b, 10c ... multi-lens imaging devices 101, 102, 103, 104 ... imaging unit 11 ... imaging lens group 12 ... image sensor 20 ... video composition processing unit 21, 21a, 21b, 21c ... parallax calculation unit 22, 22a, ... Image sensor control unit 23, 23b ... AF control 24 ... Shooting mode control unit 30-1, 30-2 ... Camera parameter storage unit 31, 32 ... Coordinate conversion unit 33 ... Small range corresponding point search unit 34, 34a, 34b, 34c ... Search range control unit

Claims (7)

複数の撮像部と、前記複数の撮像部のうち、少なくとも2つの撮像部が撮影した映像から対応画素を探索するステレオマッチング処理により視差データを算出する視差算出部とを備えた多眼撮像装置であって、
前記視差算出部は、
前記2つの撮像部の全視差範囲より小さい範囲の対応画素を探索して視差データを算出する小範囲対応画素探索部と、
前記小範囲対応画素探索部が探索する範囲を制御する探索範囲制御部と
を備えること
を特徴とする多眼撮像装置。
A multi-lens imaging device comprising: a plurality of imaging units; and a parallax calculation unit that calculates parallax data by a stereo matching process that searches for corresponding pixels from videos captured by at least two imaging units among the plurality of imaging units. There,
The parallax calculation unit
A small range corresponding pixel search unit that searches for corresponding pixels in a range smaller than the total parallax range of the two imaging units and calculates parallax data;
A multi-view imaging apparatus comprising: a search range control unit that controls a range to be searched by the small range corresponding pixel search unit.
前記小範囲対応画素探索部は、予め設定された画素数を探索し、
前記探索範囲制御部は、前記全視差範囲を探索可能な回数だけ、前記小範囲対応画素探索部を実行させること
を特徴とする請求項1に記載の多眼撮像装置。
The small range corresponding pixel search unit searches for a preset number of pixels,
The multi-view imaging apparatus according to claim 1, wherein the search range control unit causes the small range corresponding pixel search unit to be executed as many times as the total parallax range can be searched.
前記探索範囲制御部は、前記撮像部のフレームレートに基づき、リアルタイムに処理できるように探索する範囲を決定し、前記決定に従い、前記小範囲対応画素探索部を制御すること
を特徴とする請求項1に記載の多眼撮像装置。
The search range control unit determines a search range so as to be processed in real time based on a frame rate of the imaging unit, and controls the small range corresponding pixel search unit according to the determination. The multi-lens imaging device according to 1.
前記探索範囲制御部は、前記撮像部の焦点位置情報に基づき、探索する範囲を決定し、前記決定に従い、前記小範囲対応画素探索部を制御すること
を特徴とする請求項1に記載の多眼撮像装置。
2. The multi-range search unit according to claim 1, wherein the search range control unit determines a search range based on focal position information of the imaging unit, and controls the small range corresponding pixel search unit according to the determination. Eye imaging device.
前記探索範囲制御部は、前記撮像部の焦点位置情報に基づき、前記撮像部の被写界深度に対応する範囲を、探索する範囲として決定し、前記決定に従い、前記小範囲対応画素探索部を制御すること
を特徴とする請求項4に記載の多眼撮像装置。
The search range control unit determines a range corresponding to the depth of field of the imaging unit as a search range based on the focal position information of the imaging unit, and determines the small range corresponding pixel search unit according to the determination. The multi-lens imaging device according to claim 4, wherein the multi-eye imaging device is controlled.
前記探索範囲制御部は、ユーザが設定した撮影モードに基づき、探索する範囲を決定し、前記決定に従い、前記小範囲対応画素探索部を制御すること
を特徴とする請求項1に記載の多眼撮像装置。
The multi-view according to claim 1, wherein the search range control unit determines a search range based on a shooting mode set by a user, and controls the small range corresponding pixel search unit according to the determination. Imaging device.
複数の撮像部を備えた多眼撮像装置のコンピュータを
前記複数の撮像部のうち、少なくとも2つの撮像部が撮影した映像から対応画素を探索するステレオマッチング処理により視差データを算出する視差算出部
として機能させるプログラムであって、
前記視差算出部は、
前記2つの撮像部の全視差範囲より小さい範囲の対応画素を探索して視差データを算出する小範囲対応画素探索部と、
前記小範囲対応画素探索部が探索する範囲を制御する探索範囲制御部と
を備えることを特徴とするプログラム。
A parallax calculation unit that calculates parallax data by stereo matching processing that searches for a corresponding pixel from videos captured by at least two imaging units among the plurality of imaging units. A functioning program,
The parallax calculation unit
A small range corresponding pixel search unit that searches for corresponding pixels in a range smaller than the total parallax range of the two imaging units and calculates parallax data;
A search range control unit that controls a range to be searched by the small range corresponding pixel search unit.
JP2010203223A 2010-09-10 2010-09-10 Multi-eye imaging apparatus and program Pending JP2012060512A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010203223A JP2012060512A (en) 2010-09-10 2010-09-10 Multi-eye imaging apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010203223A JP2012060512A (en) 2010-09-10 2010-09-10 Multi-eye imaging apparatus and program

Publications (1)

Publication Number Publication Date
JP2012060512A true JP2012060512A (en) 2012-03-22

Family

ID=46057036

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010203223A Pending JP2012060512A (en) 2010-09-10 2010-09-10 Multi-eye imaging apparatus and program

Country Status (1)

Country Link
JP (1) JP2012060512A (en)

Similar Documents

Publication Publication Date Title
JP5456020B2 (en) Information processing apparatus and method
JP5014979B2 (en) 3D information acquisition and display system for personal electronic devices
EP2659680B1 (en) Method and apparatus for providing mono-vision in multi-view system
US8130259B2 (en) Three-dimensional display device and method as well as program
US20120154551A1 (en) Stereo image display system, stereo imaging apparatus and stereo display apparatus
JP5814692B2 (en) Imaging apparatus, control method therefor, and program
US20120120202A1 (en) Method for improving 3 dimensional effect and reducing visual fatigue and apparatus enabling the same
JP2013192229A (en) Two dimensional/three dimensional digital information acquisition and display device
JP2013025649A (en) Image processing device, image processing method, and program
JP2015104107A (en) Ip stereoscopic video estimation device and program therefor
KR20150003576A (en) Apparatus and method for generating or reproducing three-dimensional image
US20130083169A1 (en) Image capturing apparatus, image processing apparatus, image processing method and program
JP6700935B2 (en) Imaging device, control method thereof, and control program
JP2013171058A (en) Stereoscopic image processing device, stereoscopic image pickup device, stereoscopic image display device
JP2009258005A (en) Three-dimensional measuring device and three-dimensional measuring method
JP5889022B2 (en) Imaging apparatus, image processing apparatus, image processing method, and program
JP5088973B2 (en) Stereo imaging device and imaging method thereof
JPWO2012043003A1 (en) Stereoscopic image display apparatus and stereoscopic image display method
JP5741353B2 (en) Image processing system, image processing method, and image processing program
JP5704885B2 (en) Imaging device, imaging method, and imaging control program
JP2013175821A (en) Image processing device, image processing method, and program
JPWO2012086298A1 (en) Imaging apparatus, method and program
JP5744642B2 (en) Image processing apparatus, image processing method, and program.
JP2011205585A (en) Image processing apparatus, image processing system and image processing program
JP2021002783A (en) Depth map generation device and program thereof, and stereoscopic image generation device