JP2015073185A - Image processing device, image processing method and program - Google Patents

Image processing device, image processing method and program Download PDF

Info

Publication number
JP2015073185A
JP2015073185A JP2013207422A JP2013207422A JP2015073185A JP 2015073185 A JP2015073185 A JP 2015073185A JP 2013207422 A JP2013207422 A JP 2013207422A JP 2013207422 A JP2013207422 A JP 2013207422A JP 2015073185 A JP2015073185 A JP 2015073185A
Authority
JP
Japan
Prior art keywords
image
distance
image processing
distance map
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013207422A
Other languages
Japanese (ja)
Inventor
州吾 樋口
Shugo Higuchi
州吾 樋口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013207422A priority Critical patent/JP2015073185A/en
Publication of JP2015073185A publication Critical patent/JP2015073185A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To obtain highly accurate distance information in a scene having a wide dynamic range.SOLUTION: An image processing device includes: acquisition means for acquiring a first image group obtained by imaging the same object from a plurality of different view point with a first exposure condition and a second image group obtained by imaging the object from a plurality of different view point with a second exposure condition different from the first exposure condition; first generation means for generating a first and a second distance map from the first and second image groups; and second generation means for generating a third distance map from the first and second distance maps.

Description

本発明は、被写体の距離情報を得る技術に関する。   The present invention relates to a technique for obtaining subject distance information.

従来、複数の視点から撮影した画像(以下、多視点画像)を用いて、被写体までの距離を推定する技術が知られている。被写体までの距離を推定する方法としては、ブロックマッチング法を用いて多視点画像から同一の被写体に対応する対応点を探索し、三角測量によって被写体までの距離を求める方法がある。この方法を用いる場合に、ダイナミックレンジの広いシーンにおいて、白とびしたハイライト部や、黒くつぶれたシャドー部の距離情報が上手く求められないという課題があった。   Conventionally, a technique for estimating a distance to a subject using images taken from a plurality of viewpoints (hereinafter, multi-viewpoint images) is known. As a method of estimating the distance to the subject, there is a method of searching for a corresponding point corresponding to the same subject from a multi-viewpoint image using a block matching method and obtaining the distance to the subject by triangulation. When this method is used, there is a problem that distance information of an overexposed highlight portion or a shadow portion that is crushed in black cannot be obtained well in a scene with a wide dynamic range.

特許文献1では、ステレオカメラにおいて、異なる露出時間で2回撮影を行い、2視点に対応する2枚のハイダイナミックレンジ合成画像生成し、そのハイダイナミックレンジ合成画像を用いて被写体までの距離を求める技術が記載されている。   In Patent Document 1, a stereo camera captures images twice with different exposure times, generates two high dynamic range composite images corresponding to two viewpoints, and calculates the distance to the subject using the high dynamic range composite images. The technology is described.

また、特許文献2では、ステレオカメラにおいて、1回の撮像によって取得した、視点と露出時間の両方が異なる2枚の画像から距離を求める技術が記載されている。特許文献2に記載の技術では、撮像画像から、もう一方の撮像画像に明るさを合わせた仮想露出画像を2枚生成し、撮像画像と仮想露出画像でマッチングを行ったマッチング情報を統合し、統合したマッチング情報に基づいて被写体までの距離を求めている。   Further, Patent Document 2 describes a technique for obtaining a distance from two images obtained by one imaging in a stereo camera and having different viewpoints and exposure times. In the technique described in Patent Literature 2, two virtual exposure images in which the brightness is adjusted to the other captured image are generated from the captured image, and matching information obtained by matching the captured image and the virtual exposure image is integrated, The distance to the subject is obtained based on the integrated matching information.

特開2003−18617号公報JP 2003-18617 A 特開2011−254170号公報JP 2011-254170 A

しかしながら、特許文献1に記載の方法では、露出の異なる2回撮影の画像同士でマッチングを行う必要があるため、2回の撮影でカメラの位置が異なる場合は、露出の同じ画像だけで距離を出す場合に比べて距離情報の精度が低下してしまうという課題がある。   However, in the method described in Patent Document 1, it is necessary to perform matching between images taken twice with different exposures. Therefore, when the camera position is different between the two shots, the distance between only the images with the same exposure is set. There is a problem that the accuracy of the distance information is reduced as compared with the case where it is output.

また、特許文献2に記載の方法では、異なる露出時間で撮影された画像の明るさを合わせてマッチングを行うために、どちらか一方で白とびもしくは黒つぶれしている領域については、十分なマッチング精度が得られないという課題がある。   In addition, in the method described in Patent Document 2, in order to perform matching by matching the brightness of images taken at different exposure times, sufficient matching is performed for a region that is overexposed or underexposed. There is a problem that accuracy cannot be obtained.

上記課題に鑑み、本発明は、ダイナミックレンジの広いシーンにおいても、精度の高い距離情報を得ることを目的としている。   In view of the above problems, an object of the present invention is to obtain highly accurate distance information even in a scene with a wide dynamic range.

第一の露出条件において同一の被写体を複数の異なる視点から撮像した第一の画像群と、前記第一の露出条件とは異なる第二の露出条件において、前記同一の被写体を複数の異なる視点から撮像した第二の画像群とを取得する取得手段と、
前記第一の画像群から生成された第一の距離マップと、前記第二の画像群から生成された第二の距離マップとに基づいて、第三の距離マップを生成する生成手段とを備えることを特徴とする画像処理装置。
A first image group in which the same subject is imaged from a plurality of different viewpoints in the first exposure condition, and a second exposure condition different from the first exposure condition, the same subject from a plurality of different viewpoints. Acquisition means for acquiring a captured second image group;
A generating unit configured to generate a third distance map based on the first distance map generated from the first image group and the second distance map generated from the second image group; An image processing apparatus.

本発明により、ダイナミックレンジの広いシーンにおいても、被写体までの距離を高精度に得ることができる。   According to the present invention, the distance to the subject can be obtained with high accuracy even in a scene with a wide dynamic range.

実施例1の多眼カメラの外観を示す図。1 is a diagram illustrating an appearance of a multi-view camera according to Embodiment 1. FIG. 実施例1の多眼カメラの構成を示すブロック図。1 is a block diagram illustrating a configuration of a multi-view camera of Embodiment 1. FIG. 実施例1の撮像部の内部構成を示す図。FIG. 3 is a diagram illustrating an internal configuration of an imaging unit according to the first embodiment. 実施例1の画像処理部の構成を示すブロック図。FIG. 2 is a block diagram illustrating a configuration of an image processing unit according to the first embodiment. 実施例1の画像処理部における処理を示すフローチャート。3 is a flowchart illustrating processing in an image processing unit according to the first exemplary embodiment. 実施例1における距離マップ生成処理を示すフローチャート。5 is a flowchart illustrating distance map generation processing according to the first embodiment. 実施例1における距離算出の方法を示す図。FIG. 3 is a diagram illustrating a distance calculation method according to the first embodiment. 実施例1における距離マップ合成処理の概要を示す図。FIG. 3 is a diagram illustrating an outline of a distance map synthesis process according to the first embodiment. 実施例1における距離マップ合成処理を示すフローチャート。5 is a flowchart illustrating distance map synthesis processing according to the first embodiment.

[実施例1]
本実施例では、多視点画像を取得する撮像装置として、4個の撮像部を備えた多眼カメラが用いられる。この多眼カメラによって取得された画像から、被写体の距離情報を得る方法について説明する。
[Example 1]
In this embodiment, a multi-lens camera including four imaging units is used as an imaging device that acquires a multi-viewpoint image. A method for obtaining subject distance information from an image acquired by the multi-lens camera will be described.

図1は、本実施例における多眼カメラ100(以下、カメラ100とする)を前面から見た図である。多眼カメラ100は、カラー画像を撮像により取得する4個の撮像部101〜104及び撮影ボタン105を備えている。全ての撮像部は筺体の同一平面上に配置され、その光軸は全て平行であり、配置された平面に垂直である。ユーザが撮影ボタン105を押下すると、撮像部101〜104が被写体の光情報をセンサ(撮像素子)で受光し、受光した信号がA/D変換され、複数のカラー画像データ(デジタルデータ)が同時撮影される。   FIG. 1 is a diagram of a multi-view camera 100 (hereinafter referred to as a camera 100) according to the present embodiment as viewed from the front. The multi-lens camera 100 includes four imaging units 101 to 104 that acquire color images by imaging and a shooting button 105. All the imaging units are arranged on the same plane of the casing, and their optical axes are all parallel and perpendicular to the arranged plane. When the user presses the shooting button 105, the imaging units 101 to 104 receive light information of the subject with a sensor (imaging device), the received signal is A / D converted, and a plurality of color image data (digital data) are simultaneously received. Taken.

このような多眼方式の撮像装置により、同一の被写体を複数の視点位置から同時撮影したカラー画像群を得ることができる。なお、ここでは撮像部の数を4個としたが撮像部の数は4個に限定されず、撮像装置が複数の撮像部を有すればよい。   With such a multi-lens imaging device, it is possible to obtain a color image group obtained by simultaneously photographing the same subject from a plurality of viewpoint positions. Although the number of imaging units is four here, the number of imaging units is not limited to four, and the imaging device only needs to have a plurality of imaging units.

図2は、カメラ100の内部構成を示すブロック図である。CPU201は、以下に述べる各構成部を統括的に制御するプロセッサである。RAM202は、CPU201の主メモリ、ワークエリア等として機能する。ROM203は、CPU201で実行される制御プラグラム等を格納している。CPU201は、RAM202をワークメモリとしてROM203に格納されたプログラムを実行し、バス204を介して多眼カメラ100の各構成部を制御する。   FIG. 2 is a block diagram showing the internal configuration of the camera 100. The CPU 201 is a processor that comprehensively controls each component described below. The RAM 202 functions as a main memory, work area, and the like for the CPU 201. The ROM 203 stores a control program executed by the CPU 201 and the like. The CPU 201 executes a program stored in the ROM 203 using the RAM 202 as a work memory, and controls each component of the multiview camera 100 via the bus 204.

バス204は、各種データの転送経路となる。例えば、撮像部101〜104によって取得された画像データは、このバス204を介して所定の構成部に送られる。   The bus 204 serves as a transfer path for various data. For example, the image data acquired by the imaging units 101 to 104 is sent to a predetermined configuration unit via the bus 204.

操作部205はボタンやモードダイヤルなどの操作ユニットであり、ユーザの指示を受取ってCPU201へと出力する。   An operation unit 205 is an operation unit such as a button or a mode dial, and receives a user instruction and outputs it to the CPU 201.

表示部206は液晶ディスプレイであり、撮影画像や文字の表示を行う。表示部206はタッチスクリーン機能を有していても良く、その場合はタッチスクリーンを用いたユーザ指示を操作部205の入力として扱うこともできる。   A display unit 206 is a liquid crystal display and displays captured images and characters. The display unit 206 may have a touch screen function. In that case, a user instruction using the touch screen can be handled as an input of the operation unit 205.

表示制御部207は、表示部206に表示される撮影画像や文字の表示制御を行う制御回路である。   A display control unit 207 is a control circuit that performs display control of a captured image and characters displayed on the display unit 206.

撮像制御部208は、フォーカスを合わせる、シャッターを開く・閉じる、絞りを調節するなど、CPU201からの指示に基づいて撮像部の制御を行う制御回路である。本実施例において、撮像制御部208は、撮像部101〜104のうち、撮像部101および102は第一の露出時間で撮像を行い、撮像部103および104は第一の露出時間よりも長い第二の露出時間で撮像を行うように、撮像部101〜104を制御する。   The imaging control unit 208 is a control circuit that controls the imaging unit based on instructions from the CPU 201 such as focusing, opening / closing a shutter, and adjusting an aperture. In the present embodiment, the imaging control unit 208 performs imaging with the first exposure time among the imaging units 101 to 104, and the imaging units 103 and 104 are longer than the first exposure time. The imaging units 101 to 104 are controlled so as to perform imaging with the second exposure time.

デジタル信号処理部209は、バス204を介して受け取った画像データに対し、ホワイトバランス処理、ガンマ処理、ノイズ低減処理などの各種処理を行う処理回路である。   The digital signal processing unit 209 is a processing circuit that performs various processing such as white balance processing, gamma processing, and noise reduction processing on image data received via the bus 204.

エンコード部210は、バス204を介して受取った画像データをJPEGやMPEGなどのファイルフォーマットに変換する処理を行う。   The encoding unit 210 performs processing for converting image data received via the bus 204 into a file format such as JPEG or MPEG.

外部メモリ制御部211は、カメラ100を、メディア213(例えば、ハードディスク、メモリカード、CFカード、SDカード、USBメモリ)につなぐためのインタフェースである。   The external memory control unit 211 is an interface for connecting the camera 100 to a medium 213 (for example, a hard disk, a memory card, a CF card, an SD card, a USB memory).

画像処理部212は、撮像部101〜104で取得された画像データ或いは、デジタル信号処理部209から出力される画像データに処理を行う処理回路である。本実施例では、複数の露出条件で撮影された画像データを用いて距離の算出を行うが、その詳細については後述する。   The image processing unit 212 is a processing circuit that processes the image data acquired by the imaging units 101 to 104 or the image data output from the digital signal processing unit 209. In this embodiment, the distance is calculated using image data photographed under a plurality of exposure conditions, details of which will be described later.

上記以外の構成要素については説明を省略するが、本発明の効果を奏する構成であれば、様々な構成を取ることができる。   The description of the components other than those described above is omitted, but various configurations can be adopted as long as the configuration achieves the effects of the present invention.

図3は、撮像部101〜104の内部構成を示す図である。撮像部101〜104は、レンズ301〜303、絞り304、シャッター305、光学ローパスフィルタ306、iRカットフィルタ307、カラーフィルタ308、センサ309及びA/D変換部310で構成される。レンズ301〜303はそれぞれ、ズームレンズ301、フォーカスレンズ302、ぶれ補正レンズ303である。センサ309は、例えばCMOSやCCDなどのセンサであり、上記の各レンズでフォーカスされた被写体の光量を検知する。検知された光量はアナログ値としてセンサ309から出力され、A/D変換部310によってデジタル値に変換されて、デジタル画像データとなってバス204に出力される。   FIG. 3 is a diagram illustrating an internal configuration of the imaging units 101 to 104. The imaging units 101 to 104 include lenses 301 to 303, a diaphragm 304, a shutter 305, an optical low-pass filter 306, an iR cut filter 307, a color filter 308, a sensor 309, and an A / D conversion unit 310. The lenses 301 to 303 are a zoom lens 301, a focus lens 302, and a shake correction lens 303, respectively. The sensor 309 is a sensor such as a CMOS or a CCD, for example, and detects the amount of light of the subject focused by each of the lenses. The detected light amount is output from the sensor 309 as an analog value, converted into a digital value by the A / D conversion unit 310, and output as digital image data to the bus 204.

(画像処理部)
図4は、画像処理部212の構成を示すブロック図である。以下、画像処理部212にて行われる処理を、図4に示すブロック図および図5に示すフローチャートを参照して説明する。画像処理部212においては、図5のフローチャートに示す手順を記述したコンピュータで実行可能なプログラムをROM203からRAM202上に読み込んだ後に、CPU201が該プログラムを実行することによって当該処理が実施される。なお、画像処理部212を処理回路としたが、画像処理部212の各機能ブロックの一部または全部を、プログラムを実行したCPU201による処理に置き換えた構成としても良い。
(Image processing unit)
FIG. 4 is a block diagram illustrating a configuration of the image processing unit 212. Hereinafter, processing performed in the image processing unit 212 will be described with reference to a block diagram shown in FIG. 4 and a flowchart shown in FIG. In the image processing unit 212, a computer-executable program describing the procedure shown in the flowchart of FIG. 5 is read from the ROM 203 onto the RAM 202, and then the CPU 201 executes the program to execute the process. Although the image processing unit 212 is a processing circuit, a part or all of each functional block of the image processing unit 212 may be replaced with processing by the CPU 201 that executes the program.

まず、ステップS501では、画像取得部401が、撮像部101〜104又はデジタル信号処理部209から入力された画像データをバス204を介して取得する。   First, in step S <b> 501, the image acquisition unit 401 acquires image data input from the imaging units 101 to 104 or the digital signal processing unit 209 via the bus 204.

次に、ステップS502では、画像取得部401が取得した画像データの中から、同じ露出条件で撮像された2枚の画像に対応する画像データを選択し、距離マップ生成部410に出力する。各画像データの露出条件は撮影時にRAM202に記録してもよいし、Exif形式等を用いて画像データに付与してもよい。本実施例では、撮像部101と102で撮像された画像群と、撮像部103と104で撮像された画像群がそれぞれ同じ露出条件で撮像された画像として選択されている。   In step S <b> 502, image data corresponding to two images captured under the same exposure condition is selected from the image data acquired by the image acquisition unit 401, and is output to the distance map generation unit 410. The exposure condition of each image data may be recorded in the RAM 202 at the time of shooting, or may be given to the image data using an Exif format or the like. In this embodiment, the image group captured by the image capturing units 101 and 102 and the image group captured by the image capturing units 103 and 104 are selected as images captured under the same exposure conditions.

次に、ステップS503では、距離マップ生成部410が、画像取得部401から入力された画像データを用いて、その画像データが示す画像群に対応する距離マップを生成し、距離マップ合成部420に出力する。距離マップ生成処理の詳細は後述する。ここで距離マップとは、画像中の各画素位置における撮像装置から被写体までの距離を2次元情報で示すデータである。本実施例において、距離マップは256階調のモノクロ画像であり、撮像装置からの距離が近い画素を白(255)、距離が遠い画素を黒(0)で表わしている。なお、距離マップの形式はこの形式に限られず、各画素位置における被写体距離を格納したテーブルなどであってもよい。   Next, in step S <b> 503, the distance map generation unit 410 generates a distance map corresponding to the image group indicated by the image data using the image data input from the image acquisition unit 401, and sends it to the distance map synthesis unit 420. Output. Details of the distance map generation processing will be described later. Here, the distance map is data indicating the distance from the imaging device to the subject at each pixel position in the image as two-dimensional information. In the present embodiment, the distance map is a monochrome image of 256 gradations, and a pixel that is close to the imaging device is represented by white (255) and a pixel that is far from the image is represented by black (0). The format of the distance map is not limited to this format, and may be a table storing subject distances at each pixel position.

次に、ステップS504では、距離マップ合成部420が、入力された画像データが示す全ての画像群に対応する距離マップが生成されたかどうかを判定する。全ての距離マップが生成されていると判断された場合にはステップS505に進む。全ての距離マップが生成されていないと判断された場合は、ステップS502に戻り、別の露出条件に対応する画像群を選択する。   Next, in step S504, the distance map synthesis unit 420 determines whether distance maps corresponding to all image groups indicated by the input image data have been generated. If it is determined that all the distance maps have been generated, the process proceeds to step S505. If it is determined that all distance maps have not been generated, the process returns to step S502, and an image group corresponding to another exposure condition is selected.

最後に、ステップS505では、距離マップ合成部420が、距離マップ生成部410から入力された複数の距離マップを合成して、最終的な距離マップを生成する。距離マップ合成処理の詳細は後述する。   Finally, in step S505, the distance map synthesis unit 420 synthesizes the plurality of distance maps input from the distance map generation unit 410 to generate a final distance map. Details of the distance map composition processing will be described later.

(距離マップ生成処理)
次に、図5に示すフローチャートのステップS503で行う距離マップ生成処理の詳細について説明する。距離マップ生成処理では、複数の異なる視点から撮像して得られた画像を基に、撮像したシーンの各画素位置における被写体の距離情報を推定することにより距離マップを生成する。この距離情報算出には公知の手法を用いることができる。例えば、ステレオ法やマルチベースラインステレオ法などが適用可能である。本実施例では、ステレオ法を用いて被写体の距離情報を推定する。以下、図6に示すフローチャートを用いて、距離マップ生成処理の詳細を説明する。
(Distance map generation processing)
Next, details of the distance map generation processing performed in step S503 of the flowchart shown in FIG. 5 will be described. In the distance map generation process, the distance map is generated by estimating the distance information of the subject at each pixel position of the captured scene based on the images acquired from a plurality of different viewpoints. A known method can be used for calculating the distance information. For example, a stereo method or a multi-baseline stereo method can be applied. In this embodiment, the distance information of the subject is estimated using the stereo method. Hereinafter, the details of the distance map generation processing will be described using the flowchart shown in FIG.

まず、ステップS601では、対応点探索部402が、同じ露出条件で撮像された画像群を示す画像データを取得する。ここで取得される画像データが示す画像群は、同じ露出条件で撮像された、撮像部101および102に対応する画像群である。以下、前者に対応する画像を基準画像、後者に対応する画像を対象画像と呼ぶ。   First, in step S601, the corresponding point searching unit 402 acquires image data indicating an image group captured under the same exposure conditions. The image group indicated by the image data acquired here is an image group corresponding to the imaging units 101 and 102 captured under the same exposure conditions. Hereinafter, an image corresponding to the former is referred to as a reference image, and an image corresponding to the latter is referred to as a target image.

ステップS602では、対応点探索部402が、基準画像において、距離情報を算出する注目画素とその周囲の画素からなる領域を選択し、選択領域であるブロックを用いて対象画像とパターンマッチングを行う。なお、ここで、注目画素の選択は、RAM202に記憶された注目画素の座標を示す情報を読み出すことで行われる。このパターンマッチングにより、対応点探索部402は対象画像において、基準画像の注目画素に対応する画素(対応画素)を探索する。対応点探索部402は、得られた注目画素と対応画素の座標情報を距離算出部403に出力する。   In step S602, the corresponding point search unit 402 selects a region including a target pixel for calculating distance information and surrounding pixels in the reference image, and performs pattern matching with the target image using a block that is the selected region. Here, the target pixel is selected by reading information indicating the coordinates of the target pixel stored in the RAM 202. By this pattern matching, the corresponding point search unit 402 searches the target image for a pixel (corresponding pixel) corresponding to the target pixel of the reference image. The corresponding point search unit 402 outputs the obtained target pixel and the coordinate information of the corresponding pixel to the distance calculation unit 403.

ステップS603では、距離算出部403が、各撮像部の配置情報と、対応点探索部402から入力された、注目画素およびその対応画素の座標情報から、注目画素の画素位置における被写体の距離情報dを算出する。距離情報dは、三角法により、図7に示すパラメータα、β、sを用いて以下の式で表される。なお、各撮像部の配置情報はROM203に予め格納されている。   In step S603, the distance calculation unit 403 calculates the distance information d of the subject at the pixel position of the target pixel from the arrangement information of each imaging unit and the coordinate information of the target pixel and the corresponding pixel input from the corresponding point search unit 402. Is calculated. The distance information d is expressed by the following formula using the parameters α, β, and s shown in FIG. Note that the arrangement information of each imaging unit is stored in the ROM 203 in advance.

ここで、αは撮像部102の水平画角と、撮像部102の位置、および対象画素の座標から算出される。βは撮像部101の水平画角と撮像部101の位置、および注目画素の座標から算出される。sは撮像部101および102の間の水平距離であり、撮像部101および102の配置情報から算出される。距離算出部403は、ROM203に保存された各撮像部の配置情報および、対応点探索部402から入力された注目画素と対応画素の座標情報に基づいて上記式の各パラメータを算出し、算出された値を上記式に代入して、dを算出する。算出されたdはRAM202に、注目画素の座標情報と共に保存される。   Here, α is calculated from the horizontal angle of view of the imaging unit 102, the position of the imaging unit 102, and the coordinates of the target pixel. β is calculated from the horizontal angle of view of the imaging unit 101, the position of the imaging unit 101, and the coordinates of the pixel of interest. s is the horizontal distance between the imaging units 101 and 102, and is calculated from the arrangement information of the imaging units 101 and 102. The distance calculation unit 403 calculates each parameter of the above formula based on the arrangement information of each imaging unit stored in the ROM 203 and the coordinate information of the target pixel and the corresponding pixel input from the corresponding point search unit 402 and is calculated. Substituting the obtained value into the above equation, d is calculated. The calculated d is stored in the RAM 202 together with the coordinate information of the target pixel.

ステップS604では、距離算出部403が、全ての画素位置について距離情報の算出が行われたかどうかを判定する。全ての画素位置について距離情報の算出が行われたと判定された場合、ステップS606に進む。全ての画素位置について距離情報の算出が行われていないと判定された場合、ステップS605に進む。   In step S604, the distance calculation unit 403 determines whether distance information has been calculated for all pixel positions. If it is determined that distance information has been calculated for all pixel positions, the process proceeds to step S606. If it is determined that distance information has not been calculated for all pixel positions, the process advances to step S605.

ステップS605では、距離算出部403が、RAM202に記憶された、注目画素の座標を示す情報を更新する。例えば、直前の処理で用いられた注目画素の隣の画素など、まだ距離の算出が行われていない画素の座標に書き換える。座標情報の更新が終了したら、ステップS602に戻り、対応点探索部402が、新たな注目画素についてパターンマッチングを行う。   In step S <b> 605, the distance calculation unit 403 updates information indicating the coordinates of the target pixel stored in the RAM 202. For example, it is rewritten to the coordinates of a pixel for which distance calculation has not yet been performed, such as a pixel adjacent to the target pixel used in the immediately preceding process. When the update of the coordinate information is completed, the process returns to step S602, and the corresponding point search unit 402 performs pattern matching on the new target pixel.

ステップS606では、距離算出部403が、各画素位置におけるカメラ100から被写体までの距離を二次元に並べた距離マップを生成し、距離マップ合成部420に出力する。   In step S606, the distance calculation unit 403 generates a distance map in which the distance from the camera 100 to the subject at each pixel position is two-dimensionally arranged, and outputs the distance map to the distance map synthesis unit 420.

また、本実施例では、ステップS501において、同じ露出条件の撮像部として撮像部101と撮像部102を選択したが、これに限るものではない。すなわち、例えば撮像部101と104を同じ露出条件で撮像する撮像部として選択しても構わない。   In this embodiment, the image capturing unit 101 and the image capturing unit 102 are selected as image capturing units having the same exposure condition in step S501. However, the present invention is not limited to this. That is, for example, the imaging units 101 and 104 may be selected as imaging units that capture images under the same exposure conditions.

(距離マップ合成処理)
ここでは、図5に示すフローチャートのステップS505で行う距離マップ合成処理の詳細について説明する。距離マップ合成処理では、各画素位置での輝度値に応じて、ステップS503で生成した複数の距離マップを合成し、新たな距離マップを生成する。図8に、その概要を示す。
(Distance map composition processing)
Here, the details of the distance map synthesis process performed in step S505 of the flowchart shown in FIG. 5 will be described. In the distance map synthesis process, a plurality of distance maps generated in step S503 are synthesized according to the luminance value at each pixel position to generate a new distance map. FIG. 8 shows an outline thereof.

図8の画像801〜804は、それぞれ撮像部101〜104により撮像された画像である。本実施例では、撮像部101と102がそれぞれ短い露出時間で撮像を行うため、画像801と802では背景部が黒くつぶれてしまっている。一方、撮像部103と104がそれぞれ長い露出時間で撮像を行うため、画像803と804では前景部に白とびが発生している。黒つぶれした領域や白とびした領域ではパターンマッチングが正しく行われないため、距離情報が正確に算出されない。   Images 801 to 804 in FIG. 8 are images captured by the imaging units 101 to 104, respectively. In this embodiment, since the imaging units 101 and 102 capture images with a short exposure time, the background portions of the images 801 and 802 are blackened. On the other hand, since the imaging units 103 and 104 capture images with a long exposure time, the images 803 and 804 are overexposed in the foreground portion. Since the pattern matching is not correctly performed in the blacked out area or the overexposed area, the distance information is not accurately calculated.

そのため、画像801および802から生成された距離マップ805と、画像803および804から生成された距離マップ806では、それぞれ黒つぶれした領域と白とびした領域では距離が上手く推定されていない。そこで、本実施例においては、距離マップ805と806を輝度値に応じて合成することで、全ての領域で距離が正確に算出された距離マップを生成する。以下、図9に示すフローチャートを参照して、処理の詳細について説明する。   For this reason, in the distance map 805 generated from the images 801 and 802 and the distance map 806 generated from the images 803 and 804, the distance is not estimated well in the blackened area and the overexposed area, respectively. Therefore, in this embodiment, the distance maps 805 and 806 are synthesized according to the luminance value, thereby generating a distance map in which the distances are accurately calculated in all regions. The details of the processing will be described below with reference to the flowchart shown in FIG.

まず、ステップS901では、シフト画像生成部404が、距離算出部403から出力された複数の距離マップおよび、画像取得部401から出力された、その距離マップに対応する画像データ(以下、対応画像データと呼ぶ)を取得する。なお、ここで取得される対応画像データは、各距離マップ生成時に基準画像として用いられた画像を示す画像データである。   First, in step S901, the shift image generation unit 404 outputs a plurality of distance maps output from the distance calculation unit 403 and image data corresponding to the distance map output from the image acquisition unit 401 (hereinafter, corresponding image data). Called). Note that the corresponding image data acquired here is image data indicating an image used as a reference image when generating each distance map.

次に、ステップS902では、距離マップ生成部420の各構成部が、ステップS503で生成された距離マップの中から1つを選択する。   Next, in step S902, each component of the distance map generation unit 420 selects one from the distance maps generated in step S503.

次に、ステップS903では、シフト量算出部404が、ステップS902で選択された距離マップを、基準視点に位置合わせするためのシフト量を算出する。ここで基準視点とは、最終的に合成距離マップが生成される視点であり、本実施例においては、撮像部101に対応する視点である。なお、この視点は撮像部101に対応する視点に限られるものではなく、他の撮像部に対応する視点や、全ての撮像部の中心に位置する仮想的な視点であってもよい。ここで、シフトされる距離マップの各画素の垂直シフト量Δxおよび水平シフト量Δyは、以下の式で算出できる。   Next, in step S903, the shift amount calculation unit 404 calculates a shift amount for aligning the distance map selected in step S902 with the reference viewpoint. Here, the reference viewpoint is a viewpoint at which a combined distance map is finally generated, and is a viewpoint corresponding to the imaging unit 101 in the present embodiment. Note that this viewpoint is not limited to the viewpoint corresponding to the imaging unit 101, and may be a viewpoint corresponding to another imaging unit or a virtual viewpoint positioned at the center of all imaging units. Here, the vertical shift amount Δx and the horizontal shift amount Δy of each pixel of the shifted distance map can be calculated by the following equations.

ここで、W、Hは対応画像データの水平方向、垂直方向の画像サイズである。また、θx、θyは対応画像データを撮像した撮像部の水平視野角および垂直視野角であり、Sx、Syは選択された距離マップに対応する視点と基準視点の間の水平距離および垂直距離である。また、dはその画素におけるカメラ100から被写体までの距離である。   Here, W and H are the horizontal and vertical image sizes of the corresponding image data. Θx and θy are the horizontal viewing angle and the vertical viewing angle of the imaging unit that captured the corresponding image data, and Sx and Sy are the horizontal distance and vertical distance between the viewpoint corresponding to the selected distance map and the reference viewpoint. is there. D is the distance from the camera 100 to the subject at that pixel.

シフト量算出部は、ここで算出されたシフト量をもとに、距離マップと対応画像データをシフトし、シフト距離マップおよびシフト画像データを生成する。なお、対応画像データの画素と対応付かないシフト画像データの画素には、異常値を示す値を設定する。例えば、異常値として画素の最小値であるゼロを設定すれば、後述する重み係数がゼロとなるようにできる。シフト量算出部404は、生成したシフト距離マップおよびシフト画像データを重み算出部405に出力する。また、シフト量算出部404は、生成したシフト距離マップをシフト距離マップ合成部406に出力する。   The shift amount calculation unit shifts the distance map and the corresponding image data based on the shift amount calculated here, and generates a shift distance map and shift image data. It should be noted that a value indicating an abnormal value is set for the pixel of the shift image data that does not correspond to the pixel of the corresponding image data. For example, if zero, which is the minimum value of a pixel, is set as the abnormal value, a weighting coefficient described later can be set to zero. The shift amount calculation unit 404 outputs the generated shift distance map and shift image data to the weight calculation unit 405. Further, the shift amount calculation unit 404 outputs the generated shift distance map to the shift distance map composition unit 406.

次に、ステップS904では、重み算出部405が、距離マップの合成で用いる重み係数を算出する。ここで、重み算出部405は、シフト量算出部404から入力されたシフト距離マップの各画素における重み係数を、シフト画像データの画素の輝度値に応じて算出しRAM202に記憶する。各画素における重み係数wi(x,y)は、シフト画像データの輝度値に応じて、例えば以下式に基づいて決定される。   Next, in step S904, the weight calculation unit 405 calculates a weighting factor used in the synthesis of the distance map. Here, the weight calculation unit 405 calculates the weighting coefficient for each pixel of the shift distance map input from the shift amount calculation unit 404 according to the luminance value of the pixel of the shift image data, and stores it in the RAM 202. The weighting factor wi (x, y) in each pixel is determined based on, for example, the following equation according to the luminance value of the shift image data.

ここで、Ii(x,y)は各画素におけるシフト画像データの輝度値であり、Imaxはシフト画像データの最大輝度値である。また、αおよびβはシャドー部およびハイライト部を示す閾値である。輝度値がαより小さい画素はシャドー部として、輝度値がβよりも大きい画像はハイライト部として判定される。前述した通り、ハイライト部やシャドー部では、距離推定の精度が悪くなる。そのため、上記式において、ハイライト部やシャドー部の重み係数が小さくなるように設定されている。これにより、距離推定の精度が高い、適正露出の領域の重みを大きくして距離マップの合成を行うことができる。なお、αおよびβの値は撮像センサの特性に応じて予めROM203に記憶されていてもよいし、ユーザが操作部205を通じて設定してもよい。また、本実施例ではシャドー部とハイライト部の重み係数を線形としたが、非線形やテーブル参照型で表現しても構わないのは。また、シャドー部とハイライト部の重み係数をゼロとしてもよい。   Here, Ii (x, y) is the brightness value of the shift image data in each pixel, and Imax is the maximum brightness value of the shift image data. Α and β are threshold values indicating the shadow portion and the highlight portion. A pixel having a luminance value smaller than α is determined as a shadow portion, and an image having a luminance value larger than β is determined as a highlight portion. As described above, the accuracy of distance estimation deteriorates in the highlight portion and the shadow portion. Therefore, in the above formula, the weighting coefficient of the highlight part and the shadow part is set to be small. This makes it possible to synthesize the distance map by increasing the weight of the appropriate exposure area with high distance estimation accuracy. Note that the values of α and β may be stored in advance in the ROM 203 according to the characteristics of the image sensor, or may be set by the user through the operation unit 205. In this embodiment, the weighting coefficients of the shadow part and the highlight part are linear, but they may be expressed in a non-linear manner or a table reference type. Further, the weighting factors of the shadow part and the highlight part may be zero.

ステップS905では、重み算出部405が、全ての画素において重みの算出が行われたかどうかを判定する。全ての画素において重みの算出が行われたと判定された場合、ステップS907に進む。全ての画素において重みの算出が行われていないと判定された場合、ステップS906に進む。   In step S905, the weight calculation unit 405 determines whether weight calculation has been performed for all pixels. If it is determined that the weight has been calculated for all the pixels, the process proceeds to step S907. If it is determined that the weight is not calculated for all the pixels, the process proceeds to step S906.

ステップS906では、重み算出部405が、RAM202に記憶された、注目画素の座標を示す情報を更新する。注目画素の座標を示す情報が更新されたら、ステップS904に戻る。   In step S <b> 906, the weight calculation unit 405 updates information indicating the coordinates of the pixel of interest stored in the RAM 202. When the information indicating the coordinates of the target pixel is updated, the process returns to step S904.

ステップS907では、シフト距離マップ合成部406が、全ての距離マップにおいてシフト量と重みの算出が行われているかを判定する。全ての距離マップにおいてシフト量と重みの算出が行われていると判定された場合は、ステップS908に進む。全ての距離マップにおいてシフト量と重みの算出が行われていないと判定された場合は、ステップS902に進む。   In step S907, the shift distance map composition unit 406 determines whether the shift amount and the weight are calculated in all the distance maps. If it is determined that the shift amount and the weight are calculated in all the distance maps, the process proceeds to step S908. If it is determined that the shift amount and the weight are not calculated in all the distance maps, the process proceeds to step S902.

ステップS908では、シフト距離マップ合成部406が距離マップの合成を行う。本実施例では、合成距離マップの各画素における距離D(x,y)は、シフト距離マップの各画素における距離Di(x,y)と重み係数wi(x,y)の積によって求めることができる。合成後の距離マップの各画素における距離D(x,y)は以下の式を用いて算出することができる。   In step S908, the shift distance map combining unit 406 combines distance maps. In this embodiment, the distance D (x, y) at each pixel of the composite distance map is obtained by the product of the distance Di (x, y) and the weighting factor wi (x, y) at each pixel of the shift distance map. it can. The distance D (x, y) at each pixel of the combined distance map can be calculated using the following equation.

ここで、nは合成する距離マップの枚数である。シフト距離マップ合成部406は、シフト量算出部404から出力されたシフト距離マップの各画素における距離と、ステップS904で算出された重み値を上記式に代入し、合成後の距離マップを得る。   Here, n is the number of distance maps to be combined. The shift distance map synthesis unit 406 substitutes the distance at each pixel of the shift distance map output from the shift amount calculation unit 404 and the weight value calculated in step S904 into the above formula to obtain a synthesized distance map.

以上の処理により、ダイナミックレンジの広いシーンでも、高精度な距離マップを得ることができる。   With the above processing, a highly accurate distance map can be obtained even in a scene with a wide dynamic range.

なお、本実施例における重みづけ合成は、複数の距離マップの距離値から、1つの距離マップの距離値を選択する処理なども含まれる。つまり、選択される距離値以外の重みが0となっている場合が含まれる。   Note that the weighting synthesis in this embodiment includes processing for selecting a distance value of one distance map from distance values of a plurality of distance maps. That is, the case where the weight other than the selected distance value is 0 is included.

また、本実施例では撮像部の配置を二次元に均等に配置されているものとしたが、その限りではないのは。前述した通り、視点の異なる画像データがあれば距離の推定が可能であるため、任意の位置に配置しても構わない。また、本実施例では撮像部で撮像される画像がすべてカラー画像であることを前提に各部の構成や処理を説明した。しかし、撮像部で撮像される画像の一部あるいは全部をモノクロ画像に変更しても構わない。その場合には、図3のカラーフィルタ308は省略される。   In this embodiment, the image pickup units are arranged two-dimensionally evenly. However, this is not the only case. As described above, the distance can be estimated if there is image data with a different viewpoint, and may be arranged at an arbitrary position. In the present embodiment, the configuration and processing of each unit have been described on the assumption that all images captured by the imaging unit are color images. However, part or all of the image captured by the imaging unit may be changed to a monochrome image. In that case, the color filter 308 of FIG. 3 is omitted.

また、本実施例において、重み値は各画素ごとに求められたが、画素位置ごとに重み値が異なっていれば異なる単位で重み値を決定してもよい。つまり、複数の画素による画像ブロックごとに重み値を決定しても良い。その場合は、各画像ブロックの境界が不自然となることがあるので、スムージングフィルタなどを適用してもよい。   In this embodiment, the weight value is obtained for each pixel. However, if the weight value is different for each pixel position, the weight value may be determined in different units. That is, the weight value may be determined for each image block including a plurality of pixels. In that case, since the boundary of each image block may become unnatural, a smoothing filter or the like may be applied.

また、本実施例において、露出時間の異なる2種類の画像群に対応する2枚の距離マップを合成して新たな距離マップの生成を行ったが、露出条件が異なり、お互いの黒つぶれ・白とびした箇所が保証できるような画像群の組み合わせであればよい。なお、一般に露出条件はシャッタースピードやF値、ISO感度を変更したり、NDフィルタを切り替えたりすることにより変更できる。   In this embodiment, two distance maps corresponding to two types of image groups with different exposure times were synthesized to generate a new distance map. Any combination of image groups that can guarantee a skipped portion may be used. In general, the exposure condition can be changed by changing the shutter speed, F value, ISO sensitivity, or switching the ND filter.

なお、本実施例において、画像取得部401は、第一の画像群と、第二の画像群とを取得する取得手段として機能した。ここで、第一の画像群は、第一の露出条件において同一の被写体を複数の異なる視点から撮像した画像を含み、第二の画像群は、前記第一の露出条件とは異なる第二の露出条件において、前記同一の被写体を複数の異なる視点から撮像した画像を含む。   In the present embodiment, the image acquisition unit 401 functions as an acquisition unit that acquires the first image group and the second image group. Here, the first image group includes images obtained by capturing the same subject from a plurality of different viewpoints under the first exposure condition, and the second image group includes a second image different from the first exposure condition. In the exposure condition, it includes images obtained by imaging the same subject from a plurality of different viewpoints.

また、距離マップ生成部410は、前記第一および第二の画像群から第一および第二の距離マップを生成する第一の生成手段として機能した。   The distance map generator 410 functions as a first generator that generates first and second distance maps from the first and second image groups.

また、距離マップ合成部420は、前記第一および第二の距離マップから第三の距離マップを生成する第二の生成手段として機能した。
また、撮像部101〜104は、前記第一および第二の画像群を撮像によって取得する撮像手段として機能した。
Further, the distance map synthesis unit 420 functions as a second generation unit that generates a third distance map from the first and second distance maps.
In addition, the imaging units 101 to 104 function as an imaging unit that acquires the first and second image groups by imaging.

[実施例2]
実施例1では、各画素の輝度値に基づいて重みづけ合成の重みを決定する方法について説明した。実施例2では、各被写体のピント状態に基づいて重みづけ合成を行う方法について説明する。
[Example 2]
In the first embodiment, the method for determining the weight of weighted synthesis based on the luminance value of each pixel has been described. In the second embodiment, a method of performing weighted synthesis based on the focus state of each subject will be described.

オートフォーカス機能を有するカメラで撮像を行った場合、適正露出の領域にピントが合うようにピント位置が制御される。つまり、各画素における輝度値を用いずとも、ピントが合っている領域の重みが大きくなるように合成を行えば、精度の高い距離マップの生成を行うことができる。また、この方法によれば、2つの露出条件における画像群の両方で適正露出となっていながらも、ピント位置の違いにより片方の画像群でぼけている被写体の重みを小さくすることができる。つまり、複数の異なる露出条件において適正露出となっていながらピント状態が異なる被写体が含まれていても、精度の高い距離マップの生成を行うことができる。   When an image is taken with a camera having an autofocus function, the focus position is controlled so that the proper exposure area is in focus. In other words, a high-accuracy distance map can be generated by performing synthesis so as to increase the weight of the focused area without using the luminance value in each pixel. In addition, according to this method, it is possible to reduce the weight of a subject that is blurred in one image group due to a difference in the focus position, even though both the image groups under the two exposure conditions have appropriate exposure. That is, it is possible to generate a distance map with high accuracy even if subjects with different exposure states are included while being properly exposed under a plurality of different exposure conditions.

本実施例の構成および処理の内容は実施例1とほぼ同じである。本実施例においては、ステップS904における重みの算出処理の方法が異なる。   The configuration and processing contents of the present embodiment are almost the same as those of the first embodiment. In the present embodiment, the weight calculation processing method in step S904 is different.

本実施例のステップS904における重み値の算出は、距離マップを数画素単位で分割した複数の画像ブロックごとに行われる。距離マップをN×Mのブロックに分割した場合、その中のブロック(s,t)(s=1,2,…N、t=1,2,…M)に対応する重み値をwbi(s,t)とする。その時、ブロック(s,t)に対応する撮像画像中の画像ブロックのコントラスト比をci(s,t)とすると、各ブロックの重み値は以下のように決定される。
Wbi(s,t)=ci(s,t)
これにより、各画像ブロックの重み値は、複数の露出条件におけるコントラスト比の比に応じて決定される。なお、重み値は、コントラスト比の比をそのまま用いるのではなく、コントラスト比の絶対値や相対値に応じて傾斜をつけるように設定されてもよい。
The calculation of the weight value in step S904 of the present embodiment is performed for each of a plurality of image blocks obtained by dividing the distance map in units of several pixels. When the distance map is divided into N × M blocks, the weight value corresponding to the block (s, t) (s = 1, 2,... N, t = 1, 2,. , T). At that time, if the contrast ratio of the image block in the captured image corresponding to the block (s, t) is ci (s, t), the weight value of each block is determined as follows.
Wbi (s, t) = ci (s, t)
Thereby, the weight value of each image block is determined according to the ratio of contrast ratios in a plurality of exposure conditions. The weight value may be set so as to be inclined according to the absolute value or relative value of the contrast ratio, instead of using the contrast ratio ratio as it is.

上記式によって設定された重み値wbi(s,t)と、シフト距離マップの各画素における距離Di(x,y)を用いて、合成後の距離マップの各画素における距離D(x,y)は以下の式により算出される。   Using the weight value wbi (s, t) set by the above formula and the distance Di (x, y) at each pixel of the shift distance map, the distance D (x, y) at each pixel of the combined distance map Is calculated by the following equation.

ここで、nは合成する距離マップの枚数である。上記式においてそれぞれのDi(x,y)には、画素の座標(x,y)に対応する画像ブロック(s,t)の重み値wbi(s,t)が乗算される。   Here, n is the number of distance maps to be combined. In the above equation, each Di (x, y) is multiplied by the weight value wbi (s, t) of the image block (s, t) corresponding to the pixel coordinate (x, y).

以上の計算方法により距離マップ、ダイナミックレンジの広いシーンでも、高精度な距離マップを得ることができる。また、複数の異なる露出条件において適正露出となっていながらピント状態が異なる被写体が含まれていても、精度の高い距離マップの生成を行うことができる。   With the above calculation method, a high-precision distance map can be obtained even in a distance map and a scene with a wide dynamic range. In addition, a distance map with high accuracy can be generated even if subjects with different exposure states are included while being properly exposed under a plurality of different exposure conditions.

なお、各被写体のピント状態の判断は各画像ブロックのコントラスト比に基づくもののみに限定されるものではない。例えば、各画像ブロックをフーリエ変換した場合の高周波成分の大きさなどに基づいて重み値を決定しても良い。   Note that the determination of the focus state of each subject is not limited to only based on the contrast ratio of each image block. For example, the weight value may be determined based on the magnitude of a high frequency component when each image block is Fourier transformed.

[その他の実施形態]
本発明の実施形態は、上記の実施例に限られるものではない。例えば、上記の実施例を組み合わせたものであってもよい。すなわち、各画素の輝度値と各画像ブロックのピント状態の両方を考慮して重み値を決定してもよい。
[Other Embodiments]
Embodiments of the present invention are not limited to the above examples. For example, the above embodiments may be combined. That is, the weight value may be determined in consideration of both the luminance value of each pixel and the focus state of each image block.

なお、上記の実施例では、複数の撮像部を備えた多眼カメラによって撮像された画像をもとに距離マップの合成を行ったが、別の形態で撮像された画像を用いてもよい。例えば、それぞれが独立した複数のカメラによって撮像された画像を用いてもよい。また、1枚のセンサの出力から複数視点の画像を抽出できる、Plenoptic撮像系を備えた画像により撮像された画像を用いてもよい。その場合、Plenoptic撮像系を2つ以上備えたカメラにより撮像すると、露出条件の異なる複数の画像群を同時撮像により取得することができる。   In the above embodiment, the distance map is synthesized based on an image captured by a multi-lens camera including a plurality of imaging units. However, an image captured in another form may be used. For example, images captured by a plurality of independent cameras may be used. Alternatively, an image captured by an image including a Plenoptic imaging system that can extract images from a plurality of viewpoints from the output of one sensor may be used. In that case, when imaging is performed with a camera having two or more Plenoptic imaging systems, a plurality of image groups with different exposure conditions can be acquired by simultaneous imaging.

また、各画像は同時に撮像されたものである必要はなく、同一の被写体が収まるように撮影されたものであればよい。つまり、多眼カメラを用いずとも、既存の単眼カメラによって異なる時点で撮像された画像を用いる場合や、複数のカメラによって撮像された画像を用いる場合も含まれる。   Further, the images do not have to be taken at the same time, and may be any images as long as the same subject can be captured. That is, the case where an image captured at different time points by an existing monocular camera is used without using a multi-lens camera, and the case where images captured by a plurality of cameras are used are also included.

また、上記の実施例では、異なる露出条件で撮像された画像群から生成された複数の距離マップを重みづけ合成することで最終的な距離マップを得たが、同様の結果が得られるのであれば他の方法を用いて最終的な距離マップを得ても良い。例えば、複数の距離マップと、その距離マップに対応する撮像画像の輝度値に基づいて、あらかじめテーブルなどの形式で保持しておいた値を読み出して並べることで距離マップを生成してもよい。   In the above embodiment, the final distance map is obtained by weighting and synthesizing a plurality of distance maps generated from a group of images captured under different exposure conditions, but similar results can be obtained. For example, the final distance map may be obtained using other methods. For example, the distance map may be generated by reading out and arranging values stored in advance in a format such as a table based on a plurality of distance maps and the luminance value of the captured image corresponding to the distance map.

また、実施例は撮像部と処理部を備えたカメラのみに限定されるものではなく、上記の実施例で行われる処理の一部が別のコンピュータによって行われる情報処理システムであってもよい。例えば、カメラが取得した画像データをコンピュータに出力し、入力された画像に基づいてコンピュータが距離マップの合成を行う情報処理システムであってもよい。   In addition, the embodiment is not limited to the camera including the imaging unit and the processing unit, and may be an information processing system in which a part of the processing performed in the above-described embodiment is performed by another computer. For example, it may be an information processing system in which image data acquired by a camera is output to a computer, and the computer synthesizes a distance map based on the input image.

なお、本発明は例えば、システム、装置、方法、プログラムもしくは記憶媒体等としての実施態様をとることが可能である。また、複数の機器から構成されるシステムに適用してもよいし、一つの機器からなる装置に適用してもよい。   Note that the present invention can take the form of, for example, a system, apparatus, method, program, or storage medium. Further, the present invention may be applied to a system composed of a plurality of devices, or may be applied to an apparatus composed of one device.

また、本発明はソフトウェアのプログラムをシステム或いは装置に直接或いは遠隔から供給し、そのシステム或いは装置のコンピュータが該供給されたプログラムコードを読み出して実行することによって前述した実施形態の機能が達成される場合を含む。この場合、供給されるプログラムは実施形態で図に示したフローチャートに対応したコンピュータプログラムである。従って、本発明の機能処理をコンピュータで実現するために、該コンピュータにインストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明は、本発明の機能処理を実現するためのコンピュータプログラム自体も含まれる。その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等の形態であってもよい。   Further, the present invention achieves the functions of the above-described embodiments by supplying a software program directly or remotely to a system or apparatus, and the computer of the system or apparatus reads and executes the supplied program code. Including cases. In this case, the supplied program is a computer program corresponding to the flowchart shown in the drawings in the embodiment. Accordingly, since the functions of the present invention are implemented by computer, the program code installed in the computer also implements the present invention. In other words, the present invention includes a computer program itself for realizing the functional processing of the present invention. In that case, as long as it has the function of a program, it may be in the form of object code, a program executed by an interpreter, script data supplied to the OS, or the like.

コンピュータプログラムを供給するためのコンピュータ読み取り可能な記憶媒体としては例えば、ハードディスク、光ディスク、光磁気ディスクが挙げられる。また、MO、CD−ROM、CD−R、CD−RW、磁気テープ、不揮発性のメモリカード、ROM、DVD(DVD−ROM,DVD−R)などであってもよい。   Examples of the computer-readable storage medium for supplying the computer program include a hard disk, an optical disk, and a magneto-optical disk. Moreover, MO, CD-ROM, CD-R, CD-RW, a magnetic tape, a non-volatile memory card, ROM, DVD (DVD-ROM, DVD-R), etc. may be sufficient.

その他、プログラムの供給方法としては、クライアントコンピュータのブラウザを用いてインターネットのホームページに接続し、該ホームページから本発明のコンピュータプログラムをハードディスク等の記憶媒体にダウンロードすることが挙げられる。この場合、ダウンロードされるプログラムは、圧縮され自動インストール機能を含むファイルであってもよい。また、本発明の機能処理をコンピュータで実現するためのプログラムファイルを複数のユーザに対してダウンロードさせるWWWサーバも、本発明に含まれるものである。   As another program supply method, a client computer browser is used to connect to a homepage on the Internet, and the computer program of the present invention is downloaded from the homepage to a storage medium such as a hard disk. In this case, the downloaded program may be a compressed file including an automatic installation function. A WWW server that allows a plurality of users to download a program file for realizing the functional processing of the present invention on a computer is also included in the present invention.

100 多眼カメラ
101〜104 撮像部
212 画像処理部
401 画像取得部
410 距離マップ生成部
420 距離マップ合成部
DESCRIPTION OF SYMBOLS 100 Multiview camera 101-104 Image pick-up part 212 Image processing part 401 Image acquisition part 410 Distance map production | generation part 420 Distance map synthetic | combination part

Claims (12)

第一の露出条件において同一の被写体を複数の異なる視点から撮像した第一の画像群と、前記第一の露出条件とは異なる第二の露出条件において前記被写体を複数の異なる視点から撮像した第二の画像群とを取得する取得手段と、
前記第一および第二の画像群から第一および第二の距離マップを生成する第一の生成手段と、
前記第一および第二の距離マップから第三の距離マップを生成する第二の生成手段とを備えることを特徴とする画像処理装置。
A first image group in which the same subject is imaged from a plurality of different viewpoints in the first exposure condition, and a first image group in which the subject is imaged from a plurality of different viewpoints in a second exposure condition different from the first exposure condition. Acquisition means for acquiring a second image group;
First generation means for generating first and second distance maps from the first and second image groups;
An image processing apparatus comprising: a second generation unit configured to generate a third distance map from the first and second distance maps.
前記第一の画像群はそれぞれが同時に撮像された画像による画像群であり、前記第二の画像群もまた、それぞれが同時に撮像された画像による画像群であることを特徴とする請求項1に記載の画像処理装置。   The first image group is an image group of images that are simultaneously captured, and the second image group is also an image group of images that are simultaneously captured. The image processing apparatus described. 前記第一および第二の画像群は、同時に撮像されることを特徴とする請求項2に記載の画像処理装置。   The image processing apparatus according to claim 2, wherein the first and second image groups are captured simultaneously. 前記第二の生成手段は、前記第一の距離マップと前記第二の距離マップとを、前記第一および第二の画像群に基づいて重みづけ合成することで、前記第三の距離マップを生成することを特徴とする請求項1乃至3のいずれか一項に記載の画像処理装置。   The second generation means weights and synthesizes the third distance map with the first distance map and the second distance map based on the first and second image groups. The image processing apparatus according to claim 1, wherein the image processing apparatus generates the image processing apparatus. 前記第二の生成手段は、前記第一および第二の画像群に含まれる画像の輝度値に基づいて前記重みづけ合成における重みを決定することを特徴とする請求項4に記載の画像処理装置。   5. The image processing apparatus according to claim 4, wherein the second generation unit determines a weight in the weighted synthesis based on luminance values of images included in the first and second image groups. . 前記第二の生成手段は、前記第一および第二の画像群に含まれる画像のピント状態に基づいて前記重みづけ合成における重みを決定することを特徴とする請求項4又は5に記載の画像処理装置。   6. The image according to claim 4, wherein the second generation unit determines a weight in the weighted synthesis based on a focus state of images included in the first and second image groups. Processing equipment. 前記ピント状態は、前記第一および第二の画像群に含まれる画像における、画像ブロックごとのコントラスト比によって示されることを特徴とする請求項6に記載の画像処理装置。   The image processing apparatus according to claim 6, wherein the focus state is indicated by a contrast ratio for each image block in images included in the first and second image groups. 前記重みづけ合成における重みは、前記第一および第二の距離マップにおける画素位置ごとに決定されることを特徴とする請求項4乃至7のいずれか一項に記載の画像処理装置。   The image processing apparatus according to claim 4, wherein a weight in the weighting synthesis is determined for each pixel position in the first and second distance maps. 前記第一および第二の画像群を撮像によって取得する撮像手段を更に備えることを特徴とする請求項1乃至8のいずれか一項に記載の画像処理装置。   The image processing apparatus according to claim 1, further comprising an imaging unit that acquires the first and second image groups by imaging. 前記第一および第二の露出条件は、露出時間であることを特徴とする請求項2乃至9のいずれか一項に記載の画像処理装置。   The image processing apparatus according to claim 2, wherein the first and second exposure conditions are exposure times. 第一の露出条件において同一の被写体を複数の異なる視点から撮像した第一の画像群と、前記第一の露出条件とは異なる第二の露出条件において前記被写体を複数の異なる視点から撮像した第二の画像群とを取得するステップと、
前記第一および第二の画像群から第一および第二の距離マップを生成するステップと、
前記第一および第二の距離マップから第三の距離マップを生成するステップとを備えることを特徴とする画像処理装置。
A first image group in which the same subject is imaged from a plurality of different viewpoints in the first exposure condition, and a first image group in which the subject is imaged from a plurality of different viewpoints in a second exposure condition different from the first exposure condition. Obtaining a second image group;
Generating first and second distance maps from the first and second image groups;
And a step of generating a third distance map from the first and second distance maps.
コンピュータを、請求項1乃至10のいずれか一項に記載の画像処理装置の各手段として機能させるプログラム。   A program that causes a computer to function as each unit of the image processing apparatus according to any one of claims 1 to 10.
JP2013207422A 2013-10-02 2013-10-02 Image processing device, image processing method and program Pending JP2015073185A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013207422A JP2015073185A (en) 2013-10-02 2013-10-02 Image processing device, image processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013207422A JP2015073185A (en) 2013-10-02 2013-10-02 Image processing device, image processing method and program

Publications (1)

Publication Number Publication Date
JP2015073185A true JP2015073185A (en) 2015-04-16

Family

ID=53015274

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013207422A Pending JP2015073185A (en) 2013-10-02 2013-10-02 Image processing device, image processing method and program

Country Status (1)

Country Link
JP (1) JP2015073185A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016185713A1 (en) * 2015-05-19 2016-11-24 Canon Kabushiki Kaisha Image processing apparatus, image pickup apparatus, image processing method, and storage medium
JP2017225067A (en) * 2016-06-17 2017-12-21 キヤノン株式会社 Imaging apparatus and control method therefor
US9864899B2 (en) 2015-08-20 2018-01-09 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium
JP2018101285A (en) * 2016-12-20 2018-06-28 富士通株式会社 Biological image processing apparatus, biological image processing method and biological image processing program
JP2019134431A (en) * 2019-02-26 2019-08-08 キヤノン株式会社 Image processing apparatus, imaging apparatus, image processing method, and program
JP2019168821A (en) * 2018-03-22 2019-10-03 株式会社Subaru Car outside environment recognition device
JP2020535758A (en) * 2017-11-30 2020-12-03 オッポ広東移動通信有限公司Guangdong Oppo Mobile Telecommunications Corp., Ltd. Image processing methods, devices, and devices
JP2021007231A (en) * 2017-04-14 2021-01-21 株式会社ソニー・インタラクティブエンタテインメント Information processing device, information processing system, and image processing method
CN113923353A (en) * 2021-09-29 2022-01-11 维沃移动通信(杭州)有限公司 Image processing method, image processing device, electronic equipment and storage medium

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107615747B (en) * 2015-05-19 2020-03-06 佳能株式会社 Image processing apparatus, image capturing apparatus, image processing method, and storage medium
CN111263064B (en) * 2015-05-19 2021-08-10 佳能株式会社 Image processing apparatus, image capturing apparatus, image processing method, and storage medium
WO2016185713A1 (en) * 2015-05-19 2016-11-24 Canon Kabushiki Kaisha Image processing apparatus, image pickup apparatus, image processing method, and storage medium
GB2595371B (en) * 2015-05-19 2022-03-02 Canon Kk Image processing apparatus, image pickup apparatus, image processing method, and storage medium
CN111263064A (en) * 2015-05-19 2020-06-09 佳能株式会社 Image processing apparatus, image capturing apparatus, image processing method, and storage medium
GB2556227A (en) * 2015-05-19 2018-05-23 Canon Kk Image processing apparatus, image pickup apparatus, image processing method, and storage medium
GB2595371A (en) * 2015-05-19 2021-11-24 Canon Kk Image processing apparatus, image pickup apparatus, image processing method, and storage medium
JP2016219987A (en) * 2015-05-19 2016-12-22 キヤノン株式会社 Image processing apparatus, imaging device, image processing method and program
US10393996B2 (en) 2015-05-19 2019-08-27 Canon Kabushiki Kaisha Image processing apparatus, image pickup apparatus, image processing method, and storage medium
GB2556227B (en) * 2015-05-19 2021-07-21 Canon Kk Image processing apparatus, image pickup apparatus, image processing method, and storage medium
CN107615747A (en) * 2015-05-19 2018-01-19 佳能株式会社 Image processing equipment, picture pick-up device, image processing method and storage medium
US9864899B2 (en) 2015-08-20 2018-01-09 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium
JP2017225067A (en) * 2016-06-17 2017-12-21 キヤノン株式会社 Imaging apparatus and control method therefor
JP2018101285A (en) * 2016-12-20 2018-06-28 富士通株式会社 Biological image processing apparatus, biological image processing method and biological image processing program
JP2021007231A (en) * 2017-04-14 2021-01-21 株式会社ソニー・インタラクティブエンタテインメント Information processing device, information processing system, and image processing method
JP2020535758A (en) * 2017-11-30 2020-12-03 オッポ広東移動通信有限公司Guangdong Oppo Mobile Telecommunications Corp., Ltd. Image processing methods, devices, and devices
JP7003238B2 (en) 2017-11-30 2022-01-20 オッポ広東移動通信有限公司 Image processing methods, devices, and devices
JP2019168821A (en) * 2018-03-22 2019-10-03 株式会社Subaru Car outside environment recognition device
US10839236B2 (en) 2018-03-22 2020-11-17 Subaru Corporation Vehicle exterior environment recognition apparatus
JP2019134431A (en) * 2019-02-26 2019-08-08 キヤノン株式会社 Image processing apparatus, imaging apparatus, image processing method, and program
CN113923353A (en) * 2021-09-29 2022-01-11 维沃移动通信(杭州)有限公司 Image processing method, image processing device, electronic equipment and storage medium

Similar Documents

Publication Publication Date Title
JP2015073185A (en) Image processing device, image processing method and program
JP5390707B2 (en) Stereoscopic panorama image synthesis apparatus, imaging apparatus, stereo panorama image synthesis method, recording medium, and computer program
JP5179398B2 (en) Image processing apparatus, image processing method, and image processing program
JP5820257B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP5725953B2 (en) Imaging apparatus, control method therefor, and information processing apparatus
JP5984493B2 (en) Image processing apparatus, image processing method, imaging apparatus, and program
JP2015197745A (en) Image processing apparatus, imaging apparatus, image processing method, and program
US9332195B2 (en) Image processing apparatus, imaging apparatus, and image processing method
JP5882789B2 (en) Image processing apparatus, image processing method, and program
JP2018107526A (en) Image processing device, imaging apparatus, image processing method and computer program
JP2013025649A (en) Image processing device, image processing method, and program
JP2013061850A (en) Image processing apparatus and image processing method for noise reduction
JP4947576B2 (en) Imaging apparatus, blur correction method, and imaging method
US20130083169A1 (en) Image capturing apparatus, image processing apparatus, image processing method and program
JP2019101996A (en) Image processing apparatus and image processing method reducing noise by composing plural captured images
JP2019101997A (en) Image processing apparatus and image processing method reducing noise by composing plural captured images
JP2019047336A (en) Image processing apparatus, imaging device, image processing method, and program
JP2017143504A5 (en)
JP6732440B2 (en) Image processing apparatus, image processing method, and program thereof
JP2018006993A (en) Image processing device, imaging system, and imaging device
JP2013175821A (en) Image processing device, image processing method, and program
JP7134601B2 (en) Image processing device, image processing method, imaging device, and imaging device control method
JP2017028606A (en) Imaging apparatus
JP2014049895A (en) Image processing method
JP6292785B2 (en) Image processing apparatus, image processing method, and program