JP2017103695A - Image processing apparatus, image processing method, and program of them - Google Patents

Image processing apparatus, image processing method, and program of them Download PDF

Info

Publication number
JP2017103695A
JP2017103695A JP2015237208A JP2015237208A JP2017103695A JP 2017103695 A JP2017103695 A JP 2017103695A JP 2015237208 A JP2015237208 A JP 2015237208A JP 2015237208 A JP2015237208 A JP 2015237208A JP 2017103695 A JP2017103695 A JP 2017103695A
Authority
JP
Japan
Prior art keywords
image data
correction
correction target
area
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015237208A
Other languages
Japanese (ja)
Other versions
JP2017103695A5 (en
JP6732440B2 (en
Inventor
将人 小川
Masahito Ogawa
将人 小川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015237208A priority Critical patent/JP6732440B2/en
Publication of JP2017103695A publication Critical patent/JP2017103695A/en
Publication of JP2017103695A5 publication Critical patent/JP2017103695A5/ja
Application granted granted Critical
Publication of JP6732440B2 publication Critical patent/JP6732440B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Color Television Image Signal Generators (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing apparatus for forming composite image data by using a plurality of image data of which a field angle including a common subject is difference.SOLUTION: An image processing method comprises: selection means 402 of selecting second image data of which a field angle is narrower than first image data as a correction target image data from a plurality of image data when the first image data is as reference image data; division means of dividing the correction target image data from a plurality of regions; color matching means of matching a color to a corresponding region in the reference image data in each region obtained by dividing the correction target image data; and composite means 404 of composing the correction target image data to be matched the color to the reference image data, and forming composite image data. The color matching means includes: correction value calculation means 407 of calculating a correction value in each region of the correction target image data so that an average pixel value of the region becomes the average region value of the target region corresponding to the region; and correction means 409 of correcting the correction target image data on the basis of the correction value.SELECTED DRAWING: Figure 4

Description

本発明は、画像処理装置、画像処理方法、及びそのプログラムに関する。具体的には、画角の異なる複数の撮像装置によって撮像された撮像画像データを基に、所望の画角の画像データを生成する画像処理装置、画像処理方法、及びそのプログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and a program thereof. Specifically, the present invention relates to an image processing apparatus, an image processing method, and a program thereof that generate image data having a desired angle of view based on captured image data captured by a plurality of imaging apparatuses having different angle of view.

従来、撮像画像の所望の領域を拡大する方法として、画像処理によりズームを実現する技術(電子ズーム)が知られている。電子ズームでは、ズーム倍率を大きくするほど拡大倍率も大きくなり、次第に解像感が損なわれてしまう問題があった。そこで、画角の異なる複数のカメラを用いることで、解像感を損なわずに画像処理によるズームを実現する技術がある(特許文献1参照)。特許文献1では、焦点距離が短くて画角が広いカメラと、焦点距離が長くて画角が狭いカメラとからなる撮像装置を用いて被写体を撮像する。画角の広い広角画像に画角の狭い望遠画像を所定の比率で縮小して合成することにより、解像感を損なわずに所望の仮想画角の画像データを生成することができる。   Conventionally, as a method for enlarging a desired area of a captured image, a technique (electronic zoom) that realizes zoom by image processing is known. In the electronic zoom, as the zoom magnification is increased, the enlargement magnification is also increased, and there is a problem that the resolution is gradually deteriorated. Thus, there is a technology that realizes zooming by image processing without using a plurality of cameras having different angles of view without impairing the resolution (see Patent Document 1). In Patent Document 1, a subject is imaged using an imaging device including a camera with a short focal length and a wide angle of view and a camera with a long focal length and a narrow angle of view. By synthesizing a wide-angle image with a wide angle of view and a telephoto image with a narrow angle of view at a predetermined ratio and combining them, image data with a desired virtual angle of view can be generated without impairing the resolution.

しかし、特許文献1には、カメラ特性のバラつきやシェーディングの影響により撮像画像間の色や明るさが異なり、合成した仮想画角画像に疑似的な輪郭(境界部における色や明るさの段差)が発生する問題がある。   However, in Patent Document 1, the color and brightness between captured images differ due to variations in camera characteristics and the influence of shading, and a pseudo contour (a step in color or brightness at the boundary) is added to the synthesized virtual field angle image. There is a problem that occurs.

上述した特許文献1の問題に対し、合成の境界部を補正することで疑似的な輪郭を目立たなくする方法がある(特許文献2参照)。特許文献2では、合成の境界部の画像データを、広角画像データから望遠画像データに徐々に近づくような補正データで置換することにより、境界部を補正する。すなわち、境界部における画像値を滑らかにすることで、段差を目立たなくする。   There is a method of making the pseudo contour inconspicuous by correcting the boundary portion of the synthesis with respect to the above-described problem of Patent Document 1 (see Patent Document 2). In Patent Document 2, the boundary portion is corrected by replacing the image data at the boundary portion of the synthesis with correction data that gradually approaches the telephoto image data from the wide-angle image data. That is, the level difference is made inconspicuous by smoothing the image value at the boundary.

特開2014−225843号公報JP 2014-225843 A 特許第4299561号公報Japanese Patent No. 4299561

しかしながら、特許文献2は、合成の境界部に複雑なテクスチャが含まれる場合は補正処理が複雑になり、補正精度も低下するという課題があった。また、特許文献2の補正処理は、境界部における画像値を滑らかにすることで段差を目立たなくする処理であるが、境界部の段差を実質的に解消する処理ではない。撮像画像間の色や明るさの差が大きい場合は、特許文献2のように境界部を補正するだけでは不十分、という課題もある。   However, Patent Document 2 has a problem that if a complex texture is included in the boundary of synthesis, the correction process becomes complicated and the correction accuracy also decreases. Further, the correction process of Patent Document 2 is a process that makes the step inconspicuous by smoothing the image value at the boundary, but is not a process that substantially eliminates the step at the boundary. When the difference in color and brightness between captured images is large, there is a problem that it is not sufficient to correct the boundary as in Patent Document 2.

そこで、境界部だけではなく、画像全体で色合わせを行うことが考えられる。しかし、仮想画角画像の生成では、画角の広い広角画像の中央部に、画角の狭い望遠画像を所定の比率で縮小して合成するため、カメラ特性のバラつきなどによる色と明るさの段差に加え、シェーディングによる段差も発生する。これは、シェーディングによる影響が比較的少ない広角画像の中像高部に、シェーディングによる影響が大きい望遠画像の高像高部を合成すると合成の境界部においてシェーディングが余計に目立つためである。このようなシェーディングによる段差は、画像全体での色あわせにより解消することができない。   Therefore, it is conceivable to perform color matching not only on the boundary but also on the entire image. However, in the generation of a virtual angle of view image, a telephoto image with a narrow angle of view is reduced and synthesized at a predetermined ratio in the center of a wide angle image with a wide angle of view. In addition to the step, a step due to shading also occurs. This is because when a high image height portion of a telephoto image that is greatly affected by shading is combined with a middle image height portion of a wide-angle image that is relatively less affected by shading, shading becomes more noticeable at the boundary of the composition. Such steps due to shading cannot be eliminated by color matching in the entire image.

一方、シェーディングによる段差は、色合わせの前に画像全体の輝度が均一になるようシェーディング補正を行うことで対処可能ではあるが、このようなシェーディング補正を行うと、高像高部になるほど補正量が大きくなり、ノイズが増幅されてしまう。その結果、シェッディングによる段差は解消されても、ノイズによる段差が新たに発生してしまう。   On the other hand, steps due to shading can be dealt with by performing shading correction so that the brightness of the entire image is uniform before color matching, but when such shading correction is performed, the correction amount increases as the image height increases. Increases and noise is amplified. As a result, even if the step due to shedding is eliminated, a step due to noise is newly generated.

本発明は、上述のような課題に鑑みてなされたものであり、共通の被写体を含む画角の異なる複数の撮像画像データを合成する際に発生する、合成の境界部の疑似的な輪郭を抑制することを目的とする。   The present invention has been made in view of the above-described problems, and provides a pseudo contour of a synthesis boundary portion that is generated when a plurality of captured image data having different angles of view including a common subject are synthesized. The purpose is to suppress.

本発明に係る画像処理装置は、共通の被写体を含む画角が異なる複数の画像データを用いて、合成画像データを生成するための画像処理装置であって、前記複数の画像データから、第1の画像データを基準画像データとして、前記第1の画像データよりも画角が狭い第2の画像データを補正対象画像データとして選択する選択手段と、前記補正対象画像データを複数の領域に分割する分割手段と、前記補正対象画像データを分割して得られた領域毎に、前記基準画像データにおける対応領域との色合わせを行う色合わせ手段と、前記色合わせ後の前記補正対象画像データを前記基準画像データに合成して、前記合成画像データを生成する合成手段とを有し、前記色合わせ手段は、前記補正対象画像データの領域毎の補正値を、当該領域の平均画素値が当該領域に対応する前記対応領域の平均画素値になるように算出する補正値算出手段と、前記補正値を基に前記補正対象画像データを補正する補正手段とを有することを特徴とする。   An image processing apparatus according to the present invention is an image processing apparatus for generating composite image data using a plurality of pieces of image data having different angles of view including a common subject. And selecting means for selecting second image data having a smaller angle of view than the first image data as correction target image data, and dividing the correction target image data into a plurality of regions. A dividing unit; a color matching unit that performs color matching with a corresponding region in the reference image data for each region obtained by dividing the correction target image data; and the correction target image data after the color matching. Synthesizing with reference image data to generate the synthesized image data, and the color matching unit calculates a correction value for each area of the correction target image data as an average of the area. A correction value calculation unit that calculates an elementary value to be an average pixel value of the corresponding region corresponding to the region; and a correction unit that corrects the correction target image data based on the correction value. To do.

本発明は、共通の被写体を含む画角の異なる複数の撮像画像データを合成する際に発生する、合成の境界部の疑似的な輪郭を抑制する効果を奏する。   The present invention has an effect of suppressing a pseudo contour at a boundary portion of synthesis that is generated when a plurality of captured image data having different angles of view including a common subject is synthesized.

実施例1に係る複数の撮像部を備えた多眼方式の撮像装置の一例を示す図。1 is a diagram illustrating an example of a multi-lens imaging device including a plurality of imaging units according to Embodiment 1. FIG. 多眼方式の撮像装置の内部構成の一例を示すブロック図。1 is a block diagram illustrating an example of an internal configuration of a multi-lens imaging device. 撮像部の内部構成の一例を示す図。The figure which shows an example of the internal structure of an imaging part. 実施例1に係る機能構成を示すブロック図。FIG. 2 is a block diagram illustrating a functional configuration according to the first embodiment. 実施例1に係る画像合成を簡易的に示す図。FIG. 6 is a diagram simply showing image composition according to the first embodiment. 実施例1に係る画像処理のフローチャート。5 is a flowchart of image processing according to the first embodiment. 画像データ間の視差量を説明するための図。The figure for demonstrating the amount of parallax between image data. 実施例1における対応領域算出を説明するための図。FIG. 6 is a diagram for explaining corresponding area calculation in the first embodiment. 実施例2に係る画像合成を簡易的に示す図。FIG. 10 is a diagram simply illustrating image composition according to the second embodiment. 実施例2における合成処理順のバリエーションを示す図。FIG. 10 is a diagram illustrating variations in the order of synthesis processing in the second embodiment.

(実施例1)
本実施例では、広角画像に望遠画像を縮小して合成する際に発生する、境界部の疑似的な輪郭を抑制する方法について述べる。
Example 1
In this embodiment, a method for suppressing a pseudo contour at a boundary portion that occurs when a telephoto image is reduced and combined with a wide-angle image will be described.

図1は、画角の異なる複数の撮像部を備えた多眼方式による撮像装置の一例を示す図である。図1(a)に示すように、撮像装置100はカラー画像データを取得する2個の撮像部101、102及び撮像ボタン103を備えている。図1(b)に示すように撮像部101、102は、それぞれの光軸104、105が平行になるように配置されている。本実施例では、撮像部101と102の水平方向の間隔をR、撮像部101の水平画角をθ1、撮像部102の水平画角をθ2とする。なお、θ1>θ2とし、撮像部102よりも撮像部101の方が画角が広いものとする。ユーザが撮像ボタン103を押下すると、撮像部101〜102が被写体の光情報をセンサ(撮像素子)で受光し、受光した信号がA/D変換され、複数のデジタルデータ(撮像画像データ)が同時に得られる。撮像画像データには、撮像時のフォーカス設定などに基づき導出された撮像装置100から被写体までの距離Lがタグ情報として付与されるものとする。   FIG. 1 is a diagram illustrating an example of a multi-eye imaging apparatus including a plurality of imaging units having different angles of view. As illustrated in FIG. 1A, the imaging device 100 includes two imaging units 101 and 102 that acquire color image data and an imaging button 103. As shown in FIG. 1B, the imaging units 101 and 102 are arranged so that their optical axes 104 and 105 are parallel to each other. In the present embodiment, the horizontal interval between the imaging units 101 and 102 is R, the horizontal field angle of the imaging unit 101 is θ1, and the horizontal field angle of the imaging unit 102 is θ2. Note that θ1> θ2 and that the imaging unit 101 has a wider angle of view than the imaging unit 102. When the user presses the imaging button 103, the imaging units 101 to 102 receive light information of the subject with a sensor (imaging device), the received signal is A / D converted, and a plurality of digital data (captured image data) is simultaneously obtained. can get. It is assumed that the distance L from the imaging device 100 to the subject derived based on the focus setting at the time of imaging is given to the captured image data as tag information.

このような多眼方式の撮像装置により、共通の被写体を複数の視点位置から撮像した撮像画像群を得ることができる。なお、ここでは撮像部の数を2個としたが、撮像部の数は2個に限定されず、撮像装置が複数の撮像部を有する限りにおいてその数によらず本実施例は適用可能である。   With such a multi-lens imaging device, it is possible to obtain a group of captured images obtained by imaging a common subject from a plurality of viewpoint positions. Although the number of imaging units is two here, the number of imaging units is not limited to two, and this embodiment can be applied regardless of the number of imaging units as long as the imaging device has a plurality of imaging units. is there.

図2は、撮像装置100の内部構成を示すブロック図である。中央処理装置(CPU)201は、以下に述べる各部を統括的に制御する。RAM202は、CPU201の主メモリ、ワークエリア等として機能する。ROM203は、CPU201で実行される制御プラグラム等を格納している。   FIG. 2 is a block diagram illustrating an internal configuration of the imaging apparatus 100. A central processing unit (CPU) 201 generally controls each unit described below. The RAM 202 functions as a main memory, work area, and the like for the CPU 201. The ROM 203 stores a control program executed by the CPU 201 and the like.

バス204は、各種データの転送経路となる。例えば、撮像部101〜102によって取得された撮像画像データは、このバス204を介して所定の処理部に送られる。操作部205はユーザの指示を受け取る。具体的にはボタンやモードダイヤルなどが含まれ、撮像指示やズーム指示を受け取ることができる。表示部206は撮像画像や文字の表示を行う。例えば、液晶ディスプレイが用いられる。また、表示部206はタッチスクリーン機能を有していても良い。その場合はタッチスクリーンを用いた撮像指示やズーム指示などのユーザ指示を操作部205の入力として扱うことも可能である。   The bus 204 serves as a transfer path for various data. For example, captured image data acquired by the imaging units 101 to 102 is sent to a predetermined processing unit via the bus 204. The operation unit 205 receives a user instruction. Specifically, a button, a mode dial, and the like are included, and an imaging instruction and a zoom instruction can be received. A display unit 206 displays captured images and characters. For example, a liquid crystal display is used. Further, the display unit 206 may have a touch screen function. In that case, a user instruction such as an imaging instruction or a zoom instruction using a touch screen can be handled as an input of the operation unit 205.

表示制御部207は、表示部206に表示される画像や文字の表示制御を行う。撮像制御部208は、フォーカスを合わせる、シャッターを開く・閉じる、絞りを調節するなどの、CPU201からの指示に基づいた撮像部の制御を行う。デジタル信号処理部209は、バス204を介して受け取った撮像画像データに対し、ホワイトバランス処理、ガンマ処理、ノイズ低減処理などの各種処理を行う。   A display control unit 207 performs display control of images and characters displayed on the display unit 206. The imaging control unit 208 controls the imaging unit based on an instruction from the CPU 201 such as focusing, opening / closing a shutter, and adjusting an aperture. The digital signal processing unit 209 performs various processes such as white balance processing, gamma processing, and noise reduction processing on the captured image data received via the bus 204.

エンコード部210は、撮像画像データをJPEGやMPEGなどのファイルフォーマットに変換する処理を行う。外部メモリ制御部211は、撮像装置100を、外部メモリ213(例えば、PC、ハードディスク、メモリーカード、CFカード、SDカード、USBメモリ)に結合するためのインターフェースである。   The encoding unit 210 performs processing for converting captured image data into a file format such as JPEG or MPEG. The external memory control unit 211 is an interface for coupling the imaging apparatus 100 to an external memory 213 (for example, a PC, a hard disk, a memory card, a CF card, an SD card, a USB memory).

画像処理部212は、撮像部101、102で取得された撮像画像データ群或いは、デジタル信号処理部209から出力される撮像画像データ群を用いて画像合成などの画像処理を行う。   The image processing unit 212 performs image processing such as image synthesis using the captured image data group acquired by the imaging units 101 and 102 or the captured image data group output from the digital signal processing unit 209.

なお、撮像装置の構成要素は上記以外にも存在するが、本実施例の主眼ではないので、説明を省略する。   Although there are other components of the image pickup apparatus other than those described above, the description thereof is omitted because it is not the main point of the present embodiment.

図3は、撮像部101の内部構成を示す図である。撮像部101は、レンズ301〜302、絞り303、シャッター304、光学ローパスフィルタ305、iRカットフィルタ306、カラーフィルタ307、センサ308及びA/D変換部309を備える。レンズ301〜302は夫々、フォーカスレンズ301、ぶれ補正レンズ302である。センサ308は、例えばCMOSやCCDなどのセンサであり、上記の各レンズでフォーカスされた被写体の光量を検知する。検知された光量はアナログ値としてセンサ308から出力され、A/D変換部309によってデジタル値に変換されて、デジタルデータとなってバス204に出力される。なお、撮像部102についても同様の構成とすることができる。   FIG. 3 is a diagram illustrating an internal configuration of the imaging unit 101. The imaging unit 101 includes lenses 301 to 302, a diaphragm 303, a shutter 304, an optical low-pass filter 305, an iR cut filter 306, a color filter 307, a sensor 308, and an A / D conversion unit 309. The lenses 301 to 302 are a focus lens 301 and a shake correction lens 302, respectively. The sensor 308 is, for example, a sensor such as a CMOS or a CCD, and detects the amount of light of the subject focused by each lens. The detected light amount is output from the sensor 308 as an analog value, converted into a digital value by the A / D conversion unit 309, and output to the bus 204 as digital data. Note that the imaging unit 102 can have the same configuration.

図4は、画像処理部212に備えられる機能部を示す機能ブロック図である。図4に示すように、画像処理部212は、撮像画像データ取得部400、基準画像データ選択部401、補正対象画像データ選択部402、視差量算出部403、画像位置合わせ部404、領域分割部405及び対応領域算出部406を備える。また、補正値算出部407、補正値整形部408、画素値補正部409及び画像合成部410を備える。各機能部は、CPU201が制御プログラムを実行することにより実現される。   FIG. 4 is a functional block diagram illustrating functional units provided in the image processing unit 212. As illustrated in FIG. 4, the image processing unit 212 includes a captured image data acquisition unit 400, a reference image data selection unit 401, a correction target image data selection unit 402, a parallax amount calculation unit 403, an image registration unit 404, and an area division unit. 405 and a corresponding area calculation unit 406. Further, a correction value calculation unit 407, a correction value shaping unit 408, a pixel value correction unit 409, and an image composition unit 410 are provided. Each functional unit is realized by the CPU 201 executing a control program.

撮像画像データ取得部400は、撮像部101、102によって撮像された複数の撮像画像データを取得する。あるいは、撮像画像データ取得部400は、あらかじめRAM202や外部メモリ213等に記録された撮像画像データを取得するなどしてもよい。また、撮像画像データ取得部は撮像部101の画角θ1(または焦点距離f1)、撮像部102の画角θ2(または焦点距離f2)、及び撮像部101と撮像部102との間隔Rを含む撮像情報をROM203や外部メモリ213などの記憶装置から取得する。   The captured image data acquisition unit 400 acquires a plurality of captured image data captured by the imaging units 101 and 102. Alternatively, the captured image data acquisition unit 400 may acquire captured image data recorded in advance in the RAM 202, the external memory 213, or the like. The captured image data acquisition unit includes an angle of view θ1 (or focal length f1) of the imaging unit 101, an angle of view θ2 (or focal length f2) of the imaging unit 102, and an interval R between the imaging unit 101 and the imaging unit 102. Imaging information is acquired from a storage device such as the ROM 203 or the external memory 213.

図5は、2眼の撮像装置を用いて撮像した画像について、広角画像に望遠画像を縮小して合成する処理を説明するための図である。撮像画像501は撮像部101で撮像した広角画像を、撮像画像502は撮像部102で撮像した望遠画像を示している。画像503は、撮像画像501の中央部に、撮像画像502を所定の比率で縮小した画像を貼り込むことで生成した仮想画角画像であり、画像504は本実施例の色合わせ処理を施した画像である。   FIG. 5 is a diagram for describing processing for reducing and combining a telephoto image with a wide-angle image for an image captured using a two-lens imaging device. A captured image 501 indicates a wide-angle image captured by the image capturing unit 101, and a captured image 502 indicates a telephoto image captured by the image capturing unit 102. An image 503 is a virtual angle-of-view image generated by pasting an image obtained by reducing the captured image 502 at a predetermined ratio in the center of the captured image 501, and the image 504 is subjected to the color matching process of the present embodiment. It is an image.

なお、本実施例では、撮像画像501の画角と同じ画角の画像503を生成する例を説明するが、これに限定されず、別の画角の画像を生成してもよい。また、撮像画像501に撮像画像502を合成する際に、撮像画像501の中央部に、所定の比率で縮小した撮像画像502を貼り込むことにより画像合成を行う例を説明する。すなわち、撮像画像501の重み値として0を、撮像画像502の重み値として1を用いて画像合成を行う。しかし、これに限定されず、別の重みを用いて画像合成を行ってもよい。   In this embodiment, an example in which an image 503 having the same angle of view as the captured image 501 is described will be described. However, the present invention is not limited to this, and an image having a different angle of view may be generated. An example of performing image composition by pasting a captured image 502 reduced at a predetermined ratio in the center of the captured image 501 when the captured image 502 is combined with the captured image 501 will be described. That is, image synthesis is performed using 0 as the weight value of the captured image 501 and 1 as the weight value of the captured image 502. However, the present invention is not limited to this, and image synthesis may be performed using another weight.

基準画像データ選択部401は、撮像画像データ取得部400で取得した複数の撮像画像データのうち、色合わせの基準となる撮像画像データ(以下、基準画像データ)を選択する。ここで、画像を貼りこまれる側の撮像画像501のデータを基準画像データとして選択する。補正対象画像データ選択部402は、撮像画像データ取得部400で取得した複数の撮像画像データのうち、実際に色合わせを行う撮像画像データ(以下、補正対象画像データ)を選択する。ここで、画像を貼り込む側の撮像画像502のデータを補正対象画像データとして選択する。視差量算出部403は、基準画像データに対する補正対象画像データの視差量を画素毎に算出する。画像位置合わせ部404は、基準画像データと補正対象画像データの位置合わせを行って、補正対象画像を合成する(貼り込む)領域を決定する。領域分割部405は、補正対象画像データを領域分割する。対応領域算出部406は、分割した補正対象画像データの各領域に対応する基準画像データの領域を、視差量算出部403で算出した視差量を基に算出する。補正値算出部407は、補正対象画像データの領域の色の平均値が対応する基準画像データの領域の色の平均値になるように、補正対象画像データの領域毎の色の補正値を算出する。補正値整形部408は、補正値算出部407で算出した補正値に対して隣接領域間の補正値の差を小さくするような整形を行う。画素値補正部409は、補正値整形部408で整形を行った補正値を用いて補正対象画像データの各領域の色を補正する。画像合成部410は、画像位置合わせ部404で決定した補正対象画像データを合成する領域を基に、画素値補正部409で補正した補正対象画像データを基準画像データに合成する。   The reference image data selection unit 401 selects captured image data (hereinafter referred to as reference image data) serving as a color matching reference from among a plurality of captured image data acquired by the captured image data acquisition unit 400. Here, the data of the captured image 501 on the side where the image is pasted is selected as the reference image data. The correction target image data selection unit 402 selects captured image data (hereinafter, correction target image data) that is actually color-matched from among the plurality of captured image data acquired by the captured image data acquisition unit 400. Here, the data of the captured image 502 on the side where the image is to be pasted is selected as the correction target image data. The parallax amount calculation unit 403 calculates the parallax amount of the correction target image data with respect to the reference image data for each pixel. The image alignment unit 404 aligns the reference image data and the correction target image data, and determines a region for combining (pasting) the correction target image. The area dividing unit 405 divides the correction target image data into areas. The corresponding area calculation unit 406 calculates the area of the reference image data corresponding to each area of the divided correction target image data based on the parallax amount calculated by the parallax amount calculation unit 403. The correction value calculation unit 407 calculates a color correction value for each region of the correction target image data so that the average value of the color of the region of the correction target image data becomes the average value of the color of the corresponding reference image data region. To do. The correction value shaping unit 408 performs shaping so as to reduce the difference between the correction values between adjacent regions with respect to the correction value calculated by the correction value calculation unit 407. The pixel value correction unit 409 corrects the color of each area of the correction target image data using the correction value shaped by the correction value shaping unit 408. The image synthesis unit 410 synthesizes the correction target image data corrected by the pixel value correction unit 409 with the reference image data based on the region where the correction target image data determined by the image alignment unit 404 is synthesized.

なお、本実施例において、上記の各機能部は撮像装置100の画像処理部212に備えられるが、撮像装置100と通信可能な画像処理装置に備えられてもよい。   In the present embodiment, each functional unit described above is provided in the image processing unit 212 of the imaging device 100, but may be provided in an image processing device that can communicate with the imaging device 100.

図6は、本実施例に係る画像処理のフローチャートである。   FIG. 6 is a flowchart of image processing according to the present embodiment.

ステップS601において、撮像画像データ取得部400が複数の撮像画像データを取得する。また、撮像部101の画角θ1(または焦点距離f1)、撮像部102の画角θ2(または焦点距離f2)、及び撮像部101と撮像部102との間隔Rを含む撮像情報も取得する。   In step S601, the captured image data acquisition unit 400 acquires a plurality of captured image data. Also, imaging information including the angle of view θ1 (or focal length f1) of the imaging unit 101, the angle of view θ2 (or focal length f2) of the imaging unit 102, and the interval R between the imaging unit 101 and the imaging unit 102 is acquired.

ステップS602において、基準画像データ選択部401が、画像を貼りこまれる側の広角画像データを基準画像データとして選択し、補正対象画像データ選択部402が、画像を貼り込む側の望遠画像データを補正対象画像データとして選択する。ここで、撮像画像501は基準画像、撮像画像502は補正対象画像である。   In step S602, the reference image data selection unit 401 selects the wide-angle image data on the side where the image is to be pasted as reference image data, and the correction target image data selection unit 402 corrects the telephoto image data on the side where the image is to be pasted. Select as target image data. Here, the captured image 501 is a reference image, and the captured image 502 is a correction target image.

ステップS603において、視差量算出部403が、基準画像データに対する補正対象画像データの視差量を算出する。視差量は、補正対象画像データと基準画像データの間で対応点探索を行うことで求めることができる。   In step S603, the parallax amount calculation unit 403 calculates the parallax amount of the correction target image data with respect to the reference image data. The amount of parallax can be obtained by searching for corresponding points between the correction target image data and the reference image data.

具体的に、まず、視差量算出部403は、ステップS601で取得した撮像部の画角(または焦点距離)などの撮像情報を基に、補正対象画像データを基準画像データと同じ撮像倍率になるように縮小する。例えば、図1(b)に示す撮像部101、102の水平画角θ1、θ2を用いて表すと、水平方向の縮小比率はtan(θ2/2)/tan(θ1/2)となる。次に、縮小した補正対象画像データの、基準画像データに対する視差量を画素毎に算出する。   Specifically, first, the parallax amount calculation unit 403 sets the correction target image data to the same imaging magnification as that of the reference image data based on imaging information such as the angle of view (or focal length) of the imaging unit acquired in step S601. Reduce so that. For example, if the horizontal view angles θ1 and θ2 of the imaging units 101 and 102 shown in FIG. 1B are used, the horizontal reduction ratio is tan (θ2 / 2) / tan (θ1 / 2). Next, the parallax amount of the reduced correction target image data with respect to the reference image data is calculated for each pixel.

図7は、画像データ間の視差量を説明するための図である。   FIG. 7 is a diagram for explaining the amount of parallax between image data.

3次元空間中の物体は、図7(a)に示すカメラモデルによって簡易的に表わすことができる。視点Oから観測した3次元空間中の点Pは、透視投影により視点Oと点Pを結んだ直線と投影面Iが交わる点pとして観測される。fはレンズ中心から投影面までの距離、すなわち焦点距離を表す。   An object in the three-dimensional space can be simply represented by the camera model shown in FIG. The point P in the three-dimensional space observed from the viewpoint O is observed as a point p where the straight line connecting the viewpoint O and the point P intersects the projection plane I by perspective projection. f represents the distance from the lens center to the projection plane, that is, the focal length.

次に、視点OL、ORに設置した2つのカメラCL、CRにより3次元空間中の同一点Pを観測することを考える。図7(b)に示すように、2つの視点OL、ORから観測した点は、図7(a)のカメラモデルにより、それぞれの投影面IL、IRに点pL、pRとして投影される。この時、それぞれの視点と投影面に投影された点とを結んだ直線は点Pで交わる。視点OLが投影面ILに投影された点に対する点pLの位置と、視点ORが投影面IRに投影された点に対する点pRの位置との差分は、点Pの視差量となる。pL、pRの位置を対応点探索で求める事ができれば、視差量を算出することができる。   Next, consider observing the same point P in the three-dimensional space with the two cameras CL and CR installed at the viewpoints OL and OR. As shown in FIG. 7B, the points observed from the two viewpoints OL and OR are projected as points pL and pR on the respective projection planes IL and IR by the camera model of FIG. 7A. At this time, straight lines connecting the respective viewpoints and the points projected on the projection plane intersect at a point P. The difference between the position of the point pL with respect to the point at which the viewpoint OL is projected onto the projection plane IL and the position of the point pR with respect to the point at which the viewpoint OR is projected onto the projection plane IR is the amount of parallax at the point P. If the positions of pL and pR can be obtained by corresponding point search, the amount of parallax can be calculated.

ステップS604において、画像位置合わせ部404が、基準画像データと補正対象画像データの位置合わせを行う。すなわち、基準画像に補正対象画像を合成する(貼り込む)領域を決定する。なお、視差量算出部403にて対応点探索を実行しており、その結果を用いて位置合わせを行うことができる。それ以外にも、画像の特徴点を算出して位置合わせを行う、SIFT(Scale Invariant Feature Transform)などの既知の技術を用いても良い。SIFTは、例えば米国特許第6711293号明細書に記載されている。   In step S604, the image alignment unit 404 aligns the reference image data and the correction target image data. That is, an area for combining (pasting) the correction target image with the reference image is determined. Note that the corresponding point search is executed by the parallax amount calculation unit 403, and alignment can be performed using the result. In addition to this, a known technique such as SIFT (Scale Invariant Feature Transform) that calculates and aligns image feature points may be used. SIFT is described, for example, in US Pat. No. 6,711,293.

ステップS605において、領域分割部405が、補正対象画像データを領域分割する。補正対象画像データは、分割された領域毎に色の補正値を求め、基準画像データとの色合わせを行う。なお、補正値は、領域内の画素の平均値を基準画像データの対応領域内の画素の平均値に合わせる値とする。領域が大きすぎると、隣接する領域との補正値の差が大きくなり、領域間にあらたに疑似的な輪郭が発生してしまう。そのため、小さいサイズで領域分割することが望ましい。   In step S605, the area dividing unit 405 divides the correction target image data into areas. For the correction target image data, a color correction value is obtained for each divided area, and color matching with the reference image data is performed. The correction value is a value that matches the average value of the pixels in the region with the average value of the pixels in the corresponding region of the reference image data. If the area is too large, the difference in correction value from the adjacent area becomes large, and a new pseudo contour is generated between the areas. Therefore, it is desirable to divide the area with a small size.

一方、基準画像データの対応領域は視差量算出部403で算出した視差量を基に算出されており、視差量算出部403で算出した視差量には誤差が含まれることが多い。この誤差を投影面I上のピクセル数に換算した値をEとし、Eよりも小さいサイズで領域分割してしまうと、対応領域算出部406で発生する対応領域の誤差が大きいため、補正後の画素値に誤差が大きくなってしまう。そのため、事前に視差量算出部403で発生する視差量の最大誤差Emaxを見積もった上で、適切な領域サイズを決定することが望ましい。   On the other hand, the corresponding region of the reference image data is calculated based on the parallax amount calculated by the parallax amount calculation unit 403, and the parallax amount calculated by the parallax amount calculation unit 403 often includes an error. A value obtained by converting this error into the number of pixels on the projection plane I is E. If the area is divided into a size smaller than E, the corresponding area error generated in the corresponding area calculation unit 406 is large. The error in the pixel value becomes large. Therefore, it is desirable to determine an appropriate region size after estimating the maximum parallax amount error Emax generated in the parallax amount calculation unit 403 in advance.

ステップS606において、対応領域算出部406が、ステップS605で分割した補正対象画像データの各領域に対応する基準画像データの対応領域を、ステップS603で算出した視差量を基に算出する。   In step S606, the corresponding area calculation unit 406 calculates the corresponding area of the reference image data corresponding to each area of the correction target image data divided in step S605 based on the parallax amount calculated in step S603.

図8は、本実施例における対応領域算出を説明するための図である。撮像画像501は基準画像、撮像画像502は補正対象画像である。領域801は、画像位置合わせ部404にて位置合わせを行った結果の、撮像画像502を貼り込む領域を示している。視差マップ802は、ステップS603で算出した撮像画像501と撮像画像502の間の画素毎の視差量をマップ化したものである。視差マップ802では、画素が白いほど視差量が小さく、画素が黒いほど視差量が大きくなるように、視差量を表現している。以下、撮像画像502の領域803、804に対応する、撮像画像501の領域807、808の座標値を求める手順を説明する。   FIG. 8 is a diagram for explaining the corresponding area calculation in the present embodiment. The captured image 501 is a reference image, and the captured image 502 is a correction target image. A region 801 indicates a region where the captured image 502 is pasted as a result of the alignment performed by the image alignment unit 404. The parallax map 802 is obtained by mapping the parallax amount for each pixel between the captured image 501 and the captured image 502 calculated in step S603. In the parallax map 802, the parallax amount is expressed such that the whiter the pixel, the smaller the parallax amount, and the blacker the pixel, the larger the parallax amount. Hereinafter, a procedure for obtaining the coordinate values of the areas 807 and 808 of the captured image 501 corresponding to the areas 803 and 804 of the captured image 502 will be described.

領域805は、領域803に対応する視差マップ802上の領域である。領域805内の平均視差量を求め、その値をD1とする。撮像装置の位置関係は図1の撮像部101と撮像部102の位置関係である。すなわち、撮像部101と撮像部102は同一水平線に位置する。そのため、領域807の座標値は、領域803よりも−x方向にD1だけずれた場所として求められる。   An area 805 is an area on the parallax map 802 corresponding to the area 803. The average amount of parallax in the area 805 is obtained, and the value is set to D1. The positional relationship of the imaging device is the positional relationship between the imaging unit 101 and the imaging unit 102 in FIG. That is, the imaging unit 101 and the imaging unit 102 are located on the same horizontal line. For this reason, the coordinate value of the area 807 is obtained as a place shifted by D1 in the −x direction from the area 803.

同様に、領域806は、領域804に対応する視差マップ802上の領域である。領域806内の平均視差量を求め、その値をD2とした場合、領域808の座標値は、領域804よりも−x方向にD2だけずれた場所として求められる。   Similarly, the region 806 is a region on the parallax map 802 corresponding to the region 804. When the average amount of parallax in the region 806 is obtained and the value is set to D2, the coordinate value of the region 808 is obtained as a location shifted by D2 in the −x direction from the region 804.

なお、視差マップ802上の各画素で示す視差量は、その画素に対応する3次元空間中の点から撮像装置の投影面までの距離によって決まる。すなわち、距離が近いほど、視差量が大きくなる。領域805より距離の近い領域806は、相対的に大きい平均視差量を有する。従って、D1はD2より大きい。   Note that the amount of parallax indicated by each pixel on the parallax map 802 is determined by the distance from the point in the three-dimensional space corresponding to that pixel to the projection plane of the imaging apparatus. That is, the closer the distance, the greater the amount of parallax. A region 806 that is closer than the region 805 has a relatively large average amount of parallax. Therefore, D1 is greater than D2.

以上のように、ステップS606では、補正対象画像データの各領域に対応する基準画像データの対応領域を、領域内の平均視差量を基に算出することにより、精度のよい対応領域を効率的に得ることができる。   As described above, in step S606, the corresponding area of the reference image data corresponding to each area of the correction target image data is calculated based on the average parallax amount in the area, thereby efficiently matching the accurate corresponding area. Can be obtained.

ステップS607において、補正値算出部407が、ステップS605で分割した補正対象画像データの領域と、ステップS606で算出した基準画像データの対応領域とから、領域毎の色の補正値を算出する。   In step S607, the correction value calculation unit 407 calculates a color correction value for each area from the area of the correction target image data divided in step S605 and the corresponding area of the reference image data calculated in step S606.

補正値は、領域分割部405で分割した領域内の画素の平均値と、対応領域算出部406で求めた対応領域内の画素の平均値との差分値として求めることができる。例えば、領域803の平均画素値(平均輝度値)が、R=113,G=78,B=52であるとする。また、領域807の平均画素値(平均輝度値)が、R=104,G=67,B=45であるとする。その場合、補正値は、R=−9,G=−11,B=−7となる。   The correction value can be obtained as a difference value between the average value of the pixels in the region divided by the region dividing unit 405 and the average value of the pixels in the corresponding region obtained by the corresponding region calculating unit 406. For example, it is assumed that the average pixel value (average luminance value) of the region 803 is R = 113, G = 78, and B = 52. Further, it is assumed that the average pixel value (average luminance value) of the region 807 is R = 104, G = 67, and B = 45. In that case, the correction values are R = −9, G = −11, and B = −7.

また、補正値を差分値ではなく、割合として求めることもできる。その場合、補正値は、R=104/113,G=67/78,B=45/52となる。   Further, the correction value can be obtained not as a difference value but as a ratio. In that case, the correction values are R = 104/113, G = 67/78, and B = 45/52.

ステップS608において、ステップS805で分割した補正対象画像データの全領域において、補正値の算出が終了したかを判定する。終了した場合に、処理はステップS809に進み、終了していない場合に、処理はステップS806に戻る。ステップS606〜S608の処理により、ステップS605で分割した全領域の補正値は算出される。   In step S608, it is determined whether correction value calculation has been completed in all regions of the correction target image data divided in step S805. If completed, the process proceeds to step S809. If not completed, the process returns to step S806. Through the processes in steps S606 to S608, correction values for all the regions divided in step S605 are calculated.

ステップS609において、補正値整形部408が、ステップS608で算出した補正値を整形する。補正値は、分割領域のサイズが大きく、隣接領域間の補正値の差が大きいと、領域の境界部で疑似的な輪郭が発生する。これを抑制するためには、分割領域のサイズを小さくすることが望ましいが、視差量算出部403での誤差Emaxよりも小さくすると、補正後の画素値の誤差が大きくなってしまう。この問題を解決するために、補正値整形部408にて補正値全体にガウシアンフィルタをかけ、隣接領域間の補正値の差を小さくするような整形を行う。ただし、フィルタを強くかけすぎてしまうと、補正値が平均化されてしまい、補正後の画素値の誤差が大きくなってしまう。そのため、領域の大きさに応じて適切なガウシアンフィルタを設定することが望ましい。   In step S609, the correction value shaping unit 408 shapes the correction value calculated in step S608. As for the correction value, if the size of the divided region is large and the difference in the correction value between adjacent regions is large, a pseudo contour is generated at the boundary of the region. In order to suppress this, it is desirable to reduce the size of the divided region. However, if the error is smaller than the error Emax in the parallax amount calculation unit 403, the error of the corrected pixel value becomes large. In order to solve this problem, the correction value shaping unit 408 applies a Gaussian filter to the entire correction value, and performs shaping so as to reduce the difference in correction values between adjacent regions. However, if the filter is applied too strongly, the correction values are averaged and the error of the corrected pixel value becomes large. Therefore, it is desirable to set an appropriate Gaussian filter according to the size of the region.

ステップS610において、画素値補正部409が、ステップS609で整形した補正値を基に、分割した領域毎に補正対象画像データの画素値を補正する。ステップS607で補正値を差分値として求めた場合には、補正対象画像データの画素値に、対応する領域の補正値を加算することで補正を行う。ステップS607で補正値を割合として求めた場合には、補正値を乗算することで補正を行う。   In step S610, the pixel value correction unit 409 corrects the pixel value of the correction target image data for each divided area based on the correction value shaped in step S609. When the correction value is obtained as the difference value in step S607, the correction is performed by adding the correction value of the corresponding area to the pixel value of the correction target image data. When the correction value is obtained as a ratio in step S607, the correction is performed by multiplying the correction value.

ステップS611において、画像合成部410が、画像位置合わせ部404で決定した補正対象画像データを合成する(貼り込む)領域を基に、ステップS610で補正した補正対象画像データを基準画像データに合成して、合成画像データを生成する。   In step S611, the image composition unit 410 synthesizes the correction target image data corrected in step S610 with the reference image data based on the region where the correction target image data determined by the image alignment unit 404 is synthesized (pasted). To generate composite image data.

以上のように、撮像部102で撮像した望遠画像データは複数の領域に分割され、分割領域毎に撮像部101で撮像した広角画像データの対応領域との色合わせが行われる。すなわち、撮像画像間の色合わせが行われ、しかもシェーディングによる影響が大きい望遠画像データの高像高部の領域は、シェーディングによる影響が比較的少ない広角画像データの中像高部の対応領域に色合わせるように補正される。これにより、画像合成時に発生する、シェーディングによる段差を含む合成の境界部における色と明るさの段差を補正することができる。その結果、合成の境界部の疑似的な輪郭を抑制することができる。   As described above, the telephoto image data picked up by the image pickup unit 102 is divided into a plurality of regions, and color matching with the corresponding region of the wide-angle image data picked up by the image pickup unit 101 is performed for each divided region. That is, the high image height area of the telephoto image data that is color-matched between the captured images and that is greatly affected by shading is colored in the corresponding area of the medium image height area of the wide-angle image data that is relatively less affected by shading. It is corrected to match. As a result, it is possible to correct a color and brightness level difference at the boundary of synthesis including a level difference due to shading that occurs during image synthesis. As a result, it is possible to suppress a pseudo contour at the boundary of synthesis.

(実施例2)
本実施例では、3眼以上の撮像装置を用いて撮像を行い、画角が順次狭くなる複数の画像を合成する際の、境界部の色や明るさの段差を抑制する方法について述べる。
(Example 2)
In the present embodiment, a method for suppressing a step of color and brightness at a boundary when imaging is performed using an imaging apparatus having three or more eyes and a plurality of images whose field angles are sequentially narrowed is described.

図9は3眼の撮像装置を用いて撮像した画像について、画角が順次狭くなる3つの画像を合成する処理を説明するための図である。画像901は広角の焦点距離の撮像装置で撮像した画像を、画像902は標準的な焦点距離の撮像装置で撮像した画像を、画像903は望遠の焦点距離の撮像装置で撮像した画像を表わす。画像904は画像901〜903を合成した仮想画角画像であり、画像905は本実施例の色合わせ処理を施した画像である。   FIG. 9 is a diagram for explaining a process of synthesizing three images whose angles of view are sequentially narrowed for an image captured using a three-lens imaging device. An image 901 represents an image captured by an imaging device having a wide-angle focal length, an image 902 represents an image captured by an imaging device having a standard focal length, and an image 903 represents an image captured by an imaging device having a telephoto focal length. An image 904 is a virtual angle-of-view image obtained by combining the images 901 to 903, and an image 905 is an image that has been subjected to the color matching process of the present embodiment.

図10は、画像901〜903を合成する際の合成処理順のバリエーションを示す図である。   FIG. 10 is a diagram illustrating variations in the composition processing order when the images 901 to 903 are composited.

図10(a)では、始めに標準画角の画像902を基準画像とし、望遠画像903を補正対象画像として画像合成を行うことにより、画像1001を生成する。次に広角画像901を基準画像とし、画像1001を補正対象画像として画像合成を行うことにより、画像1002を得る。この手順では、望遠画像903が画像1001生成時と、画像1002生成時とに2回補正されてしまう。補正回数は多いほど元画像からかけ離れていくことになるため、図10(a)の手順で補正を行うのは望ましくない。   In FIG. 10A, first, an image 1001 is generated by performing image synthesis using an image 902 having a standard angle of view as a reference image and a telephoto image 903 as a correction target image. Next, an image 1002 is obtained by performing image composition using the wide-angle image 901 as a reference image and the image 1001 as a correction target image. In this procedure, the telephoto image 903 is corrected twice when the image 1001 is generated and when the image 1002 is generated. As the number of corrections increases, the distance from the original image increases. Therefore, it is not desirable to perform correction according to the procedure of FIG.

図10(b)では、始めに広角画像901を基準画像とし、望遠画像903を補正対象画像として画像合成を行うことにより、画像1003を得る。次に画像1003を基準画像とし、標準画角の画像902を補正対象画像として画像合成を行うことにより、画像1004を得る。この手順では、画像1003生成時に、基準画像と補正対象画像の解像度が大きく異なるため、視差量算出部403にて誤差が発生しやすくなる。その結果、視差量の最大誤差Emaxが大きくなり、領域分割部405での領域サイズを大きくしなければならなくなる。従って、図10(b)の手順で補正を行うのは望ましくない。   In FIG. 10B, first, an image 1003 is obtained by performing image composition using the wide-angle image 901 as a reference image and the telephoto image 903 as a correction target image. Next, an image 1004 is obtained by performing image composition using the image 1003 as a reference image and the image 902 having a standard angle of view as a correction target image. In this procedure, when the image 1003 is generated, an error is likely to occur in the parallax amount calculation unit 403 because the resolution of the reference image and the correction target image are greatly different. As a result, the maximum error Emax of the parallax amount increases, and the area size in the area dividing unit 405 has to be increased. Therefore, it is not desirable to perform the correction in the procedure of FIG.

図10(c)は本実施例における合成処理順を示す図である。図10(c)では、始めに広角画像901を基準画像とし、標準画角の画像902を補正対象画像として画像合成を行うことにより、画像1005を得る。次に画像1005を基準画像とし、望遠画像903を補正対象画像として画像合成(2回目の画像合成)を行うことにより、画像1006を得る。図10(c)に示す本実施例の手順では、図10(a)の手順の場合に同じ画像に複数回の補正がかかる問題は発生しない。また、図10(b)の手順の場合に解像度が大きく異なる問題も発生しない。以上のように、本実施例の合成処理順により、合成の境界部の色や明るさの段差を抑制しつつ、高品質な合成画像を得ることができる。   FIG. 10C is a diagram showing the order of synthesis processing in this embodiment. In FIG. 10C, first, an image 1005 is obtained by performing image composition using the wide-angle image 901 as a reference image and the image 902 having a standard angle of view as a correction target image. Next, an image 1006 is obtained by performing image composition (second image composition) using the image 1005 as a reference image and the telephoto image 903 as a correction target image. In the procedure of this embodiment shown in FIG. 10C, there is no problem that the same image is corrected a plurality of times in the case of the procedure of FIG. Further, the problem of greatly different resolution does not occur in the procedure of FIG. As described above, a high-quality composite image can be obtained while suppressing the step of color and brightness at the boundary of composition according to the composition processing order of the present embodiment.

本実施例では、3眼構成での合成処理順について説明したが、3眼以上の構成にも適用可能である。具体的には、基準画像データ選択部401では、焦点距離が広角側の撮像部によって撮像されたものから順に選択し、補正対象画像データ選択部402では、基準画像データの次に望遠側の画像を選択するように合成処理順を設定すれば良い。   In the present embodiment, the synthesis processing order in the three-lens configuration has been described, but the present invention can also be applied to a configuration with three or more eyes. Specifically, the reference image data selection unit 401 selects the focal length in order from the image captured by the imaging unit on the wide angle side, and the correction target image data selection unit 402 selects the image on the telephoto side next to the reference image data. The composition processing order may be set so as to select.

以上により、3眼以上の撮像装置を用いた場合でも、境界部の疑似的な輪郭を抑制することができる。   As described above, even when an imaging apparatus having three or more eyes is used, a pseudo contour at the boundary can be suppressed.

(他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

Claims (13)

共通の被写体を含む画角が異なる複数の画像データを用いて、合成画像データを生成するための画像処理装置であって、
前記複数の画像データから、第1の画像データを基準画像データとして、前記第1の画像データよりも画角が狭い第2の画像データを補正対象画像データとして選択する選択手段と、
前記補正対象画像データを複数の領域に分割する分割手段と、
前記補正対象画像データを分割して得られた領域毎に、前記基準画像データにおける対応領域との色合わせを行う色合わせ手段と、
前記色合わせ後の前記補正対象画像データを前記基準画像データに合成して、前記合成画像データを生成する合成手段と
を有し、
前記色合わせ手段は、
前記補正対象画像データの領域毎の補正値を、当該領域の平均画素値が当該領域に対応する前記対応領域の平均画素値になるように算出する補正値算出手段と、
前記補正値を基に前記補正対象画像データを補正する補正手段と
を有することを特徴とする画像処理装置。
An image processing apparatus for generating composite image data using a plurality of image data having different angles of view including a common subject,
Selection means for selecting, from the plurality of image data, first image data as reference image data, and second image data having a smaller angle of view than the first image data as correction target image data;
Dividing means for dividing the correction target image data into a plurality of regions;
Color matching means for performing color matching with a corresponding area in the reference image data for each area obtained by dividing the correction target image data;
Combining the correction target image data after the color matching with the reference image data, and generating the composite image data, and
The color matching means includes
Correction value calculation means for calculating a correction value for each area of the correction target image data so that an average pixel value of the area becomes an average pixel value of the corresponding area corresponding to the area;
An image processing apparatus comprising: correction means for correcting the correction target image data based on the correction value.
前記補正値は、前記領域の平均画素値と前記対応領域の平均画素値との差分であることを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the correction value is a difference between an average pixel value of the area and an average pixel value of the corresponding area. 前記補正値は、前記領域の平均画素値に対する前記対応領域の平均画素値の割合であることを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the correction value is a ratio of an average pixel value of the corresponding area to an average pixel value of the area. 前記色合わせ手段は、前記補正値算出手段で算出した補正値を、隣接領域間の補正値の差が小さくなるように整形する整形手段をさらに有し、
前記補正手段は、前記整形手段で整形した補正値を基に、前記補正対象画像データを補正することを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。
The color matching unit further includes a shaping unit that shapes the correction value calculated by the correction value calculation unit so that a difference in correction values between adjacent regions is small,
The image processing apparatus according to claim 1, wherein the correction unit corrects the correction target image data based on a correction value shaped by the shaping unit.
前記基準画像データに対する前記補正対象画像データの視差量を画素毎に算出する視差量算出手段と、
前記領域における前記視差量の平均値を基に、前記対応領域を算出する対応領域算出手段と
をさらに有することを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。
Parallax amount calculating means for calculating a parallax amount of the correction target image data with respect to the reference image data for each pixel;
The image processing apparatus according to claim 1, further comprising: a corresponding area calculation unit that calculates the corresponding area based on an average value of the parallax amounts in the area.
前記分割手段は、前記視差量算出手段の視差量算出における誤差を基に決定されたサイズで、前記補正対象画像データを分割することを特徴とする請求項5に記載の画像処理装置。   The image processing apparatus according to claim 5, wherein the dividing unit divides the correction target image data by a size determined based on an error in the parallax amount calculation of the parallax amount calculating unit. 前記第1の画像データは広角画像データであり、前記第2の画像データは望遠画像データであることを特徴とする請求項1乃至6のいずれか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the first image data is wide-angle image data, and the second image data is telephoto image data. 前記選択手段は、前記合成画像データを2回目の画像合成における基準画像データとして、前記第2の画像データよりも画角が狭い第3の画像データを前記2回目の画像合成における補正対象画像データとして選択することを特徴とする請求項1乃至6のいずれか1項に記載の画像処理装置。   The selection means uses the composite image data as reference image data in the second image composition, and uses third image data having a narrower angle of view than the second image data as correction target image data in the second image composition. The image processing apparatus according to claim 1, wherein the image processing apparatus is selected. 前記第1の画像データは広角画像データであり、前記第2の画像データは標準画角の画像データであり、前記第3の画像データは望遠画像データであることを特徴とする請求項8に記載の画像処理装置。   9. The first image data is wide-angle image data, the second image data is image data with a standard angle of view, and the third image data is telephoto image data. The image processing apparatus described. 前記画素値は輝度値であることを特徴とする請求項1乃至9のいずれか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the pixel value is a luminance value. 前記複数の画像データは、画角の異なる撮像部によって前記共通の被写体を同時に撮像した撮像画像データであることを特徴とする請求項1乃至10のいずれか1項に記載の画像処理装置。   11. The image processing apparatus according to claim 1, wherein the plurality of pieces of image data are captured image data obtained by simultaneously capturing the common subject using image capturing units having different angles of view. 共通の被写体を含む画角が異なる複数の画像データを用いて、合成画像データを生成するための画像処理方法であって、
前記複数の画像データから、第1の画像データを基準画像データとして、前記第1の画像データよりも画角が狭い第2の画像データを補正対象画像データとして選択する選択工程と、
前記補正対象画像データを複数の領域に分割する分割工程と、
前記補正対象画像データを分割して得られた領域毎に、前記基準画像データにおける対応領域との色合わせを行う色合わせ工程と、
前記色合わせ後の前記補正対象画像データを前記基準画像データに合成して、前記合成画像データを生成する合成工程と
を含み、
前記色合わせ工程は、
前記補正対象画像データの領域毎の補正値を、当該領域の平均画素値が当該領域に対応する前記対応領域の平均画素値になるように算出する補正値算出工程と、
前記補正値を基に前記補正対象画像データを補正する補正工程と
を含むことを特徴とする画像処理方法。
An image processing method for generating composite image data using a plurality of image data having different angles of view including a common subject,
A selection step of selecting, from the plurality of image data, first image data as reference image data, and second image data having a smaller angle of view than the first image data as correction target image data;
A division step of dividing the correction target image data into a plurality of regions;
For each region obtained by dividing the correction target image data, a color matching step for performing color matching with a corresponding region in the reference image data;
Combining the correction target image data after the color matching with the reference image data to generate the composite image data, and
The color matching step includes
A correction value calculating step for calculating a correction value for each area of the correction target image data so that an average pixel value of the area becomes an average pixel value of the corresponding area corresponding to the area;
A correction step of correcting the correction target image data based on the correction value.
コンピュータを、請求項1乃至11のいずれか1項に記載の画像処理装置として機能させるためのプログラム。   A program for causing a computer to function as the image processing apparatus according to any one of claims 1 to 11.
JP2015237208A 2015-12-04 2015-12-04 Image processing apparatus, image processing method, and program thereof Active JP6732440B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015237208A JP6732440B2 (en) 2015-12-04 2015-12-04 Image processing apparatus, image processing method, and program thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015237208A JP6732440B2 (en) 2015-12-04 2015-12-04 Image processing apparatus, image processing method, and program thereof

Publications (3)

Publication Number Publication Date
JP2017103695A true JP2017103695A (en) 2017-06-08
JP2017103695A5 JP2017103695A5 (en) 2018-12-27
JP6732440B2 JP6732440B2 (en) 2020-07-29

Family

ID=59017203

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015237208A Active JP6732440B2 (en) 2015-12-04 2015-12-04 Image processing apparatus, image processing method, and program thereof

Country Status (1)

Country Link
JP (1) JP6732440B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111383256A (en) * 2018-12-29 2020-07-07 北京市商汤科技开发有限公司 Image processing method, electronic device, and computer-readable storage medium
CN111563552A (en) * 2020-05-06 2020-08-21 浙江大华技术股份有限公司 Image fusion method and related equipment and device
WO2024079998A1 (en) * 2022-10-13 2024-04-18 株式会社ジャパンディスプレイ Image-capturing device, subject depth estimation method, and program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005341527A (en) * 2004-04-30 2005-12-08 Mitsubishi Electric Corp Gradation correcting apparatus, gradation correcting program, mobile terminal device and personal computer
JP2007104267A (en) * 2005-10-04 2007-04-19 Nikon Corp Color correction processing program and electronic camera
JP2010011223A (en) * 2008-06-27 2010-01-14 Sony Corp Signal processing apparatus, signal processing method, program, and recording medium
JP2013162416A (en) * 2012-02-07 2013-08-19 Sharp Corp Imaging apparatus, image processing apparatus, image processing method and program
JP2014502818A (en) * 2010-12-27 2014-02-03 スリーディーメディア コーポレイション Primary image and secondary image image capturing apparatus and method for image processing

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005341527A (en) * 2004-04-30 2005-12-08 Mitsubishi Electric Corp Gradation correcting apparatus, gradation correcting program, mobile terminal device and personal computer
JP2007104267A (en) * 2005-10-04 2007-04-19 Nikon Corp Color correction processing program and electronic camera
JP2010011223A (en) * 2008-06-27 2010-01-14 Sony Corp Signal processing apparatus, signal processing method, program, and recording medium
JP2014502818A (en) * 2010-12-27 2014-02-03 スリーディーメディア コーポレイション Primary image and secondary image image capturing apparatus and method for image processing
JP2013162416A (en) * 2012-02-07 2013-08-19 Sharp Corp Imaging apparatus, image processing apparatus, image processing method and program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111383256A (en) * 2018-12-29 2020-07-07 北京市商汤科技开发有限公司 Image processing method, electronic device, and computer-readable storage medium
CN111383256B (en) * 2018-12-29 2024-05-17 北京市商汤科技开发有限公司 Image processing method, electronic device, and computer-readable storage medium
CN111563552A (en) * 2020-05-06 2020-08-21 浙江大华技术股份有限公司 Image fusion method and related equipment and device
CN111563552B (en) * 2020-05-06 2023-09-05 浙江大华技术股份有限公司 Image fusion method, related device and apparatus
WO2024079998A1 (en) * 2022-10-13 2024-04-18 株式会社ジャパンディスプレイ Image-capturing device, subject depth estimation method, and program

Also Published As

Publication number Publication date
JP6732440B2 (en) 2020-07-29

Similar Documents

Publication Publication Date Title
JP6100089B2 (en) Image processing apparatus, image processing method, and program
JP6112824B2 (en) Image processing method and apparatus, and program.
JP4513906B2 (en) Image processing apparatus, image processing method, program, and recording medium
JP5984493B2 (en) Image processing apparatus, image processing method, imaging apparatus, and program
JP2019030007A (en) Electronic device for acquiring video image by using plurality of cameras and video processing method using the same
JP2011151798A (en) Multocular image pickup apparatus and method
US9008412B2 (en) Image processing device, image processing method and recording medium for combining image data using depth and color information
JP6452360B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP2015197745A (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP2015231220A (en) Image processing apparatus, imaging device, image processing method, imaging method and program
US9332195B2 (en) Image processing apparatus, imaging apparatus, and image processing method
EP2635019B1 (en) Image processing device, image processing method, and program
US10148870B2 (en) Image capturing apparatus
JP2015073185A (en) Image processing device, image processing method and program
CN109785225B (en) Method and device for correcting image
JP6732440B2 (en) Image processing apparatus, image processing method, and program thereof
US20130083169A1 (en) Image capturing apparatus, image processing apparatus, image processing method and program
JP5925109B2 (en) Image processing apparatus, control method thereof, and control program
JP6648916B2 (en) Imaging device
JP6332982B2 (en) Image processing apparatus and method
JP5863280B2 (en) Imaging apparatus, image processing method, and program
JP6292785B2 (en) Image processing apparatus, image processing method, and program
JP2014049895A (en) Image processing method
JP2013110711A (en) Image processing apparatus, image processing method and program
JP2011182325A (en) Image pickup device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181114

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181114

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190716

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190827

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191028

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200331

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200601

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200609

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200708

R151 Written notification of patent or utility model registration

Ref document number: 6732440

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151