JP6732440B2 - Image processing apparatus, image processing method, and program thereof - Google Patents

Image processing apparatus, image processing method, and program thereof Download PDF

Info

Publication number
JP6732440B2
JP6732440B2 JP2015237208A JP2015237208A JP6732440B2 JP 6732440 B2 JP6732440 B2 JP 6732440B2 JP 2015237208 A JP2015237208 A JP 2015237208A JP 2015237208 A JP2015237208 A JP 2015237208A JP 6732440 B2 JP6732440 B2 JP 6732440B2
Authority
JP
Japan
Prior art keywords
image data
correction target
area
correction
target image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015237208A
Other languages
Japanese (ja)
Other versions
JP2017103695A5 (en
JP2017103695A (en
Inventor
将人 小川
将人 小川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015237208A priority Critical patent/JP6732440B2/en
Publication of JP2017103695A publication Critical patent/JP2017103695A/en
Publication of JP2017103695A5 publication Critical patent/JP2017103695A5/ja
Application granted granted Critical
Publication of JP6732440B2 publication Critical patent/JP6732440B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Color Television Image Signal Generators (AREA)
  • Studio Devices (AREA)

Description

本発明は、画像処理装置、画像処理方法、及びそのプログラムに関する。具体的には、画角の異なる複数の撮像装置によって撮像された撮像画像データを基に、所望の画角の画像データを生成する画像処理装置、画像処理方法、及びそのプログラムに関する。 The present invention relates to an image processing device, an image processing method, and a program thereof. Specifically, the present invention relates to an image processing device, an image processing method, and a program thereof that generate image data of a desired angle of view based on imaged image data taken by a plurality of image pickup devices having different angles of view.

従来、撮像画像の所望の領域を拡大する方法として、画像処理によりズームを実現する技術(電子ズーム)が知られている。電子ズームでは、ズーム倍率を大きくするほど拡大倍率も大きくなり、次第に解像感が損なわれてしまう問題があった。そこで、画角の異なる複数のカメラを用いることで、解像感を損なわずに画像処理によるズームを実現する技術がある(特許文献1参照)。特許文献1では、焦点距離が短くて画角が広いカメラと、焦点距離が長くて画角が狭いカメラとからなる撮像装置を用いて被写体を撮像する。画角の広い広角画像に画角の狭い望遠画像を所定の比率で縮小して合成することにより、解像感を損なわずに所望の仮想画角の画像データを生成することができる。 Conventionally, as a method of enlarging a desired region of a captured image, a technique (electronic zoom) for realizing zoom by image processing is known. In the electronic zoom, as the zoom magnification is increased, the enlargement magnification is also increased, and there is a problem that the sense of resolution is gradually deteriorated. Therefore, there is a technique that realizes zooming by image processing without impairing the sense of resolution by using a plurality of cameras having different angles of view (see Patent Document 1). In Patent Document 1, a subject is imaged using an imaging device including a camera having a short focal length and a wide angle of view and a camera having a long focal length and a narrow angle of view. By compressing a wide-angle image having a wide angle of view and a telephoto image having a narrow angle of view at a predetermined ratio and combining them, image data having a desired virtual angle of view can be generated without impairing the sense of resolution.

しかし、特許文献1には、カメラ特性のバラつきやシェーディングの影響により撮像画像間の色や明るさが異なり、合成した仮想画角画像に疑似的な輪郭(境界部における色や明るさの段差)が発生する問題がある。 However, in Patent Document 1, the color and brightness between captured images differ due to variations in camera characteristics and the effect of shading, and a pseudo contour (step of color and brightness at the boundary) in the combined virtual angle-of-view image. There is a problem that occurs.

上述した特許文献1の問題に対し、合成の境界部を補正することで疑似的な輪郭を目立たなくする方法がある(特許文献2参照)。特許文献2では、合成の境界部の画像データを、広角画像データから望遠画像データに徐々に近づくような補正データで置換することにより、境界部を補正する。すなわち、境界部における画像値を滑らかにすることで、段差を目立たなくする。 In order to solve the problem of Patent Document 1 described above, there is a method of making a pseudo contour inconspicuous by correcting the boundary portion of synthesis (see Patent Document 2). In Patent Document 2, the boundary portion is corrected by replacing the image data of the combined boundary portion with correction data that gradually approaches the wide-angle image data to the telephoto image data. That is, the step is made inconspicuous by smoothing the image value at the boundary portion.

特開2014−225843号公報JP, 2014-225843, A 特許第4299561号公報Japanese Patent No. 4299561

しかしながら、特許文献2は、合成の境界部に複雑なテクスチャが含まれる場合は補正処理が複雑になり、補正精度も低下するという課題があった。また、特許文献2の補正処理は、境界部における画像値を滑らかにすることで段差を目立たなくする処理であるが、境界部の段差を実質的に解消する処理ではない。撮像画像間の色や明るさの差が大きい場合は、特許文献2のように境界部を補正するだけでは不十分、という課題もある。 However, Patent Document 2 has a problem that the correction process becomes complicated and the correction accuracy also deteriorates when a complicated boundary includes a complicated texture. Further, the correction process of Patent Document 2 is a process of making the image value at the boundary portion smooth so as to make the step inconspicuous, but is not a process of substantially eliminating the step at the boundary portion. When the difference in color or brightness between captured images is large, there is also a problem that it is not sufficient to correct the boundary portion as in Patent Document 2.

そこで、境界部だけではなく、画像全体で色合わせを行うことが考えられる。しかし、仮想画角画像の生成では、画角の広い広角画像の中央部に、画角の狭い望遠画像を所定の比率で縮小して合成するため、カメラ特性のバラつきなどによる色と明るさの段差に加え、シェーディングによる段差も発生する。これは、シェーディングによる影響が比較的少ない広角画像の中像高部に、シェーディングによる影響が大きい望遠画像の高像高部を合成すると合成の境界部においてシェーディングが余計に目立つためである。このようなシェーディングによる段差は、画像全体での色あわせにより解消することができない。 Therefore, it is conceivable to perform color matching not only on the boundary but on the entire image. However, in the generation of the virtual angle-of-view image, the telephoto image with a narrow angle of view is reduced and combined at the center of the wide-angle image with a wide angle of view at a predetermined ratio. In addition to steps, steps due to shading also occur. This is because if the high image height portion of a telephoto image that is greatly affected by shading is combined with the middle image height portion of a wide-angle image that is relatively unaffected by shading, the shading is more noticeable at the boundary portion of the combination. Such a step due to shading cannot be eliminated by color matching of the entire image.

一方、シェーディングによる段差は、色合わせの前に画像全体の輝度が均一になるようシェーディング補正を行うことで対処可能ではあるが、このようなシェーディング補正を行うと、高像高部になるほど補正量が大きくなり、ノイズが増幅されてしまう。その結果、シェッディングによる段差は解消されても、ノイズによる段差が新たに発生してしまう。 On the other hand, a step due to shading can be dealt with by performing shading correction so that the brightness of the entire image becomes uniform before color matching. However, when such shading correction is performed, the correction amount increases as the image height becomes higher. Becomes larger and the noise is amplified. As a result, even if the step due to shedding is eliminated, a step due to noise is newly generated.

本発明は、上述のような課題に鑑みてなされたものであり、共通の被写体を含む画角の異なる複数の撮像画像データを合成する際に発生する、合成の境界部の疑似的な輪郭を抑制することを目的とする。 The present invention has been made in view of the above-described problems, and a pseudo contour of a boundary portion of synthesis, which is generated when synthesizing a plurality of captured image data having a different field angle including a common subject, is generated. The purpose is to suppress.

本発明に係る画像処理装置は、共通の被写体を含む画角が異なる複数の画像データを用いて、合成画像データを生成するための画像処理装置であって、前記複数の画像データから、第1の画像データを基準画像データとして、前記第1の画像データよりも画角が狭い第2の画像データを補正対象画像データとして選択する選択手段と、前記補正対象画像データを複数の領域に分割する分割手段と、前記基準画像データに対する前記補正対象画像データの視差量を導出する導出手段と、前記補正対象画像データを分割して得られた領域毎に前記視差量を参照し、前記視差量に応じた前記基準画像データにおける対応領域との色合わせを行う色合わせ手段と、前記基準画像データにおいて前記色合わせ後の前記補正対象画像データを前記基準画像データに合成する合成領域を決定して、前記基準画像データにおける前記合成領域に前記補正対象画像データを合成することで、前記合成画像データを生成する合成手段とを有し、前記色合わせ手段は、前記補正対象画像データの領域毎の補正値を、当該領域の平均画素値が当該領域に対応する前記対応領域の平均画素値になるように算出する補正値算出手段と、前記補正値を基に前記補正対象画像データを補正する補正手段とを有することを特徴とする。 An image processing apparatus according to the present invention is an image processing apparatus for generating composite image data by using a plurality of image data including a common subject and having different angles of view. Selecting the second image data having a narrower angle of view as the correction target image data than the first image data as reference image data, and dividing the correction target image data into a plurality of regions. Dividing means, deriving means for deriving the parallax amount of the correction target image data with respect to the reference image data, and referring to the parallax amount for each area obtained by dividing the correction target image data, to obtain the parallax amount. a color matching means for performing color matching with the corresponding region in the reference image data corresponding, the correction target image data after the color matching in the reference image data to determine a combined area for synthesizing the reference image data, And a combining unit that generates the combined image data by combining the correction target image data with the combination region in the reference image data. The color matching unit corrects each region of the correction target image data. Correction value calculating means for calculating a value so that the average pixel value of the area becomes the average pixel value of the corresponding area corresponding to the area, and correction means for correcting the correction target image data based on the correction value And having.

本発明は、共通の被写体を含む画角の異なる複数の撮像画像データを合成する際に発生する、合成の境界部の疑似的な輪郭を抑制する効果を奏する。 INDUSTRIAL APPLICABILITY The present invention has an effect of suppressing a pseudo contour of a boundary portion of combining, which occurs when combining a plurality of pieces of captured image data including a common subject and having different angles of view.

実施例1に係る複数の撮像部を備えた多眼方式の撮像装置の一例を示す図。FIG. 3 is a diagram illustrating an example of a multi-lens imaging device including a plurality of imaging units according to the first embodiment. 多眼方式の撮像装置の内部構成の一例を示すブロック図。FIG. 3 is a block diagram showing an example of an internal configuration of a multi-lens imaging device. 撮像部の内部構成の一例を示す図。The figure which shows an example of an internal structure of an imaging part. 実施例1に係る機能構成を示すブロック図。3 is a block diagram showing a functional configuration according to the first embodiment. FIG. 実施例1に係る画像合成を簡易的に示す図。FIG. 3 is a diagram simply showing image composition according to the first embodiment. 実施例1に係る画像処理のフローチャート。3 is a flowchart of image processing according to the first embodiment. 画像データ間の視差量を説明するための図。The figure for demonstrating the amount of parallax between image data. 実施例1における対応領域算出を説明するための図。FIG. 6 is a diagram for explaining a corresponding area calculation in the first embodiment. 実施例2に係る画像合成を簡易的に示す図。FIG. 9 is a diagram simply showing image synthesis according to the second embodiment. 実施例2における合成処理順のバリエーションを示す図。FIG. 9 is a diagram showing a variation of a combination processing order according to the second embodiment.

(実施例1)
本実施例では、広角画像に望遠画像を縮小して合成する際に発生する、境界部の疑似的な輪郭を抑制する方法について述べる。
(Example 1)
In the present embodiment, a method of suppressing a pseudo contour of a boundary portion that occurs when a telescopic image is reduced and combined with a wide-angle image will be described.

図1は、画角の異なる複数の撮像部を備えた多眼方式による撮像装置の一例を示す図である。図1(a)に示すように、撮像装置100はカラー画像データを取得する2個の撮像部101、102及び撮像ボタン103を備えている。図1(b)に示すように撮像部101、102は、それぞれの光軸104、105が平行になるように配置されている。本実施例では、撮像部101と102の水平方向の間隔をR、撮像部101の水平画角をθ1、撮像部102の水平画角をθ2とする。なお、θ1>θ2とし、撮像部102よりも撮像部101の方が画角が広いものとする。ユーザが撮像ボタン103を押下すると、撮像部101〜102が被写体の光情報をセンサ(撮像素子)で受光し、受光した信号がA/D変換され、複数のデジタルデータ(撮像画像データ)が同時に得られる。撮像画像データには、撮像時のフォーカス設定などに基づき導出された撮像装置100から被写体までの距離Lがタグ情報として付与されるものとする。 FIG. 1 is a diagram showing an example of a multi-lens system imaging device including a plurality of imaging units having different angles of view. As shown in FIG. 1A, the image capturing apparatus 100 includes two image capturing units 101 and 102 that acquire color image data and an image capturing button 103. As shown in FIG. 1B, the image pickup units 101 and 102 are arranged such that their optical axes 104 and 105 are parallel to each other. In this embodiment, the horizontal interval between the image pickup units 101 and 102 is R, the horizontal angle of view of the image pickup unit 101 is θ1, and the horizontal angle of view of the image pickup unit 102 is θ2. Note that θ1>θ2, and the image pickup unit 101 has a wider field angle than the image pickup unit 102. When the user presses the image capturing button 103, the image capturing units 101 to 102 receive the optical information of the subject by the sensor (image capturing element), the received signal is A/D converted, and a plurality of digital data (captured image data) are simultaneously obtained. can get. It is assumed that the captured image data is provided with the distance L from the image capturing apparatus 100 to the subject, which is derived based on the focus setting at the time of capturing, as tag information.

このような多眼方式の撮像装置により、共通の被写体を複数の視点位置から撮像した撮像画像群を得ることができる。なお、ここでは撮像部の数を2個としたが、撮像部の数は2個に限定されず、撮像装置が複数の撮像部を有する限りにおいてその数によらず本実施例は適用可能である。 With such a multi-lens type imaging device, it is possible to obtain a captured image group in which a common subject is captured from a plurality of viewpoint positions. Although the number of image capturing units is two here, the number of image capturing units is not limited to two, and as long as the image capturing apparatus has a plurality of image capturing units, this embodiment is applicable regardless of the number. is there.

図2は、撮像装置100の内部構成を示すブロック図である。中央処理装置(CPU)201は、以下に述べる各部を統括的に制御する。RAM202は、CPU201の主メモリ、ワークエリア等として機能する。ROM203は、CPU201で実行される制御プラグラム等を格納している。 FIG. 2 is a block diagram showing an internal configuration of the image pickup apparatus 100. A central processing unit (CPU) 201 centrally controls each unit described below. The RAM 202 functions as a main memory, a work area, etc. of the CPU 201. The ROM 203 stores a control program executed by the CPU 201 and the like.

バス204は、各種データの転送経路となる。例えば、撮像部101〜102によって取得された撮像画像データは、このバス204を介して所定の処理部に送られる。操作部205はユーザの指示を受け取る。具体的にはボタンやモードダイヤルなどが含まれ、撮像指示やズーム指示を受け取ることができる。表示部206は撮像画像や文字の表示を行う。例えば、液晶ディスプレイが用いられる。また、表示部206はタッチスクリーン機能を有していても良い。その場合はタッチスクリーンを用いた撮像指示やズーム指示などのユーザ指示を操作部205の入力として扱うことも可能である。 The bus 204 serves as a transfer path for various data. For example, the captured image data acquired by the image capturing units 101 to 102 is sent to a predetermined processing unit via the bus 204. The operation unit 205 receives a user instruction. Specifically, it includes a button, a mode dial, and the like, and can receive an imaging instruction and a zoom instruction. The display unit 206 displays a captured image and characters. For example, a liquid crystal display is used. Further, the display unit 206 may have a touch screen function. In that case, a user instruction such as an imaging instruction or a zoom instruction using the touch screen can be treated as an input of the operation unit 205.

表示制御部207は、表示部206に表示される画像や文字の表示制御を行う。撮像制御部208は、フォーカスを合わせる、シャッターを開く・閉じる、絞りを調節するなどの、CPU201からの指示に基づいた撮像部の制御を行う。デジタル信号処理部209は、バス204を介して受け取った撮像画像データに対し、ホワイトバランス処理、ガンマ処理、ノイズ低減処理などの各種処理を行う。 The display control unit 207 controls the display of images and characters displayed on the display unit 206. The imaging control unit 208 controls the imaging unit based on an instruction from the CPU 201, such as focusing, opening/closing a shutter, and adjusting a diaphragm. The digital signal processing unit 209 performs various types of processing such as white balance processing, gamma processing, and noise reduction processing on the captured image data received via the bus 204.

エンコード部210は、撮像画像データをJPEGやMPEGなどのファイルフォーマットに変換する処理を行う。外部メモリ制御部211は、撮像装置100を、外部メモリ213(例えば、PC、ハードディスク、メモリーカード、CFカード、SDカード、USBメモリ)に結合するためのインターフェースである。 The encoding unit 210 performs processing of converting captured image data into a file format such as JPEG or MPEG. The external memory control unit 211 is an interface for connecting the imaging device 100 to an external memory 213 (for example, a PC, a hard disk, a memory card, a CF card, an SD card, a USB memory).

画像処理部212は、撮像部101、102で取得された撮像画像データ群或いは、デジタル信号処理部209から出力される撮像画像データ群を用いて画像合成などの画像処理を行う。 The image processing unit 212 performs image processing such as image composition using the captured image data group acquired by the image capturing units 101 and 102 or the captured image data group output from the digital signal processing unit 209.

なお、撮像装置の構成要素は上記以外にも存在するが、本実施例の主眼ではないので、説明を省略する。 It should be noted that although there are components other than those described above in the image pickup apparatus, they are not the main subject of the present embodiment, and a description thereof will be omitted.

図3は、撮像部101の内部構成を示す図である。撮像部101は、レンズ301〜302、絞り303、シャッター304、光学ローパスフィルタ305、iRカットフィルタ306、カラーフィルタ307、センサ308及びA/D変換部309を備える。レンズ301〜302は夫々、フォーカスレンズ301、ぶれ補正レンズ302である。センサ308は、例えばCMOSやCCDなどのセンサであり、上記の各レンズでフォーカスされた被写体の光量を検知する。検知された光量はアナログ値としてセンサ308から出力され、A/D変換部309によってデジタル値に変換されて、デジタルデータとなってバス204に出力される。なお、撮像部102についても同様の構成とすることができる。 FIG. 3 is a diagram showing an internal configuration of the image pickup unit 101. The imaging unit 101 includes lenses 301 to 302, a diaphragm 303, a shutter 304, an optical low pass filter 305, an iR cut filter 306, a color filter 307, a sensor 308, and an A/D conversion unit 309. The lenses 301 to 302 are a focus lens 301 and a blur correction lens 302, respectively. The sensor 308 is, for example, a sensor such as a CMOS or CCD, and detects the light amount of the subject focused by each of the above lenses. The detected light amount is output from the sensor 308 as an analog value, converted into a digital value by the A/D conversion unit 309, and output as digital data to the bus 204. The image pickup unit 102 may have the same configuration.

図4は、画像処理部212に備えられる機能部を示す機能ブロック図である。図4に示すように、画像処理部212は、撮像画像データ取得部400、基準画像データ選択部401、補正対象画像データ選択部402、視差量算出部403、画像位置合わせ部404、領域分割部405及び対応領域算出部406を備える。また、補正値算出部407、補正値整形部408、画素値補正部409及び画像合成部410を備える。各機能部は、CPU201が制御プログラムを実行することにより実現される。 FIG. 4 is a functional block diagram showing functional units included in the image processing unit 212. As shown in FIG. 4, the image processing unit 212 includes a captured image data acquisition unit 400, a reference image data selection unit 401, a correction target image data selection unit 402, a parallax amount calculation unit 403, an image registration unit 404, and a region division unit. 405 and the corresponding area|region calculation part 406 are provided. Further, it includes a correction value calculation unit 407, a correction value shaping unit 408, a pixel value correction unit 409, and an image synthesis unit 410. Each functional unit is realized by the CPU 201 executing a control program.

撮像画像データ取得部400は、撮像部101、102によって撮像された複数の撮像画像データを取得する。あるいは、撮像画像データ取得部400は、あらかじめRAM202や外部メモリ213等に記録された撮像画像データを取得するなどしてもよい。また、撮像画像データ取得部は撮像部101の画角θ1(または焦点距離f1)、撮像部102の画角θ2(または焦点距離f2)、及び撮像部101と撮像部102との間隔Rを含む撮像情報をROM203や外部メモリ213などの記憶装置から取得する。 The captured image data acquisition unit 400 acquires a plurality of captured image data captured by the image capturing units 101 and 102. Alternatively, the captured image data acquisition unit 400 may acquire captured image data previously recorded in the RAM 202, the external memory 213, or the like. Further, the captured image data acquisition unit includes an angle of view θ1 (or focal length f1) of the image capturing unit 101, an angle of view θ2 (or focal length f2) of the image capturing unit 102, and a distance R between the image capturing units 101 and 102. Imaging information is acquired from a storage device such as the ROM 203 or the external memory 213.

図5は、2眼の撮像装置を用いて撮像した画像について、広角画像に望遠画像を縮小して合成する処理を説明するための図である。撮像画像501は撮像部101で撮像した広角画像を、撮像画像502は撮像部102で撮像した望遠画像を示している。画像503は、撮像画像501の中央部に、撮像画像502を所定の比率で縮小した画像を貼り込むことで生成した仮想画角画像であり、画像504は本実施例の色合わせ処理を施した画像である。 FIG. 5 is a diagram for explaining a process of reducing and synthesizing a wide-angle image with a telephoto image of an image captured by using a twin-lens imaging device. A captured image 501 is a wide-angle image captured by the image capturing unit 101, and a captured image 502 is a telephoto image captured by the image capturing unit 102. The image 503 is a virtual angle-of-view image generated by pasting an image obtained by reducing the captured image 502 at a predetermined ratio in the center of the captured image 501, and the image 504 is subjected to the color matching processing of this embodiment. It is an image.

なお、本実施例では、撮像画像501の画角と同じ画角の画像503を生成する例を説明するが、これに限定されず、別の画角の画像を生成してもよい。また、撮像画像501に撮像画像502を合成する際に、撮像画像501の中央部に、所定の比率で縮小した撮像画像502を貼り込むことにより画像合成を行う例を説明する。すなわち、撮像画像501の重み値として0を、撮像画像502の重み値として1を用いて画像合成を行う。しかし、これに限定されず、別の重みを用いて画像合成を行ってもよい。 In the present embodiment, an example in which the image 503 having the same angle of view as the angle of view of the captured image 501 is generated will be described, but the present invention is not limited to this, and an image with another angle of view may be generated. Further, an example will be described in which, when the captured image 502 is synthesized with the captured image 501, the captured image 502 reduced in a predetermined ratio is pasted to the center of the captured image 501 to perform image synthesis. That is, image composition is performed using 0 as the weight value of the captured image 501 and 1 as the weight value of the captured image 502. However, the present invention is not limited to this, and image combining may be performed using another weight.

基準画像データ選択部401は、撮像画像データ取得部400で取得した複数の撮像画像データのうち、色合わせの基準となる撮像画像データ(以下、基準画像データ)を選択する。ここで、画像を貼りこまれる側の撮像画像501のデータを基準画像データとして選択する。補正対象画像データ選択部402は、撮像画像データ取得部400で取得した複数の撮像画像データのうち、実際に色合わせを行う撮像画像データ(以下、補正対象画像データ)を選択する。ここで、画像を貼り込む側の撮像画像502のデータを補正対象画像データとして選択する。視差量算出部403は、基準画像データに対する補正対象画像データの視差量を画素毎に算出する。画像位置合わせ部404は、基準画像データと補正対象画像データの位置合わせを行って、補正対象画像を合成する(貼り込む)領域を決定する。領域分割部405は、補正対象画像データを領域分割する。対応領域算出部406は、分割した補正対象画像データの各領域に対応する基準画像データの領域を、視差量算出部403で算出した視差量を基に算出する。補正値算出部407は、補正対象画像データの領域の色の平均値が対応する基準画像データの領域の色の平均値になるように、補正対象画像データの領域毎の色の補正値を算出する。補正値整形部408は、補正値算出部407で算出した補正値に対して隣接領域間の補正値の差を小さくするような整形を行う。画素値補正部409は、補正値整形部408で整形を行った補正値を用いて補正対象画像データの各領域の色を補正する。画像合成部410は、画像位置合わせ部404で決定した補正対象画像データを合成する領域を基に、画素値補正部409で補正した補正対象画像データを基準画像データに合成する。 The reference image data selection unit 401 selects the captured image data (hereinafter referred to as reference image data) that serves as a reference for color matching from the plurality of captured image data acquired by the captured image data acquisition unit 400. Here, the data of the captured image 501 on the side where the image is pasted is selected as the reference image data. The correction target image data selection unit 402 selects, from among the plurality of captured image data acquired by the captured image data acquisition unit 400, captured image data for which color matching is actually performed (hereinafter, correction target image data). Here, the data of the captured image 502 on the side where the image is pasted is selected as the correction target image data. The parallax amount calculation unit 403 calculates the parallax amount of the correction target image data with respect to the reference image data for each pixel. The image alignment unit 404 aligns the reference image data and the correction target image data, and determines a region where the correction target image is combined (pasted). The area dividing unit 405 divides the correction target image data into areas. The corresponding area calculation unit 406 calculates the area of the reference image data corresponding to each area of the divided correction target image data, based on the parallax amount calculated by the parallax amount calculation unit 403. The correction value calculation unit 407 calculates the correction value of the color for each area of the correction target image data so that the average value of the colors of the area of the correction target image data becomes the average value of the colors of the corresponding reference image data. To do. The correction value shaping unit 408 performs shaping to reduce the difference between the correction values calculated by the correction value calculation unit 407 and the correction values between adjacent regions. The pixel value correction unit 409 corrects the color of each region of the correction target image data using the correction value shaped by the correction value shaping unit 408. The image combining unit 410 combines the correction target image data corrected by the pixel value correction unit 409 with the reference image data, based on the area for combining the correction target image data determined by the image alignment unit 404.

なお、本実施例において、上記の各機能部は撮像装置100の画像処理部212に備えられるが、撮像装置100と通信可能な画像処理装置に備えられてもよい。 In addition, in the present embodiment, each of the functional units described above is included in the image processing unit 212 of the image capturing apparatus 100, but may be included in an image processing apparatus capable of communicating with the image capturing apparatus 100.

図6は、本実施例に係る画像処理のフローチャートである。 FIG. 6 is a flowchart of the image processing according to this embodiment.

ステップS601において、撮像画像データ取得部400が複数の撮像画像データを取得する。また、撮像部101の画角θ1(または焦点距離f1)、撮像部102の画角θ2(または焦点距離f2)、及び撮像部101と撮像部102との間隔Rを含む撮像情報も取得する。 In step S601, the captured image data acquisition unit 400 acquires a plurality of captured image data. In addition, imaging information including the angle of view θ1 (or the focal length f1) of the imaging unit 101, the angle of view θ2 (or the focal length f2) of the imaging unit 102, and the interval R between the imaging units 101 and 102 is also acquired.

ステップS602において、基準画像データ選択部401が、画像を貼りこまれる側の広角画像データを基準画像データとして選択し、補正対象画像データ選択部402が、画像を貼り込む側の望遠画像データを補正対象画像データとして選択する。ここで、撮像画像501は基準画像、撮像画像502は補正対象画像である。 In step S602, the reference image data selection unit 401 selects the wide-angle image data on the image pasting side as the reference image data, and the correction target image data selection unit 402 corrects the telephoto image data on the image pasting side. Select as target image data. Here, the captured image 501 is a reference image, and the captured image 502 is a correction target image.

ステップS603において、視差量算出部403が、基準画像データに対する補正対象画像データの視差量を算出する。視差量は、補正対象画像データと基準画像データの間で対応点探索を行うことで求めることができる。 In step S603, the parallax amount calculation unit 403 calculates the parallax amount of the correction target image data with respect to the reference image data. The parallax amount can be obtained by performing a corresponding point search between the correction target image data and the reference image data.

具体的に、まず、視差量算出部403は、ステップS601で取得した撮像部の画角(または焦点距離)などの撮像情報を基に、補正対象画像データを基準画像データと同じ撮像倍率になるように縮小する。例えば、図1(b)に示す撮像部101、102の水平画角θ1、θ2を用いて表すと、水平方向の縮小比率はtan(θ2/2)/tan(θ1/2)となる。次に、縮小した補正対象画像データの、基準画像データに対する視差量を画素毎に算出する。 Specifically, first, the parallax amount calculation unit 403 sets the correction target image data to the same image pickup magnification as the reference image data based on the image pickup information such as the angle of view (or focal length) of the image pickup unit acquired in step S601. To reduce. For example, when represented using the horizontal field angles θ1 and θ2 of the imaging units 101 and 102 shown in FIG. 1B, the reduction ratio in the horizontal direction is tan(θ2/2)/tan(θ1/2). Next, the parallax amount of the reduced correction target image data with respect to the reference image data is calculated for each pixel.

図7は、画像データ間の視差量を説明するための図である。 FIG. 7 is a diagram for explaining the parallax amount between image data.

3次元空間中の物体は、図7(a)に示すカメラモデルによって簡易的に表わすことができる。視点Oから観測した3次元空間中の点Pは、透視投影により視点Oと点Pを結んだ直線と投影面Iが交わる点pとして観測される。fはレンズ中心から投影面までの距離、すなわち焦点距離を表す。 An object in the three-dimensional space can be simply represented by the camera model shown in FIG. The point P in the three-dimensional space observed from the viewpoint O is observed by perspective projection as a point p where the straight line connecting the viewpoint O and the point P intersects the projection plane I. f represents the distance from the lens center to the projection surface, that is, the focal length.

次に、視点OL、ORに設置した2つのカメラCL、CRにより3次元空間中の同一点Pを観測することを考える。図7(b)に示すように、2つの視点OL、ORから観測した点は、図7(a)のカメラモデルにより、それぞれの投影面IL、IRに点pL、pRとして投影される。この時、それぞれの視点と投影面に投影された点とを結んだ直線は点Pで交わる。視点OLが投影面ILに投影された点に対する点pLの位置と、視点ORが投影面IRに投影された点に対する点pRの位置との差分は、点Pの視差量となる。pL、pRの位置を対応点探索で求める事ができれば、視差量を算出することができる。 Next, consider observing the same point P in the three-dimensional space by the two cameras CL and CR installed at the viewpoints OL and OR. As shown in FIG. 7B, the points observed from the two viewpoints OL and OR are projected as points pL and pR on the respective projection planes IL and IR by the camera model of FIG. 7A. At this time, a straight line connecting each viewpoint and the point projected on the projection plane intersects at a point P. The difference between the position of the point pL with respect to the point where the viewpoint OL is projected on the projection surface IL and the position of the point pR with respect to the point where the viewpoint OR is projected on the projection surface IR is the parallax amount of the point P. If the positions of pL and pR can be obtained by the corresponding point search, the parallax amount can be calculated.

ステップS604において、画像位置合わせ部404が、基準画像データと補正対象画像データの位置合わせを行う。すなわち、基準画像に補正対象画像を合成する(貼り込む)領域を決定する。なお、視差量算出部403にて対応点探索を実行しており、その結果を用いて位置合わせを行うことができる。それ以外にも、画像の特徴点を算出して位置合わせを行う、SIFT(Scale Invariant Feature Transform)などの既知の技術を用いても良い。SIFTは、例えば米国特許第6711293号明細書に記載されている。 In step S604, the image alignment unit 404 aligns the reference image data with the correction target image data. That is, the area in which the correction target image is combined (pasted) with the reference image is determined. It should be noted that the parallax amount calculation unit 403 executes the corresponding point search, and the result can be used to perform the alignment. Other than that, a known technique such as SIFT (Scale lnvariant Feature Transform) for calculating a feature point of an image and performing alignment may be used. SIFT is described in, for example, US Pat. No. 6,711,293.

ステップS605において、領域分割部405が、補正対象画像データを領域分割する。補正対象画像データは、分割された領域毎に色の補正値を求め、基準画像データとの色合わせを行う。なお、補正値は、領域内の画素の平均値を基準画像データの対応領域内の画素の平均値に合わせる値とする。領域が大きすぎると、隣接する領域との補正値の差が大きくなり、領域間にあらたに疑似的な輪郭が発生してしまう。そのため、小さいサイズで領域分割することが望ましい。 In step S605, the area dividing unit 405 divides the correction target image data into areas. For the correction target image data, a color correction value is obtained for each divided area, and color matching with the reference image data is performed. The correction value is a value that matches the average value of the pixels in the area with the average value of the pixels in the corresponding area of the reference image data. If the areas are too large, the difference in correction value between the adjacent areas becomes large, and a new pseudo contour is generated between the areas. Therefore, it is desirable to divide the region into smaller sizes.

一方、基準画像データの対応領域は視差量算出部403で算出した視差量を基に算出されており、視差量算出部403で算出した視差量には誤差が含まれることが多い。この誤差を投影面I上のピクセル数に換算した値をEとし、Eよりも小さいサイズで領域分割してしまうと、対応領域算出部406で発生する対応領域の誤差が大きいため、補正後の画素値に誤差が大きくなってしまう。そのため、事前に視差量算出部403で発生する視差量の最大誤差Emaxを見積もった上で、適切な領域サイズを決定することが望ましい。 On the other hand, the corresponding area of the reference image data is calculated based on the parallax amount calculated by the parallax amount calculation unit 403, and the parallax amount calculated by the parallax amount calculation unit 403 often includes an error. If a value obtained by converting this error into the number of pixels on the projection plane I is E and the area is divided into smaller areas than E, the error in the corresponding area generated by the corresponding area calculation unit 406 is large. The error in the pixel value becomes large. Therefore, it is desirable to determine an appropriate area size after estimating the maximum error Emax of the parallax amount generated in the parallax amount calculation unit 403 in advance.

ステップS606において、対応領域算出部406が、ステップS605で分割した補正対象画像データの各領域に対応する基準画像データの対応領域を、ステップS603で算出した視差量を基に算出する。 In step S606, the corresponding area calculation unit 406 calculates the corresponding area of the reference image data corresponding to each area of the correction target image data divided in step S605, based on the parallax amount calculated in step S603.

図8は、本実施例における対応領域算出を説明するための図である。撮像画像501は基準画像、撮像画像502は補正対象画像である。領域801は、画像位置合わせ部404にて位置合わせを行った結果の、撮像画像502を貼り込む領域を示している。視差マップ802は、ステップS603で算出した撮像画像501と撮像画像502の間の画素毎の視差量をマップ化したものである。視差マップ802では、画素が白いほど視差量が小さく、画素が黒いほど視差量が大きくなるように、視差量を表現している。以下、撮像画像502の領域803、804に対応する、撮像画像501の領域807、808の座標値を求める手順を説明する。 FIG. 8 is a diagram for explaining the calculation of the corresponding area in this embodiment. The captured image 501 is a reference image, and the captured image 502 is a correction target image. A region 801 indicates a region where the captured image 502 is pasted, which is the result of the alignment performed by the image alignment unit 404. The parallax map 802 is a map of the parallax amount for each pixel between the captured image 501 and the captured image 502 calculated in step S603. In the parallax map 802, the parallax amount is expressed such that the whiter the pixel, the smaller the parallax amount, and the darker the pixel, the greater the parallax amount. Hereinafter, a procedure for obtaining the coordinate values of the regions 807 and 808 of the captured image 501 corresponding to the regions 803 and 804 of the captured image 502 will be described.

領域805は、領域803に対応する視差マップ802上の領域である。領域805内の平均視差量を求め、その値をD1とする。撮像装置の位置関係は図1の撮像部101と撮像部102の位置関係である。すなわち、撮像部101と撮像部102は同一水平線に位置する。そのため、領域807の座標値は、領域803よりも−x方向にD1だけずれた場所として求められる。 The area 805 is an area on the parallax map 802 corresponding to the area 803. The average parallax amount in the area 805 is calculated, and the value is set as D1. The positional relationship between the image pickup devices is the positional relationship between the image pickup unit 101 and the image pickup unit 102 in FIG. That is, the image capturing unit 101 and the image capturing unit 102 are located on the same horizontal line. Therefore, the coordinate value of the area 807 is obtained as a location displaced from the area 803 by D1 in the −x direction.

同様に、領域806は、領域804に対応する視差マップ802上の領域である。領域806内の平均視差量を求め、その値をD2とした場合、領域808の座標値は、領域804よりも−x方向にD2だけずれた場所として求められる。 Similarly, the area 806 is an area on the parallax map 802 corresponding to the area 804. When the average parallax amount in the area 806 is obtained and the value is set to D2, the coordinate value of the area 808 is obtained as a location shifted from the area 804 by D2 in the −x direction.

なお、視差マップ802上の各画素で示す視差量は、その画素に対応する3次元空間中の点から撮像装置の投影面までの距離によって決まる。すなわち、距離が近いほど、視差量が大きくなる。領域805より距離の近い領域806は、相対的に大きい平均視差量を有する。従って、D1はD2より大きい。 The amount of parallax indicated by each pixel on the parallax map 802 is determined by the distance from the point in the three-dimensional space corresponding to that pixel to the projection surface of the imaging device. That is, the smaller the distance, the larger the parallax amount. A region 806 that is closer than the region 805 has a relatively large average parallax amount. Therefore, D1 is greater than D2.

以上のように、ステップS606では、補正対象画像データの各領域に対応する基準画像データの対応領域を、領域内の平均視差量を基に算出することにより、精度のよい対応領域を効率的に得ることができる。 As described above, in step S606, the corresponding area of the reference image data corresponding to each area of the correction target image data is calculated based on the average parallax amount in the area, and thus the accurate corresponding area is efficiently generated. Obtainable.

ステップS607において、補正値算出部407が、ステップS605で分割した補正対象画像データの領域と、ステップS606で算出した基準画像データの対応領域とから、領域毎の色の補正値を算出する。 In step S607, the correction value calculation unit 407 calculates a color correction value for each area from the area of the correction target image data divided in step S605 and the corresponding area of the reference image data calculated in step S606.

補正値は、領域分割部405で分割した領域内の画素の平均値と、対応領域算出部406で求めた対応領域内の画素の平均値との差分値として求めることができる。例えば、領域803の平均画素値(平均輝度値)が、R=113,G=78,B=52であるとする。また、領域807の平均画素値(平均輝度値)が、R=104,G=67,B=45であるとする。その場合、補正値は、R=−9,G=−11,B=−7となる。 The correction value can be obtained as a difference value between the average value of the pixels in the area divided by the area dividing unit 405 and the average value of the pixels in the corresponding area obtained by the corresponding area calculating unit 406. For example, assume that the average pixel value (average brightness value) of the area 803 is R=113, G=78, and B=52. Further, it is assumed that the average pixel value (average luminance value) of the area 807 is R=104, G=67, B=45. In that case, the correction values are R=-9, G=-11, and B=-7.

また、補正値を差分値ではなく、割合として求めることもできる。その場合、補正値は、R=104/113,G=67/78,B=45/52となる。 Further, the correction value can be obtained not as a difference value but as a ratio. In that case, the correction values are R=104/113, G=67/78, and B=45/52.

ステップS608において、ステップS805で分割した補正対象画像データの全領域において、補正値の算出が終了したかを判定する。終了した場合に、処理はステップS809に進み、終了していない場合に、処理はステップS806に戻る。ステップS606〜S608の処理により、ステップS605で分割した全領域の補正値は算出される。 In step S608, it is determined whether the calculation of the correction value is completed in all the regions of the correction target image data divided in step S805. If it has ended, the process proceeds to step S809, and if it has not ended, the process returns to step S806. By the processing of steps S606 to S608, the correction values of all the areas divided in step S605 are calculated.

ステップS609において、補正値整形部408が、ステップS608で算出した補正値を整形する。補正値は、分割領域のサイズが大きく、隣接領域間の補正値の差が大きいと、領域の境界部で疑似的な輪郭が発生する。これを抑制するためには、分割領域のサイズを小さくすることが望ましいが、視差量算出部403での誤差Emaxよりも小さくすると、補正後の画素値の誤差が大きくなってしまう。この問題を解決するために、補正値整形部408にて補正値全体にガウシアンフィルタをかけ、隣接領域間の補正値の差を小さくするような整形を行う。ただし、フィルタを強くかけすぎてしまうと、補正値が平均化されてしまい、補正後の画素値の誤差が大きくなってしまう。そのため、領域の大きさに応じて適切なガウシアンフィルタを設定することが望ましい。 In step S609, the correction value shaping unit 408 shapes the correction value calculated in step S608. As for the correction value, when the size of the divided area is large and the difference between the correction values of the adjacent areas is large, a pseudo contour occurs at the boundary of the areas. In order to suppress this, it is desirable to reduce the size of the divided area, but if it is smaller than the error Emax in the parallax amount calculation unit 403, the error in the corrected pixel value will increase. To solve this problem, the correction value shaping unit 408 applies a Gaussian filter to the entire correction value to perform shaping so as to reduce the difference in correction value between adjacent regions. However, if the filter is applied too strongly, the correction values will be averaged and the error in the corrected pixel value will increase. Therefore, it is desirable to set an appropriate Gaussian filter according to the size of the area.

ステップS610において、画素値補正部409が、ステップS609で整形した補正値を基に、分割した領域毎に補正対象画像データの画素値を補正する。ステップS607で補正値を差分値として求めた場合には、補正対象画像データの画素値に、対応する領域の補正値を加算することで補正を行う。ステップS607で補正値を割合として求めた場合には、補正値を乗算することで補正を行う。 In step S610, the pixel value correction unit 409 corrects the pixel value of the correction target image data for each divided area based on the correction value shaped in step S609. When the correction value is obtained as the difference value in step S607, the correction is performed by adding the correction value of the corresponding area to the pixel value of the correction target image data. When the correction value is obtained as a ratio in step S607, the correction is performed by multiplying the correction value.

ステップS611において、画像合成部410が、画像位置合わせ部404で決定した補正対象画像データを合成する(貼り込む)領域を基に、ステップS610で補正した補正対象画像データを基準画像データに合成して、合成画像データを生成する。 In step S611, the image combining unit 410 combines the correction target image data corrected in step S610 with the reference image data based on the area for combining (pasting) the correction target image data determined by the image alignment unit 404. To generate composite image data.

以上のように、撮像部102で撮像した望遠画像データは複数の領域に分割され、分割領域毎に撮像部101で撮像した広角画像データの対応領域との色合わせが行われる。すなわち、撮像画像間の色合わせが行われ、しかもシェーディングによる影響が大きい望遠画像データの高像高部の領域は、シェーディングによる影響が比較的少ない広角画像データの中像高部の対応領域に色合わせるように補正される。これにより、画像合成時に発生する、シェーディングによる段差を含む合成の境界部における色と明るさの段差を補正することができる。その結果、合成の境界部の疑似的な輪郭を抑制することができる。 As described above, the telephoto image data captured by the image capturing unit 102 is divided into a plurality of regions, and the color matching with the corresponding region of the wide-angle image data captured by the image capturing unit 101 is performed for each divided region. In other words, the high image height area of the telephoto image data in which the color matching between the captured images is performed and the influence of shading is large is the same as the area corresponding to the middle image height portion of the wide-angle image data in which the influence of shading is relatively small. Corrected to match. As a result, it is possible to correct the difference in color and brightness at the boundary portion of the combination including the step due to shading, which occurs when the images are combined. As a result, it is possible to suppress the pseudo contour of the boundary portion of the combination.

(実施例2)
本実施例では、3眼以上の撮像装置を用いて撮像を行い、画角が順次狭くなる複数の画像を合成する際の、境界部の色や明るさの段差を抑制する方法について述べる。
(Example 2)
In the present embodiment, a method for suppressing a difference in color or brightness of a boundary portion when an image is captured by using an image pickup apparatus having three or more eyes and a plurality of images whose view angles are sequentially narrowed is combined will be described.

図9は3眼の撮像装置を用いて撮像した画像について、画角が順次狭くなる3つの画像を合成する処理を説明するための図である。画像901は広角の焦点距離の撮像装置で撮像した画像を、画像902は標準的な焦点距離の撮像装置で撮像した画像を、画像903は望遠の焦点距離の撮像装置で撮像した画像を表わす。画像904は画像901〜903を合成した仮想画角画像であり、画像905は本実施例の色合わせ処理を施した画像である。 FIG. 9 is a diagram for explaining a process of synthesizing three images whose view angles are sequentially narrowed with respect to an image picked up by a three-eye image pickup apparatus. An image 901 represents an image captured by an imaging device having a wide-angle focal length, an image 902 represents an image captured by an imaging device having a standard focal length, and an image 903 represents an image captured by an imaging device having a telephoto focal length. An image 904 is a virtual view angle image obtained by combining the images 901 to 903, and an image 905 is an image subjected to the color matching processing of the present embodiment.

図10は、画像901〜903を合成する際の合成処理順のバリエーションを示す図である。 FIG. 10 is a diagram showing variations in the order of combination processing when combining the images 901 to 903.

図10(a)では、始めに標準画角の画像902を基準画像とし、望遠画像903を補正対象画像として画像合成を行うことにより、画像1001を生成する。次に広角画像901を基準画像とし、画像1001を補正対象画像として画像合成を行うことにより、画像1002を得る。この手順では、望遠画像903が画像1001生成時と、画像1002生成時とに2回補正されてしまう。補正回数は多いほど元画像からかけ離れていくことになるため、図10(a)の手順で補正を行うのは望ましくない。 In FIG. 10A, an image 1001 is generated by first performing image synthesis by using the image 902 having the standard angle of view as the reference image and the telephoto image 903 as the correction target image. Next, an image 1002 is obtained by performing image composition by using the wide-angle image 901 as a reference image and the image 1001 as a correction target image. In this procedure, the telephoto image 903 is corrected twice when the image 1001 is generated and when the image 1002 is generated. The larger the number of corrections, the farther from the original image it is, so it is not desirable to perform the correction in the procedure of FIG.

図10(b)では、始めに広角画像901を基準画像とし、望遠画像903を補正対象画像として画像合成を行うことにより、画像1003を得る。次に画像1003を基準画像とし、標準画角の画像902を補正対象画像として画像合成を行うことにより、画像1004を得る。この手順では、画像1003生成時に、基準画像と補正対象画像の解像度が大きく異なるため、視差量算出部403にて誤差が発生しやすくなる。その結果、視差量の最大誤差Emaxが大きくなり、領域分割部405での領域サイズを大きくしなければならなくなる。従って、図10(b)の手順で補正を行うのは望ましくない。 In FIG. 10B, an image 1003 is obtained by first performing image composition by using the wide-angle image 901 as the reference image and the telephoto image 903 as the correction target image. Next, an image 1004 is obtained by performing image synthesis by using the image 1003 as a reference image and the image 902 having the standard angle of view as the correction target image. In this procedure, when the image 1003 is generated, the resolutions of the reference image and the correction target image are significantly different, so that an error is likely to occur in the parallax amount calculation unit 403. As a result, the maximum error Emax of the parallax amount increases, and the area size in the area dividing unit 405 must be increased. Therefore, it is not desirable to perform the correction in the procedure of FIG.

図10(c)は本実施例における合成処理順を示す図である。図10(c)では、始めに広角画像901を基準画像とし、標準画角の画像902を補正対象画像として画像合成を行うことにより、画像1005を得る。次に画像1005を基準画像とし、望遠画像903を補正対象画像として画像合成(2回目の画像合成)を行うことにより、画像1006を得る。図10(c)に示す本実施例の手順では、図10(a)の手順の場合に同じ画像に複数回の補正がかかる問題は発生しない。また、図10(b)の手順の場合に解像度が大きく異なる問題も発生しない。以上のように、本実施例の合成処理順により、合成の境界部の色や明るさの段差を抑制しつつ、高品質な合成画像を得ることができる。 FIG. 10C is a diagram showing a compositing processing order in this embodiment. In FIG. 10C, an image 1005 is obtained by first performing image composition by using the wide-angle image 901 as a reference image and the image 902 with a standard angle of view as a correction target image. Next, an image 1006 is obtained by performing image combination (second image combination) using the image 1005 as the reference image and the telephoto image 903 as the correction target image. In the procedure of this embodiment shown in FIG. 10C, the problem that the same image is corrected a plurality of times does not occur in the case of the procedure of FIG. Further, in the case of the procedure of FIG. 10(b), the problem that the resolution greatly differs does not occur. As described above, according to the combination processing order of the present embodiment, it is possible to obtain a high-quality combined image while suppressing the difference in color and brightness of the boundary portion of combination.

本実施例では、3眼構成での合成処理順について説明したが、3眼以上の構成にも適用可能である。具体的には、基準画像データ選択部401では、焦点距離が広角側の撮像部によって撮像されたものから順に選択し、補正対象画像データ選択部402では、基準画像データの次に望遠側の画像を選択するように合成処理順を設定すれば良い。 In the present embodiment, the order of combination processing in the trinocular configuration has been described, but the present invention is also applicable to a trinocular configuration or more. Specifically, the reference image data selection unit 401 sequentially selects from the images captured by the imaging unit with the wide-angle side focal length, and the correction target image data selection unit 402 selects the image on the telephoto side next to the reference image data. The combination processing order may be set so as to select.

以上により、3眼以上の撮像装置を用いた場合でも、境界部の疑似的な輪郭を抑制することができる。 As described above, it is possible to suppress the pseudo contour of the boundary portion even when the image pickup apparatus having three or more eyes is used.

(他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program. It can also be realized by the processing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

Claims (16)

共通の被写体を含む画角が異なる複数の画像データを用いて、合成画像データを生成するための画像処理装置であって、
前記複数の画像データから、第1の画像データを基準画像データとして、前記第1の画像データよりも画角が狭い第2の画像データを補正対象画像データとして選択する選択手段と、
前記補正対象画像データを複数の領域に分割する分割手段と、
前記基準画像データに対する前記補正対象画像データの視差量を導出する導出手段と、
前記補正対象画像データを分割して得られた領域毎に前記視差量を参照し、前記視差量に応じた前記基準画像データにおける対応領域との色合わせを行う色合わせ手段と、
前記基準画像データにおいて前記色合わせ後の前記補正対象画像データを合成する合成領域を決定して、前記基準画像データにおける前記合成領域に前記補正対象画像データを合成することで、前記合成画像データを生成する合成手段とを有し、
前記色合わせ手段は、
前記補正対象画像データの領域毎の補正値を、当該領域の画素値の平均が当該領域に対応する前記対応領域の画素値の平均と等しくなるように算出する補正値算出手段と、前記補正値を基に前記補正対象画像データを補正する補正手段と
を有することを特徴とする画像処理装置。
An image processing apparatus for generating composite image data using a plurality of image data having different angles of view including a common subject,
Selecting means for selecting, from the plurality of image data, the first image data as reference image data and the second image data having a narrower angle of view than the first image data as correction target image data;
Dividing means for dividing the correction target image data into a plurality of areas,
Derivation means for deriving a parallax amount of the correction target image data with respect to the reference image data,
A color matching unit that refers to the parallax amount for each region obtained by dividing the correction target image data and performs color matching with a corresponding region in the reference image data according to the parallax amount,
By determining a combination area in the reference image data in which the correction target image data after the color matching is combined and combining the correction target image data in the combination area in the reference image data, And a synthesizing means for generating,
The color matching means,
Correction value calculating means for calculating the correction value for each area of the correction target image data so that the average of the pixel values of the area is equal to the average of the pixel values of the corresponding area corresponding to the area; An image processing apparatus comprising: a correction unit that corrects the correction target image data based on the above.
前記補正値は、前記領域の画素値の平均と前記対応領域の画素値の平均との差分であることを特徴とする請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the correction value is a difference between an average of pixel values of the area and an average of pixel values of the corresponding area. 前記補正値は、前記領域の画素値の平均に対する前記対応領域の画素値の平均の割合であることを特徴とする請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the correction value is a ratio of an average of pixel values of the corresponding area to an average of pixel values of the area. 前記色合わせ手段は、前記補正値算出手段で算出した補正値を、隣接領域間の補正値の差が小さくなるように整形する整形手段をさらに有し、
前記補正手段は、前記整形手段で整形した補正値を基に、前記補正対象画像データを補正
することを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。
The color matching unit further includes a shaping unit that shapes the correction value calculated by the correction value calculation unit so that a difference between the correction values between adjacent regions becomes small.
The image processing apparatus according to any one of claims 1 to 3, wherein the correction unit corrects the correction target image data based on the correction value shaped by the shaping unit.
前記基準画像データに対する前記補正対象画像データの視差量を画素毎に算出する視差
量算出手段と、
前記領域における前記視差量の平均値を基に、前記対応領域を算出する対応領域算出手
段と
をさらに有することを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。
A parallax amount calculation unit that calculates a parallax amount of the correction target image data with respect to the reference image data for each pixel,
The image processing apparatus according to claim 1, further comprising: a corresponding area calculation unit that calculates the corresponding area based on an average value of the parallax amounts in the area.
前記分割手段は、前記視差量算出手段の視差量算出における誤差を基に決定されたサイ
ズで、前記補正対象画像データを分割することを特徴とする請求項5に記載の画像処理装
置。
The image processing apparatus according to claim 5, wherein the division unit divides the correction target image data into a size determined based on an error in the parallax amount calculation unit.
前記第1の画像データは広角画像データであり、前記第2の画像データは望遠画像デー
タであることを特徴とする請求項1乃至6のいずれか1項に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the first image data is wide-angle image data, and the second image data is telephoto image data.
前記選択手段は、前記合成画像データを2回目の画像合成における基準画像データとし
て、前記第2の画像データよりも画角が狭い第3の画像データを前記2回目の画像合成に
おける補正対象画像データとして選択することを特徴とする請求項1乃至6のいずれか1
項に記載の画像処理装置。
The selecting means sets the combined image data as reference image data in the second image combination, and sets the third image data having a narrower angle of view than the second image data in the correction target image data in the second image combination. 7. The method according to any one of claims 1 to 6, characterized in that
The image processing device according to item.
前記第1の画像データは広角画像データであり、前記第2の画像データは標準画角の画
像データであり、前記第3の画像データは望遠画像データであることを特徴とする請求項
8に記載の画像処理装置。
The first image data is wide-angle image data, the second image data is image data of a standard angle of view, and the third image data is telephoto image data. The image processing device described.
前記画素値は輝度値であることを特徴とする請求項1乃至9のいずれか1項に記載の画
像処理装置。
The image processing apparatus according to claim 1, wherein the pixel value is a brightness value.
前記複数の画像データは、画角の異なる撮像部によって前記共通の被写体を同時に撮像
した撮像画像データであることを特徴とする請求項1乃至10のいずれか1項に記載の画
像処理装置。
11. The image processing apparatus according to claim 1, wherein the plurality of image data are captured image data obtained by simultaneously capturing the common subject by image capturing units having different angles of view.
共通の被写体を含む画角が異なる複数の画像データを用いて、合成画像データを生成す
るための画像処理装置であって、
前記複数の画像データから、第1の画像データを基準画像データとして、前記第1の画
像データよりも画角が狭い第2の画像データを補正対象画像データとして選択する選択手
段と、
前記補正対象画像データを複数の領域に分割する分割手段と、
前記補正対象画像データを分割して得られた領域毎に、前記基準画像データにおける対
応領域との色合わせを行う色合わせ手段と、
前記色合わせ後の前記補正対象画像データを前記基準画像データに合成して、前記合成
画像データを生成する合成手段と
を有し、
前記色合わせ手段は、
前記補正対象画像データの領域毎の補正値を、当該領域の画素値の平均が当該領域に対応
する前記対応領域の画素値の平均と等しくなるように算出する補正値算出手段と、前記補
正値を基に前記補正対象画像データを補正する補正手段と
前記基準画像データに対する前記補正対象画像データの視差量を画素毎に算出する視差
量算出手段と、
前記領域における前記視差量の平均値を基に、前記対応領域を算出する対応領域算出手
段と
を有することを特徴とする画像処理装置。
An image processing apparatus for generating composite image data using a plurality of image data having different angles of view including a common subject,
Selecting means for selecting, from the plurality of image data, the first image data as reference image data and the second image data having a narrower angle of view than the first image data as correction target image data;
Dividing means for dividing the correction target image data into a plurality of areas,
Color matching means for performing color matching with the corresponding area in the reference image data for each area obtained by dividing the correction target image data;
Combining the correction target image data after the color matching with the reference image data to generate the combined image data,
The color matching means,
Correction value calculating means for calculating the correction value for each area of the correction target image data so that the average of the pixel values of the area is equal to the average of the pixel values of the corresponding area corresponding to the area; A correction unit that corrects the correction target image data based on, and a parallax amount calculation unit that calculates a parallax amount of the correction target image data with respect to the reference image data for each pixel,
An image processing apparatus comprising: a corresponding area calculation unit that calculates the corresponding area based on an average value of the parallax amounts in the area.
共通の被写体を含む画角が異なる複数の画像データを用いて、合成画像データを生成す
るための画像処理装置であって、
前記複数の画像データから、第1の画像データを基準画像データとして、前記第1の画
像データよりも画角が狭い第2の画像データを補正対象画像データとして選択する選択手
段と、
前記補正対象画像データを複数の領域に分割する分割手段と、
前記補正対象画像データを分割して得られた領域毎に、前記基準画像データにおける対
応領域との色合わせを行う色合わせ手段と、
前記色合わせ後の前記補正対象画像データを前記基準画像データに合成して、前記合成
画像データを生成する合成手段と
を有し、
前記色合わせ手段は、
前記補正対象画像データの領域毎の補正値を、当該領域の画素値の平均が当該領域に対応
する前記対応領域の画素値の平均と等しくなるように算出する補正値算出手段と、前記補
正値を基に前記補正対象画像データを補正する補正手段と
を有し、
前記選択手段は、前記合成画像データを2回目の画像合成における基準画像データとし
て、前記第2の画像データよりも画角が狭い第3の画像データを前記2回目の画像合成に
おける補正対象画像データとして選択することを特徴とする画像処理装置。
An image processing apparatus for generating composite image data using a plurality of image data having different angles of view including a common subject,
Selecting means for selecting, from the plurality of image data, the first image data as reference image data and the second image data having a narrower angle of view than the first image data as correction target image data;
Dividing means for dividing the correction target image data into a plurality of areas,
Color matching means for performing color matching with the corresponding area in the reference image data for each area obtained by dividing the correction target image data;
Combining the correction target image data after the color matching with the reference image data to generate the combined image data,
The color matching means,
Correction value calculating means for calculating the correction value for each area of the correction target image data so that the average of the pixel values of the area is equal to the average of the pixel values of the corresponding area corresponding to the area; A correction means for correcting the correction target image data based on
The selecting means sets the combined image data as reference image data in the second image combination, and sets the third image data having a narrower angle of view than the second image data in the correction target image data in the second image combination. An image processing apparatus characterized by selecting as.
基準画像データと、前記基準画像データと共通の被写体を含み、前記基準画像データよりも画角が狭い補正対象画像データを合成するための画像処理装置であって、
前記基準画像データに対する前記補正対象画像データの視差量を導出する導出手段と、
前記補正対象画像データを分割して得られた領域毎に前記視差量を参照し、前記基準画像データにおける対応領域を算出する算出手段と、
前記補正対象画像データにおける各領域に対して、前記基準画像データにおける前記対応領域に基づいて色合わせをする色合わせ手段と、
前記基準画像データにおいて、前記色合わせ後の前記補正対象画像データを合成する合成領域を決定して、前記基準画像データにおける前記合成領域に前記補正対象画像データを合成することで、合成画像データを生成する合成手段を有することを特徴とする画像処理装置。
An image processing apparatus for synthesizing reference image data and a correction target image data including a subject common to the reference image data and having a narrower angle of view than the reference image data,
Derivation means for deriving a parallax amount of the correction target image data with respect to the reference image data,
Calculation means for calculating the corresponding area in the reference image data by referring to the parallax amount for each area obtained by dividing the correction target image data,
Color matching means for performing color matching on each area in the correction target image data based on the corresponding area in the reference image data;
In the reference image data, to determine the combining region for synthesizing the correction target image data after the color matching, to synthesize the correction target image data to the combining region of the reference image data, synthetic image data An image processing apparatus having a synthesizing unit for generating
共通の被写体を含む画角が異なる複数の画像データを用いて、合成画像データを生成するための画像処理方法であって、
前記複数の画像データから、第1の画像データを基準画像データとして、前記第1の画像データよりも画角が狭い第2の画像データを補正対象画像データとして選択する選択工程と、
前記補正対象画像データを複数の領域に分割する分割工程と、
前記基準画像データに対する前記補正対象画像データの視差量を導出する導出工程と、
前記補正対象画像データを分割して得られた領域毎に前記視差量を参照し、前記視差量
に応じた前記基準画像データにおける対応領域との色合わせを行う色合わせ工程と、
前記基準画像データにおいて前記色合わせ後の前記補正対象画像データを合成する合成
領域を決定して、前記基準画像データにおける前記合成領域に前記補正対象画像データを
合成することで、前記合成画像データを生成する合成工程と
を含み、
前記色合わせ工程は、
前記補正対象画像データの領域毎の補正値を、当該領域の画素値の平均が当該領域に対
応する前記対応領域の画素値の平均と等しくなるように算出する補正値算出工程と、前記
補正値を基に前記補正対象画像データを補正する補正工程と
を含むことを特徴とする画像処理方法。
An image processing method for generating composite image data using a plurality of image data having different angles of view including a common subject,
A selection step of selecting, from the plurality of image data, the first image data as reference image data, and the second image data having a narrower angle of view than the first image data as correction target image data;
A dividing step of dividing the correction target image data into a plurality of areas,
A deriving step of deriving a parallax amount of the correction target image data with respect to the reference image data;
A color matching step of performing color matching with a corresponding area in the reference image data according to the parallax amount by referring to the parallax amount for each area obtained by dividing the correction target image data,
By determining a combination area in the reference image data in which the correction target image data after the color matching is combined and combining the correction target image data in the combination area in the reference image data, And a synthesis step to generate,
The color matching step is
A correction value calculating step for calculating a correction value for each area of the correction target image data so that the average of the pixel values of the area is equal to the average of the pixel values of the corresponding area corresponding to the area; And a correction step of correcting the correction target image data based on the image processing method.
コンピュータを、請求項1乃至14のいずれか1項に記載の画像処理装置として機能さ
せるためのプログラム。
A program for causing a computer to function as the image processing device according to claim 1.
JP2015237208A 2015-12-04 2015-12-04 Image processing apparatus, image processing method, and program thereof Active JP6732440B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015237208A JP6732440B2 (en) 2015-12-04 2015-12-04 Image processing apparatus, image processing method, and program thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015237208A JP6732440B2 (en) 2015-12-04 2015-12-04 Image processing apparatus, image processing method, and program thereof

Publications (3)

Publication Number Publication Date
JP2017103695A JP2017103695A (en) 2017-06-08
JP2017103695A5 JP2017103695A5 (en) 2018-12-27
JP6732440B2 true JP6732440B2 (en) 2020-07-29

Family

ID=59017203

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015237208A Active JP6732440B2 (en) 2015-12-04 2015-12-04 Image processing apparatus, image processing method, and program thereof

Country Status (1)

Country Link
JP (1) JP6732440B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111383256B (en) * 2018-12-29 2024-05-17 北京市商汤科技开发有限公司 Image processing method, electronic device, and computer-readable storage medium
CN111563552B (en) * 2020-05-06 2023-09-05 浙江大华技术股份有限公司 Image fusion method, related device and apparatus
WO2024079998A1 (en) * 2022-10-13 2024-04-18 株式会社ジャパンディスプレイ Image-capturing device, subject depth estimation method, and program

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3949684B2 (en) * 2004-04-30 2007-07-25 三菱電機株式会社 Gradation correction apparatus, gradation correction program, portable terminal device, and personal computer
JP4752434B2 (en) * 2005-10-04 2011-08-17 株式会社ニコン Color correction processing program and electronic camera
JP4513905B2 (en) * 2008-06-27 2010-07-28 ソニー株式会社 Signal processing apparatus, signal processing method, program, and recording medium
US8274552B2 (en) * 2010-12-27 2012-09-25 3Dmedia Corporation Primary and auxiliary image capture devices for image processing and related methods
JP5889022B2 (en) * 2012-02-07 2016-03-22 シャープ株式会社 Imaging apparatus, image processing apparatus, image processing method, and program

Also Published As

Publication number Publication date
JP2017103695A (en) 2017-06-08

Similar Documents

Publication Publication Date Title
JP6100089B2 (en) Image processing apparatus, image processing method, and program
JP6112824B2 (en) Image processing method and apparatus, and program.
JP6021541B2 (en) Image processing apparatus and method
JP5984493B2 (en) Image processing apparatus, image processing method, imaging apparatus, and program
US9008412B2 (en) Image processing device, image processing method and recording medium for combining image data using depth and color information
JP6452360B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
US9332195B2 (en) Image processing apparatus, imaging apparatus, and image processing method
US10148870B2 (en) Image capturing apparatus
EP2635019B1 (en) Image processing device, image processing method, and program
JP2013009274A (en) Image processing device, image processing method, and program
JP2012222743A (en) Imaging apparatus
JP2015073185A (en) Image processing device, image processing method and program
JP6732440B2 (en) Image processing apparatus, image processing method, and program thereof
JP5896680B2 (en) Imaging apparatus, image processing apparatus, and image processing method
US20130083169A1 (en) Image capturing apparatus, image processing apparatus, image processing method and program
JP5925109B2 (en) Image processing apparatus, control method thereof, and control program
JP6648916B2 (en) Imaging device
JP2019047145A (en) Image processing system, imaging apparatus, control method and program of image processing system
JP2013175821A (en) Image processing device, image processing method, and program
JP5863280B2 (en) Imaging apparatus, image processing method, and program
JP2014049895A (en) Image processing method
JP2013009275A (en) Image processing device, image processing method, and program
JP6292785B2 (en) Image processing apparatus, image processing method, and program
JP2013110711A (en) Image processing apparatus, image processing method and program
JP6415228B2 (en) Image synthesizing apparatus and image synthesizing apparatus control method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181114

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181114

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190716

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190827

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191028

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200331

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200601

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200609

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200708

R151 Written notification of patent or utility model registration

Ref document number: 6732440

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151