JP2016099836A - Imaging device, image processor, image processing method, and program - Google Patents

Imaging device, image processor, image processing method, and program Download PDF

Info

Publication number
JP2016099836A
JP2016099836A JP2014236997A JP2014236997A JP2016099836A JP 2016099836 A JP2016099836 A JP 2016099836A JP 2014236997 A JP2014236997 A JP 2014236997A JP 2014236997 A JP2014236997 A JP 2014236997A JP 2016099836 A JP2016099836 A JP 2016099836A
Authority
JP
Japan
Prior art keywords
image
images
composite
processing
boundary
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014236997A
Other languages
Japanese (ja)
Inventor
宗浩 吉村
Munehiro Yoshimura
宗浩 吉村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014236997A priority Critical patent/JP2016099836A/en
Publication of JP2016099836A publication Critical patent/JP2016099836A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To eliminate a level difference in image characteristics while maintaining the original image quality of a composite image.SOLUTION: An image processor includes acquisition means for acquiring a plurality of images having different image characteristics from each other, generation means for generating a composite image by compositing the plurality of images acquired by the acquisition means, and processing means for performing correction processing of pixel values of the composite image. The processing means uses a correction amount corresponding to a distance from a composition boundary of the composite image, about a pixel to be an object of pixel value correction to perform the correction processing.SELECTED DRAWING: Figure 3

Description

本発明は、複数の画像を合成することにより得られる画像の画質を向上する技術に関する。   The present invention relates to a technique for improving the image quality of an image obtained by combining a plurality of images.

複数の撮像部により撮像された複数の画像データを合成することにより、撮像後の画角制御やHDRなどを実現する画像合成技術がある。しかし、各撮像部の撮像条件が異なる場合、複数の撮像データ間でノイズや解像度などの画像特性が異なるため、合成画像中の合成境界において、画像特性の段差がはっきりと表れてしまうという課題があった。   There is an image composition technique that realizes angle-of-view control after image capturing, HDR, and the like by combining a plurality of image data captured by a plurality of image capturing units. However, when the imaging conditions of each imaging unit are different, image characteristics such as noise and resolution are different among a plurality of imaging data, so that there is a problem that a difference in image characteristics appears clearly at the synthesis boundary in the synthesized image. there were.

合成画像中の合成境界におけるノイズ段差を解消する手法として、撮像時のゲイン値に応じて画像ごとにノイズリダクションの強弱を切り替えることにより、複数枚の撮像データのノイズ量を揃える手法がある(特許文献1)。   As a technique for eliminating the noise level difference at the composite boundary in the composite image, there is a technique of aligning the noise amount of a plurality of image data by switching the noise reduction strength for each image according to the gain value at the time of imaging (patent) Reference 1).

特開2010−154478JP 2010-154478 A

しかしながら、特許文献1に記載の技術を用いると、合成画像データに表れたノイズ段差が大きい場合には、ノイズ量が大きい画像領域に過剰なノイズリダクションを行ってしまい、合成画像の画質が低下してしまうことがある。そこで本発明は、合成画像の画質をできる限り維持しつつ、画像特性の段差を解消することを目的としている。   However, when the technique described in Patent Document 1 is used, if the noise level difference that appears in the composite image data is large, excessive noise reduction is performed on an image area having a large amount of noise, and the image quality of the composite image decreases. May end up. Accordingly, an object of the present invention is to eliminate the difference in image characteristics while maintaining the image quality of the composite image as much as possible.

上記課題を解決するために、本発明の画像処理装置は、ノイズ特性、解像度、明るさ、カラーバランスのうちの少なくとも一つの画像特性が互いに異なり、互いに被写体の同じ領域に対応する共通の画像領域を有する複数の画像を取得する取得手段と、前記取得手段により取得された前記複数の画像を、前記共通の画像領域が重なるように位置合わせして合成することで、合成画像を生成する生成手段と、前記複数の画像の前記画像特性の違いに基づいて、前記合成画像の画素値の補正処理を行う処理手段とを有し、前記処理手段は、前記合成画像において画素値の生成に用いられる画像が切り替わる境界である合成境界を挟む二つの領域の少なくとも一方の領域について、前記合成境界からの距離に応じて所定の距離の画素まで連続的に変化する補正量を用いて、前記補正処理を行うことを特徴とする。   In order to solve the above-described problems, an image processing apparatus according to the present invention has a common image area corresponding to the same area of a subject with at least one image characteristic among noise characteristics, resolution, brightness, and color balance being different from each other Acquisition means for acquiring a plurality of images, and generation means for generating a composite image by aligning and synthesizing the plurality of images acquired by the acquisition means so that the common image regions overlap. And processing means for correcting pixel values of the composite image based on differences in the image characteristics of the plurality of images, the processing means being used for generating pixel values in the composite image For at least one of the two regions sandwiching the composite boundary that is the boundary at which the image switches, the pixel is continuously changed up to a pixel of a predetermined distance according to the distance from the composite boundary. Using the correction amount, and performs the correction processing.

本発明によれば、合成画像の画質を維持しつつ、画像特性の段差を解消することができる。   According to the present invention, it is possible to eliminate a difference in image characteristics while maintaining the quality of a composite image.

画像処理装置の構成の一例を示す図。1 is a diagram illustrating an example of a configuration of an image processing apparatus. 実施例1に係る画像処理部の構成を示す図。FIG. 3 is a diagram illustrating a configuration of an image processing unit according to the first embodiment. 実施例1の画像処理装置で行われる処理の流れを示すフローチャート。3 is a flowchart illustrating a flow of processing performed by the image processing apparatus according to the first embodiment. 合成画像データの概要を示す図。The figure which shows the outline | summary of synthetic | combination image data. ノイズ量変化の理想モデルを示す図。The figure which shows the ideal model of noise amount change. パノラマ合成を示す図。The figure which shows panorama composition. 実施例1の適用例を示す図。FIG. 3 is a diagram illustrating an application example of the first embodiment. 画素ピッチ、焦点距離、被写体距離の関係性を示す図。The figure which shows the relationship between pixel pitch, a focal distance, and object distance. 実施例2における解像度変化の例を示す図。FIG. 10 is a diagram illustrating an example of resolution change in the second embodiment. 実施例2の適用例を示す図。FIG. 10 is a diagram illustrating an application example of the second embodiment.

以下、図面を参照して本発明を実施する形態について説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

<実施例1>
本実施例では、互いに異なる範囲の画像領域に対応する画像データ同士を合成した際の、合成境界に発生するノイズ段差を解消する例について述べる。図1(a)は、本実施例に係る画像処理装置100(以下、処理装置100とする)の構成を示す図である。処理装置100は撮像部101〜105、CPU106、RAM107、ROM108、操作部109、表示制御部110、表示部111を備えている。また、処理装置100は、撮像部制御部112、デジタル信号処理部113、エンコーダ部114、外部メモリ制御部115、画像処理部117、バス118を備えている。
<Example 1>
In the present embodiment, an example will be described in which a noise level difference occurring at the synthesis boundary when image data corresponding to image regions in different ranges is synthesized is eliminated. FIG. 1A is a diagram illustrating a configuration of an image processing apparatus 100 (hereinafter referred to as a processing apparatus 100) according to the present embodiment. The processing apparatus 100 includes imaging units 101 to 105, a CPU 106, a RAM 107, a ROM 108, an operation unit 109, a display control unit 110, and a display unit 111. The processing apparatus 100 also includes an imaging unit control unit 112, a digital signal processing unit 113, an encoder unit 114, an external memory control unit 115, an image processing unit 117, and a bus 118.

撮像部101〜105は、それぞれが独立した結像光学系と撮像センサを有するカメラであり、図1(b)に示すように、処理装置100の筺体の同一平面上に配置されている。撮像部101〜104は互いに焦点距離の等しい望遠レンズを有しており、撮像部105は、撮像部101〜104よりも焦点距離の短い広角レンズを有している。また、撮像部101〜105がそれぞれ有する撮像素子の画素数は互いに等しい。撮像部101〜105は、操作部109の操作に対応して画像の撮像を行い、取得した画像データをバス118を介して処理装置100の各構成部に出力する。なお、撮像部の構成は上記に限定されるものではなく、撮像部の数、撮像部の位置、姿勢を変更してもよいし、全てのレンズの焦点距離が同じでも、異なっていてもよい。また、本実施例における処理装置は、1つの筺体に複数のカメラを備えた多眼カメラに限定されるものではなく、複数のカメラと接続されたコンピュータの形態をとることもできる。また、撮像部を1つだけ備えたカメラの形態をとって、視点を変えながら複数回撮像することにより得られた画像データに画像処理を行う例も本実施例における処理装置に含まれる。   The imaging units 101 to 105 are cameras each having an independent imaging optical system and an imaging sensor, and are arranged on the same plane of the casing of the processing apparatus 100 as shown in FIG. The imaging units 101 to 104 have telephoto lenses having the same focal length, and the imaging unit 105 has a wide-angle lens having a shorter focal length than the imaging units 101 to 104. In addition, the number of pixels of the imaging elements included in the imaging units 101 to 105 is equal to each other. The imaging units 101 to 105 capture an image corresponding to the operation of the operation unit 109 and output the acquired image data to each component of the processing apparatus 100 via the bus 118. Note that the configuration of the imaging unit is not limited to the above, and the number of imaging units, the position and orientation of the imaging unit may be changed, and the focal lengths of all the lenses may be the same or different. . In addition, the processing apparatus according to the present embodiment is not limited to a multi-view camera provided with a plurality of cameras in one casing, and may take the form of a computer connected to a plurality of cameras. Further, an example in which image processing is performed on image data obtained by taking a plurality of images while changing the viewpoint in the form of a camera having only one imaging unit is also included in the processing device in this embodiment.

CPU106は、以下に述べる各部を統括的に制御する処理回路である。RAM107はCPU106の主メモリとして機能するメモリであり、撮像した画像データ等のデータの一時的な格納などを行う。ROM108はCPU106で実行される制御プログラム等を格納しているメモリである。操作部109はユーザが処理装置100に対して入力操作を行うためのボタンであり、画像の撮像指示などを入力することができる。なお、操作部109としては、シャッターボタンの他にモードダイヤルや十字キーなども含まれる。表示制御部110は表示部111に表示される画像や文字の表示制御を行う処理回路である。撮像部制御部112はCPU106、または操作部109などからの指示に基づいた撮像部101〜105の制御を行う処理回路である。   The CPU 106 is a processing circuit that comprehensively controls each unit described below. A RAM 107 is a memory that functions as a main memory of the CPU 106 and temporarily stores data such as captured image data. The ROM 108 is a memory that stores a control program executed by the CPU 106. The operation unit 109 is a button for the user to perform an input operation on the processing apparatus 100, and can input an image capturing instruction and the like. The operation unit 109 includes a mode dial and a cross key in addition to the shutter button. The display control unit 110 is a processing circuit that performs display control of images and characters displayed on the display unit 111. The imaging unit control unit 112 is a processing circuit that controls the imaging units 101 to 105 based on an instruction from the CPU 106 or the operation unit 109.

デジタル信号処理部113は、バス118を介して受け取ったデジタルデータに対し、ホワイトバランス処理、ガンマ処理、ノイズ低減処理などの各種処理を行う処理回路である。エンコーダ部114は、画像データをJPEGやMPEGなどのファイルフォーマットに変換する処理を行う処理回路である。外部メモリ制御部115は、処理装置100とPCその他メディア116(例えば、ハードディスク、メモリーカード、CFカード、SDカード、USBメモリ)とを接続するインターフェースである。処理装置100は、この外部メモリ制御部115を介してPCその他メディア116にデータの出力を行うことができる。   The digital signal processing unit 113 is a processing circuit that performs various processes such as white balance processing, gamma processing, and noise reduction processing on digital data received via the bus 118. The encoder unit 114 is a processing circuit that performs processing for converting image data into a file format such as JPEG or MPEG. The external memory control unit 115 is an interface that connects the processing apparatus 100 and a PC or other media 116 (for example, a hard disk, a memory card, a CF card, an SD card, a USB memory). The processing apparatus 100 can output data to the PC or other media 116 via the external memory control unit 115.

画像処理部117は、撮像部101〜105で取得された画像データやデジタル信号処理部113から出力された画像データに対して画像処理を行う処理回路である。処理装置100では、CPU106が、ROM108に格納されたプログラムをRAM107をワークメモリとして実行することで、画像処理部117を図2に示す各ブロックとして制御し、以下の処理を実行する。   The image processing unit 117 is a processing circuit that performs image processing on the image data acquired by the imaging units 101 to 105 and the image data output from the digital signal processing unit 113. In the processing apparatus 100, the CPU 106 executes the program stored in the ROM 108 using the RAM 107 as a work memory, thereby controlling the image processing unit 117 as each block shown in FIG. 2 and executes the following processing.

以下、本実施例の処理装置100で行われる処理の流れについて、図2のブロック図と図3のフローチャートを参照して説明する。   Hereinafter, the flow of processing performed in the processing apparatus 100 of the present embodiment will be described with reference to the block diagram of FIG. 2 and the flowchart of FIG.

ステップS301では、取得部201が、撮像部101〜105が撮像した撮像データ群を取得する。ここで撮像データ群とは、各撮像部が撮像した画像データ、各撮像部のレンズの焦点距離、撮像時のF値や露光時間などの撮像パラメータと、RAM107に格納されている各撮像部の位置姿勢などを含むキャリブレーションパラメータ、を含む。なお、ここでのキャリブレーションパラメータは事前にキャリブレーションすることにより得られているものとする。取得部201は、取得した撮像データ群を合成部202へ出力する。   In step S301, the acquisition unit 201 acquires an imaging data group captured by the imaging units 101 to 105. Here, the imaging data group refers to image data captured by each imaging unit, focal length of the lens of each imaging unit, imaging parameters such as F value and exposure time at the time of imaging, and each imaging unit stored in the RAM 107. Calibration parameters including position and orientation. It is assumed that the calibration parameters here are obtained by performing calibration in advance. The acquisition unit 201 outputs the acquired imaging data group to the synthesis unit 202.

ステップS302では、合成部202は、取得部201から入力された撮像データ群を用いて、合成画像データを生成する。本実施例では撮像データ群に含まれる撮像部101〜105の画像データを合成することにより、撮像部105と同じ視点で、撮像部105のレンズと同じ画角で、撮像部105の撮像データより高画質な合成画像データを生成する例を示す。ここで撮像部101〜104のレンズの焦点距離をf、撮像部105のレンズの焦点距離をfとする。合成部202ではまず、撮像部101〜104の画像データから、キャリブレーションパラメータを用いた視点補間処理により、視点位置、姿勢が撮像部105と同じで、焦点距離がfの画像データを4枚生成する。視点補間処理には既存の方法が利用可能である。例えば、撮像部101〜104の画像データ間でブロックマッチングを行って決定した、各画素における被写体の距離に基づいて、撮像部101〜104の画像データを撮像部105の視点にシフトさせることにより生成できる。 In step S <b> 302, the composition unit 202 generates composite image data using the imaging data group input from the acquisition unit 201. In this embodiment, by combining the image data of the imaging units 101 to 105 included in the imaging data group, from the imaging data of the imaging unit 105 at the same viewpoint as the lens of the imaging unit 105 from the same viewpoint as the imaging unit 105. An example of generating high-quality composite image data is shown. Here, the focal length of the lenses of the imaging units 101 to 104 is f T , and the focal length of the lens of the imaging unit 105 is f W. In the combining unit 202 first, from the image data of the image pickup unit 101 - 104, by the viewpoint interpolation processing using the calibration parameters, viewpoint position, and orientation is the same as the imaging unit 105, four focal length image data of f T Generate. An existing method can be used for the viewpoint interpolation processing. For example, the image data of the imaging units 101 to 104 is generated by shifting the image data of the imaging units 101 to 104 to the viewpoint of the imaging unit 105 based on the distance of the subject in each pixel determined by performing block matching between the image data of the imaging units 101 to 104. it can.

次に、合成部202は、生成した4枚の画像データの画素値を加算平均することにより、焦点距離fに対応する画角を有する合成画像データTを生成する。そして、合成部202は、合成画像データTと撮像部105で撮像された焦点距離fの画像データとを合成することにより、焦点距離fに対応する画角を有する合成画像データWを生成する。双方の画像データは、視点位置、光軸方向が等しいため、焦点距離の比に応じて拡大縮小することにより合成可能である。合成画像データWの例を図4(a)に示す。図4(a)に示す画像が合成画像データWであり、中央部の灰色の線で囲まれた領域が、合成画像データTに対応する領域である。なお、灰色の線は合成境界を示している。本実施例において、合成画像データTと撮像部105で撮像された画像データとの合成は、合成画像データTを撮像部105で撮像された画像データにはめ込む形(合成画像データTの画素値で撮像部105の画像データの画素値を置き換える形)で行っている。すなわち、この処理において、合成画像データTは撮像部105で撮像された画像データと、同じ被写体領域に対応する画像領域同士が重なるように位置合わせして合成される。合成の方法はこれに限られず、合成領域において、合成画像データTと撮像部105で撮像された画像データの画素値の加算平均を行う形でも良い。合成画像データTをはめ込む形の方が、画像中央部で解像感が高い合成画像データWを得ることができるが、画素値の加算平均を行う合成法では、合成画像データWの中央部と周縁部における画質の違いが緩和され、画像中央部におけるノイズも低減される。 Next, the combining unit 202, by averaging the pixel values of the four image data generated, to generate combined image data T having a field angle corresponding to the focal length f T. Then, the composition unit 202, by combining the image data of the imaged focal length f W of synthetic image data T and the imaging unit 105, generates the synthetic image data W having a field angle corresponding to the focal length f W To do. Since both the image data have the same viewpoint position and optical axis direction, they can be combined by enlarging or reducing according to the focal length ratio. An example of the composite image data W is shown in FIG. The image shown in FIG. 4A is the composite image data W, and a region surrounded by a gray line at the center is a region corresponding to the composite image data T. The gray line indicates the composite boundary. In the present embodiment, the composite image data T and the image data captured by the image capturing unit 105 are combined with the composite image data T inserted into the image data captured by the image capturing unit 105 (the pixel value of the composite image data T). This is performed by replacing the pixel value of the image data of the imaging unit 105). That is, in this process, the composite image data T is combined with the image data captured by the image capturing unit 105 so that the image regions corresponding to the same subject region overlap each other. The combining method is not limited to this, and a form in which the combined image data T and the pixel value of the image data captured by the imaging unit 105 are added and averaged in the combining region may be used. When the composite image data T is inserted, it is possible to obtain composite image data W having a higher resolution at the central portion of the image. However, in the synthesis method in which pixel values are added and averaged, the central portion of the composite image data W and Differences in image quality at the periphery are alleviated, and noise at the center of the image is also reduced.

合成部202は、ここで生成した合成画像データWを決定部203と補正部204へと出力し、合成に使用した撮像部105の画像データと合成画像データTを決定部203へと出力する。なお、ここで行われる画像合成処理は上記のものだけに限定されるものではない。たとえば、撮像部105で撮像された画像と、撮像部101〜104のうちのいずれかで撮像された画像とを合成する場合にも本実施例の処理は適用可能である。   The composition unit 202 outputs the composite image data W generated here to the determination unit 203 and the correction unit 204, and outputs the image data of the imaging unit 105 and the composite image data T used for composition to the determination unit 203. Note that the image composition processing performed here is not limited to the above. For example, the process of the present embodiment can also be applied to a case where an image captured by the image capturing unit 105 and an image captured by any of the image capturing units 101 to 104 are combined.

ステップS303では、決定部203が合成部202から入力された合成画像データWの画像特性として、合成画像データWの合成境界におけるノイズ特性を取得する。図4(b)を用いて、ノイズ段差について説明する。図4(b)は、図4(a)と同様に合成画像データWを示す図である。領域402は合成画像データTに対応する領域、領域403は撮像部105で撮像された画像データに対応する領域であり、領域404は合成境界の近傍の領域を示す。領域404において、合成境界の左側は複数枚の画像を加算平均することにより得られた領域であるため、1枚の画像の情報だけを有する右側の領域に比べてノイズが少ない領域になっている。そのため、合成境界の左右でノイズ量の違いが発生し、これが画像中でのノイズ段差となって表れる。画像の信号成分をS、ノイズ成分をNとしたとき、撮像センサが取得する実際の測定値Uは式(1)のように表せる。このとき、ノイズ成分Nの標準偏差はσとする。
U=S+N (1)
また、同一条件でK回信号を取得し、加算平均をとったときの値U’は式(2)で表せる。
In step S <b> 303, the determination unit 203 acquires a noise characteristic at the composite boundary of the composite image data W as the image characteristic of the composite image data W input from the composite unit 202. The noise level difference will be described with reference to FIG. FIG. 4B is a diagram showing the composite image data W in the same manner as FIG. An area 402 is an area corresponding to the composite image data T, an area 403 is an area corresponding to the image data captured by the imaging unit 105, and an area 404 is an area near the composite boundary. In the region 404, the left side of the composite boundary is a region obtained by averaging a plurality of images, and thus is a region with less noise than the right region having only one image information. . Therefore, a difference in the amount of noise occurs on the left and right of the synthesis boundary, which appears as a noise step in the image. When the signal component of the image is S and the noise component is N, the actual measurement value U acquired by the imaging sensor can be expressed as in Expression (1). At this time, the standard deviation of the noise component N is σ.
U = S + N (1)
Further, the value U ′ obtained when K times of signals are acquired under the same conditions and the addition average is taken can be expressed by Expression (2).

中心極限定理より、標準偏差σの分布から発生した乱数をK回加算したとき、加算後の値の分布の標準偏差は   According to the central limit theorem, when random numbers generated from the distribution of standard deviation σ are added K times, the standard deviation of the distribution of values after addition is

となることから、加算平均後のノイズ成分N’の標準偏差は式(3)により求められる。 Therefore, the standard deviation of the noise component N ′ after the averaging is obtained from the equation (3).

つまり、K回加算し、平均をとることにより、ノイズ成分の標準偏差が   In other words, by adding K times and taking the average, the standard deviation of the noise component is

となることがわかる。したがって、撮像部101〜105のノイズの標準偏差が全て同じσであると仮定すると、本実施例においては、合成境界の左右で、図5(c)に示すようなノイズ段差が発生することになる。本実施例では、領域402において4枚の画像が加算平均されているので、領域404の左側の領域のノイズの標準偏差は It turns out that it becomes. Accordingly, assuming that the noise standard deviations of the imaging units 101 to 105 are all the same σ, in this embodiment, noise steps as shown in FIG. Become. In this embodiment, since four images are averaged in the region 402, the standard deviation of the noise in the region on the left side of the region 404 is

、右側の領域のノイズの標準偏差はσとなる。 The standard deviation of noise in the right region is σ.

決定部203は、この、領域402と領域403に対応するノイズ特性を、合成画像データW中の画素値から取得する。本実施例では、決定部203が、領域402と領域403のべた部(被写体の色がほぼ同一である領域)の画素値の標準偏差をノイズの標準偏差として取得する。べた部の抽出方法としては公知の技術を広く用いることができるが、本実施例では、合成画像データWに対してエッジ抽出の処理を行い、そのエッジが抽出されていない領域をべた部として抽出する。なお、ノイズ特性の取得方法はこれに限られず、合成前の撮像画像データの画素値から同様の手法で標準偏差を取得してもよい。また、あらかじめカメラの撮像パラメータとノイズ強度の関係が分かっている場合には、画像データの画素値を用いずに、撮像時のF値、レンズ特性、ISO感度等から算出するようにしてもよい。   The determination unit 203 acquires the noise characteristics corresponding to the regions 402 and 403 from the pixel values in the composite image data W. In the present embodiment, the determination unit 203 acquires the standard deviation of the pixel values of the solid part of the region 402 and the region 403 (the region where the subject colors are substantially the same) as the noise standard deviation. Although a well-known technique can be widely used as a method for extracting a solid part, in this embodiment, edge extraction processing is performed on the composite image data W, and an area from which no edge is extracted is extracted as a solid part. To do. In addition, the acquisition method of a noise characteristic is not restricted to this, You may acquire a standard deviation with the same method from the pixel value of the captured image data before a synthesis | combination. If the relationship between the camera imaging parameters and the noise intensity is known in advance, it may be calculated from the F value at the time of imaging, lens characteristics, ISO sensitivity, etc. without using the pixel values of the image data. .

ステップS304では、決定部203が、ステップS303で取得されたノイズ特性に基づいて、ノイズ段差を解消するための、合成領域における画素値の変化量を決定する。ここで、本実施例における、領域404におけるx軸方向のノイズ量変化の理想モデルを図5(a)に示す。本実施例では、ノイズ量が少ない合成境界左側の領域に対して、画素値補正の対象となる画素に、合成境界からの距離dに応じたノイズ量を付加することにより、合成境界におけるノイズ特性を図5(a)に示すように変化させ、ノイズ段差を解消する。本実施例では境界からの距離D画素の内側の領域をノイズ量変化領域とし、境界に近づくにしたがってノイズ量が連続的に増えていくように画素値の補正を行う。このようにノイズ量を変化させると、補正処理後の画像において、ノイズ段差が目立たなくなる。図5(a)に示している、領域402と領域403の間のノイズ量の差σ’は、分散の加法性により式(4)で算出できる。   In step S304, the determination unit 203 determines the amount of change in the pixel value in the synthesis region for eliminating the noise level difference based on the noise characteristics acquired in step S303. Here, FIG. 5A shows an ideal model of the noise amount change in the x-axis direction in the region 404 in this embodiment. In this embodiment, the noise characteristic at the synthesis boundary is added to the pixel on the left side of the synthesis boundary with a small amount of noise by adding a noise amount corresponding to the distance d from the synthesis boundary to the pixel to be corrected. Is changed as shown in FIG. 5A to eliminate the noise step. In this embodiment, the area inside the pixel with the distance D from the boundary is set as the noise amount changing area, and the pixel value is corrected so that the noise amount continuously increases as the distance from the boundary is approached. When the noise amount is changed in this way, the noise level difference becomes inconspicuous in the corrected image. The noise amount difference σ ′ between the region 402 and the region 403 shown in FIG. 5A can be calculated by Expression (4) based on the additiveness of dispersion.

さらに、合成境界からの距離がd[画素]である画素における付加ノイズ量は式(5)により求めることができる。   Further, the amount of additional noise in a pixel whose distance from the synthesis boundary is d [pixel] can be obtained by Expression (5).

ノイズ量を変化させる範囲を示す境界からの距離Dは、例えば30画素で実施可能であるが、Dの値はこれに限らない。また、本実施例ではDの値として、ROM108に格納してある一定の値を用いるものとするが、各画像の画角の比によって変更するようにしてもよい。例えば、望遠画像の画角が所定の閾値よりも小さい場合には、ノイズ量を変化させる範囲を狭くすることで、望遠画像の広範囲にノイズが付加されることを防ぐことができる。また、本実施例ではノイズ量変化の理想モデルとして図5(a)に示した線形モデルを用いているが、ノイズ量変化の理想モデルの形はこれに限られない。例えば、図5(b)に示すような滑らかな曲線系に変化するようにすると、線型の理想モデルに比べて全体のノイズ付加量を抑えながら、ノイズ段差をなめらかに補正することができる。決定部203は、ここで決定したノイズ量の補正量を補正部204に出力する。   The distance D from the boundary indicating the range in which the amount of noise is changed can be implemented with, for example, 30 pixels, but the value of D is not limited thereto. In this embodiment, a certain value stored in the ROM 108 is used as the value of D, but it may be changed according to the ratio of the angle of view of each image. For example, when the angle of view of the telephoto image is smaller than a predetermined threshold, it is possible to prevent noise from being added to a wide range of the telephoto image by narrowing the range in which the amount of noise is changed. In this embodiment, the linear model shown in FIG. 5A is used as an ideal model for noise amount change, but the shape of the ideal model for noise amount change is not limited to this. For example, by changing to a smooth curve system as shown in FIG. 5B, it is possible to smoothly correct the noise step while suppressing the total amount of added noise as compared with the linear ideal model. The determination unit 203 outputs the correction amount of the noise amount determined here to the correction unit 204.

ステップS305では、補正部204が、決定部203から入力された補正量に基づいて、合成画像データWにノイズ量の補正処理を行い、生成された補正画像データをバス118に出力して処理を終了する。ノイズの付加手法としては公知の技術を広く用いることができる。本実施例では、補正部204は合成画像データWの各画素の画素値に対して、合成境界からの距離dに応じたσdの標準偏差を用いた加法性ホワイトガウスノイズを加えることにより、補正画像データを生成する。本実施例では平均0、標準偏差σdのホワイトガウスノイズを加えることにより補正合成画像データを生成したが、補正合成画像データのノイズ量がノイズ量の理想変化モデルに沿っていれば、ノイズ付加手法はこれに限らない。   In step S305, the correction unit 204 performs a noise amount correction process on the composite image data W based on the correction amount input from the determination unit 203, and outputs the generated corrected image data to the bus 118 for processing. finish. Known techniques can be widely used as a noise addition technique. In this embodiment, the correction unit 204 corrects the pixel value of each pixel of the composite image data W by adding additive white Gaussian noise using a standard deviation of σd according to the distance d from the composite boundary. Generate image data. In this embodiment, the corrected composite image data is generated by adding white Gaussian noise with an average of 0 and standard deviation σd. However, if the noise amount of the corrected composite image data conforms to the ideal change model of the noise amount, a noise addition method is used. Is not limited to this.

以上が本実施例の処理装置100で行われる処理である。以上の処理によれば、画像中の広い範囲にノイズリダクションを行わずとも合成境界のノイズ段差を解消できるので、ノイズリダクションによる画質劣化を抑えることができる。なお、本実施例は、画角の異なる画像同士を合成する場合に限られず、例えば、図6に示すように、画角の同じ画像をパノラマ合成する場合においても、実施可能である。図6の例では、点線で囲まれた領域601が合成領域となり、その他の領域との境界にノイズ段差が生じるため、本実施例を適用することでそのノイズ段差を補正することができる。   The above is the process performed by the processing apparatus 100 of the present embodiment. According to the above processing, the noise level difference at the synthesis boundary can be eliminated without performing noise reduction over a wide range in the image, and image quality deterioration due to noise reduction can be suppressed. Note that the present embodiment is not limited to the case where images having different angles of view are combined, and for example, as illustrated in FIG. In the example of FIG. 6, the region 601 surrounded by the dotted line is a composite region, and a noise step occurs at the boundary with other regions. Therefore, the noise step can be corrected by applying this embodiment.

本実施例を実際の画像に適用した例を図7に示す。図7(a)は標準偏差σ(ノイズ量)の異なる2種類の画像をつなぎ合わせた画像であり、画像中央部においてノイズ段差を確認することができる。図7(b)は図7(a)の画像に本実施例を適用した結果画像である。ノイズ量の変化が滑らかになっていることがわかる。   An example in which this embodiment is applied to an actual image is shown in FIG. FIG. 7A is an image obtained by joining two types of images having different standard deviations σ (noise amount), and a noise level difference can be confirmed at the center of the image. FIG. 7B is a result image obtained by applying the present embodiment to the image of FIG. It can be seen that the change in the amount of noise is smooth.

なお、本実施例において、取得部201は互いに画像特性の異なる複数の画像を取得する取得手段として機能する。また、合成部202は、前記取得手段により取得された複数の画像を合成することで、合成画像を生成する生成手段として機能する。また、補正部204は、前記合成画像の画素値の補正処理を行う処理手段として機能する。また、決定部203は、前記補正処理における画素値の補正量を決定する決定手段として機能する。   In this embodiment, the acquisition unit 201 functions as an acquisition unit that acquires a plurality of images having different image characteristics. The synthesizing unit 202 functions as a generating unit that generates a synthesized image by synthesizing a plurality of images acquired by the acquiring unit. The correction unit 204 functions as a processing unit that performs a correction process on the pixel value of the composite image. The determination unit 203 functions as a determination unit that determines the correction amount of the pixel value in the correction process.

<実施例2>
実施例1では、補正画像データの合成境界において、ノイズ量が滑らかに変化するように合成画像データを補正する実施形態について説明した。本実施例では、画角の異なる画像同士を合成した場合に、補正画像データの合成境界において、解像度が滑らかに変化するように合成画像データを補正する実施形態について説明する。なお、実施例1と共通の部分については説明を省略し、実施例1との差異についてのみ説明する。
<Example 2>
In the first embodiment, the embodiment in which the composite image data is corrected so that the noise amount smoothly changes at the composite boundary of the corrected image data has been described. In this embodiment, an embodiment will be described in which, when images having different angles of view are synthesized, the synthesized image data is corrected so that the resolution changes smoothly at the synthesis boundary of the corrected image data. In addition, description is abbreviate | omitted about the part which is common in Example 1, and only the difference with Example 1 is demonstrated.

まず、焦点距離の異なる撮像部で撮像された画像データ間で解像度が異なることについて説明する。図8にセンサの画素ピッチxとレンズの焦点距離f、被写体距離dの関係性を表した図を示す。ここで本実施例における解像度を、被写体面上での長さaがセンサ面上で何画素になるかであると定義した場合、解像度Rは式(6)により算出できる。   First, the difference in resolution between image data captured by imaging units having different focal lengths will be described. FIG. 8 shows a relationship between the pixel pitch x of the sensor, the focal length f of the lens, and the subject distance d. Here, when the resolution in this embodiment is defined as how many pixels the length a on the subject surface is on the sensor surface, the resolution R can be calculated by Expression (6).

よって、各撮像部間でセンササイズと被写体までの距離が同じであると仮定すると、解像度はレンズの焦点距離によって決定することがわかる。そのため実施例1と同様に、焦点距離fと焦点距離fの画像データを合成すると、その合成境界で解像度段差が発生してしまう。本実施例はこの課題を解決する処理に関する。 Therefore, assuming that the sensor size and the distance to the subject are the same between the imaging units, it can be seen that the resolution is determined by the focal length of the lens. Therefore in the same manner as in Example 1, when synthesizing the image data of: focal length f T and the focal length f W, resulting in the resolution step is generated at the synthesis boundary. The present embodiment relates to processing for solving this problem.

本実施例では、実施例1と同様に合成部202が合成画像データTを撮像部105の中央にはめ込む場合について説明する。合成画像データWは、実施例1と同様に図4(b)で示される。領域402に対応する焦点距離がf、領域403に対応する焦点距離がfであるので、領域404において図9(a)に示すような解像度段差が発生している。本実施例では、補正部204が、合成領域の右側に対して、図9(b)に示すように解像度を劣化させる補正を行うことで、この解像度段差を解消する。 In the present embodiment, a case where the combining unit 202 fits the combined image data T into the center of the imaging unit 105 as in the first embodiment will be described. The composite image data W is shown in FIG. 4B as in the first embodiment. Since the focal length corresponding to the region 402 is f T and the focal length corresponding to the region 403 is f W , a resolution step as shown in FIG. In the present embodiment, the correction unit 204 eliminates this resolution step by performing correction for degrading the resolution as shown in FIG. 9B on the right side of the synthesis area.

以下、本実施例の処理装置100で行われる処理の詳細について説明する。本実施例の処理装置100の構成および処理の流れは基本的に実施例1と同じであるが、ステップS303〜ステップS305で行われる処理の詳細がそれぞれ実施例1と異なっている。その違いについて説明する。   Hereinafter, details of processing performed in the processing apparatus 100 of the present embodiment will be described. The configuration and processing flow of the processing apparatus 100 of this embodiment are basically the same as those of the first embodiment, but the details of the processes performed in steps S303 to S305 are different from those of the first embodiment. The difference will be described.

本実施例のステップS303では、決定部203が、合成画像データWの画像特性として、領域402と領域403における解像度の差を取得する。解像度は撮像部101〜105の撮像パラメータから算出可能なので、決定部203は、取得部201から入力された撮像データ群が示す撮像パラメータを式6に代入して差分を取ることで解像度の差を算出する。   In step S <b> 303 of this embodiment, the determination unit 203 acquires the difference in resolution between the area 402 and the area 403 as the image characteristics of the composite image data W. Since the resolution can be calculated from the imaging parameters of the imaging units 101 to 105, the determination unit 203 substitutes the imaging parameter indicated by the imaging data group input from the acquisition unit 201 into Equation 6 to obtain the difference, thereby obtaining the difference in resolution. calculate.

また、本実施例のステップS304では、決定部203が、合成境界の近傍で、解像度がどのように変化すべきかの理想変化モデルを定める。そして、それを満たすための付加ボケ量を決定する。本実施例では式(7)で表されるガウシアンフィルタを、領域403の中の合成境界の近傍の領域に作用させることで、画像データの解像度をなめらかに変化させる。ここで、x、yは画像中の画素位置である。また、画像データの解像度   In step S304 of this embodiment, the determination unit 203 determines an ideal change model for how the resolution should change in the vicinity of the synthesis boundary. Then, the amount of additional blur to satisfy that is determined. In this embodiment, the resolution of the image data is smoothly changed by applying the Gaussian filter represented by Expression (7) to the region in the region 403 near the synthesis boundary. Here, x and y are pixel positions in the image. Also, the resolution of the image data

を解像度 The resolution

に劣化させる際に使用する標準偏差σ’は式(8)により算出可能である。 The standard deviation σ ′ used for the deterioration can be calculated by equation (8).

さらに、合成境界からの距離がdである領域の付加ボケ量は式(9)により求めることができる。   Furthermore, the amount of additional blur in the region where the distance from the synthesis boundary is d can be obtained by Expression (9).

なお、ぼけを付加させるフィルタはガウシアンフィルタに限られず、様々なぼけフィルタを利用することが可能である。決定部203は、ここで決定された付加ボケ量σを補正部204に出力する。 Note that the filter for adding blur is not limited to the Gaussian filter, and various blur filters can be used. The determination unit 203 outputs the additional blur amount σ d determined here to the correction unit 204.

ステップ305では、補正部204が、ステップS304で決定された付加ボケ量σに基づいて、合成画像データWに対してガウシアンフィルタによる処理を行い、補正画像データをバス118に出力して処理を終了する。 In step 305, the correction unit 204 performs processing using a Gaussian filter on the composite image data W based on the additional blur amount σ d determined in step S 304, and outputs the corrected image data to the bus 118 for processing. finish.

以上が本実施例の処理装置100で行われる処理である。以上の処理によれば、解像度の異なる画像データ同士を合成した場合の合成境界に発生する解像度段差を緩和することができる。以下、本実施例を実際の画像に適用した例を図10に示す。図10(a)は解像度の異なる2種類の画像をつなぎ合わせた画像であり、画像中央部において解像度段差を確認することができる。図10(b)は図10(a)の画像に本実施例を適用した結果画像である。解像度の変化が滑らかになっていることがわかる。   The above is the process performed by the processing apparatus 100 of the present embodiment. According to the above processing, it is possible to alleviate the resolution step that occurs at the synthesis boundary when the image data having different resolutions are synthesized. An example in which the present embodiment is applied to an actual image is shown in FIG. FIG. 10A is an image obtained by joining two types of images having different resolutions, and a resolution step can be confirmed at the center of the image. FIG. 10B is a result image obtained by applying the present embodiment to the image of FIG. It can be seen that the resolution change is smooth.

<その他の実施例>
本発明の実施形態は、上記の実施例に挙げたものに限られない。例えば、ノイズ特性の異なる画像同士を合成した場合に、実施例1とは異なり、ノイズ量が大きい方の領域に、合成境界からの距離に応じた強度でノイズを低減するデノイズ処理を施すようにしてもよい。また、解像度の異なる画像同士を合成した場合に、実施例2とは異なり、解像度が低い方の領域に、合成境界からの距離に応じた鮮鋭化フィルタを作用させるようにしてもよい。また、合成境界の両側において、ノイズ量を変化させる処理や解像度を変化させる処理を行ってもよい。つまり、合成境界を挟む二つの領域の少なくとも一方について、画素値の補正を行う処理をすればよい。また、実施例1と2を組み合わせて、ノイズ量と解像度を両方変化させる処理を行ってもよい。また、画像特性の異なる画像としては、ノイズ特性や解像度が異なる画像に限られず、明るさやカラーバランスが異なる画像を用いた例にも本発明は適応可能である。
<Other examples>
Embodiments of the present invention are not limited to those listed in the above examples. For example, when images having different noise characteristics are synthesized, unlike the first embodiment, a denoising process for reducing noise with an intensity corresponding to the distance from the synthesis boundary is performed on a region with a larger amount of noise. May be. In addition, when images with different resolutions are combined, unlike the second embodiment, a sharpening filter corresponding to the distance from the combination boundary may be applied to a region with a lower resolution. Further, a process for changing the amount of noise and a process for changing the resolution may be performed on both sides of the synthesis boundary. That is, a process for correcting the pixel value may be performed for at least one of the two regions sandwiching the composite boundary. Further, the processing of changing both the noise amount and the resolution may be performed by combining the first and second embodiments. The image having different image characteristics is not limited to an image having different noise characteristics and resolution, and the present invention can be applied to an example using images having different brightness and color balance.

また、上記の実施例においては、共に合成画像データWに画素値の補正を行う処理を行ったが、画素値補正を行う順番は上記に挙げたものに限られない。例えば、合成画像データTと、撮像部105で撮像された画像データのそれぞれに、あらかじめ画素値の補正処理を施してから両者を合成することで合成画像データWを生成するようにしてもよい。   In the above-described embodiments, the process of correcting the pixel value is performed on the composite image data W. However, the order in which the pixel value is corrected is not limited to the above. For example, the composite image data W and the image data captured by the imaging unit 105 may be preliminarily subjected to pixel value correction processing and then combined to generate the composite image data W.

本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。   The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

Claims (15)

ノイズ特性、解像度、明るさ、カラーバランスのうちの少なくとも一つの画像特性が互いに異なり、互いに被写体の同じ領域に対応する共通の画像領域を有する複数の画像を取得する取得手段と、
前記取得手段により取得された前記複数の画像を、前記共通の画像領域が重なるように位置合わせして合成することで、合成画像を生成する生成手段と、
前記複数の画像の前記画像特性の違いに基づいて、前記合成画像の画素値の補正処理を行う処理手段とを有し、
前記処理手段は、前記合成画像において画素値の生成に用いられる画像が切り替わる境界である合成境界を挟む二つの領域の少なくとも一方の領域について、前記合成境界からの距離に応じて所定の距離の画素まで連続的に変化する補正量を用いて、前記補正処理を行うことを特徴とする画像処理装置。
Acquisition means for acquiring a plurality of images having a common image area corresponding to the same area of the subject, wherein at least one image characteristic among noise characteristics, resolution, brightness, and color balance is different from each other;
Generating means for generating a composite image by aligning and synthesizing the plurality of images acquired by the acquisition means so that the common image areas overlap;
Processing means for performing correction processing of pixel values of the composite image based on the difference in the image characteristics of the plurality of images;
The processing means includes a pixel having a predetermined distance according to a distance from the composite boundary, regarding at least one of two regions sandwiching a composite boundary, which is a boundary at which an image used for generating a pixel value in the composite image is switched. The image processing apparatus is characterized in that the correction processing is performed using a correction amount that continuously changes until.
前記処理手段は、前記合成画像における前記合成境界を挟んだ二つの領域で、前記画像特性が連続的に変化するように、前記合成画像の画素値を補正することを特徴とする請求項1に記載の画像処理装置。   The processing unit corrects the pixel value of the composite image so that the image characteristics continuously change in two regions sandwiching the composite boundary in the composite image. The image processing apparatus described. ノイズ特性、解像度、明るさ、カラーバランスのうちの少なくとも一つの画像特性が互いに異なり、互いに被写体の同じ領域に対応する共通の画像領域を有する複数の画像を取得する取得手段と、
前記複数の画像の前記画像特性の違いに基づいて、前記複数の画像の画素値の補正処理を行う処理手段と、
前記処理手段により画素値の補正が行われた前記複数の画像を、前記共通の画像領域が重なるように位置合わせして合成することで、合成画像を生成する生成手段とを有し、
前記処理手段は、前記合成画像において画素値の生成に用いられる画像が切り替わる境界である合成境界を挟む二つの領域の少なくとも一方の領域に対応する、前記複数の画像中の領域について、前記合成画像における前記合成境界からの距離に応じて所定の距離の画素まで連続的に変化する補正量を用いて、前記補正処理を行うことを特徴とする画像処理装置。
Acquisition means for acquiring a plurality of images having a common image area corresponding to the same area of the subject, wherein at least one image characteristic among noise characteristics, resolution, brightness, and color balance is different from each other;
Processing means for performing correction processing on pixel values of the plurality of images based on the difference in the image characteristics of the plurality of images;
Generating means for generating a composite image by aligning and synthesizing the plurality of images whose pixel values have been corrected by the processing means so that the common image areas overlap;
The processing unit is configured to process the composite image with respect to a region in the plurality of images corresponding to at least one of two regions sandwiching a composite boundary that is a boundary at which an image used for generating a pixel value in the composite image is switched. An image processing apparatus, wherein the correction processing is performed using a correction amount that continuously changes to a pixel having a predetermined distance according to a distance from the synthesis boundary.
前記処理手段は、前記合成画像における前記合成境界を挟んだ二つの領域で、前記画像特性が連続的に変化するように、前記複数の画像の画素値を補正することを特徴とする請求項3に記載の画像処理装置。   The processing means corrects pixel values of the plurality of images so that the image characteristics continuously change in two regions sandwiching the composite boundary in the composite image. An image processing apparatus according to 1. 前記処理手段は、前記画素値補正の対象となる画素の、前記合成境界からの距離が小さいほど、前記補正量を大きくすることを特徴とする請求項1乃至4のいずれか一項に記載の画像処理装置。   The said processing means makes the said correction amount large, so that the distance from the said synthetic | combination boundary of the pixel used as the object of the said pixel value correction | amendment is small. Image processing device. 前記補正処理における画素値の補正量を決定する決定手段を更に備え、
前記画像特性は、画像中のノイズ量を含むノイズ特性であり、
前記決定手段は、前記複数の画像それぞれが有するノイズ特性に基づいて前記補正量を決定することを特徴とする請求項1乃至5のいずれか一項に記載の画像処理装置。
A determination unit for determining a correction amount of the pixel value in the correction process;
The image characteristic is a noise characteristic including a noise amount in an image,
The image processing apparatus according to claim 1, wherein the determination unit determines the correction amount based on a noise characteristic of each of the plurality of images.
前記処理手段が行う補正処理は、前記複数の画像のうちノイズ量が小さい画像に対して、前記合成境界からの距離に応じた量のノイズを付加する処理と、前記複数の画像のうちノイズ量が大きい画像から、前記合成境界からの距離に応じた量のノイズを低減する処理とのうちの、少なくとも一方の処理であることを特徴とする請求項6に記載の画像処理装置。   The correction process performed by the processing unit includes a process of adding an amount of noise corresponding to a distance from the synthesis boundary to an image having a small noise amount among the plurality of images, and a noise amount of the plurality of images. The image processing apparatus according to claim 6, wherein the image processing apparatus is at least one of processing for reducing an amount of noise corresponding to a distance from the synthesis boundary from an image having a large size. 前記決定手段は、前記複数の画像のべた部を抽出し、該抽出したべた部の画素値の標準偏差を前記ノイズ特性として取得し、該取得したノイズ特性を用いて前記補正量を決定することを特徴とする請求項6又は7に記載の画像処理装置。   The determining means extracts solid portions of the plurality of images, acquires a standard deviation of pixel values of the extracted solid portions as the noise characteristics, and determines the correction amount using the acquired noise characteristics. The image processing apparatus according to claim 6, wherein: 前記補正処理における画素値の補正量を決定する決定手段を更に備え、
前記画像特性は、画像の解像度であり、
前記決定手段は、前記複数の画像それぞれが有する解像度に基づいて前記補正量を決定することを特徴とする請求項1乃至8のいずれか一項に記載の画像処理装置。
A determination unit for determining a correction amount of the pixel value in the correction process;
The image characteristic is the resolution of the image;
The image processing apparatus according to claim 1, wherein the determination unit determines the correction amount based on a resolution of each of the plurality of images.
前記処理手段が行う補正処理は、前記複数の画像のうち解像度が低い画像に対して、前記合成境界からの距離に応じた強度の鮮鋭化フィルタを作用させる処理と、前記複数の画像のうちの解像度が高い画像に対して、前記合成境界からの距離に応じた強度のぼかしフィルタを作用させる処理の少なくとも一方であることを特徴とする請求項9に記載の画像処理装置。   The correction process performed by the processing means includes a process of applying a sharpening filter having an intensity corresponding to a distance from the synthesis boundary to an image having a low resolution among the plurality of images, The image processing apparatus according to claim 9, wherein the image processing apparatus is at least one of processes for applying a blur filter having an intensity corresponding to a distance from the synthesis boundary to an image having a high resolution. 前記決定手段は、前記複数の画像に対応する焦点距離、撮像センサの画素ピッチ、被写体距離の少なくとも1つに基づいて前記複数の画像の解像度を取得し、該取得した解像度に基づいて前記補正処理を行うことを特徴とする請求項9又は10に記載の画像処理装置。   The determination unit acquires resolutions of the plurality of images based on at least one of a focal length corresponding to the plurality of images, a pixel pitch of an imaging sensor, and a subject distance, and the correction processing is performed based on the acquired resolutions The image processing apparatus according to claim 9 or 10, wherein: 請求項1乃至11のいずれか一項に記載の画像処理装置を有し、前記複数の画像を撮像する、互いに異なる特性を有した複数の撮像部を備える撮像装置。   An image pickup apparatus comprising the image processing apparatus according to claim 1, and comprising a plurality of image pickup units that pick up the plurality of images and have different characteristics. コンピュータを請求項1乃至11のいずれか一項に記載の画像処理装置の各手段として機能させるプログラム。   A program that causes a computer to function as each unit of the image processing apparatus according to any one of claims 1 to 11. ノイズ特性、解像度、明るさ、カラーバランスのうちの少なくとも一つの画像特性が互いに異なり、互いに被写体の同じ領域に対応する共通の画像領域を有する複数の画像を取得する取得工程と、
前記取得工程において取得された複数の画像を、前記共通の画像領域が重なるように位置合わせして合成することで、合成画像を生成する生成工程と、
前記複数の画像の前記画像特性の違いに基づいて、前記合成画像の画素値の補正処理を行う処理工程とを含み、
前記処理工程は、前記合成画像において画素値の生成に用いられる画像が切り替わる境界である合成境界を挟む二つの領域の少なくとも一方の領域について、前記合成境界からの距離に応じて所定の距離の画素まで連続的に変化する補正量を用いて、前記補正処理を行う工程であることを特徴とする画像処理方法。
An acquisition step of acquiring a plurality of images having a common image area corresponding to the same area of the subject, wherein at least one image characteristic of noise characteristics, resolution, brightness, and color balance is different from each other;
A generation step of generating a composite image by aligning and synthesizing the plurality of images acquired in the acquisition step so that the common image region overlaps;
A process for correcting pixel values of the composite image based on the difference in the image characteristics of the plurality of images,
In the processing step, for at least one of two regions sandwiching a composite boundary, which is a boundary at which an image used for generating a pixel value in the composite image is switched, a pixel having a predetermined distance according to the distance from the composite boundary An image processing method characterized in that the correction processing is performed using a correction amount that continuously changes until
ノイズ特性、解像度、明るさ、カラーバランスのうちの少なくとも一つの画像特性が互いに異なり、互いに被写体の同じ領域に対応する共通の画像領域を有する複数の画像を取得する取得工程と、
前記複数の画像の前記画像特性の違いに基づいて、前記複数の画像の画素値の補正処理を行う処理工程と、
前記処理手段により画素値の補正が行われた前記複数の画像を、前記共通の画像領域が重なるように位置合わせして合成することで、合成画像を生成する生成工程とを含み、
前記処理工程は、前記合成画像において画素値の生成に用いられる画像が切り替わる境界である合成境界を挟む二つの領域の少なくとも一方の領域に対応する、前記複数の画像中の領域について、前記合成画像における前記合成境界からの距離に応じて所定の距離の画素まで連続的に変化する補正量を用いて、前記補正処理を行う工程であることを特徴とする画像処理方法。
An acquisition step of acquiring a plurality of images having a common image area corresponding to the same area of the subject, wherein at least one image characteristic of noise characteristics, resolution, brightness, and color balance is different from each other;
A processing step of performing correction processing of pixel values of the plurality of images based on the difference in the image characteristics of the plurality of images;
Including a generation step of generating a composite image by aligning and synthesizing the plurality of images whose pixel values have been corrected by the processing means so that the common image regions overlap.
In the processing step, the composite image is a region in the plurality of images corresponding to at least one of two regions sandwiching a composite boundary that is a boundary at which an image used to generate a pixel value in the composite image is switched. An image processing method comprising the step of performing the correction process using a correction amount that continuously changes to a pixel having a predetermined distance in accordance with a distance from the synthesis boundary.
JP2014236997A 2014-11-21 2014-11-21 Imaging device, image processor, image processing method, and program Pending JP2016099836A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014236997A JP2016099836A (en) 2014-11-21 2014-11-21 Imaging device, image processor, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014236997A JP2016099836A (en) 2014-11-21 2014-11-21 Imaging device, image processor, image processing method, and program

Publications (1)

Publication Number Publication Date
JP2016099836A true JP2016099836A (en) 2016-05-30

Family

ID=56077893

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014236997A Pending JP2016099836A (en) 2014-11-21 2014-11-21 Imaging device, image processor, image processing method, and program

Country Status (1)

Country Link
JP (1) JP2016099836A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020039025A (en) * 2018-09-03 2020-03-12 キヤノン株式会社 Image processing apparatus, image processing method, and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020039025A (en) * 2018-09-03 2020-03-12 キヤノン株式会社 Image processing apparatus, image processing method, and program
JP7214407B2 (en) 2018-09-03 2023-01-30 キヤノン株式会社 Image processing device, image processing method, and program

Similar Documents

Publication Publication Date Title
JP7003238B2 (en) Image processing methods, devices, and devices
JP4898761B2 (en) Apparatus and method for correcting image blur of digital image using object tracking
JP6347675B2 (en) Image processing apparatus, imaging apparatus, image processing method, imaging method, and program
JP5980294B2 (en) Data processing apparatus, imaging apparatus, and data processing method
US10958888B2 (en) Image processing apparatus, image processing method and storage medium for storing program
US20120008005A1 (en) Image processing apparatus, image processing method, and computer-readable recording medium having image processing program recorded thereon
US10389952B2 (en) Image-processing device which generates a high-resolution image by combining images, imaging device, image-processing method, and storage-medium
US20180182075A1 (en) Image processing apparatus, image capturing apparatus, method of image processing, and storage medium
JP5984493B2 (en) Image processing apparatus, image processing method, imaging apparatus, and program
KR102304784B1 (en) Double camera-based imaging method and apparatus
US10148870B2 (en) Image capturing apparatus
JP5541205B2 (en) Image processing apparatus, imaging apparatus, image processing program, and image processing method
JP6541501B2 (en) IMAGE PROCESSING APPARATUS, IMAGING APPARATUS, AND IMAGE PROCESSING METHOD
WO2019124289A1 (en) Device, control method, and storage medium
JP5455728B2 (en) Imaging apparatus, image processing apparatus, and image processing method
CN107979715B (en) Image pickup apparatus
US9710897B2 (en) Image processing apparatus, image processing method, and recording medium
JP6732440B2 (en) Image processing apparatus, image processing method, and program thereof
JP2016099836A (en) Imaging device, image processor, image processing method, and program
JP6245847B2 (en) Image processing apparatus and image processing method
JP6436840B2 (en) Image processing apparatus, imaging apparatus, image processing method, image processing program, and storage medium
US20200294198A1 (en) Image processing apparatus, image capturing apparatus, image processing method, and storage medium
JP2017229025A (en) Image processing apparatus, image processing method, and program
JP2005295302A (en) Camera image processing device
JP6494388B2 (en) Image processing apparatus, image processing method, and program