JP2008099260A - Image processing device, electronic camera and image processing program - Google Patents

Image processing device, electronic camera and image processing program Download PDF

Info

Publication number
JP2008099260A
JP2008099260A JP2007233227A JP2007233227A JP2008099260A JP 2008099260 A JP2008099260 A JP 2008099260A JP 2007233227 A JP2007233227 A JP 2007233227A JP 2007233227 A JP2007233227 A JP 2007233227A JP 2008099260 A JP2008099260 A JP 2008099260A
Authority
JP
Japan
Prior art keywords
image
images
unit
resolution
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007233227A
Other languages
Japanese (ja)
Other versions
JP5211589B2 (en
Inventor
Shigeru Tsuchiida
茂 土井田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2007233227A priority Critical patent/JP5211589B2/en
Publication of JP2008099260A publication Critical patent/JP2008099260A/en
Application granted granted Critical
Publication of JP5211589B2 publication Critical patent/JP5211589B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To reduce a trouble caused by a position alignment error in the position alignment synthesis of a plurality of images. <P>SOLUTION: This image processing device is provided with an image input unit, a position discrepancy detecting unit and an image synthesizing unit. The image input unit takes in a plurality of picked-up images of the same objects. The position discrepancy detecting unit detects the position discrepancy of patterns between the plurality of images. The image synthesizing unit carries out the position alignment of the patterns for the plurality of images in accordance with the position discrepancy. Thus, the image synthesizing unit determines a portion with a considerable local signal change in an image defined as a reference of position alignment and performs adjustment to locally reduce a synthesis ratio of the other image in the portion. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、画像処理装置、電子カメラ、および画像処理プログラムに関する。   The present invention relates to an image processing device, an electronic camera, and an image processing program.

従来、電子カメラを用いて複数回の分割露光を実施し、得られた複数の画像を位置合わせして合成することによって、撮像画像の像ブレを修復する技術が知られている(例えば、下記の特許文献1)。
特開2002−107787号公報(請求項1など)
2. Description of the Related Art Conventionally, a technique for repairing image blur of a captured image by performing a plurality of divided exposures using an electronic camera and aligning and synthesizing the obtained images is known (for example, the following) Patent Document 1).
JP 2002-107787 A (Claim 1 etc.)

ところで、従来技術では、複数の画像の位置合わせミスによって、絵柄のエッジ部分が合成後に多重線になったり、合成後のエッジが鈍るなどの弊害が懸念される。   By the way, in the prior art, there is a concern that a plurality of images may be misaligned, so that the edge portion of the pattern becomes a multiple line after synthesis or the edge after synthesis becomes dull.

そこで、本発明では、複数の画像の位置合わせ合成において、位置合わせミスの弊害を軽減する技術を提供することを目的とする。   Accordingly, an object of the present invention is to provide a technique for reducing the adverse effects of misalignment in the alignment synthesis of a plurality of images.

《1》本発明の第1の形態の画像処理装置は、画像入力部、位置ズレ検出部、および画像合成部を備える。画像入力部は、同一被写体を撮影した複数の画像を取り込む。位置ズレ検出部は、複数の画像の間で絵柄の位置ズレを検出する。画像合成部は、位置ズレに基づいて、複数の画像に対し絵柄の位置合わせを行って画像を合成する。上記構成において、画像合成部は、複数の画像の内で、位置合わせの基準として予め設定される画像について局所的な信号変化の大きさを判定する。画像合成部は、この信号変化が大きいと判定された箇所において、その他の画像の合成比率を局所的に下げる調整を行う。   << 1 >> An image processing apparatus according to a first embodiment of the present invention includes an image input unit, a positional deviation detection unit, and an image composition unit. The image input unit captures a plurality of images taken of the same subject. The positional deviation detection unit detects a positional deviation of the pattern between the plurality of images. The image composition unit synthesizes the images by aligning the pattern with respect to the plurality of images based on the positional deviation. In the above configuration, the image composition unit determines a local signal change magnitude for an image set in advance as an alignment reference among the plurality of images. The image synthesizing unit performs an adjustment to locally reduce the synthesis ratio of other images at a portion where the signal change is determined to be large.

《2》本発明の第2の形態の画像処理装置は、画像入力部、位置ズレ検出部、および画像合成部を備える。画像入力部は、同一被写体を撮影した複数の画像を取り込む。位置ズレ検出部は、複数の画像の間で絵柄の位置ズレを検出する。画像合成部は、位置ズレに基づいて、複数の画像に対し絵柄の位置合わせを行って画像を合成する。上記構成において、画像合成部は、位置合わせの基準とする画像と他の画像とでそれぞれ対応位置にある注目画素の階調値の差を求める。画像合成部は、階調値の差が大きいと判定された箇所において、他の画像との合成比率を局所的に下げる調整を行う。   << 2 >> An image processing apparatus according to a second embodiment of the present invention includes an image input unit, a positional deviation detection unit, and an image composition unit. The image input unit captures a plurality of images taken of the same subject. The positional deviation detection unit detects a positional deviation of the pattern between the plurality of images. The image composition unit synthesizes the images by aligning the pattern with respect to the plurality of images based on the positional deviation. In the above configuration, the image composition unit obtains the difference in the tone value of the pixel of interest at the corresponding position between the image used as a reference for alignment and another image. The image synthesizing unit performs an adjustment to locally reduce the synthesis ratio with another image at a location where it is determined that the difference in gradation value is large.

《3》本発明の電子カメラは、《1》または《2》に記載の画像処理装置と、被写体を連続的に撮影して複数の画像を生成する撮像部とを備え、複数の画像をこの画像処理装置で位置合わせ合成する機能を有する。   << 3 >> An electronic camera according to the present invention includes the image processing apparatus according to << 1 >> or << 2 >> and an imaging unit that continuously captures a subject and generates a plurality of images. It has a function of aligning and synthesizing with an image processing apparatus.

《4》本発明の画像処理プログラムは、コンピュータを、《1》または《2》に記載の画像処理装置として機能させるためのプログラムである。   << 4 >> The image processing program of the present invention is a program for causing a computer to function as the image processing apparatus described in << 1 >> or << 2 >>.

本発明では、位置合わせの基準とする画像の信号変化の大きな箇所や、画像間での階調差の大きな箇所において、そこに位置合わせされる画像の合成比率が局所的に下がる。したがって、位置合わせミスに起因する画像構造の破綻を抑制することができる。   In the present invention, the composition ratio of the images to be aligned locally decreases at a location where the signal change of the image used as the alignment reference is large or a location where the gradation difference between images is large. Therefore, it is possible to suppress the failure of the image structure due to the misalignment.

<第1実施形態の説明>
[電子カメラの構成説明]
図1は、本実施形態の電子カメラ10(画像処理装置25を含む)を示すブロック図である。図1において、電子カメラ10には、撮影レンズ12が装着される。この撮影レンズ12の像空間には、撮像素子11の撮像面が配置される。撮像素子11は、撮像制御部14によって制御される。この撮像素子11は、高解像度画像を読み出すモードと、素子内部で画素間引きや画素加算を行って低解像度画像を読み出すモードとを備える。この撮像素子11から出力される画像信号は、信号処理部15、およびA/D変換部16を介して処理された後、メモリ17に一時蓄積される。
<Description of First Embodiment>
[Description of electronic camera configuration]
FIG. 1 is a block diagram showing an electronic camera 10 (including an image processing device 25) according to the present embodiment. In FIG. 1, a photographing lens 12 is attached to the electronic camera 10. In the image space of the photographic lens 12, the imaging surface of the imaging element 11 is arranged. The imaging element 11 is controlled by the imaging control unit 14. The image pickup device 11 has a mode for reading a high-resolution image and a mode for reading a low-resolution image by performing pixel thinning and pixel addition inside the device. The image signal output from the image sensor 11 is processed via the signal processing unit 15 and the A / D conversion unit 16 and then temporarily stored in the memory 17.

このメモリ17は、バス18に接続される。このバス18には、撮像制御部14、マイクロプロセッサ19、記録部22、画像圧縮部24、モニタ表示部30、および画像処理装置25なども接続される。上記のマイクロプロセッサ19には、レリーズ釦などの操作部19aが接続される。また、上記の記録部22には、記録媒体22aが着脱自在に装着される。   This memory 17 is connected to a bus 18. The bus 18 is also connected with an imaging control unit 14, a microprocessor 19, a recording unit 22, an image compression unit 24, a monitor display unit 30, an image processing device 25, and the like. The microprocessor 19 is connected to an operation unit 19a such as a release button. A recording medium 22a is detachably attached to the recording unit 22.

[画像処理装置25の説明]
図2は、画像処理装置25の構成を模式的に示したブロック図である。メモリ17から読み出される高解像度画像は、ゲイン補正部31を介して、縮小画像生成部32、特徴量抽出部33、および画像合成部34にそれぞれ供給される。縮小画像生成部32の出力データは、特徴量抽出部35を介して、粗検出部36に供給される。特徴量抽出部33の出力データは、位相分割部37を介して、精密検出部38に供給される。
[Description of Image Processing Device 25]
FIG. 2 is a block diagram schematically showing the configuration of the image processing device 25. The high resolution image read from the memory 17 is supplied to the reduced image generation unit 32, the feature amount extraction unit 33, and the image composition unit 34 via the gain correction unit 31, respectively. The output data of the reduced image generation unit 32 is supplied to the rough detection unit 36 via the feature amount extraction unit 35. The output data of the feature quantity extraction unit 33 is supplied to the precision detection unit 38 via the phase division unit 37.

一方、メモリ17から読み出される複数の低解像度画像は、特徴量抽出部39および画像合成部34にそれぞれ供給される。特徴量抽出部39の出力データは、粗検出部36および精密検出部38にそれぞれ供給される。   On the other hand, the plurality of low resolution images read from the memory 17 are supplied to the feature amount extraction unit 39 and the image composition unit 34, respectively. The output data of the feature quantity extraction unit 39 is supplied to the rough detection unit 36 and the precise detection unit 38, respectively.

粗検出部36で粗く検出された位置ズレは、精密検出部38に供給される。精密検出部38で高精度に検出された位置ズレは、画像合成部34に供給される。画像合成部34は、この位置ズレの検出結果に基づいて、複数の低解像度画像や高解像度画像を合成する。   The positional deviation roughly detected by the rough detection unit 36 is supplied to the precision detection unit 38. The positional deviation detected with high precision by the precision detection unit 38 is supplied to the image composition unit 34. The image synthesis unit 34 synthesizes a plurality of low resolution images and high resolution images based on the detection result of the positional deviation.

[動作説明]
図3および図4は、電子カメラ10の動作を説明する流れ図である。以下、図3に示すステップ番号に沿って、この動作を説明する。
[Description of operation]
3 and 4 are flowcharts for explaining the operation of the electronic camera 10. Hereinafter, this operation will be described along the step numbers shown in FIG.

ステップS1:電子カメラ10の主電源が投入されると、マイクロプロセッサ19は、撮像制御部14に低解像度画像の読み出しを指示する。撮像制御部14は、撮像素子11を低解像度の読み出しモードで駆動し、図5に示すように低解像度画像を例えば30フレーム/秒で順次に読み出す。   Step S1: When the main power supply of the electronic camera 10 is turned on, the microprocessor 19 instructs the imaging control unit 14 to read out a low resolution image. The imaging control unit 14 drives the imaging device 11 in a low resolution readout mode, and sequentially reads out low resolution images at, for example, 30 frames / second as shown in FIG.

ステップS2:撮像素子11から読み出された低解像度画像は、信号処理部15、およびA/D変換部16を介して処理された後、メモリ17に一時格納される。なお、マイクロプロセッサ19は、メモリ17内で所定コマ数を超えた低解像度画像を古いものから順番に削除する。   Step S2: The low resolution image read from the image sensor 11 is processed through the signal processing unit 15 and the A / D conversion unit 16 and then temporarily stored in the memory 17. The microprocessor 19 sequentially deletes the low resolution images exceeding the predetermined number of frames in the memory 17 from the oldest one.

ここでの所定コマ数は、後述する再配置画像の合成に使用する低解像度画像のコマ数に相当し、(高解像度画像の画素数/低解像度画像の画素数)以上に設定することが好ましい。   The predetermined number of frames here corresponds to the number of frames of a low-resolution image used for composition of a rearranged image described later, and is preferably set to be equal to or greater than (number of pixels of a high-resolution image / number of pixels of a low-resolution image). .

例えば、低解像度画像の縦横画素数を、高解像度画像の縦横画素数の各1/4とした場合、所定コマ数は4×4=16コマ以上に設定することが好ましい。   For example, when the number of vertical and horizontal pixels of the low-resolution image is 1/4 of the number of vertical and horizontal pixels of the high-resolution image, the predetermined number of frames is preferably set to 4 × 4 = 16 frames or more.

ステップS3:モニタ表示部30は、低解像度画像(スルー画像)をモニタ画面に表示する。一方、マイクロプロセッサ19は、測光部(不図示)の測光結果や低解像度画像の明るさに基づいて露出計算を行い、高解像度画像の露光時間を決定する。   Step S3: The monitor display unit 30 displays a low resolution image (through image) on the monitor screen. On the other hand, the microprocessor 19 calculates exposure based on the photometric result of a photometric unit (not shown) and the brightness of the low resolution image, and determines the exposure time of the high resolution image.

ステップS4:ここで、マイクロプロセッサ19は、ユーザーによってレリーズ釦が全押し操作されたか否かを判断する。   Step S4: Here, the microprocessor 19 determines whether or not the release button has been fully pressed by the user.

レリーズ釦が全押し操作された場合、マイクロプロセッサ19は、ステップS5に動作を移行する。一方、レリーズ釦の全押し操作されていない場合、マイクロプロセッサ19は、ステップS1に動作を戻す。   When the release button is fully pressed, the microprocessor 19 proceeds to step S5. On the other hand, if the release button has not been fully pressed, the microprocessor 19 returns the operation to step S1.

ステップS5:ここで、マイクロプロセッサ19は、ステップS3で決定した高解像度画像の露光時間設定が、ブレの目立たない許容上限以下か否かを判定する。例えば、この許容上限は、1/(撮影レンズ12の35mm判換算の焦点距離)秒程度に設定される。   Step S5: Here, the microprocessor 19 determines whether or not the exposure time setting of the high-resolution image determined in step S3 is equal to or less than an allowable upper limit where blur is not noticeable. For example, this allowable upper limit is set to about 1 / (35 mm equivalent focal length of the photographing lens 12) seconds.

露光時間設定が許容上限以下の場合、マイクロプロセッサ19はステップS6に動作を移行する。一方、露光時間設定が許容上限を超える場合、マイクロプロセッサ19はステップS7に動作を移行する。   If the exposure time setting is less than or equal to the allowable upper limit, the microprocessor 19 proceeds to step S6. On the other hand, when the exposure time setting exceeds the allowable upper limit, the microprocessor 19 shifts the operation to step S7.

ステップS6:撮像制御部14は、設定された露光時間に従って撮像素子11をシャッタ制御する。続いて、撮像制御部14は、撮像素子11を高解像度の読み出しモードで駆動し、高解像度画像を読み出す。この高解像度画像(静止画像)は、従来同様に画像処理および画像圧縮を経た後、記録媒体22aに記録保存される。この動作により、電子カメラ10は撮影動作を完了する。   Step S6: The imaging control unit 14 performs shutter control of the imaging device 11 according to the set exposure time. Subsequently, the imaging control unit 14 drives the imaging device 11 in a high-resolution readout mode and reads out a high-resolution image. This high-resolution image (still image) is recorded and stored in the recording medium 22a after image processing and image compression as in the prior art. With this operation, the electronic camera 10 completes the photographing operation.

ステップS7:一方、露光時間設定がブレの許容上限を超えると判断された場合、マイクロプロセッサ19は、露光時間を、ブレの生じない許容上限以下に制限する。   Step S7: On the other hand, if it is determined that the exposure time setting exceeds the allowable upper limit of blurring, the microprocessor 19 limits the exposure time to an allowable upper limit that does not cause blurring.

撮像制御部14は、短く制限された露光時間に従って撮像素子11をシャッタ制御する。その状態で、撮像制御部14は、撮像素子11を高解像度の読み出しモードで駆動し、高解像度画像を読み出す。この高解像度画像は、露光不足のために信号レベルは低いが、ぶれる可能性の少ない画像である。この高解像度画像は、メモリ17に一時記録される。   The imaging control unit 14 controls the shutter of the imaging device 11 according to the exposure time limited to a short time. In this state, the imaging control unit 14 drives the imaging device 11 in a high resolution readout mode and reads out a high resolution image. This high-resolution image is an image that has a low signal level due to insufficient exposure but is less likely to blur. This high resolution image is temporarily recorded in the memory 17.

ステップS8:画像処理装置25内のゲイン補正部31は、メモリ17から高解像度画像を取り込む。ゲイン補正部31は、この高解像度画像をゲイン調整することにより、低解像度画像の信号レベルに合わせる。   Step S <b> 8: The gain correction unit 31 in the image processing device 25 captures a high resolution image from the memory 17. The gain correction unit 31 adjusts the gain of this high resolution image to match the signal level of the low resolution image.

ステップS9:縮小画像生成部32は、ゲイン調整後の高解像度画像を解像度変換して、低解像度画像の画素数と合わせる。   Step S9: The reduced image generating unit 32 converts the resolution of the high-resolution image after gain adjustment and matches the number of pixels of the low-resolution image.

例えば、4×4画素の平均値を抽出することにより、高解像度画像の縦横画素数を各1/4に解像度変換することができる。このように低解像度化された高解像度画像(以下、縮小画像という)は、特徴量抽出部35に伝達される。   For example, by extracting an average value of 4 × 4 pixels, the number of vertical and horizontal pixels of the high-resolution image can be converted to 1/4. The high-resolution image (hereinafter referred to as a reduced image) whose resolution has been reduced in this way is transmitted to the feature amount extraction unit 35.

ステップS10:図6は、射影エッジの比較による画像ズレ検出を説明する図である。以下、この図6を用いて、画像ズレ検出の処理を説明する。   Step S10: FIG. 6 is a diagram for explaining image shift detection based on comparison of projected edges. Hereinafter, the process of detecting the image shift will be described with reference to FIG.

まず、特徴量抽出部35は、下式に示す縦エッジ抽出用のフィルタ(図6[A]参照)を用いて、縮小画像f(x,y)から縦エッジ成分gyを抽出する。
gy(x,y)=-f(x,y-1)+f(x,y+1)
さらに、特徴量抽出部35は、下式に示す横エッジ抽出用のフィルタ(図6[B]参照)を用いて、縮小画像f(x,y)から横エッジ成分gxを抽出する。
gx(x,y)=-f(x-1,y)+f(x+1,y)
なお、ノイズの影響を軽減するため、特徴量抽出部35は、所定の微小振幅に収まる縦エッジ成分gyと横エッジ成分gxについては、ゼロに置き換えることが好ましい。
First, the feature extraction unit 35 uses the filter for vertical edge detection shown in the following formula (see FIG. 6 [A]), extracts a vertical edge components g y from the reduced image f (x, y).
g y (x, y) =-f (x, y-1) + f (x, y + 1)
Furthermore, the feature quantity extraction unit 35 extracts a horizontal edge component g x from the reduced image f (x, y) using a horizontal edge extraction filter (see FIG. 6B) represented by the following equation.
g x (x, y) =-f (x-1, y) + f (x + 1, y)
In order to reduce the influence of noise, the feature amount extraction unit 35 preferably replaces the vertical edge component g y and the horizontal edge component g x that fall within a predetermined minute amplitude with zero.

次に、特徴量抽出部35は、図6[A]に示すように、縦エッジ成分gyを水平行の単位に累積加算することにより、縦射影波形を算出する。 Next, as shown in FIG. 6A, the feature quantity extraction unit 35 calculates the vertical projection waveform by cumulatively adding the vertical edge component gy to the horizontal unit.

さらに、特徴量抽出部35は、図6[B]に示すように、横エッジ成分gxを垂直列の単位に累積加算することにより、横射影波形を算出する。 Further, as shown in FIG. 6B, the feature quantity extraction unit 35 calculates a horizontal projection waveform by accumulating the horizontal edge component g x in units of vertical columns.

一方、特徴量抽出部39は、メモリ17から複数の低解像度画像を取り込む。特徴量抽出部39は、個々の低解像度画像に対して特徴量抽出部35と同一の処理を実施し、縦射影波形および横射影波形をそれぞれ求める。   On the other hand, the feature amount extraction unit 39 captures a plurality of low resolution images from the memory 17. The feature amount extraction unit 39 performs the same processing as the feature amount extraction unit 35 on each low-resolution image, and obtains a vertical projection waveform and a horizontal projection waveform, respectively.

ここで、粗検出部36は、図6[A]に示すように、縮小画像の中央域の縦射影波形と、低解像度画像の中央域の縦射影波形とをずらしながら差分をとり、その差分の絶対値和が最小となる波形ズレを検出する。この波形ズレは、縮小画像と低解像度画像との縦方向の位置ズレに相当する。   Here, as shown in FIG. 6A, the coarse detection unit 36 takes a difference while shifting the vertical projection waveform in the central area of the reduced image and the vertical projection waveform in the central area of the low-resolution image, and the difference The waveform shift that minimizes the absolute value sum of is detected. This waveform shift corresponds to the vertical position shift between the reduced image and the low resolution image.

また、粗検出部36は、図6[B]に示すように、縮小画像の中央域の横射影波形と、低解像度画像の中央域の横射影波形とをずらしながら差分をとり、差分の絶対値和が最小となる波形ズレを検出する。この波形ズレは、縮小画像と低解像度画像との横方向の位置ズレに相当する。   Further, as shown in FIG. 6B, the coarse detection unit 36 calculates a difference while shifting the horizontal projection waveform in the central area of the reduced image and the horizontal projection waveform in the central area of the low-resolution image, and calculates the absolute difference. Detects the waveform shift that minimizes the sum of values. This waveform shift corresponds to a horizontal position shift between the reduced image and the low resolution image.

このようにして、粗検出部36は、縮小画像を位置基準として複数の低解像度画像の位置ズレ(粗検出結果)をそれぞれ求め、精密検出部38に出力する。   In this way, the coarse detection unit 36 obtains positional deviations (coarse detection results) of the plurality of low resolution images using the reduced image as a position reference, and outputs the obtained positional deviations to the precise detection unit 38.

ステップS11:特徴量抽出部33は、ゲイン補正された高解像画像を取り込み、エッジ抽出フィルタを用いて、縦エッジ成分gyと横エッジ成分gxを抽出する。 Step S11: The feature amount extraction unit 33 takes in a high-resolution image that has been gain-corrected, and extracts a vertical edge component g y and a horizontal edge component g x using an edge extraction filter.

なお、ここでのエッジ抽出フィルタは、低解像度画像の読み出し方式に応じて、下記のように切り替えることが好ましい。
・低解像度画像が画素加算または画素平均によって作成される場合
gy(x,y)=[-f(x,y-4)-f(x,y-3)-f(x,y-2)-f(x,y-1)+f(x,y+4)+f(x,y+5)+f(x,y+6)+f(x,y+7)]/4
gx(x,y)=[-f(x-4,y)-f(x-3,y)-f(x-2,y)-f(x-1,y)+f(x+4,y)+f(x+5,y)+f(x+6,y)+f(x+7,y)]/4
・低解像度画像が画素間引きによって作成される場合
gy(x,y)=-f(x,y-4)+f(x,y+4)
gx(x,y)=-f(x-4,y)+f(x+4,y)
なお、ノイズの影響を軽減するため、特徴量抽出部33は、所定の微小振幅に収まる縦エッジ成分gyと横エッジ成分gxについては、ゼロに置き換えることが好ましい。
Note that the edge extraction filter here is preferably switched as follows according to the low-resolution image readout method.
・ When a low-resolution image is created by pixel addition or pixel averaging
g y (x, y) = [-f (x, y-4) -f (x, y-3) -f (x, y-2) -f (x, y-1) + f (x, y + 4) + f (x, y + 5) + f (x, y + 6) + f (x, y + 7)] / 4
g x (x, y) = [-f (x-4, y) -f (x-3, y) -f (x-2, y) -f (x-1, y) + f (x + 4, y) + f (x + 5, y) + f (x + 6, y) + f (x + 7, y)] / 4
・ When a low-resolution image is created by pixel decimation
g y (x, y) =-f (x, y-4) + f (x, y + 4)
g x (x, y) =-f (x-4, y) + f (x + 4, y)
In order to reduce the influence of noise, the feature amount extraction unit 33 preferably replaces the vertical edge component g y and the horizontal edge component g x that fall within a predetermined minute amplitude with zero.

次に、特徴量抽出部33は、縦エッジ成分gyを水平行の単位に累積加算することにより、縦射影波形を算出する。また、特徴量抽出部33は、横エッジ成分gxを垂直列の単位に累積加算することにより、横射影波形を算出する。 Next, the feature amount extraction unit 33 calculates the vertical projection waveform by cumulatively adding the vertical edge component gy to the horizontal unit. Further, the feature amount extraction unit 33 calculates a horizontal projection waveform by cumulatively adding the horizontal edge component g x in units of vertical columns.

位相分割部37は、高解像度画像の縦射影波形を4画素おきにサブサンプリングする。このとき、位相分割部37は、サブサンプリングの位相をずらすことによって、図7に示すように、位相が互いにずれた4種類のサンプリング情報を生成する。   The phase division unit 37 subsamples the vertical projection waveform of the high resolution image every four pixels. At this time, the phase splitting unit 37 generates four types of sampling information whose phases are shifted from each other as shown in FIG. 7 by shifting the sub-sampling phase.

同様に、位相分割部37は、高解像度画像の横射影波形を4画素おきにサブサンプリングする。このとき、サブサンプリングの位相をずらすことにより、位相が互いにずれた4種類のサンプリング情報を生成する。   Similarly, the phase division unit 37 subsamples the horizontal projection waveform of the high resolution image every four pixels. At this time, by shifting the sub-sampling phase, four types of sampling information whose phases are shifted from each other are generated.

ステップS12:精密検出部38は、粗検出部36による位置ズレの粗検出結果を出発点として、高解像度画像から求めた縦射影波形のサンプリング情報と、低解像度画像の縦射影波形とをずらしながら差分をとり、差分の絶対値和が最小となる波形ズレを検出する。   Step S12: The precision detection unit 38 shifts the sampling information of the vertical projection waveform obtained from the high resolution image and the vertical projection waveform of the low resolution image from the coarse detection result of the positional deviation by the coarse detection unit 36 as a starting point. The difference is taken, and the waveform shift that minimizes the sum of the absolute values of the differences is detected.

精密検出部38は、この波形ズレの検出を4種類のサンプリング情報それぞれについて実施することにより、絵柄の特徴(ここでは波形)が最も一致する波形ズレを求める。この波形ズレは、低解像度画像の画素間隔よりも小さな単位の横方向の位置ズレに相当する。   The precision detection unit 38 performs the detection of the waveform deviation for each of the four types of sampling information, thereby obtaining the waveform deviation that most closely matches the feature of the pattern (in this case, the waveform). This waveform shift corresponds to a horizontal position shift in units smaller than the pixel interval of the low-resolution image.

さらに、精密検出部38は、同様にして、縦方向の位置ズレを低解像度画像の画素間隔よりも小さな単位(例えば高解像度画像の画素間隔の単位)で検出する。   Further, the precision detection unit 38 similarly detects the positional deviation in the vertical direction in units smaller than the pixel interval of the low resolution image (for example, the unit of the pixel interval of the high resolution image).

このようにして、精密検出部38は、高解像度画像を位置基準として複数の低解像度画像の位置ズレ(精密検出結果)をそれぞれ求め、画像合成部34に出力する。   In this manner, the precision detection unit 38 obtains positional deviations (precision detection results) of the plurality of low resolution images using the high resolution image as a position reference, and outputs the positional deviation to the image composition unit 34.

ステップS13:画像合成部34は、低解像度画像にハイパスフィルタ処理を施し、フィルタ結果の絶対値和を計算して高域成分の量を求める。求めた高域成分の量に従って、複数の低解像度画像を分類する。   Step S13: The image composition unit 34 performs a high-pass filter process on the low-resolution image, calculates the absolute value sum of the filter results, and obtains the amount of the high-frequency component. A plurality of low resolution images are classified according to the obtained amount of the high frequency component.

なお、図8に示すように、高域成分の多い順に画像に順番を付与し、上位から所定順位までの画像を選別して、合成に使用する画像としてもよい。また、高域成分の量が所定の閾値を超える画像を選別して、合成に使用する画像としてもよい。   In addition, as shown in FIG. 8, it is good also as an image used for a synthesis | combination by giving an order to an image in order with many high frequency components, and classifying the image from a high rank to a predetermined order. Alternatively, an image in which the amount of the high frequency component exceeds a predetermined threshold may be selected and used as an image used for composition.

このような選別処理により、ブレ量が大きいなど、高域成分が基準に満たない画像を合成処理から適度に除外することが可能になる。その結果、合成後の画質を確実に高めることが可能になる。   By such a selection process, an image whose high frequency component does not meet the standard, such as a large blur amount, can be appropriately excluded from the synthesis process. As a result, it is possible to reliably improve the image quality after synthesis.

ステップS14:画像合成部34は、高解像度画像にハイパスフィルタ処理を施し、フィルタ結果から高解像度画像をエッジ域と平坦域とに領域分割する。   Step S14: The image composition unit 34 performs high-pass filter processing on the high-resolution image, and divides the high-resolution image into an edge region and a flat region from the filter result.

ステップS15:ステップS14で求めたエッジ域では、高域成分の少ない画像ほど合成比率を小さくする。一方、ステップS14で求めた平坦域では、高域成分の少ない画像の合成比率をエッジ部よりも上げる。なお、エッジ域または平坦域のいずれでもない領域については、両領域の中間の合成比率に設定する。   Step S15: In the edge area obtained in step S14, the composition ratio is reduced as the image has fewer high frequency components. On the other hand, in the flat region obtained in step S14, the composition ratio of an image with a small high-frequency component is increased from that of the edge portion. In addition, about the area | region which is neither an edge area | region nor a flat area, it sets to the synthetic | combination ratio of the middle of both areas.

ステップS16:画像合成部34は、複数の低解像度画像をそれぞれ拡大(4×4倍)する。このとき、画像合成部34は、画素補間を行わず、画素間隔の開いた拡大画像を得る。   Step S16: The image composition unit 34 enlarges (4 × 4 times) each of the plurality of low resolution images. At this time, the image composition unit 34 does not perform pixel interpolation, and obtains an enlarged image with a large pixel interval.

次に、画像合成部34は、精密検出部38が求めた位置ズレの精密検出結果に基づいて、低解像度画像の拡大画像の画素位置をそれぞれ変位させ、図9に示すようにマッピング(再配置)を行う。   Next, the image composition unit 34 shifts the pixel position of the enlarged image of the low-resolution image based on the precise detection result of the positional deviation obtained by the precise detection unit 38, and performs mapping (rearrangement) as shown in FIG. )I do.

このようにして、高解像度画像と同程度の縦横画素数を有する再配置画像を得ることができる。   In this way, a rearranged image having the same number of vertical and horizontal pixels as the high-resolution image can be obtained.

ステップS17:マッピング処理を完了した再配置画像には、隙間の埋まらない画素や、正規の画素位置からずれた画素や、重なった画素が存在する。   Step S17: The rearranged image that has been subjected to the mapping process includes pixels that are not filled with gaps, pixels that deviate from normal pixel positions, and overlapping pixels.

画像合成部34は、この再配置画像の正規の画素位置ごとに、近傍画素をピックアップする。画像合成部34は、これら近傍画素の信号成分に対して、ステップS15で設定された合成比率に従って加重平均を実施する。画像合成部34は、この加重平均値を正規の画素位置の信号成分(輝度/色差成分など)とする。このような合成処理により、高解像度画像と同じ縦横画素数の再配置画像を得ることができる。   The image composition unit 34 picks up neighboring pixels for each normal pixel position of the rearranged image. The image composition unit 34 performs a weighted average on the signal components of these neighboring pixels according to the composition ratio set in step S15. The image composition unit 34 uses the weighted average value as a signal component (luminance / color difference component, etc.) at the normal pixel position. By such a composition process, a rearranged image having the same number of vertical and horizontal pixels as the high-resolution image can be obtained.

なお、上記の加重平均の代わりに、近傍画素の信号成分のメディアン演算によって、再配置画像の合成を行ってもよい。   Instead of the above weighted average, the rearranged images may be synthesized by median calculation of signal components of neighboring pixels.

ステップS18:画像合成部34は、高解像度画像の輝度成分に対して、フィルタ処理を下記のように実施する。   Step S18: The image composition unit 34 performs the filtering process on the luminance component of the high resolution image as follows.

まず、画像合成部34は、ゲイン補正後の高解像度画像から輝度成分を抽出し、メディアン処理およびガウシアンフィルタを合わせたフィルタ処理を施す。例えば、フィルタサイズを3×3画素に設定し、このフィルタサイズ内の9つの画素から中央3つの値を抽出して、ガウシアンフィルタを実施する。この処理により、露光不足の輝度成分に含まれるノイズ分を予め低減することができる。   First, the image composition unit 34 extracts a luminance component from the high-resolution image after gain correction, and performs filter processing that combines median processing and Gaussian filtering. For example, the Gaussian filter is implemented by setting the filter size to 3 × 3 pixels and extracting the central three values from nine pixels within the filter size. By this processing, it is possible to reduce in advance the noise included in the underexposed luminance component.

ステップS19:次に、このフィルタ処理後の高解像度画像の輝度成分Aと、再配置画像の輝度成分Bとの間で、合成比率を設定する。   Step S19: Next, a composition ratio is set between the luminance component A of the high-resolution image after the filter processing and the luminance component B of the rearranged image.

ここでは、下記のようなルールに従って、合成比率を設定することが好ましい。
(1)高解像度画像の輝度成分Aと再配置画像の輝度成分Bとの信号差が大きい箇所ほど、再配置画像の合成比率を局所的に下げる。
(2)高解像度画像の輝度成分Aの局所的な信号変化が大きい箇所ほど、再配置画像の合成比率を局所的に下げる。
(3)高解像度画像と低解像度画像との時間間隔が小さいほど、再配置画像の輝度成分Bの合成比率を全般的に引き上げる。
(4)高解像度画像と低解像度画像との位置ズレが小さいほど、再配置画像の輝度成分Bの合成比率を全般的に引き上げる。
Here, it is preferable to set the composition ratio according to the following rules.
(1) The portion where the signal difference between the luminance component A of the high-resolution image and the luminance component B of the rearranged image is larger reduces the composition ratio of the rearranged image locally.
(2) The portion where the local signal change of the luminance component A of the high-resolution image is larger reduces the composition ratio of the rearranged image locally.
(3) The synthesis ratio of the luminance component B of the rearranged image is generally increased as the time interval between the high resolution image and the low resolution image is smaller.
(4) The composition ratio of the luminance component B of the rearranged image is generally increased as the positional deviation between the high resolution image and the low resolution image is smaller.

なお、具体的な合成画像の輝度成分g(i,j)の計算には、下式のガウシアンフィルタを使用することが好ましい。   It should be noted that it is preferable to use a Gaussian filter of the following formula for calculating the specific luminance component g (i, j) of the composite image.

Figure 2008099260
Figure 2008099260

上式中では、2段階の処理がなされる。すなわち、再配置画像の輝度成分Bに対して、例えばm=5程度のガウシアンフィルタ(平滑化)が施される。次に、この輝度成分Bの平滑化結果が、高解像度画像の輝度成分Aに画素単位に加重合成される。   In the above equation, two stages of processing are performed. That is, for example, a Gaussian filter (smoothing) of about m = 5 is applied to the luminance component B of the rearranged image. Next, the smoothing result of the luminance component B is weighted and synthesized on the luminance component A of the high-resolution image in units of pixels.

このとき、輝度成分A,Bの信号差が大きいほど、輝度成分Bの合成比率G(i,j,p)が下がる。その結果、高解像度画像と再配置画像との絵柄が大きく違う箇所については、高解像度画像の輝度成分Aが局所的に優先される。   At this time, the larger the signal difference between the luminance components A and B, the lower the synthesis ratio G (i, j, p) of the luminance component B. As a result, the luminance component A of the high-resolution image is locally prioritized at locations where the patterns of the high-resolution image and the rearranged image are greatly different.

なお、合成比率G(i,j,p)は、画素の参照距離に依存して特に変化させない方が好ましい。これによって、フィルタサイズm内の輝度成分Bであれば、参照距離が離れていても、輝度成分Aに反映させることができる。その結果、再配置画像の位置合わせミスをある程度まで許容することが可能になる。   Note that the composition ratio G (i, j, p) is preferably not changed depending on the reference distance of the pixel. As a result, the luminance component B within the filter size m can be reflected in the luminance component A even if the reference distance is long. As a result, it is possible to tolerate misalignment of the rearranged image to some extent.

また、上式中のσは、合成比率の値や下げ幅を調整する数値である。このσは、輝度成分Aの周辺3×3画素の分散値が大きい箇所ほど、局所的に小さく設定することが好ましい。このようにσを局所的に小さくすることにより、高解像度画像のエッジ付近では、再配置画像の合成比率が局所的に下がる。その結果、エッジなどの画像構造への影響(平滑化や乱れ)を抑制することができる。   Also, σ in the above formula is a numerical value for adjusting the value of the composition ratio and the amount of decrease. This σ is preferably set to be smaller locally as the variance value of 3 × 3 pixels around the luminance component A is larger. Thus, by locally reducing σ, the composition ratio of the rearranged image is locally reduced near the edge of the high-resolution image. As a result, the influence (smoothing or disturbance) on the image structure such as an edge can be suppressed.

なお、上式中のσを、高解像度画像と低解像度画像との時間間隔および/または位置ズレが小さいほど、σを大きく設定することが好ましい。このようにσを可変することにより、高解像度画像と低解像度画像の絵柄が近いと推定されるほど、再配置画像の合成比率が全般的に引き上がる。その結果、絵柄の近い再配置画像(低解像度画像)の情報を、合成画像に優先的に反映させることができる。   In addition, it is preferable that σ in the above equation is set to be larger as the time interval and / or the positional deviation between the high resolution image and the low resolution image is smaller. By varying σ in this manner, the composition ratio of the rearranged images is generally increased as it is estimated that the patterns of the high resolution image and the low resolution image are closer. As a result, information on a rearranged image (low-resolution image) with a similar pattern can be preferentially reflected on the composite image.

ステップS20:ステップS17で生成された再配置画像の色差成分と、ステップS19で生成された合成画像の輝度成分とを組み合わせて、低解像度画像の情報を反映した高解像度のカラー画像を生成する。   Step S20: The color difference component of the rearranged image generated in step S17 and the luminance component of the composite image generated in step S19 are combined to generate a high resolution color image reflecting the information of the low resolution image.

このカラー画像は、画像圧縮部24および記録部22などを介して、記録媒体22aに保存記録される。
[本実施形態の効果など]
本実施形態では、モニタ表示を終われば廃棄されるスルー画像(低解像度画像)を、静止画像(高解像度画像)の画質向上に有効活用する。このスルー画像の有効活用によって、電子カメラ10の撮像性能を高めることができる。
This color image is stored and recorded in the recording medium 22a via the image compression unit 24, the recording unit 22, and the like.
[Effects of this embodiment, etc.]
In the present embodiment, the through image (low resolution image) discarded after the monitor display is effectively utilized for improving the image quality of the still image (high resolution image). By effectively using this through image, the imaging performance of the electronic camera 10 can be enhanced.

また、本実施形態では、撮像時間間隔の短い低解像度画像を合成する。したがって、画像間の絵柄の差が元々小さく、良好な画像合成結果を得ることができる。   In this embodiment, a low-resolution image with a short imaging time interval is synthesized. Therefore, the difference in the design between the images is originally small, and a good image composition result can be obtained.

さらに、本実施形態では、画素密度の高い高解像度画像を位置基準として、複数の低解像度画像の位置合わせを行う。したがって、低解像度画像の絵柄の位置合わせ精度が高く、更に良好な画像合成結果を得ることができる。   Further, in the present embodiment, a plurality of low resolution images are aligned using a high resolution image having a high pixel density as a position reference. Therefore, the positioning accuracy of the pattern of the low resolution image is high, and a better image composition result can be obtained.

また、本実施形態では、高解像度画像から、サンプリング位相が互いにずれた複数のサンプリング情報を生成する。これらサンプリング情報と低解像度画像との間で位置ズレ検出をそれぞれ行うことにより、低解像度画像の画素間隔よりも小さな単位で位置ズレを検出できる。したがって、低解像度画像の絵柄の位置合わせ精度を一段と高めることが可能になり、一層良好な画像合成結果を得ることができる。   In the present embodiment, a plurality of pieces of sampling information whose sampling phases are shifted from each other are generated from a high-resolution image. By performing position shift detection between the sampling information and the low resolution image, the position shift can be detected in units smaller than the pixel interval of the low resolution image. Therefore, it is possible to further improve the alignment accuracy of the pattern of the low resolution image, and obtain a better image composition result.

さらに、本実施形態では、複数の低解像度画像の輝度成分(視覚感度の高い信号成分)を位置合わせしてマッピングして、低解像度画像よりも高解像度の輝度成分を得ることができる。   Furthermore, in this embodiment, the luminance components (signal components with high visual sensitivity) of a plurality of low resolution images can be aligned and mapped to obtain a luminance component having a higher resolution than that of the low resolution image.

また、本実施形態では、複数の低解像度画像の色差成分(視覚感度の低い信号成分)を位置合わせしてマッピングすることにより、低解像度画像よりも高解像度の色差成分を得ることもできる。   In the present embodiment, it is also possible to obtain a color difference component having a higher resolution than that of the low resolution image by aligning and mapping the color difference components (signal components having low visual sensitivity) of the plurality of low resolution images.

さらに、本実施形態では、位置合わせで作成した高解像度の輝度成分(再配置画像)と、本来の高解像度画像の輝度成分とを加重合成する。この加重合成によって、両画像間の非相関な輝度ノイズを抑制できる。その結果、露光不足状態(ステップS7参照)の高解像度画像のS/Nを改善することができる。   Furthermore, in this embodiment, the high-resolution luminance component (rearranged image) created by the alignment and the luminance component of the original high-resolution image are weighted and synthesized. By this weighted synthesis, non-correlated luminance noise between both images can be suppressed. As a result, it is possible to improve the S / N of a high-resolution image in an underexposed state (see step S7).

また、本実施形態では、高解像度画像と再配置画像との信号差が有意に大きい場合、再配置画像の合成比率を局所的に下げる。その結果、再配置画像に位置合わせミスが生じた場合、両画像の信号差が有意に開いて再配置画像の合成比率が下がる。したがって、この位置合わせミスは、画像合成結果にさほど反映されなくなる。   In the present embodiment, when the signal difference between the high-resolution image and the rearranged image is significantly large, the composite ratio of the rearranged image is locally reduced. As a result, when a misalignment occurs in the rearranged image, the signal difference between the two images is significantly increased, and the composite ratio of the rearranged image is reduced. Therefore, this misalignment is not so much reflected in the image composition result.

さらに、本実施形態では、高解像度画像の局所的な信号変化が大きい箇所について、再配置画像の合成比率を局所的に下げる。したがって、画像のエッジ部などでは、高解像度画像の画像構造が優先される。その結果、エッジが多重線化するなどの弊害を回避することができる。   Further, in the present embodiment, the composition ratio of the rearranged image is locally reduced at a location where the local signal change of the high resolution image is large. Therefore, priority is given to the image structure of a high-resolution image in the edge part etc. of an image. As a result, it is possible to avoid problems such as the edge becoming multi-line.

また、本実施形態では、高解像度画像と低解像度画像との時間間隔および/または位置ズレが小さいほど、再配置画像の合成比率を全般的に上げる。このような条件が成立する場合、高解像度画像と低解像度画像の絵柄は非常に近いと推定できる。したがって、再配置画像の合成比率を上げることにより、絵柄の破綻のおそれ無しに、画像S/Nを一段と高めることが可能になる。   In the present embodiment, the overall ratio of the rearranged images is increased as the time interval and / or positional deviation between the high resolution image and the low resolution image is smaller. When such a condition is satisfied, it can be estimated that the patterns of the high resolution image and the low resolution image are very close. Therefore, by increasing the composition ratio of the rearranged images, it is possible to further increase the image S / N without fear of pattern failure.

なお、本実施形態では、図8に示すように、複数の低解像度画像を空間周波数の高域成分の量に従って順位付けする。このとき、ブレが目立つなどの理由から高域成分の少ない画像については、合成に使用する画像から除外される。   In the present embodiment, as shown in FIG. 8, a plurality of low resolution images are ranked according to the amount of the high frequency component of the spatial frequency. At this time, an image with few high-frequency components is excluded from an image used for composition because blurring is conspicuous.

さらに、合成に使用する画像に選別されても、高域成分が比較的少ないと判定された画像については、絵柄のエッジ部における位置合わせ合成の合成比率が小さく調整される。その結果、手ブレや被写体ブレの少ない画像中のエッジ部が優先されて、位置合わせ合成が行われる。その結果、再配置画像のエッジ部分が鈍るなどの弊害は抑制される。   Furthermore, even if the images used for the composition are selected, the composition ratio of the alignment composition at the edge portion of the pattern is adjusted to be small for an image that has been determined to have relatively few high-frequency components. As a result, alignment is performed with priority given to edge portions in an image with little camera shake or subject blur. As a result, adverse effects such as a dull edge of the rearranged image are suppressed.

また、本実施形態では、高域成分が少ないと判定された画像については、エッジ部に比べて平坦部の合成比率を大きくする。その結果、平坦部では、より均等に複数画像の位置合わせ合成が行われ、位置合わせ合成後の画像S/Nを高めることが可能になる。   Further, in the present embodiment, for an image determined to have few high-frequency components, the synthesis ratio of the flat portion is increased compared to the edge portion. As a result, in the flat portion, a plurality of images are positioned and combined more evenly, and the image S / N after the positioning and combining can be increased.

<第2実施形態の説明>
図10は、第2実施形態における電子カメラ10の動作を説明する流れ図である。また、図11は、第2実施形態における画像の合成処理を示す模式図である。
<Description of Second Embodiment>
FIG. 10 is a flowchart for explaining the operation of the electronic camera 10 in the second embodiment. FIG. 11 is a schematic diagram showing image composition processing in the second embodiment.

ここで、第2実施形態は第1実施形態の変形例であって、電子カメラは同一解像度の複数の画像を合成する。また、第2実施形態における電子カメラの構成は、上記の第1実施形態の電子カメラ(図1)と共通するので重複説明は省略する。   Here, the second embodiment is a modification of the first embodiment, and the electronic camera combines a plurality of images having the same resolution. In addition, since the configuration of the electronic camera in the second embodiment is the same as that of the electronic camera in the first embodiment (FIG. 1), repeated description is omitted.

さらに、図10のS101からS103は、図3のS1からS3にそれぞれ対応するので重複説明を省略する。以下、図10に示すステップ番号に沿って、電子カメラの動作を説明する。   Furthermore, S101 to S103 in FIG. 10 correspond to S1 to S3 in FIG. Hereinafter, the operation of the electronic camera will be described along the step numbers shown in FIG.

ステップS104:ここで、マイクロプロセッサ19は、ステップS103で決定した高解像度画像の露光時間設定が、ブレの目立たない許容上限以下か否かを判定する。なお、許容上限は上記のステップS5と同様に設定される。   Step S104: Here, the microprocessor 19 determines whether or not the exposure time setting of the high-resolution image determined in step S103 is equal to or less than an allowable upper limit where blur is not noticeable. The allowable upper limit is set in the same manner as in step S5.

露光時間設定が許容上限以下の場合、マイクロプロセッサ19はステップS105に動作を移行する。一方、露光時間設定が許容上限を超える場合、マイクロプロセッサ19はステップS106に動作を移行する。   If the exposure time setting is less than the allowable upper limit, the microprocessor 19 proceeds to step S105. On the other hand, when the exposure time setting exceeds the allowable upper limit, the microprocessor 19 shifts the operation to step S106.

ステップS105:撮像制御部14は、設定された露光時間に従って撮像素子11をシャッタ制御し、高解像度画像(静止画像)を撮像する。なお、このステップの動作は上記のステップS6に対応するので、重複する説明は省略する。   Step S105: The imaging control unit 14 performs shutter control of the imaging device 11 according to the set exposure time, and images a high-resolution image (still image). In addition, since the operation | movement of this step respond | corresponds to said step S6, the overlapping description is abbreviate | omitted.

ステップS106:一方、露光時間設定がブレの許容上限を超えると判断された場合、マイクロプロセッサ19は、電子カメラの動作状態を連写撮影モードに切り替える。そして、マイクロプロセッサ19は、連写撮影モードにおける各フレームの露光時間をブレの生じない許容上限以下に制限する。   Step S106: On the other hand, if it is determined that the exposure time setting exceeds the allowable upper limit of blurring, the microprocessor 19 switches the operation state of the electronic camera to the continuous shooting mode. Then, the microprocessor 19 limits the exposure time of each frame in the continuous shooting mode to an allowable upper limit that does not cause blurring.

この連写撮影モードでの撮像制御部14は、短く制限された露光時間に従って撮像素子11を高解像度の読み出しモードで駆動させる。これにより、複数の高解像度画像が撮像素子11によって連続的に撮像されることとなる。各々の高解像度画像は、露光不足のために信号レベルは低いが、ぶれる可能性の少ない画像である。上記の高解像度画像は、それぞれメモリ17に一時記録される。   The imaging control unit 14 in the continuous shooting mode drives the imaging device 11 in a high-resolution reading mode according to a short limited exposure time. As a result, a plurality of high-resolution images are continuously captured by the image sensor 11. Each high-resolution image is an image that has a low signal level due to underexposure but is less likely to be blurred. Each of the above high-resolution images is temporarily recorded in the memory 17.

ここで、上記の連写撮影モードでは、例えば、以下の(1)や(2)の要領で撮影動作が行われる。   Here, in the continuous shooting mode described above, for example, the shooting operation is performed in the following manner (1) or (2).

(1)撮像制御部14は、連写撮影モードに切り替わった時点から高解像度画像の連写撮影を開始し、一定期間分の高解像度画像をメモリ17に蓄積する。このとき、マイクロプロセッサ19は、メモリ17内で所定フレーム数を超えた高解像度画像を古いものから順番に削除する。   (1) The imaging control unit 14 starts continuous shooting of high-resolution images from the time when the mode is switched to the continuous shooting mode, and accumulates high-resolution images for a certain period in the memory 17. At this time, the microprocessor 19 deletes the high resolution images exceeding the predetermined number of frames in the memory 17 in order from the oldest one.

そして、マイクロプロセッサ19は、連写撮影中にユーザーの指示(レリーズ釦の押圧など)を受け付けると、メモリ17内の高解像度画像のうちで上記指示のタイミングに対応する画像を基準画像に指定する。また、マイクロプロセッサ19は、基準画像に対して時間軸方向に前後する所定数の高解像度画像を、後述の合成処理の対象として指定する。第2実施形態では、合成処理の対象として指定された高解像度画像を被合成画像と称する。なお、基準画像および被合成画像は、少なくとも合成処理が終了までメモリ17に保持される。   When the microprocessor 19 receives a user instruction (such as pressing a release button) during continuous shooting, the microprocessor 19 designates an image corresponding to the timing of the instruction among the high-resolution images in the memory 17 as a reference image. . In addition, the microprocessor 19 designates a predetermined number of high-resolution images that move back and forth in the time axis direction with respect to the reference image as targets for the synthesis process described later. In the second embodiment, a high-resolution image designated as a target for synthesis processing is referred to as a synthesized image. The reference image and the combined image are held in the memory 17 until at least the combining process is completed.

(2)マイクロプロセッサ19は、ユーザーの連写撮影開始指示(レリーズ釦の押圧など)に応じて、撮像制御部14に連写撮影を開始させる。そして、マイクロプロセッサ19は、ユーザーの連写撮影終了指示(レリーズ釦の押圧解除など)を受け付けるか、あるいは所定のフレーム数の連写撮影が終了したときに、上記の連写撮影を終了させる。   (2) The microprocessor 19 causes the imaging control unit 14 to start continuous shooting in response to a user's continuous shooting start instruction (such as pressing a release button). Then, the microprocessor 19 accepts a user's continuous shooting end instruction (such as release of the release button) or ends the continuous shooting when a predetermined number of frames have been shot.

その後、マイクロプロセッサ19は、撮影した画像をそれぞれモニタ表示部30に表示するとともに、ユーザーに基準画像を選択させる。そして、マイクロプロセッサ19は、連写撮影した高解像度画像のうちで、ユーザーによって指定された画像を記録画像とする。また、マイクロプロセッサ19は、連写撮影された高解像度画像のうち基準画像以外の画像を被合成画像とする。   Thereafter, the microprocessor 19 displays the captured images on the monitor display unit 30 and causes the user to select a reference image. Then, the microprocessor 19 uses, as a recorded image, an image designated by the user among the high-resolution images taken continuously. Further, the microprocessor 19 sets an image other than the reference image among the high-resolution images taken continuously as a synthesized image.

なお、マイクロプロセッサ19は、上記(2)の場合において、連写撮影開始指示のタイミングに対応する画像(最初に撮影された高解像度画像)を基準画像に指定してもよい。この場合には、ユーザーに基準画像を指定させる工程を省略することが可能となる。   In the case of (2) above, the microprocessor 19 may designate an image corresponding to the timing of the continuous shooting start instruction (the first high-resolution image captured) as the reference image. In this case, it is possible to omit the step of allowing the user to specify the reference image.

ステップS107:画像処理装置25は、第1実施形態のステップS10と同様の処理によって、基準画像(S106)に対する被合成画像(S106)の画像のズレを検出する。なお、この画像ズレの検出はすべての被合成画像を対象として行われる。   Step S107: The image processing device 25 detects a shift of the image of the combined image (S106) with respect to the reference image (S106) by the same process as step S10 of the first embodiment. Note that this image shift detection is performed for all the combined images.

ステップS108:画像処理装置25の画像合成部34は、被合成画像(S106)にハイパスフィルタ処理を施し、フィルタ結果の絶対値和を計算して高域成分の量を求める。そして、画像合成部34は、求めた高域成分の量に従って複数の被合成画像を分類する。   Step S108: The image composition unit 34 of the image processing device 25 performs high-pass filter processing on the composite image (S106), calculates the sum of absolute values of the filter results, and obtains the amount of the high-frequency component. Then, the image composition unit 34 classifies the plurality of composite images according to the obtained amount of the high frequency component.

このとき、第1実施形態と同様に、画像合成部34は、高域成分の多い順に画像に順番を付与し、上位から所定順位までの画像を選別して、被合成画像のうちから実際に合成に使用する画像を絞り込んでもよい。また、画像合成部34は、高域成分の量が所定の閾値を超える画像を選別して、被合成画像のうちから実際に合成に使用する画像を絞り込んでもよい。   At this time, as in the first embodiment, the image composition unit 34 assigns the order to the images in the descending order of the high frequency components, selects the images from the top to the predetermined order, and actually You may narrow down the image used for composition. In addition, the image composition unit 34 may select an image in which the amount of the high frequency component exceeds a predetermined threshold, and narrow down images to be actually used for composition from among the composite images.

ステップS109:画像合成部34は、基準画像にハイパスフィルタ処理を施す。そして、フィルタ結果から基準画像をエッジ域と平坦域とに領域分割する。そして、画像合成部34は、基準画像のエッジ域では、高域成分の少ない被合成画像ほど合成比率を小さくする。一方、画像合成部34は、基準画像の平坦域では、高域成分の少ない画像の合成比率をエッジ部よりも上げる。なお、エッジ域または平坦域のいずれでもない領域については、両領域の中間の合成比率に設定する。   Step S109: The image composition unit 34 performs high-pass filter processing on the reference image. Then, the reference image is divided into an edge area and a flat area from the filter result. Then, the image composition unit 34 reduces the composition ratio in the edge region of the reference image as the composite image with fewer high-frequency components. On the other hand, the image composition unit 34 raises the composition ratio of an image with less high-frequency components in the flat region of the reference image than in the edge portion. In addition, about the area | region which is neither an edge area | region nor a flat area, it sets to the synthetic | combination ratio of the middle of both areas.

ステップS110:画像合成部34は、S107で求めた位置ズレの検出結果に基づいて、基準画像を位置基準として、被合成画像の画素位置をそれぞれ変位させてマッピング(再配置)を行う(図11参照)。第2実施形態では、マッピング後の被合成画像を再配置画像と称する。   Step S110: The image composition unit 34 performs mapping (rearrangement) by displacing the pixel positions of the composite image based on the position shift detection result obtained in S107, using the reference image as a position reference (FIG. 11). reference). In the second embodiment, the combined image after mapping is referred to as a rearranged image.

この第2実施形態では、基準画像とそれぞれの被合成画像との解像度(画素数)は同じである。そのため、図11に示すように、再配置画像群は同一画像内での位置を示すx軸y軸に加えて時間軸tを持つ3次元画像として扱われる。   In the second embodiment, the resolution (number of pixels) of the reference image and each synthesized image are the same. Therefore, as shown in FIG. 11, the rearranged image group is treated as a three-dimensional image having a time axis t in addition to the x-axis and y-axis indicating the position in the same image.

ステップS111:画像合成部34は、基準画像(S106)と再配置画像(S110)との合成処理を行ない、最終的な合成画像を生成する。   Step S111: The image composition unit 34 performs composition processing of the reference image (S106) and the rearranged image (S110) to generate a final composite image.

ここで、画像合成部34は、基準画像に対して各々の再配置画像を順次合成して、再配置画像の数だけ合成処理を繰り返す。なお、画像合成部34は、メディアン演算などによって複数の再配置画像を予め合成した上で、合成後の再配置画像と基準画像とを合成してもよい。   Here, the image synthesizing unit 34 sequentially synthesizes the rearranged images with the reference image, and repeats the synthesizing process for the number of the rearranged images. Note that the image synthesis unit 34 may synthesize a plurality of rearranged images in advance by median calculation or the like, and then synthesize the rearranged image after the synthesis and the reference image.

以下、S111での合成処理を具体的に説明する。第1に、画像合成部34は、S109で求めた合成比率の初期値を読み出す。そして、画像合成部34は、基準画像の階調値と再配置画像の階調値とに着目して、基準画像および再配置画像の合成比率をさらに調整する。   Hereinafter, the synthesizing process in S111 will be specifically described. First, the image composition unit 34 reads the initial value of the composition ratio obtained in S109. Then, the image composition unit 34 further adjusts the composition ratio of the reference image and the rearranged image by paying attention to the gradation value of the reference image and the gradation value of the rearranged image.

例えば、画像合成部34は、基準画像の注目画素と再配置画像の注目画素との間で階調値の差が閾値以上となる場合(階調差の大きな場合)には、その注目画素における合成比率を局所的に下げる。一方、画像合成部34は、基準画像の注目画素と再配置画像の注目画素との間で階調値の差が閾値未満となる場合(階調差の小さな場合)には、その注目画素における合成比率を局所的に上げる。これにより、画像間の位置合わせミスなどによる影響が大幅に抑制される。   For example, when the difference in gradation value between the target pixel of the reference image and the target pixel of the rearranged image is equal to or greater than the threshold value (when the gradation difference is large), the image composition unit 34 Lower the synthesis ratio locally. On the other hand, when the difference in gradation value between the target pixel of the reference image and the target pixel of the rearranged image is less than the threshold value (when the gradation difference is small), the image composition unit 34 Increase the composition ratio locally. Thereby, the influence by the misalignment between images etc. is suppressed significantly.

また、画像合成部34は、基準画像上での局所的な信号変化に応じて合成比率を調節する。例えば、画像合成部34は、基準画像上での局所的な信号変化が大きい箇所ほど、再配置画像との合成比率を局所的に下げる。また、画像合成部34は、基準画像上での局所的な信号変化が小さい箇所については再配置画像との合成比率を局所的に上げる。これにより、合成した画像上でエッジが多重線化するなどの弊害を抑制できる。   In addition, the image composition unit 34 adjusts the composition ratio according to a local signal change on the reference image. For example, the image synthesizing unit 34 locally lowers the synthesis ratio with the rearranged image at a location where the local signal change on the reference image is large. Further, the image composition unit 34 locally increases the composition ratio with the rearranged image at a portion where the local signal change on the reference image is small. As a result, it is possible to suppress adverse effects such as edges becoming multi-line on the synthesized image.

第2に、画像合成部34は、上記の合成比率に従って、基準画像と再配置画像との対応する画素をそれぞれ加算合成していく。このS111では、画像合成部34は、各画素の輝度成分および色差成分をそれぞれ合成処理で求めるものとする。これにより、複数の被合成画像の情報を反映した高解像度のカラー画像が生成されることとなる。   Second, the image composition unit 34 adds and synthesizes corresponding pixels of the reference image and the rearranged image according to the composition ratio. In S111, the image composition unit 34 obtains the luminance component and the color difference component of each pixel by the composition processing. As a result, a high-resolution color image reflecting information of a plurality of combined images is generated.

ステップS112:マイクロプロセッサ19は、画像圧縮部24および記録部22などを介して、最終的な合成画像(S111で生成されたもの)を記録媒体22aに記録する。以上で、図10の説明を終了する。   Step S112: The microprocessor 19 records the final composite image (generated in S111) on the recording medium 22a via the image compression unit 24, the recording unit 22, and the like. Above, description of FIG. 10 is complete | finished.

この第2実施形態の構成によっても第1実施形態と同種の効果を得ることができる。特に、第2実施形態の場合には、再配置画像の解像度が高く情報量が高いため、より高精細のカラー画像を取得しうる。   The same effect as that of the first embodiment can be obtained by the configuration of the second embodiment. In particular, in the case of the second embodiment, since the resolution of the rearranged image is high and the amount of information is high, a higher-definition color image can be acquired.

《実施形態の補足事項》
(1)本発明者は、特願2005−345715において、位置ズレ検出を更に高速化する手順を開示している。この手順に従って、上記の各実施形態の位置ズレ検出を高速化してもよい。
<< Additional items of embodiment >>
(1) In the Japanese Patent Application No. 2005-345715, the present inventor discloses a procedure for further speeding up the position shift detection. According to this procedure, the position shift detection in each of the above embodiments may be speeded up.

(2)ステップS10では、高解像度画像の縮小画像と、低解像度画像との間で絶対的な位置ズレを粗く検出している。しかしながら、本発明はこれに限定されるものではない。複数の低解像度画像の間で相対的な位置ズレを粗く検出してもよい。精密検出部38は、この相対的な粗検出結果と、少なくとも1つの位置ズレの精密検出結果とに基づいて、残りの絶対的な位置ズレを粗く知ることができる。精密検出部38は、この絶対的な粗検出結果を出発点として位置ズレ探索を行うことで、精密な位置ズレを迅速に検出することが可能になる。   (2) In step S10, absolute positional deviation is roughly detected between the reduced image of the high resolution image and the low resolution image. However, the present invention is not limited to this. A relative positional shift may be roughly detected between a plurality of low-resolution images. The precise detection unit 38 can roughly know the remaining absolute positional deviation based on the relative coarse detection result and the precise detection result of at least one positional deviation. The precision detection unit 38 can quickly detect a precise positional deviation by performing a positional deviation search using the absolute rough detection result as a starting point.

(3)上述した第1実施形態および第2実施形態では、射影波形の比較により画像の位置ズレを検出している。しかしながら、本発明はこれに限定されるものではない。例えば、両画像の画素配列の空間比較によって位置ズレを検出してもよい。   (3) In the first embodiment and the second embodiment described above, the positional deviation of the image is detected by comparing the projected waveforms. However, the present invention is not limited to this. For example, the positional deviation may be detected by spatial comparison of the pixel arrangement of both images.

(4)上述した第1実施形態および第2実施形態では、電子カメラに画像処理装置を搭載するケースについて説明した。しかしながら、本発明はこれに限定されるものではない。上述した画像処理をプログラムコード化した画像処理プログラムを作成してもよい。この画像処理プログラムをコンピュータで実行することにより、低解像度画像の情報を有効活用して、高画質かつ高解像度な合成結果をコンピュータ上で作成することができる。同様に、第2実施形態の画像処理をコンピュータ上で実行する場合には、連写撮影した他の画像を有効活用して、高画質かつ高解像度な合成結果をコンピュータ上で作成できる。   (4) In the first embodiment and the second embodiment described above, the case where the image processing apparatus is mounted on the electronic camera has been described. However, the present invention is not limited to this. An image processing program in which the above-described image processing is program-coded may be created. By executing this image processing program on a computer, it is possible to create a high-quality and high-resolution composition result on the computer by effectively utilizing the information of the low-resolution image. Similarly, when the image processing of the second embodiment is executed on a computer, a high-quality and high-resolution composite result can be created on the computer by effectively utilizing other images taken continuously.

なお、第2実施形態の画像処理をコンピュータ上で実行する場合には、連写画像のうちから任意の画像をユーザーが基準画像として指定することが可能となる。   When the image processing according to the second embodiment is executed on a computer, the user can specify an arbitrary image as a reference image from the continuous shot images.

(5)上述した第1実施形態では、高解像度画像の撮像前に、複数の低解像度画像を取得する。しかしながら、本発明はこれに限定されるものではない。高解像度画像の撮像後に、複数の低解像度画像を取得してもよい。また、高解像度画像の撮像前および撮影後にまたがって、複数の低解像度画像を取得してもよい。   (5) In the first embodiment described above, a plurality of low resolution images are acquired before capturing a high resolution image. However, the present invention is not limited to this. A plurality of low-resolution images may be acquired after capturing a high-resolution image. Further, a plurality of low resolution images may be acquired before and after the high resolution image is captured.

(6)上述した第1実施形態では、再配置画像から色差成分を求め、合成画像から輝度成分を求める。しかしながら、本発明はこれに限定されるものではない。再配置画像から輝度成分および色差成分を求めてもよい。また、合成画像から輝度成分および色差成分を求めてもよい。なお、第2実施形態においても、第1実施形態と同様に基準画像と再配置画像とから輝度成分を求め、再配置画像から色差成分を求めるようにしてもよい。   (6) In the first embodiment described above, the color difference component is obtained from the rearranged image, and the luminance component is obtained from the synthesized image. However, the present invention is not limited to this. The luminance component and the color difference component may be obtained from the rearranged image. Further, the luminance component and the color difference component may be obtained from the composite image. In the second embodiment, as in the first embodiment, the luminance component may be obtained from the reference image and the rearranged image, and the color difference component may be obtained from the rearranged image.

(7)上述した第1実施形態および第2実施形態では、輝度色差の画像信号を扱うケースについて説明した。しかしながら、本発明はこれに限定されるものではない。一般に、本発明をRGB、Labその他の画像信号を扱うケースに適用してもよい。このRGB画像信号の場合、視覚感度の高い信号成分はG成分、残りの信号成分はRB成分となる。また、Lab画像信号の場合、視覚感度の高い信号成分はL成分、残りの信号成分はab成分となる。   (7) In the first embodiment and the second embodiment described above, the case of handling an image signal of luminance color difference has been described. However, the present invention is not limited to this. In general, the present invention may be applied to cases where RGB, Lab and other image signals are handled. In the case of this RGB image signal, a signal component with high visual sensitivity is a G component, and the remaining signal components are RB components. In the case of a Lab image signal, a signal component with high visual sensitivity is an L component, and the remaining signal components are ab components.

(8)上述した第1実施形態および第2実施形態では、画像処理によって絵柄の位置ズレを検出している。しかしながら、本発明はこれに限定されるものではない。例えば、カメラ側に加速度センサなどを搭載してカメラの撮影域の移動(振動)を求め、この撮影域の移動(振動)から複数画像の絵柄の位置ズレを検出してもよい。   (8) In the first embodiment and the second embodiment described above, the positional deviation of the pattern is detected by image processing. However, the present invention is not limited to this. For example, an acceleration sensor or the like may be mounted on the camera side to determine the movement (vibration) of the shooting area of the camera, and the positional deviation of the pattern of the multiple images may be detected from the movement (vibration) of the shooting area.

(9)上述した第1実施形態および第2実施形態では、画像処理装置を一般的な電子カメラに実装した例を説明した。しかし、本発明の画像処理装置は、例えば、監視カメラや、事故画像を記録する車載カメラを備えたドライブレコーダシステムなどに組み合わせて適用することも勿論可能である。   (9) In the first embodiment and the second embodiment described above, the example in which the image processing apparatus is mounted on a general electronic camera has been described. However, the image processing apparatus of the present invention can of course be applied in combination with, for example, a surveillance camera or a drive recorder system including an in-vehicle camera that records accident images.

なお、本発明は、その精神または主要な特徴から逸脱することなく、他のいろいろな形で実施することができる。そのため、前述の実施例はあらゆる点で単なる例示に過ぎず、限定的に解釈してはならない。本発明の範囲は、特許請求の範囲によって示すものであって、明細書本文には、何ら拘束されない。さらに、特許請求の範囲の均等範囲に属する変形や変更は、すべて本発明の範囲内のものである。   The present invention can be implemented in various other forms without departing from the spirit or main features thereof. For this reason, the above-described embodiments are merely examples in all respects and should not be interpreted in a limited manner. The scope of the present invention is shown by the scope of claims, and is not restricted by the text of the specification. Further, all modifications and changes belonging to the equivalent scope of the claims are within the scope of the present invention.

以上説明したように、本発明は、画像処理装置などに利用可能な技術である。   As described above, the present invention is a technique that can be used for an image processing apparatus or the like.

電子カメラ10(画像処理装置25を含む)を示すブロック図Block diagram showing the electronic camera 10 (including the image processing device 25) 画像処理装置25の構成を模式的に示したブロック図The block diagram which showed typically the structure of the image processing apparatus 25 電子カメラ10の動作を説明する流れ図Flow chart for explaining the operation of the electronic camera 10 電子カメラ10の動作を説明する流れ図Flow chart for explaining the operation of the electronic camera 10 低解像度画像と高解像度画像とを説明する図Diagram explaining low-resolution image and high-resolution image 射影エッジの比較による画像ずれ検出の様子を示す図Diagram showing how image misalignment is detected by comparing projected edges サブサンプリングの様子を示す図Diagram showing sub-sampling 合成比率の調整動作を示す図Diagram showing adjustment of composite ratio 再配置画像の生成動作を説明する図The figure explaining the production | generation operation | movement of a rearranged image 第2実施形態での電子カメラ10の動作を説明する流れ図A flow chart explaining operation of electronic camera 10 in a 2nd embodiment. 第2実施形態における画像の合成処理を示す模式図Schematic diagram showing image composition processing in the second embodiment

符号の説明Explanation of symbols

10…電子カメラ,11…撮像素子,12…撮影レンズ,14…撮像制御部,15…信号処理部,16…A/D変換部,17…メモリ,18…バス,19…マイクロプロセッサ,19a…操作部,22…記録部,22a…記録媒体,24…画像圧縮部,25…画像処理装置,30…モニタ表示部,31…ゲイン補正部,32…縮小画像生成部,33…特徴量抽出部,34…画像合成部,35…特徴量抽出部,36…粗検出部,37…位相分割部,38…精密検出部,39…特徴量抽出部
DESCRIPTION OF SYMBOLS 10 ... Electronic camera, 11 ... Imaging device, 12 ... Shooting lens, 14 ... Imaging control part, 15 ... Signal processing part, 16 ... A / D conversion part, 17 ... Memory, 18 ... Bus, 19 ... Microprocessor, 19a ... Operation unit, 22 ... recording unit, 22a ... recording medium, 24 ... image compression unit, 25 ... image processing device, 30 ... monitor display unit, 31 ... gain correction unit, 32 ... reduced image generation unit, 33 ... feature amount extraction unit , 34... Image composition unit, 35... Feature amount extraction unit, 36... Coarse detection unit, 37.

Claims (4)

同一被写体を撮影した複数の画像を取り込む画像入力部と、
前記複数の画像の間で絵柄の位置ズレを検出する位置ズレ検出部と、
前記位置ズレに基づいて、前記複数の画像に対し絵柄の位置合わせを行って合成する画像合成部とを備え、
前記画像合成部は、位置合わせの基準とする画像について局所的な信号変化の大きさを判定し、前記信号変化が大きいと判定された箇所では、その他の前記画像の合成比率を局所的に下げる
ことを特徴とする画像処理装置。
An image input unit that captures a plurality of images of the same subject;
A position shift detection unit for detecting a position shift of the pattern between the plurality of images;
An image composition unit configured to perform composition of the images on the plurality of images based on the positional deviation;
The image synthesizing unit determines the magnitude of a local signal change with respect to an image serving as a reference for alignment, and locally reduces the synthesis ratio of the other images at a location where the signal change is determined to be large. An image processing apparatus.
同一被写体を撮影した複数の画像を取り込む画像入力部と、
前記複数の画像の間で絵柄の位置ズレを検出する位置ズレ検出部と、
前記位置ズレに基づいて、前記複数の画像に対し絵柄の位置合わせを行って合成する画像合成部とを備え、
前記画像合成部は、位置合わせの基準とする画像と他の画像とでそれぞれ対応位置にある注目画素の階調値の差を求め、前記階調値の差が大きいと判定された箇所では、前記他の画像との合成比率を局所的に下げる
ことを特徴とする画像処理装置。
An image input unit that captures a plurality of images of the same subject;
A position shift detection unit for detecting a position shift of the pattern between the plurality of images;
An image composition unit configured to perform composition of the images on the plurality of images based on the positional deviation;
The image synthesizing unit obtains a difference in gradation value of a pixel of interest at a corresponding position between an image serving as a reference for alignment and another image, and at a place where the difference in gradation value is determined to be large, An image processing apparatus characterized by locally lowering a composition ratio with the other image.
請求項1または請求項2に記載の画像処理装置と、
被写体を連続的に撮影して複数の画像を生成する撮像部とを備え、
前記複数の画像を前記画像処理装置で位置合わせ合成する機能を有する
ことを特徴とする電子カメラ。
The image processing apparatus according to claim 1 or 2,
An imaging unit that continuously shoots a subject and generates a plurality of images,
An electronic camera having a function of aligning and synthesizing the plurality of images by the image processing apparatus.
コンピュータを、請求項1または請求項2に記載の画像処理装置として機能させるための画像処理プログラム。
An image processing program for causing a computer to function as the image processing apparatus according to claim 1.
JP2007233227A 2006-09-14 2007-09-07 Image processing apparatus, electronic camera, and image processing program Active JP5211589B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007233227A JP5211589B2 (en) 2006-09-14 2007-09-07 Image processing apparatus, electronic camera, and image processing program

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2006249020 2006-09-14
JP2006249020 2006-09-14
JP2007233227A JP5211589B2 (en) 2006-09-14 2007-09-07 Image processing apparatus, electronic camera, and image processing program

Publications (2)

Publication Number Publication Date
JP2008099260A true JP2008099260A (en) 2008-04-24
JP5211589B2 JP5211589B2 (en) 2013-06-12

Family

ID=39381560

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007233227A Active JP5211589B2 (en) 2006-09-14 2007-09-07 Image processing apparatus, electronic camera, and image processing program

Country Status (1)

Country Link
JP (1) JP5211589B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010098404A (en) * 2008-10-15 2010-04-30 Nec Corp Imaging device, mobile terminal provided with imaging device, portrait image processing method, portrait image processing program, and recording medium
JP2011530208A (en) * 2008-08-01 2011-12-15 オムニヴィジョン テクノロジーズ インコーポレイテッド Improved image formation using different resolution images
WO2012108094A1 (en) * 2011-02-08 2012-08-16 オリンパス株式会社 Image processing device, image processing method, image processing program, and image pick-up device
US8625929B2 (en) 2010-09-21 2014-01-07 Olympus Corporation Image processing apparatus and storage medium
JP2018195189A (en) * 2017-05-19 2018-12-06 キヤノン株式会社 Image processing device, image processing method, and program
CN114365472A (en) * 2019-09-02 2022-04-15 索尼集团公司 Imaging apparatus, image processing apparatus, and image processing method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006140797A (en) * 2004-11-12 2006-06-01 Canon Inc Image processor and image processing method
JP2007135182A (en) * 2005-10-14 2007-05-31 Kyocera Corp Imaging device and imaging method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006140797A (en) * 2004-11-12 2006-06-01 Canon Inc Image processor and image processing method
JP2007135182A (en) * 2005-10-14 2007-05-31 Kyocera Corp Imaging device and imaging method

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011530208A (en) * 2008-08-01 2011-12-15 オムニヴィジョン テクノロジーズ インコーポレイテッド Improved image formation using different resolution images
JP2010098404A (en) * 2008-10-15 2010-04-30 Nec Corp Imaging device, mobile terminal provided with imaging device, portrait image processing method, portrait image processing program, and recording medium
US8625929B2 (en) 2010-09-21 2014-01-07 Olympus Corporation Image processing apparatus and storage medium
WO2012108094A1 (en) * 2011-02-08 2012-08-16 オリンパス株式会社 Image processing device, image processing method, image processing program, and image pick-up device
JP2012165259A (en) * 2011-02-08 2012-08-30 Olympus Corp Image processing device, image processing method, image processing program and photograph device
JP2018195189A (en) * 2017-05-19 2018-12-06 キヤノン株式会社 Image processing device, image processing method, and program
CN114365472A (en) * 2019-09-02 2022-04-15 索尼集团公司 Imaging apparatus, image processing apparatus, and image processing method

Also Published As

Publication number Publication date
JP5211589B2 (en) 2013-06-12

Similar Documents

Publication Publication Date Title
WO2008032442A1 (en) Image processing device, electronic camera and image processing program
JP4487191B2 (en) Image processing apparatus and image processing program
JP5574423B2 (en) Imaging apparatus, display control method, and program
US8760526B2 (en) Information processing apparatus and method for correcting vibration
US8379096B2 (en) Information processing apparatus and method for synthesizing corrected image data
KR101424923B1 (en) Image synthesis device and computer program for image synthesis
JP4748230B2 (en) Imaging apparatus, imaging method, and imaging program
JP2010187347A (en) Apparatus, method and program for image processing
JP4821626B2 (en) Image processing apparatus, electronic camera, and image processing program
JP5206466B2 (en) Image correction apparatus, image correction program, and image photographing apparatus
JP2009194700A (en) Image processor and image processing program
JP5211589B2 (en) Image processing apparatus, electronic camera, and image processing program
JP2022179514A (en) Control apparatus, imaging apparatus, control method, and program
JP5212046B2 (en) Digital camera, image processing apparatus, and image processing program
JP2010263520A (en) Image capturing apparatus, data generating apparatus, and data structure
JP2007243917A (en) Imaging apparatus and image processing program
JP2007274504A (en) Digital camera
JP5649927B2 (en) Image processing apparatus, image processing method, and image processing program
JP5055571B2 (en) Image processing apparatus, electronic camera, and image processing program
JP5012805B2 (en) Image processing apparatus, electronic camera, and image processing program
JP2022125149A (en) Imaging apparatus
JP5195973B2 (en) Image processing apparatus, electronic camera, and image processing program
US20110228132A1 (en) Camera and image composition program
JP2010154390A (en) Imaging device, imaging method, and program
JP7031410B2 (en) Image processing device, image processing method, image processing program, shooting device, shooting method and shooting program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100903

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120327

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120528

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130129

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130211

R150 Certificate of patent or registration of utility model

Ref document number: 5211589

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160308

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250