JP2006229868A - Image processing apparatus and method, and motion detection apparatus and method - Google Patents

Image processing apparatus and method, and motion detection apparatus and method Download PDF

Info

Publication number
JP2006229868A
JP2006229868A JP2005044458A JP2005044458A JP2006229868A JP 2006229868 A JP2006229868 A JP 2006229868A JP 2005044458 A JP2005044458 A JP 2005044458A JP 2005044458 A JP2005044458 A JP 2005044458A JP 2006229868 A JP2006229868 A JP 2006229868A
Authority
JP
Japan
Prior art keywords
image
images
white balance
exposure condition
corresponding point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2005044458A
Other languages
Japanese (ja)
Inventor
Kotaro Yano
光太郎 矢野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2005044458A priority Critical patent/JP2006229868A/en
Publication of JP2006229868A publication Critical patent/JP2006229868A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Color Television Image Signal Generators (AREA)
  • Color Image Communication Systems (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To realize improvement in image quality when generating one image by combining a plurality of images. <P>SOLUTION: In an image processor and an image processing method for detecting motions among the plurality of images with respect to the plurality of images outputted from an imaging part and combining the plurality of images on the basis of the detected motions, white balance compensation under the condition almost same as the optimal light exposure condition is performed to the plurality of images by including at least one image with light exposure different from the proper one. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は画像処理装置及び方法に関し、特に複数の画像を合成する画像処理装置及び方法に関する。   The present invention relates to an image processing apparatus and method, and more particularly to an image processing apparatus and method for combining a plurality of images.

また、本発明は複数の画像を位置合わせするための移動パラメータを求める動き検出装置及び動き検出方法に関する。   The present invention also relates to a motion detection apparatus and a motion detection method for obtaining a movement parameter for aligning a plurality of images.

デジタルスチルカメラによる写真撮影を行う場合、撮影中にカメラや被写体が移動することで、撮影画像にブレが生じることがある。このようなブレを防止するためには、速いシャッター速度で撮影を行うことが望ましい。設定可能な最速のシャッター速度は、被写体の輝度と絞り値、撮像素子の感度との関係から決定される。従って、たとえば被写体の輝度が低い場合、絞り値を開放としても、必要な露光量を得るためにはシャッター速度を遅くしなければならない場合がある。このような場合には、ブレ防止のため、ストロボを用いて撮影する、三脚を用いてカメラを固定する、撮像素子の感度を上げる、というような方策が考えられる。   When taking a picture with a digital still camera, the photographed image may be blurred due to movement of the camera or subject during the taking. In order to prevent such blurring, it is desirable to perform shooting at a high shutter speed. The fastest shutter speed that can be set is determined from the relationship between the brightness of the subject, the aperture value, and the sensitivity of the image sensor. Therefore, for example, when the brightness of the subject is low, the shutter speed may have to be slowed down in order to obtain a necessary exposure amount even if the aperture value is opened. In such a case, in order to prevent blurring, measures such as photographing with a strobe, fixing the camera with a tripod, and increasing the sensitivity of the image sensor can be considered.

しかしながら、撮像素子の感度を上げた場合には、撮影画像中のノイズが目立ってくる。また、ストロボを用いることによる効果は、ストロボ光の届く範囲に限定され、遠距離にある被写体の撮影には対応できない。また、三脚を用いた撮影は機動性に劣り、対応できる状況が限られてしまう。   However, when the sensitivity of the image sensor is increased, noise in the captured image becomes conspicuous. In addition, the effect of using a strobe is limited to the range where the strobe light can reach, and cannot be used for shooting a subject at a long distance. Also, shooting using a tripod is inferior in mobility, and the situation that can be handled is limited.

特開平3−224372号公報JP-A-3-224372

このような問題点に鑑み、短い撮影間隔で速いシャッター速度で複数の撮影を行い、撮影した複数の画像を合成して実質的に必要な露光量を確保するといった方式が提案されている(特許文献1参照)。   In view of these problems, a method has been proposed in which a plurality of images are taken at a short shutter interval and at a high shutter speed, and a plurality of images thus taken are combined to ensure a substantially necessary exposure amount (patent). Reference 1).

しかしながら、従来の複数画像合成による適正露出画像の取得方式においては、色再現については何ら言及されておらず、既存のデジタルスチルカメラが出力する画像データを単純に合成した場合には不自然な色再現の画像が生成されてしまうといった問題点がある。   However, in the conventional method for acquiring a proper exposure image by combining multiple images, there is no mention of color reproduction, and an unnatural color is obtained when image data output by an existing digital still camera is simply combined. There is a problem that a reproduced image is generated.

また、このような画像合成においては、複数画像間の位置合わせを正確に行わないと合成した画像は手ぶれした画像のようになってしまい画質が著しく低下する。通常、複数の画像間の位置合わせは、画像間の対応付けから最小自乗法を用いて推定したカメラの移動パラメータを用いて行われる。しかし、画像間を対応付けしたデータの中に、対応が正しくないデータや、被写体の一部が移動したことに帰因する、カメラの移動とは関係のないデータが含まれると、カメラの移動パラメータの推定誤差が大きくなり、位置合わせの精度が低下する。   In addition, in such image composition, if the alignment between a plurality of images is not performed accurately, the synthesized image becomes like a blurred image, and the image quality is significantly lowered. Usually, alignment between a plurality of images is performed using camera movement parameters estimated from the association between images using the least square method. However, if the data that correlates images includes data that is not correctly associated, or data that is not related to camera movement due to movement of a part of the subject, camera movement The parameter estimation error increases, and the alignment accuracy decreases.

このような問題点に鑑み、自乗誤差の中央値を最小にする基準によりカメラの移動パラメータの推定を行うLMedS法、ランダムに選択した対応付けから推定した移動パラメータを基に、大きな誤差のあるデータを排除し信頼性の最も高いパラメータを選択するRANSAC法などが提案されている。   In view of these problems, the LMedS method for estimating camera movement parameters based on the criterion for minimizing the median square error, data with large errors based on movement parameters estimated from randomly selected associations The RANSAC method, etc., has been proposed in which parameters with the highest reliability are selected.

しかしながら、LMedS法は、誤差の含まれるデータの割合が小さい場合には収束性が高いものの、誤差の含まれるデータの割合が大きい場合には安定しない。また、RANSAC法においては、誤差の含まれるデータの割合が大きい場合にも安定性がよいものの、再現性を高めるためには膨大な組み合わせにて処理を行う必要があった。   However, the LMedS method has high convergence when the ratio of data including an error is small, but is not stable when the ratio of data including an error is large. In the RANSAC method, stability is good even when the ratio of data containing errors is large, but in order to improve reproducibility, it is necessary to perform processing in enormous combinations.

本発明はこのような従来技術の問題を解決することを目的とする。   An object of the present invention is to solve such problems of the prior art.

上述の目的は、適正露出条件とは異なる露出条件で撮影された、重複部分を有する複数の画像間の動きを検出する動き検出手段と、検出した動きに基づいて、複数の画像を位置合わせして合成する合成手段とを有する画像処理装置であって、複数の画像の各々を対象画像として、所定の輝度値を有する画素を用いて推定した光源の色温度に基づいて白バランス調整用の係数を算出し、当係数を用いて対象画像の白バランスを調整する白バランス調整手段を有し、白バランス調整手段が、所定の輝度値として、異なる露出条件と適正露出条件との関係に応じて補正した値を用いて光源の色温度を推定し、動き検出手段及び合成手段が、白バランス調整後の画像に対して動きの検出及び合成を行うことを特徴とする画像処理装置によって達成される。   The above-described object is to detect a motion between a plurality of images having overlapping portions, which are photographed under an exposure condition different from the proper exposure condition, and to align the plurality of images based on the detected motion. A white balance adjustment coefficient based on a color temperature of a light source estimated using a pixel having a predetermined luminance value, with each of the plurality of images as a target image. And a white balance adjustment unit that adjusts the white balance of the target image using the coefficient, and the white balance adjustment unit has a predetermined luminance value according to a relationship between different exposure conditions and appropriate exposure conditions. This is achieved by an image processing apparatus characterized in that the color temperature of the light source is estimated using the corrected value, and the motion detection unit and the synthesis unit perform motion detection and synthesis on the image after white balance adjustment. .

また、上述の目的は、適正露出条件とは異なる露出条件で撮影された、重複部分を有する複数の画像間の動きを検出する動き検出手段と、検出した動きに基づいて、複数の画像を位置合わせして合成する合成手段とを有する画像処理装置であって、合成手段により合成された画像を対象画像として、所定の輝度値を有する画素を用いて推定した光源の色温度に基づいて白バランス調整用の係数を算出し、当係数を用いて対象画像の白バランスを調整する白バランス調整手段を有し、白バランス調整手段が、所定の輝度値として、適正露出条件で撮影された画像に対して用いる輝度値を用いて光源の色温度を推定することを特徴とする画像処理装置によっても達成される。   In addition, the above-described object is to detect a motion between a plurality of images having overlapping portions, which are photographed under an exposure condition different from the proper exposure condition, and position the plurality of images based on the detected motion. An image processing apparatus having a combining unit that combines and combines the white balance based on a color temperature of a light source estimated using a pixel having a predetermined luminance value, with the image combined by the combining unit as a target image A white balance adjusting unit that calculates a coefficient for adjustment and adjusts the white balance of the target image using the coefficient, and the white balance adjusting unit applies a predetermined luminance value to an image shot under appropriate exposure conditions. The image processing apparatus is also characterized in that the color temperature of the light source is estimated using the luminance value used for the light source.

また、上述の目的は、重複部分を有する第1及び第2の画像を位置合わせするための移動パラメータを求める動き検出装置であって、第1の画像と、第2の画像との対応点を検出する対応点検出手段と、対応点の信頼性を判定する判定手段と、判定手段により信頼性が高いと判定された対応点の組み合わせに基づいて移動パラメータを推定する第1の推定手段と、第1の推定手段が推定した移動パラメータの各々について、推定した移動パラメータを用いて推定した対応点との誤差が所定値以下である合格対応点を検出された対応点から検出する合格対応点検出手段と、合格対応点が最大数となる場合の合格対応点を用いて、移動パラメータを推定し、推定結果を最終的な移動パラメータとする第2の推定手段とを有することを特徴とする動き検出装置によっても達成される。   The above-described object is a motion detection device for obtaining a movement parameter for aligning the first and second images having overlapping portions, and corresponding points between the first image and the second image are obtained. Corresponding point detection means to detect; determination means for determining reliability of corresponding points; first estimation means for estimating a movement parameter based on a combination of corresponding points determined to be highly reliable by the determination means; For each of the movement parameters estimated by the first estimation means, a detected corresponding point is detected from the detected corresponding point, with an error corresponding to the corresponding point estimated using the estimated movement parameter being equal to or less than a predetermined value. And a second estimation unit that estimates a movement parameter using the number of acceptable corresponding points when the number of acceptable corresponding points is the maximum and uses the estimation result as a final movement parameter. Also achieved by the detection device.

また、上述の目的は、本発明の動き検出装置を動き検出手段として有する本発明の画像処理装置と、複数の画像を撮影する撮影手段とを有することを特徴とする撮像装置によっても達成される。   The above-described object can also be achieved by an imaging apparatus comprising the image processing apparatus of the present invention having the motion detection apparatus of the present invention as motion detection means, and imaging means for capturing a plurality of images. .

このような構成により、本発明によれば、複数の画像を合成して生成する画像における色再現性を改善することができる。   With such a configuration, according to the present invention, color reproducibility in an image generated by combining a plurality of images can be improved.

また、別の本発明によれば、複数の画像の位置合わせの安定性及び精度を向上することができる。   Further, according to another aspect of the present invention, it is possible to improve the stability and accuracy of alignment of a plurality of images.

以下添付図面を参照して、本発明を好適な実施形態に従って詳細に説明する。
(第1の実施形態)
図1は本発明の第1の実施形態に係る画像処理装置としてのデジタルスチルカメラ100の構成例を示す図である。
Hereinafter, the present invention will be described in detail according to preferred embodiments with reference to the accompanying drawings.
(First embodiment)
FIG. 1 is a diagram showing a configuration example of a digital still camera 100 as an image processing apparatus according to the first embodiment of the present invention.

デジタルスチルカメラ100は、脱着可能な記録媒体200(例えば半導体メモリカード、光ディスク等)を利用可能である。撮像ブロック10、画像処理ブロック2、画像メモリ30、画像合成ブロック40、符号化・記録ブロック50を有し、これら各ブロックを制御部60が制御することによりデジタルスチルカメラ100の機能が実現される。   The digital still camera 100 can use a removable recording medium 200 (for example, a semiconductor memory card, an optical disk, etc.). The imaging block 10, the image processing block 2, the image memory 30, the image synthesis block 40, and the encoding / recording block 50 are provided, and the function of the digital still camera 100 is realized by the control unit 60 controlling these blocks. .

撮像ブロック10において、撮像部11は、図示しない撮像レンズ、CCD等の撮像素子、撮像素子の出力信号のゲインを調整するゲイン調整回路、ゲイン調整後の信号をデジタル信号に変換するA/D変換回路より構成される。このように、撮像部11は、撮像素子から読み出したアナログ信号をデジタルデータに変換し、デジタル画像データとして出力する。   In the imaging block 10, the imaging unit 11 includes an imaging lens (not shown), an imaging element such as a CCD, a gain adjustment circuit that adjusts the gain of the output signal of the imaging element, and A / D conversion that converts the signal after gain adjustment into a digital signal. It consists of a circuit. As described above, the imaging unit 11 converts the analog signal read from the imaging device into digital data and outputs the digital data.

露出調整部12は、撮像部11から出力されたデジタル画像データの所定領域の輝度に基づき、所定のプログラム線図に従いシャッター速度と絞り値を決定し、撮像部11の撮像素子の露光時間と撮影レンズの絞りを制御する。   The exposure adjustment unit 12 determines a shutter speed and an aperture value according to a predetermined program diagram based on the luminance of a predetermined area of the digital image data output from the imaging unit 11, and exposes and shoots the image sensor of the imaging unit 11. Control the aperture of the lens.

画像処理ブロック20において、白バランス検出部21は、撮像部11から出力され、一旦画像メモリ30に記憶された画像データから、白バランスの調整を行うためのパラメータ値を出力する。   In the image processing block 20, the white balance detection unit 21 outputs a parameter value for adjusting the white balance from the image data output from the imaging unit 11 and temporarily stored in the image memory 30.

画素補間部22は、撮像素子の各画素から得られる輝度値と、その周囲の画素の輝度値と、撮像素子に用いられる色フィルタの色配列とから、各画素のRGB値を補間により求め、カラー画像データを出力する。   The pixel interpolation unit 22 interpolates the RGB value of each pixel from the luminance value obtained from each pixel of the image sensor, the luminance value of the surrounding pixels, and the color array of the color filter used for the image sensor, Output color image data.

画像補正部23は、画素補間部22が出力するカラー画像データに対し、色再現特性が所望の特性になるように色補正を行う。また、被写体の輪郭部分を強調するエッジ強調処理を行ったり、画像データのRGB各チャンネルについて、所望の階調特性になるようにテーブル参照によってγ補正変換を行う。   The image correction unit 23 performs color correction on the color image data output from the pixel interpolation unit 22 so that the color reproduction characteristic becomes a desired characteristic. Further, edge emphasis processing for emphasizing the contour portion of the subject is performed, and γ correction conversion is performed by referring to a table so that desired gradation characteristics are obtained for each of the RGB channels of the image data.

画像合成ブロック40において、動き検出部41は、画像メモリ30に記憶された複数の画像データ間の動きを検出する。
画像合成部42は、動き検出部41で検出された動きを補正するように複数の画像データの位置合わせを行い、合成する。
符号化・記録ブロック50において、画像圧縮部51は、JPEG方式等の所定の方式により画像メモリ30に記憶された画像データを圧縮する。
In the image composition block 40, the motion detector 41 detects a motion between a plurality of image data stored in the image memory 30.
The image composition unit 42 aligns and synthesizes a plurality of image data so as to correct the motion detected by the motion detection unit 41.
In the encoding / recording block 50, the image compression unit 51 compresses the image data stored in the image memory 30 by a predetermined method such as the JPEG method.

記録再生部52は、画像圧縮部51が圧縮した画像データに対し、例えば撮影日時や絞り、シャッタースピード、カメラの機種情報といった所定の付帯情報を追加し、所定の形式に従った画像データファイルを形成する。このような、撮影画像データのファイル形式としては、Exif形式が一般に用いられている。そして、この画像データファイルを記録媒体200に記録したり、すでに記録媒体200に記録された画像データファイルを読み出して、不図示の液晶モニタ等に表示するための画像再生処理等を行う。   The recording / playback unit 52 adds predetermined incidental information such as shooting date / time, aperture, shutter speed, camera model information, and the like to the image data compressed by the image compression unit 51, and creates an image data file according to a predetermined format. Form. As such a file format of photographed image data, the Exif format is generally used. Then, the image data file is recorded on the recording medium 200, or the image data file already recorded on the recording medium 200 is read, and an image reproduction process for displaying it on a liquid crystal monitor (not shown) or the like is performed.

まず、本実施形態におけるデジタルスチルカメラ100における通常撮影時の動作を図6に従って説明する。
ユーザが被写体を撮影するために不図示のシャッターボタンを半押しすると、制御部60がそれを検出し、撮像部11の出力を用いて露出調整部12により露光時間と撮影レンズの絞り値を決定する。そして、シャッターボタンが全押しされると、決定した露出条件に基づいて撮影を行う。撮像部11からデジタル画像データが出力され、画像メモリ30に記憶される(S101)。
First, the operation at the time of normal shooting in the digital still camera 100 according to the present embodiment will be described with reference to FIG.
When the user half-presses a shutter button (not shown) to photograph the subject, the control unit 60 detects this, and the exposure adjustment unit 12 determines the exposure time and the aperture value of the photographing lens using the output of the imaging unit 11. To do. When the shutter button is fully pressed, shooting is performed based on the determined exposure condition. Digital image data is output from the imaging unit 11 and stored in the image memory 30 (S101).

白バランス検出部21は撮像部11から出力され、画像メモリ30に記憶された画像データに含まれる所定の基準輝度レベルの画素値に対して統計的な解析を行い、光源の色温度を推定する。そして、推定した光源の色温度に基づいて、画像データから算出された所定の統計量が所定の値(グレー)になるように白バランスの調整を行うための係数を求める(S102)。このとき、デジタルスチルカメラに設定可能な白バランスが複数種ある場合は、各白バランスに応じて統計量の目標値があり、それぞれのモードに最適な係数が求まる。これらの係数はRGB各チャンネルに対して求める。   The white balance detection unit 21 performs a statistical analysis on the pixel value of a predetermined reference luminance level included in the image data output from the imaging unit 11 and stored in the image memory 30, and estimates the color temperature of the light source. . Then, based on the estimated color temperature of the light source, a coefficient for adjusting the white balance is obtained so that the predetermined statistic calculated from the image data becomes a predetermined value (gray) (S102). At this time, when there are a plurality of types of white balances that can be set in the digital still camera, there is a target value of a statistic corresponding to each white balance, and an optimum coefficient is obtained for each mode. These coefficients are obtained for each RGB channel.

画素補間部22は白バランス検出部21で求まった係数を用いて、画像メモリ30に記憶された画像データからRGB3チャンネルのカラー画像データを補間する(S103)。   The pixel interpolation unit 22 interpolates RGB 3-channel color image data from the image data stored in the image memory 30 using the coefficient obtained by the white balance detection unit 21 (S103).

本実施形態において、撮像部11に含まれる撮像素子が用いる色フィルタの配列例を図2に示す。図2に示すように各画素位置においては、RGBの内、1つのチャンネルの画素値しか得られないので、フィルタの色と異なるチャンネルの画素値は補間により求める必要がある。このとき、フィルタの色がGの画素位置におけるGチャンネルの値を求める場合には、その位置から得られる輝度値にGチャンネルに対応した係数を積算した値とする。また、その位置におけるRまたはBチャンネルの値を求める場合には、隣接する2つのR又はBフィルタに対応する位置の輝度値に各チャンネルに対応した係数を積算し、平均した値とする。   In the present embodiment, an example of the arrangement of color filters used by the image sensor included in the imaging unit 11 is shown in FIG. As shown in FIG. 2, at each pixel position, only the pixel value of one channel of RGB is obtained, so that the pixel value of a channel different from the filter color needs to be obtained by interpolation. At this time, when obtaining the value of the G channel at the pixel position where the filter color is G, a value corresponding to the G channel is added to the luminance value obtained from that position. Further, when the value of the R or B channel at the position is obtained, the coefficient corresponding to each channel is added to the luminance value at the position corresponding to two adjacent R or B filters, and an average value is obtained.

また、フィルタの色がRまたはBの画素位置においては、フィルタと同色のチャンネル値を求める場合には、当該位置の輝度値に各チャンネルに対応した係数を積算した値とする。また、フィルタと異なる色のチャンネルの画素値を求める場合には、隣接する4つの画素の輝度値にその画素のフィルタ色(チャンネル)に対応した係数を積算し、平均した値を出力値とする。   Further, in the pixel position where the color of the filter is R or B, when the channel value of the same color as the filter is obtained, the value corresponding to each channel is added to the luminance value at that position. Further, when obtaining pixel values of channels having a color different from that of the filter, the coefficient corresponding to the filter color (channel) of the pixel is added to the luminance values of the four adjacent pixels, and the average value is used as the output value. .

なお、以上の画素の補間方法は一例であって、例えば、フィルタの色がGの画素位置において、RまたはBチャンネルの値を求める場合に、所定の距離離れたR又はB画素の値に各チャンネルに対応した係数を積算し、距離に基づいた重み付きの平均値を出力値としてもよい。   The above-described pixel interpolation method is an example. For example, when the R or B channel value is obtained at the pixel position where the filter color is G, each R or B pixel value separated by a predetermined distance is obtained. The coefficients corresponding to the channels may be integrated, and a weighted average value based on the distance may be used as the output value.

画像補正部23では、画素補間部22の出力であるカラー画像データに対して、色補正、エッジ強調、γ補正を行う(S104)。
まず、マトリクス演算により色補正の処理を行う。色補正処理では主に画像データの色相、彩度の補正を行う。
The image correction unit 23 performs color correction, edge enhancement, and γ correction on the color image data output from the pixel interpolation unit 22 (S104).
First, color correction processing is performed by matrix calculation. The color correction process mainly corrects the hue and saturation of image data.

次に、エッジ強調処理によって画像の輪郭部分を強調する。まず、画像データにフィルタ処理を施すことにより画像から所定の方向の輪郭部分をそれぞれ抽出する。そして、抽出した輪郭部分に対して、それぞれの方向ごとに最適なエッジ強調フィルタを作用させてエッジ強調を行う。また、このとき輪郭の方向性がなく孤立したノイズ成分に対しては、逆にローパス効果のあるフィルタ処理を行う。   Next, the edge portion of the image is emphasized by edge enhancement processing. First, a contour process in a predetermined direction is extracted from an image by filtering the image data. Then, edge enhancement is performed on the extracted contour portion by applying an optimum edge enhancement filter for each direction. At this time, a filter process having a low-pass effect is performed on an isolated noise component with no contour directionality.

さらに、RGB各チャンネルに対して画像データの階調特性を所望の階調特性になるように調整し、ディスプレイの電圧−輝度特性(γ特性)に合わせるためのγ変換をテーブル参照により行う。   Further, the gradation characteristics of the image data are adjusted so as to obtain a desired gradation characteristic for each of the RGB channels, and γ conversion for matching with the voltage-luminance characteristics (γ characteristics) of the display is performed by referring to the table.

画像補正部23から出力された画像データは一旦、画像メモリ30に記憶される。画像圧縮部51は、予め設定された画質又は圧縮率の設定に応じて、この画像データに圧縮符号化処理を行い、記録再生部52に出力する。記録再生部52は、圧縮された画像データとともに撮影時の情報などを所定の記録フォーマットに従って追加し、画像データファイルとして記録媒体200に記録する(S105)。   The image data output from the image correction unit 23 is temporarily stored in the image memory 30. The image compression unit 51 performs compression encoding processing on the image data in accordance with a preset image quality or compression rate setting, and outputs the image data to the recording / playback unit 52. The recording / playback unit 52 adds information at the time of shooting together with the compressed image data in accordance with a predetermined recording format, and records the image data file on the recording medium 200 (S105).

このような通常撮影では、前述したように被写体輝度が暗い場合、露出調整部12により設定されるシャッター速度が遅くなるためブレが生じて画質が劣化する恐れがある。したがって、例えば夜景の撮影のように被写体輝度が著しく暗い場合には、以下に説明する画像合成を用いた撮影処理を行うことが好ましい。   In such normal shooting, when the subject brightness is low as described above, the shutter speed set by the exposure adjustment unit 12 becomes slow, so that there is a risk that the image quality may deteriorate due to blurring. Therefore, for example, when the subject brightness is extremely dark as in night scene shooting, it is preferable to perform shooting processing using image composition described below.

以下、本実施形態のデジタルスチルカメラにおける、画像合成を利用した撮影処理について図7のフローチャートを用いて説明する。なお、図6に基づいて説明した通常撮影と同じ動作を行う処理については簡略して説明する。また、本実施形態では簡単のため同一撮影条件で、重複部分を有する画像を2枚撮影し、これら2枚の画像を合成して1枚の画像を生成する場合について説明する。このような合成撮影は、例えば付図示の撮影モード設定ダイヤルなどにより設定することが可能であり、制御部60は合成撮影モードが設定されている場合に以下の撮影制御を行う。   Hereinafter, photographing processing using image composition in the digital still camera of the present embodiment will be described with reference to the flowchart of FIG. Note that a process for performing the same operation as the normal photographing described with reference to FIG. 6 will be briefly described. Further, in the present embodiment, for simplicity, a case will be described in which two images having overlapping portions are photographed under the same photographing condition, and one image is generated by combining these two images. Such composite shooting can be set, for example, with a shooting mode setting dial (not shown), and the control unit 60 performs the following shooting control when the composite shooting mode is set.

ユーザが被写体を撮影するために不図示のシャッターボタンを半押しすると、制御部60がそれを検出し、撮像部11の出力を用いて露出調整部12により露光時間と撮影レンズの絞り値を決定する。そして、シャッターボタンが全押しされると、決定した露出条件に基づいて2枚連続して撮影を行う。撮像部11から2枚分のデジタル画像データが出力され、画像メモリ30に記憶される(S201)。このとき、後段の処理で画像が合成されるので、露光時間は通常撮影する場合の1/2の時間が設定される。   When the user half-presses a shutter button (not shown) to photograph the subject, the control unit 60 detects this, and the exposure adjustment unit 12 determines the exposure time and the aperture value of the photographing lens using the output of the imaging unit 11. To do. When the shutter button is fully pressed, two images are taken continuously based on the determined exposure condition. Two pieces of digital image data are output from the imaging unit 11 and stored in the image memory 30 (S201). At this time, since the image is synthesized in the subsequent processing, the exposure time is set to ½ of that in normal shooting.

そして、白バランス検出部21は撮像部11から出力され、画像メモリ30に記憶された各画像データに対し、通常撮影時と同様の方法を適用し、白バランスの調整を行うための係数を求める(S202)。   Then, the white balance detection unit 21 applies a method similar to that during normal shooting to each image data output from the imaging unit 11 and stored in the image memory 30 to obtain a coefficient for adjusting the white balance. (S202).

ただし、各画像データは後段で2枚合成することを想定して通常の1/2の露光時間で撮影されているので、通常撮影時と同一の基準輝度レベルの画素値に対して統計的な解析を行って光源の色温度を推定した結果から係数を算出すると、適正な白バランス調整が出来ない。これは、通常撮影時と同一の輝度レベルの画素値は、実際には通常撮影時の2倍の輝度レベルの画素値に相当するからである。   However, each image data is taken with a normal exposure time of 1/2 assuming that two images are to be combined in the subsequent stage. If the coefficient is calculated from the result of analyzing and estimating the color temperature of the light source, the appropriate white balance cannot be adjusted. This is because a pixel value having the same luminance level as that in normal photographing actually corresponds to a pixel value having a luminance level twice that in normal photographing.

さらに、後段の画像補正処理(色補正と階調補正)では、最適に露出調整され、所定輝度レベルを基準に白バランスが補正された画像が入力されるものとして処理パラメータが最適化されている。そのため、白バランス調整用の係数を算出するための基準輝度レベルがずれた場合、結果として得られる画像の色再現が不自然になることが懸念される。   Further, in the subsequent image correction processing (color correction and gradation correction), the processing parameters are optimized on the assumption that an image whose exposure is optimally adjusted and the white balance is corrected based on a predetermined luminance level is input. . Therefore, when the reference luminance level for calculating the coefficient for white balance adjustment is shifted, there is a concern that the color reproduction of the resulting image becomes unnatural.

これが、画像データを単純に合成する従来の合成撮影処理で得られる画像の色再現性が不自然となる原因である。また、白バランスを検出する基準となる輝度レベルが通常撮影時と合成撮影時とで異なっていると、同じ被写体を撮影した場合でも、通常撮影時と合成撮影時とで色再現が異なってしまう。   This is the reason why the color reproducibility of an image obtained by a conventional composite photographing process that simply combines image data becomes unnatural. Also, if the brightness level that is the standard for detecting white balance differs between normal shooting and composite shooting, even if the same subject is shot, color reproduction differs between normal shooting and composite shooting. .

このような問題に鑑み、本実施形態では、予め後段で2枚の画像が合成されることを考慮し、2枚の画像を合成する合成撮影時には、通常撮影で白バランスを行う際の基準となる輝度レベルの1/2の輝度レベルを基準として白バランスの調整を行うための係数を求める。   In view of such a problem, in the present embodiment, considering that two images are combined in advance in the subsequent stage, at the time of composite shooting in which two images are combined, a reference for white balance in normal shooting is used. A coefficient for adjusting the white balance is obtained with reference to a luminance level ½ of the luminance level.

次に、画素補間部22は白バランス検出部21で求まった係数を用い、画像メモリ30に記憶された2枚の画像データの白バランスを調整した後、補間によりRGB3チャンネルのカラー画像データを生成する(S203)。そして、生成された2枚のカラー画像データを一旦、画像メモリ30に記憶する。   Next, the pixel interpolation unit 22 adjusts the white balance of the two pieces of image data stored in the image memory 30 using the coefficient obtained by the white balance detection unit 21, and then generates RGB 3-channel color image data by interpolation. (S203). Then, the generated two pieces of color image data are temporarily stored in the image memory 30.

動き検出部41は、まず、画像メモリ30に記憶された2枚の画像データから部分領域ごとに位置ずれ量を対応点ベクトルとして検出する。そして検出された位置ずれ量をもとにカメラの移動パラメータを推定し、出力する(S204)。動き検出部41の構成及び動作については、後で詳細に説明する。   First, the motion detection unit 41 detects a positional deviation amount as a corresponding point vector for each partial region from the two pieces of image data stored in the image memory 30. Based on the detected positional deviation amount, the camera movement parameter is estimated and output (S204). The configuration and operation of the motion detection unit 41 will be described in detail later.

次に、画像合成部42は、画像メモリ30に記憶されている2つの画像データを、動き検出部41で推定したカメラの移動パラメータを用いて合成する(S205)。   Next, the image synthesis unit 42 synthesizes the two image data stored in the image memory 30 using the camera movement parameters estimated by the motion detection unit 41 (S205).

本実施形態では、第1の画像データの各画素に対応する第2の画像データ中の画素位置を求め、対応する2つの画素を合成して合成画像の画素値とする。   In the present embodiment, the pixel position in the second image data corresponding to each pixel of the first image data is obtained, and the corresponding two pixels are synthesized to obtain the pixel value of the synthesized image.

まず、第1の画像データの各画素に対する第2の画像データ中の画素位置を動き検出部41で推定したカメラの移動パラメータを用いて算出する。すなわち、(式1)において第1の画像データの各画素の座標を(x,y)としたとき、対応する第2の画像データ中の画素位置を(x’,y’)として求める。そして、第1の画像データの画素位置(x,y)の画素値および第2の画像データの画素位置(x’,y’)の画素値を画像メモリ30から読み込み、2つの画素値を加算して合成画像における画素値とし、合成画像の画素値として画像メモリ30に記憶する。以上の処理を第1の画像データの全画素位置について繰り返し、合成画像データを得る。   First, the pixel position in the second image data for each pixel of the first image data is calculated using the camera movement parameter estimated by the motion detector 41. That is, when the coordinate of each pixel of the first image data is (x, y) in (Expression 1), the corresponding pixel position in the second image data is obtained as (x ′, y ′). Then, the pixel value at the pixel position (x, y) of the first image data and the pixel value at the pixel position (x ′, y ′) of the second image data are read from the image memory 30 and the two pixel values are added. Thus, the pixel value in the composite image is stored in the image memory 30 as the pixel value of the composite image. The above processing is repeated for all pixel positions of the first image data to obtain composite image data.

なお、以上の処理で画素値とはRGB値を表すものとする。また、(式1)で算出した画素位置(x’、y’)が画像領域範囲外である第1の画像データの画素については、画素値を2倍した値を合成画像の画素値とする。   In the above processing, the pixel value represents an RGB value. Further, for the pixel of the first image data in which the pixel position (x ′, y ′) calculated by (Expression 1) is outside the image area range, a value obtained by doubling the pixel value is used as the pixel value of the composite image. .

次に、画像補正部23では、画像合成部42で合成され、画像メモリ30に記憶された合成画像データに対して、通常撮影時と同様にして色補正、エッジ強調処理、γ変換を行う(S206)。   Next, the image correction unit 23 performs color correction, edge enhancement processing, and γ conversion on the combined image data combined by the image combining unit 42 and stored in the image memory 30 in the same manner as during normal shooting ( S206).

画像補正部23から出力された画像データは一旦、画像メモリ30に記憶される。そして、設定に基づいて画像圧縮部51により圧縮され、記録再生部52に出力される。記録再生部52は、圧縮された画像データとともに撮影時の情報等を所定の画像フォーマットに従って追加し、記録媒体200に記録する(S207)。   The image data output from the image correction unit 23 is temporarily stored in the image memory 30. Then, the image is compressed by the image compression unit 51 based on the setting and output to the recording / reproducing unit 52. The recording / playback unit 52 adds information at the time of shooting together with the compressed image data in accordance with a predetermined image format, and records it on the recording medium 200 (S207).

次に、図9及び図10に従って動き検出手段41の動作を詳細に説明する。なお、図9は動き検出手段41の構成例を示すブロック図、図10は動き検出処理を説明するフローチャートである。
まず、対応点検出部411は、画像メモリ30に記憶された2枚の画像データから部分領域ごとに位置ずれ量を対応点ベクトルとして検出する(S401)。
Next, the operation of the motion detection means 41 will be described in detail with reference to FIGS. FIG. 9 is a block diagram showing a configuration example of the motion detection means 41, and FIG. 10 is a flowchart for explaining the motion detection processing.
First, the corresponding point detection unit 411 detects a positional deviation amount as a corresponding point vector for each partial region from the two pieces of image data stored in the image memory 30 (S401).

図3の(a)、(b)に画像メモリ30に記憶された第1の画像データ、第2の画像データの例を示す。
以下、本実施形態ではテンプレートマッチングを用いて重複部分を有する2枚の画像の対応点検出を行う場合の動作について説明する。テンプレートマッチングは基本的に複数の画像において最も相関の高い部分同士を対応付ける方法である。本実施形態ではまず、第1の画像データおよび第2の画像データのRGB値を輝度値に変換する。RGB値の輝度値への変換には、例えば、各画素を構成するRGB値の平均値を擬似的な輝度値として出力する方法を用いる。
3A and 3B show examples of the first image data and the second image data stored in the image memory 30. FIG.
Hereinafter, in the present embodiment, an operation in a case where corresponding points of two images having overlapping portions are detected using template matching will be described. Template matching is basically a method of associating portions having the highest correlation among a plurality of images. In the present embodiment, first, the RGB values of the first image data and the second image data are converted into luminance values. For the conversion of RGB values into luminance values, for example, a method of outputting an average value of RGB values constituting each pixel as a pseudo luminance value is used.

次に、輝度値に変換された第1の画像から所定の領域をテンプレート切り出す。例えば、図4のように第1の画像データを分割した小領域tをテンプレートとして切り出す。次に、切り出した全テンプレートについて第2の画像中から対応点を抽出する。   Next, a predetermined region is cut out from the first image converted into the luminance value. For example, as shown in FIG. 4, a small area t obtained by dividing the first image data is cut out as a template. Next, corresponding points are extracted from the second image for all cut out templates.

まず、切り出したテンプレートに対応する点を探索するための領域を第2の画像に設定する。この探索領域は、カメラの撮影条件である焦点距離、露光時間にブレ量が依存することから、焦点距離、露光時間に応じて設定する。図5は、第1の画像の領域tをテンプレートとした場合の探索領域Sの例を示している。この探索領域S内でテンプレートを平行にずらしていき、第1の画像(テンプレート)と、対応する第2の画像の領域の各画素について、輝度値の差分が計算される。そして、差の絶対値の総和が最小となる位置を対応点位置とする。   First, an area for searching for a point corresponding to the cut out template is set in the second image. This search area is set according to the focal length and the exposure time because the blur amount depends on the focal length and the exposure time which are the photographing conditions of the camera. FIG. 5 shows an example of the search area S when the area t of the first image is used as a template. The template is shifted in parallel within the search region S, and a difference in luminance value is calculated for each pixel in the first image (template) and the corresponding second image region. The position where the sum of the absolute values of the differences is the minimum is taken as the corresponding point position.

対応点位置が求まったら、その信頼性の判定を行う。信頼性の判定は対応点における、テンプレートとテンプレートに対応する第2の画像の領域との相関を表す値に基づいて行うことができる。例えば輝度差分絶対値の総和の最小値が第1の所定の閾値以下であり、かつ輝度差分絶対値の総和の最小値と2番目に小さい値との差が第2の所定の閾値以上である場合に、対応点に信頼性があると判定する。そして、信頼性があると判定された対応点の第1および第2の画像中の座標を対応点記憶部412に格納しておく。また、同時に対応点の信頼性の指標として差の絶対値の総和の最小値を対応点記憶部412に記憶しておく。   When the corresponding point position is obtained, the reliability is determined. The determination of reliability can be performed based on a value representing a correlation between a template and a region of the second image corresponding to the template at the corresponding point. For example, the minimum value of the sum total of the luminance difference absolute values is less than or equal to the first predetermined threshold value, and the difference between the minimum value of the sum total of the brightness difference absolute values and the second smallest value is greater than or equal to the second predetermined threshold value. In this case, it is determined that the corresponding point is reliable. Then, the coordinates in the first and second images of the corresponding points determined to be reliable are stored in the corresponding point storage unit 412. At the same time, the minimum value of the sum of the absolute values of the differences is stored in the corresponding point storage unit 412 as an index of the reliability of the corresponding points.

なお、ここでは、輝度値の差の絶対値の総和が最小となる位置を対応点位置としたが、例えば相関演算を行って、相関値が最大となる位置を対応点位置としてもよい。また、輝度値に対する相関に基づいて対応点抽出を行ったが、輝度の微分値を用いてもよい。また、テンプレートマッチングを用いて対応点抽出を行ったが、それぞれの画像中から特徴点を抽出し、特徴量の相関に基づいて対応点抽出を行ってもよい。   Here, the position where the sum of the absolute values of the luminance value differences is the minimum is set as the corresponding point position. However, for example, the position where the correlation value is maximized by performing the correlation calculation may be set as the corresponding point position. Further, the corresponding points are extracted based on the correlation with the luminance value, but a luminance differential value may be used. Although the corresponding points are extracted using template matching, feature points may be extracted from each image, and the corresponding points may be extracted based on the correlation between the feature amounts.

次に、各部分領域の位置ずれ量である対応点ベクトルから、カメラの移動パラメータを推定する。カメラの移動パラメータは、合成時の座標変換に用いる。   Next, the movement parameter of the camera is estimated from the corresponding point vector that is the positional deviation amount of each partial region. The camera movement parameter is used for coordinate conversion during synthesis.

第1の画像に対して第2の画像の幾何的位置関係を以下の(式1)のように定式化する。この関係は2つの画像が平行移動、面内回転、変形の関係にあるとの想定に基づく。(式1)は、第1の画像中の点(x,y)が座標変換行列により、第2の画像中の点(x’,y’)に移動することを表している。   The geometric positional relationship of the second image with respect to the first image is formulated as (Equation 1) below. This relationship is based on the assumption that the two images are in a relationship of translation, in-plane rotation, and deformation. (Expression 1) represents that the point (x, y) in the first image moves to the point (x ′, y ′) in the second image by the coordinate transformation matrix.

Figure 2006229868
Figure 2006229868

そして、(式1)の座標変換行列要素であるカメラの移動パラメータa11,a12,...,a32を、抽出された対応点の組から求める。(式1)に基づくカメラの移動パラメータ算出には最低3組の対応点が必要である。   The camera movement parameters a11, a12,... Which are the coordinate transformation matrix elements of (Equation 1). . . , A32 are obtained from the set of extracted corresponding points. The camera movement parameter calculation based on (Equation 1) requires at least three sets of corresponding points.

そのため、まず、対応点選択部413において、対応点記憶部412に記憶された複数の対応点の組の中から、差の絶対値の総和が所定の閾値よりも小さい、すなわち信頼性の高い対応点を3組選択する(S402)。   Therefore, first, in the corresponding point selection unit 413, the sum of the absolute values of the differences is smaller than a predetermined threshold from the set of the plurality of corresponding points stored in the corresponding point storage unit 412, that is, a highly reliable response. Three sets of points are selected (S402).

次に、パラメータ算出部414において、選択された3組の対応点の座標からカメラの移動パラメータを算出する。すなわち、カメラの移動パラメータa11,a12,...,a32を、3組の第1の画像中の点(x,y)および第2の画像中の点(x’,y’)から算出する(S403)。   Next, the parameter calculation unit 414 calculates camera movement parameters from the coordinates of the three selected corresponding points. That is, the camera movement parameters a11, a12,. . . , A32 are calculated from the point (x, y) in the three sets of first images and the point (x ′, y ′) in the second image (S403).

次に、合格判定部415において、パラメータ算出部414で求めたカメラ移動パラメータを用いて推定した対応点と、対応点記憶部412に記憶された実際に検出された対応点との誤差を求め、その誤差量をもとに合格判定を行う。この処理を対応点記憶部412に記憶された全ての対応点の組について行い、合格となる対応点(合格対応点)の数をカウントする(S404)。   Next, in the pass determination unit 415, an error between the corresponding point estimated using the camera movement parameter obtained by the parameter calculation unit 414 and the actually detected corresponding point stored in the corresponding point storage unit 412 is obtained. A pass judgment is made based on the error amount. This process is performed for all pairs of corresponding points stored in the corresponding point storage unit 412, and the number of corresponding points (passing corresponding points) that pass is counted (S404).

合格判定部415における、各対応点の誤差算出処理の詳細を以下に説明する。   Details of the error calculation process for each corresponding point in the pass determination unit 415 will be described below.

まず、記憶された全ての対応点について、第1の画像中の点(x,y)とパラメータ算出部414で求めたパラメータとから、第2の画像中の点の推定値(x”,y”)を(式2)のように求める。   First, for all the corresponding points stored, the estimated value (x ″, y) of the point in the second image from the point (x, y) in the first image and the parameter obtained by the parameter calculation unit 414. ") Is obtained as shown in (Formula 2).

Figure 2006229868
Figure 2006229868

そして、求めた推定値(x”,y”)と、実際に検出されている第2の画像中の点(x’,y’)との距離の自乗を誤差量として評価する。   Then, the square of the distance between the obtained estimated value (x ″, y ″) and the actually detected point (x ′, y ′) in the second image is evaluated as an error amount.

そして、求めた誤差量が所定の閾値以下である第2の画像中の点を含む対応点を合格対応点としてカウントする。なお、このときカウントした合格対応点と、対応点記憶部412中の合格対応点を示す全ポインタを合格対応点記憶部416に記憶しておく。   Then, the corresponding points including the points in the second image in which the obtained error amount is equal to or less than the predetermined threshold value are counted as acceptable corresponding points. It should be noted that the pass corresponding points counted at this time and all pointers indicating the pass corresponding points in the corresponding point storage unit 412 are stored in the pass corresponding point storage unit 416.

以上のS402からS404の処理を信頼性の高い3つの対応点の全ての組について繰り返す。すなわち、S402において対応点記憶部412に記憶された複数の対応点の組の中から所定の閾値よりも小さい対応点の別の3組を選択し、S403においてパラメータを算出し、S404において合格対応点の数をカウントする。そして、カウントした合格対応点数が合格対応点記憶部416に既に記憶されている合格対応点数よりも多い場合には、新たにカウントした合格対応点数と対応点記憶部412中の合格対応点を示す全ポインタを合格対応点記憶部416に記憶するように更新する。   The processes from S402 to S404 are repeated for all pairs of three corresponding points with high reliability. That is, another three pairs of corresponding points that are smaller than a predetermined threshold are selected from a plurality of corresponding point groups stored in the corresponding point storage unit 412 in S402, parameters are calculated in S403, and a pass response is performed in S404. Count the number of points. When the number of accepted corresponding points is greater than the number of accepted corresponding points already stored in the accepted corresponding point storage unit 416, the newly accepted number of accepted corresponding points and the accepted corresponding points in the corresponding point storage unit 412 are indicated. All pointers are updated so as to be stored in the pass corresponding point storage unit 416.

なお、信頼性の高い3つの対応点の全組み合わせについて処理を行う場合、信頼性の高い対応点の数が多いと膨大な組み合わせ量になるので、あらかじめ望ましい組み合わせ数になるように対応点の信頼性を判定する閾値を制御することが好ましい。   When processing is performed for all combinations of three corresponding points with high reliability, a large number of corresponding points with high reliability results in a huge amount of combinations. It is preferable to control a threshold value for determining sex.

このように、信頼性の高い3つの対応点の全組み合わせについてS402からS404の処理を行うと、合格対応点記憶部416に記憶されたポインタが示す合格対応点の数は、処理終了時に最も多くなる。   As described above, when the processing from S402 to S404 is performed for all combinations of three corresponding points with high reliability, the number of acceptable points indicated by the pointer stored in the acceptable corresponding point storage unit 416 is the largest at the end of the process. Become.

そして、最も多い合格対応点の組をもとにパラメータ算出部414で最終的なカメラ移動パラメータの推定を行う(S405)。すなわち、合格対応点記憶部416に記憶された、合格対応点を示すポインタを参照して、対応点記憶部412に記憶された対応点のうち合格対応点のデータを読み込む。そして、全合格対応点の、第1の画像中の点(x,y)と対応する第2の画像中の点(x’,y’)の組について(式1)の関係が成立するよう、最小自乗法を用いてカメラの移動パラメータa11,a12,...,a32を推定する。なお、全合格対応点からのカメラ移動パラメータ推定には、最小自乗法の代わりにLMedS法を用いることもできる。   Then, the final camera movement parameter is estimated by the parameter calculation unit 414 based on the most pairs of acceptable correspondence points (S405). That is, with reference to the pointer indicating the corresponding point corresponding to the stored corresponding point storage unit 416, the data of the corresponding corresponding point among the corresponding points stored in the corresponding point storage unit 412 is read. Then, the relationship of (Equation 1) is established with respect to a set of points (x ′, y ′) in the second image corresponding to the points (x, y) in the first image of all the acceptable corresponding points. , The camera movement parameters a11, a12,. . . , A32 is estimated. Note that the LMedS method can be used in place of the least square method for camera movement parameter estimation from all acceptable points.

以上説明したように、本実施形態では画像合成を行う前の画像データに対して、予め合成による輝度レベルの変化を予測して最適な露光条件下と略同一の白バランス補正を行うようにした。これにより、合成撮影時においても、不自然な色再現の画像が生成されてしまうことなく、通常撮影時と同等の色再現性を有する画像を取得することができる。   As described above, in this embodiment, a change in luminance level due to composition is predicted in advance for image data before image composition, and white balance correction is performed in substantially the same manner as under optimal exposure conditions. . As a result, an image having color reproducibility equivalent to that during normal photographing can be acquired without generating an unnatural color reproduction image even during composite photographing.

なお、本実施形態では、白バランス検出を行うに際し、通常撮影で白バランスを行う際の基準となる輝度レベルの1/2の輝度レベルを基準としたが、白バランスを行う際の基準となる輝度レベルはそのままで、入力画像データの輝度レベルを2倍に補正して白バランス検出を行うようにしても同等の効果が得られることはいうまでもない。   In the present embodiment, when white balance detection is performed, a luminance level that is ½ of a luminance level that is a reference for white balance in normal shooting is used as a reference, but it is a reference for performing white balance. It goes without saying that the same effect can be obtained even if the white balance detection is performed by correcting the luminance level of the input image data by a factor of two while maintaining the luminance level.

また、本実施形態では2枚の画像を合成して1枚の画像を生成する場合について説明したが、より多くの画像から1枚の画像を合成してもよい。例えば、n(n≧3)枚の画像を合成する場合には、通常撮影時の1/nの露光時間で撮影し、白バランス補正用の係数を求める際に基準とする輝度レベルを通常撮影時の1/nとすればよい。   In the present embodiment, the case where one image is generated by combining two images has been described. However, one image may be combined from a larger number of images. For example, when combining n (n ≧ 3) images, shooting is performed with an exposure time of 1 / n in normal shooting, and a normal brightness level is used as a reference when obtaining a white balance correction coefficient. It may be 1 / n of the hour.

また、本実施形態では複数画像間の対応点のうち、信頼性の高い対応点の複数の組み合わせに基づいて複数のカメラ移動パラメータ候補を推定したのち、複数のカメラ移動パラメータ候補の各々について、実際に検出された対応点の最大数と対応がとれているもの(誤差の少ない)を探索する。そして、探索されたカメラ移動パラメータ候補に適合した対応点(合格対応点)から再度最適なカメラ移動パラメータを推定する。これにより、安定性が高く、かつ精度のよいカメラ移動パラメータを推定することができ、結果として複数の画像の位置合わせ精度が向上する。   Further, in the present embodiment, after estimating a plurality of camera movement parameter candidates based on a plurality of combinations of highly reliable corresponding points among the corresponding points between a plurality of images, each of the plurality of camera movement parameter candidates is actually A search is made for the one that corresponds to the maximum number of corresponding points detected in (1). Then, the optimum camera movement parameter is estimated again from the corresponding point (passed corresponding point) that matches the searched camera movement parameter candidate. Thereby, it is possible to estimate the camera movement parameter with high stability and accuracy, and as a result, the alignment accuracy of a plurality of images is improved.

従って、合成撮影により得られる画像のブレが抑制されて品質が向上するほか、パノラマ画像の生成などの画像合成処理における位置合わせや、ノイズ除去、異なる露光条件で撮影した画像の合成によるダイナミックレンジ拡大処理に対しても適用できることはいうまでもない。   Therefore, blurring of images obtained by composite shooting is suppressed and quality is improved, and dynamic range expansion is achieved by positioning in image composition processing such as panoramic image generation, noise removal, and composition of images shot under different exposure conditions Needless to say, it can also be applied to processing.

なお、本実施形態では(式1)で表現されるカメラ移動パラメータの推定を行う場合について説明したが、カメラの三次元的な移動を表すF行列(Fundamental Matrix)の推定を行う場合についても本発明は適用できる。   In this embodiment, the case of estimating the camera movement parameter expressed by (Equation 1) has been described, but the case of estimating the F matrix (Fundamental Matrix) representing the three-dimensional movement of the camera is also described. The invention is applicable.

(第2の実施形態)
以下、本発明の第2の実施形態について説明する。なお、本実施形態の構成は第1の実施形態の構成と略同等であるため、撮影した画像を合成して記録する合成撮影時の動作についてのみ説明する。
(Second Embodiment)
Hereinafter, a second embodiment of the present invention will be described. Since the configuration of the present embodiment is substantially the same as the configuration of the first embodiment, only the operation at the time of composite shooting that combines and records captured images will be described.

図8は、本実施形態のデジタルスチルカメラにおける合成撮影時の動作を説明するフローチャートである。なお、本実施形態において、各部での詳細の動作は特に説明しない限り第1の実施形態で説明した動作に準ずる。また、本実施形態でも、2枚の画像を合成する場合について説明する。   FIG. 8 is a flowchart for explaining the operation at the time of composite shooting in the digital still camera of the present embodiment. In the present embodiment, detailed operations in each unit are the same as those described in the first embodiment unless otherwise specified. Also in this embodiment, a case where two images are combined will be described.

まず、S301では、第1の実施形態のS201と同様にして、通常撮影時の1/2の露光時間で2枚の画像を撮影する。   First, in S301, two images are taken with an exposure time ½ that of normal shooting, as in S201 of the first embodiment.

次に、動き検出部41は、まず、画像メモリ30に記憶された2枚の画像データから部分領域ごとに位置ずれ量を対応点ベクトルとして検出する。そして検出された位置ずれ量をもとにカメラの移動パラメータを推定し、出力する(S302)。なお、本実施形態では画素補間処理前に動き検出を行っているため、動き検出部41が用いる画像データは各画素がRGB値を持つカラー画像データではなく、各画素が色フィルタ配列に従った1つの色チャンネルの輝度値を有する画像データである。しかし、本実施形態では、このような各画素値をそのまま利用し、第1の実施形態に示した対応点抽出の方法に準じてテンプレートマッチングにより対応点ベクトルを得る。   Next, the motion detection unit 41 first detects a positional deviation amount as a corresponding point vector for each partial region from the two pieces of image data stored in the image memory 30. Based on the detected positional deviation amount, the camera movement parameter is estimated and output (S302). In this embodiment, since motion detection is performed before pixel interpolation processing, the image data used by the motion detection unit 41 is not color image data in which each pixel has an RGB value, and each pixel follows a color filter array. This is image data having a luminance value of one color channel. However, in this embodiment, such pixel values are used as they are, and corresponding point vectors are obtained by template matching in accordance with the corresponding point extraction method shown in the first embodiment.

次に、画像合成部42は、画像メモリ30に記憶されている2つの画像データを動き検出部41で推定したカメラの移動パラメータを用いて合成する(S303)。画像合成処理についても、動き検出処理と同様、入力画像はカラー画像データではないが、第1の実施形態に示した画像合成の方法に準じて、対応する2つの画素を合成して合成画像の画素値とする。   Next, the image composition unit 42 synthesizes the two image data stored in the image memory 30 using the camera movement parameters estimated by the motion detection unit 41 (S303). Regarding the image composition processing, as in the motion detection processing, the input image is not color image data. However, in accordance with the image composition method shown in the first embodiment, two corresponding pixels are synthesized to generate a composite image. The pixel value.

そして白バランス検出部21は、画像メモリ30に記憶された合成画像データの所定の輝度レベルの画素値に対して統計的な解析を行って光源の色温度を推定する。そして、画像データから算出された所定の統計量が所定の値(グレー)になるように白バランスの調整を行うための係数を求める(S304)。このとき、合成画像データは既に画像合成部42による合成処理により、通常撮影を行った場合と同等の明るさとなっているので、通常撮影時と同一の輝度レベルの画素値を基準とした統計的な解析により、光源の色温度を推定することができる。   The white balance detection unit 21 estimates the color temperature of the light source by performing statistical analysis on the pixel value of the predetermined luminance level of the composite image data stored in the image memory 30. Then, a coefficient for adjusting the white balance is obtained so that the predetermined statistic calculated from the image data becomes a predetermined value (gray) (S304). At this time, the synthesized image data has already been brightened by the synthesizing process by the image synthesizing unit 42, so that it is the same brightness as that in the case of normal shooting. With this analysis, the color temperature of the light source can be estimated.

次に、画素補間部22は白バランス検出部21で求まった係数を用いて、画像メモリ30に記憶された合成画像データに補間処理を行い、各画素がRGB3チャンネルの値を有するカラー合成画像データを生成する(S305)。そして、生成されたカラー合成画像データは一旦、画像メモリ30に記憶される。   Next, the pixel interpolation unit 22 performs interpolation processing on the composite image data stored in the image memory 30 using the coefficient obtained by the white balance detection unit 21, and color composite image data in which each pixel has RGB 3 channel values. Is generated (S305). The generated color composite image data is temporarily stored in the image memory 30.

次に、画像補正部23では、画像メモリ30に記憶されたカラー合成画像データに対して、色補正、エッジ強調処理、γ変換を行う(S306)。   Next, the image correction unit 23 performs color correction, edge enhancement processing, and γ conversion on the color composite image data stored in the image memory 30 (S306).

画像補正部23から出力されたカラー合成画像データは一旦、画像メモリ30に記憶される。そして、設定に応じた画質又は圧縮率で画像圧縮部51により圧縮され、記録再生部52に出力される。記録再生部52は、圧縮された画像データとともに撮影時の情報等を所定の画像フォーマットに従って追加し、記録媒体200に記録する(S307)。   The color composite image data output from the image correction unit 23 is temporarily stored in the image memory 30. Then, the image is compressed by the image compression unit 51 with the image quality or the compression rate according to the setting, and is output to the recording / reproducing unit 52. The recording / playback unit 52 adds information at the time of shooting together with the compressed image data in accordance with a predetermined image format, and records it on the recording medium 200 (S307).

以上説明したように、本実施形態によれば、画像合成後の画像データから白バランス補正用の係数を算出するようにしたので、第1の実施形態の効果に加え、通常撮影時と同じ処理を適用して係数を算出することができる。   As described above, according to the present embodiment, since the white balance correction coefficient is calculated from the image data after the image synthesis, in addition to the effects of the first embodiment, the same processing as in normal shooting is performed. Can be applied to calculate the coefficient.

なお、本実施形態においても、第1の実施形態と同様、3枚以上の画像を合成するように構成することができる。   Note that in this embodiment as well, as in the first embodiment, three or more images can be combined.

(第3の実施形態)
第1及び第2の実施形態での合成撮影は、同一露光条件で撮影した複数の画像を合成するものであった。しかし、異なる露光条件で撮影した複数の画像を合成する合成撮影処理に対しても本発明は適用可能である。
(Third embodiment)
The composite shooting in the first and second embodiments is to combine a plurality of images shot under the same exposure conditions. However, the present invention can also be applied to a composite photographing process that combines a plurality of images photographed under different exposure conditions.

すなわち、CMOSセンサやCCDセンサなどの撮像素子は、銀塩フィルムと比べてダイナミックレンジが狭く、逆光時などには白とびや黒つぶれが発生する。このような問題を解決するため、異なる露光条件にて連続撮像した複数の画像を合成し、実質的にダイナミックレンジが広い画像を実現する方法が提案されている(特許第3110797号)。   That is, an imaging device such as a CMOS sensor or a CCD sensor has a narrow dynamic range as compared with a silver salt film, and overexposure and underexposure occur during backlighting. In order to solve such a problem, a method has been proposed in which a plurality of images continuously captured under different exposure conditions are combined to realize an image having a substantially wide dynamic range (Japanese Patent No. 3110797).

以下、このような合成撮影方法に対して本発明を適用した例として、最適露光条件に対して1/2および2倍の露光量の、2枚の画像を合成する場合について説明する。   Hereinafter, as an example in which the present invention is applied to such a composite photographing method, a case where two images having exposure amounts of 1/2 and 2 times the optimum exposure conditions are combined will be described.

なお、本実施形態のデジタルスチルカメラの基本的な構成と、合成撮影時の動作の流れは第1の実施形態と略同等でよいため、以下本実施形態のデジタルスチルカメラにおける合成撮影時の処理を図7のフローチャートを再度用いて説明する。   Since the basic configuration of the digital still camera of this embodiment and the flow of operations during composite shooting may be substantially the same as those in the first embodiment, the processing during composite shooting in the digital still camera of this embodiment will be described below. Will be described using the flowchart of FIG. 7 again.

まず、S201で、2枚の画像を連続撮影する。ただし、本実施形態では、夫々の画像の露光時間は通常撮影の場合に比べ、1/2(短時間露光画像)および2倍(長時間露光画像)の時間が設定される。   First, in S201, two images are continuously captured. However, in the present embodiment, the exposure time of each image is set to 1/2 (short-time exposure image) and twice (long-time exposure image) compared to the case of normal shooting.

そして白バランス検出部21は画像メモリ30に記憶された各画像データから、第1の実施形態と同様にして白バランスの調整を行うための係数を求める(S202)。ただし、本実施形態では、光源の色温度推定に用いる画素の基準輝度レベルを、短時間露光画像では通常撮影の2倍の輝度レベルに、長時間露光画像では通常撮影の1/2倍の輝度レベルとして、白バランスの調整を行うための係数を求める。   Then, the white balance detection unit 21 obtains a coefficient for adjusting the white balance from each image data stored in the image memory 30 in the same manner as in the first embodiment (S202). However, in this embodiment, the reference luminance level of the pixel used for estimating the color temperature of the light source is set to a luminance level that is twice that of normal shooting for a short-time exposure image and 1/2 times that of normal shooting for a long-time exposure image. As a level, a coefficient for adjusting the white balance is obtained.

次に、画素補間部22により、白バランス検出部21で求まった係数を用い、画像メモリ30に記憶された画像データを補間し、RGB3チャンネルのカラー画像データを生成する(S203)。そして、補間された2枚のカラー画像データは一旦、画像メモリ30に記憶される。   Next, the pixel interpolation unit 22 interpolates the image data stored in the image memory 30 using the coefficient obtained by the white balance detection unit 21, and generates RGB three-channel color image data (S203). Then, the two interpolated color image data are temporarily stored in the image memory 30.

そして、動き検出部41により、第1の実施形態と同様にしてカメラの移動パラメータを推定し、出力する(S204)。なお、本実施形態での2つの入力画像は露光量が異なるので、被写体輝度が同じであっても輝度値が異なる。そのため、差分演算を行う前に輝度値を補正する。具体的には、短時間露光の画像に対しては輝度値を2倍、長時間露光の画像に対しては輝度値を1/2倍に補正する。また、長時間露光の画像において画素値が飽和している領域については誤抽出の恐れがあるので対応点抽出は行わないようにする。   Then, the movement detection unit 41 estimates and outputs the movement parameter of the camera in the same manner as in the first embodiment (S204). Note that since the two input images in the present embodiment have different exposure amounts, the luminance values are different even if the subject luminance is the same. Therefore, the luminance value is corrected before the difference calculation is performed. Specifically, the brightness value is corrected to twice for a short exposure image, and the brightness value is corrected to ½ for a long exposure image. In addition, in a long-exposure image, a region where the pixel value is saturated is likely to be erroneously extracted, so that corresponding points are not extracted.

次に、画像合成部42は、第1の実施形態と同様にして、画像メモリ30に記憶されている2つの画像データを、動き検出部41で推定したカメラの移動パラメータを用いて合成する(S205)。   Next, as in the first embodiment, the image composition unit 42 synthesizes two pieces of image data stored in the image memory 30 using the camera movement parameters estimated by the motion detection unit 41 ( S205).

以下、第1の実施形態と同様にして、画像補正部23による色補正、エッジ強調処理、γ変換(S206)、画像圧縮部51による圧縮並びに記録再生部52による記録(S207)を行う。   Thereafter, similarly to the first embodiment, color correction by the image correction unit 23, edge enhancement processing, γ conversion (S206), compression by the image compression unit 51, and recording by the recording / reproducing unit 52 (S207) are performed.

以上説明したように、本実施形態によれば、異なる露光条件で撮影した複数の画像を用いる合成撮影処理においても、通常撮影時と同様の色再現性を実現することができる。   As described above, according to the present embodiment, the same color reproducibility as that in the normal shooting can be realized even in the composite shooting process using a plurality of images shot under different exposure conditions.

また、本実施形態においても、3枚以上の画像を合成するように構成することができる。この場合、個々の画像の露光時間と通常撮影時の露光時間との関係に応じて光源の色温度推定に用いる画素の基準輝度レベルと動き検出時の輝度補正量を設定すればよい。   Also in this embodiment, it can be configured to synthesize three or more images. In this case, the reference luminance level of the pixel used for estimating the color temperature of the light source and the luminance correction amount at the time of motion detection may be set according to the relationship between the exposure time of each image and the exposure time during normal shooting.

(他の実施形態)
上述の実施形態では、デジタルスチルカメラ内で複数の画像を合成する構成について説明したが、例えば、撮像部11で取得した画像データをそのまま記録媒体200に記録し、記録媒体200から複数の画像データを汎用のコンピュータに読み込み、前述した実施形態の機能を実現するためのコンピュータプログラムを用いて上述の動き検出及び画像合成を行っても本発明の目的が達成されることは言うまでもない。その場合、前述した実施形態の機能を実現するためのコンピュータプログラムを記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたコンピュータプログラムを読み出し実行することになる。この場合、記録媒体から読み出されたコンピュータプログラム自体が前述した実施形態の機能を実現することになり、そのコンピュータプログラムを記録した記録媒体は本発明を構成することになる。
(Other embodiments)
In the above-described embodiment, the configuration in which a plurality of images are combined in the digital still camera has been described. For example, the image data acquired by the imaging unit 11 is recorded on the recording medium 200 as it is, and the plurality of image data is recorded from the recording medium 200. Needless to say, the object of the present invention can be achieved even if the above-described motion detection and image synthesis are performed using a computer program for realizing the functions of the above-described embodiments. In that case, a recording medium (or storage medium) in which a computer program for realizing the functions of the above-described embodiments is recorded is supplied to the system or apparatus, and the computer (or CPU or MPU) of the system or apparatus records the recording medium. The computer program stored in is read and executed. In this case, the computer program itself read from the recording medium realizes the functions of the above-described embodiments, and the recording medium recording the computer program constitutes the present invention.

また、コンピュータが読み出したコンピュータプログラムを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのコンピュータプログラムの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   Further, by executing the computer program read by the computer, not only the functions of the above-described embodiments are realized, but also an operating system (OS) operating on the computer based on the instructions of the computer program. It goes without saying that a case where the function of the above-described embodiment is realized by performing part or all of the actual processing and the processing is included.

さらに、記録媒体から読み出されたコンピュータプログラムが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのコンピュータプログラムの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   Further, after the computer program read from the recording medium is written in a memory provided in a function expansion card inserted into the computer or a function expansion unit connected to the computer, the function is based on the instructions of the computer program. It goes without saying that the CPU or the like provided in the expansion card or the function expansion unit performs part or all of the actual processing and the functions of the above-described embodiments are realized by the processing.

本発明を上記記録媒体に適用する場合、その記録媒体には、先に説明したフローチャートに対応するコンピュータプログラムが格納されることになる。   When the present invention is applied to the recording medium, a computer program corresponding to the flowchart described above is stored in the recording medium.

本発明の実施形態に係るデジタルスチルカメラの構成を示すブロック図である。It is a block diagram which shows the structure of the digital still camera which concerns on embodiment of this invention. 本発明の実施形態に係るデジタルスチルカメラの撮像素子が用いる色フィルタの配列例を示す図である。It is a figure which shows the example of an arrangement | sequence of the color filter which the image pick-up element of the digital still camera concerning embodiment of this invention uses. 入力画像の一例を示す図である。It is a figure which shows an example of an input image. 対応点検出でのテンプレートの切り出し例を示す図である。It is a figure which shows the example of cutting out the template in a corresponding point detection. 対応点検出での探索領域の設定例を示す図である。It is a figure which shows the example of a setting of the search area | region in a corresponding point detection. 本発明の実施形態に係るデジタルスチルカメラにおける、通常撮影時の動作を説明するフローチャートである。6 is a flowchart illustrating an operation at the time of normal shooting in the digital still camera according to the embodiment of the present invention. 本発明の第1の実施形態に係るデジタルスチルカメラにおける合成撮影時の動作を説明するフローチャートである。6 is a flowchart illustrating an operation at the time of composite shooting in the digital still camera according to the first embodiment of the present invention. 本発明の第2の実施形態に係るデジタルスチルカメラにおける合成撮影時の動作を説明するフローチャートである。It is a flowchart explaining the operation | movement at the time of synthetic | combination imaging | photography in the digital still camera which concerns on the 2nd Embodiment of this invention. 本発明の第1の実施形態に係るデジタルスチルカメラにおける動き検出部の構成例を示す図である。It is a figure which shows the structural example of the motion detection part in the digital still camera which concerns on the 1st Embodiment of this invention. 図9の動き検出部の動作を説明するフローチャートである。It is a flowchart explaining operation | movement of the motion detection part of FIG.

Claims (11)

適正露出条件とは異なる露出条件で撮影された、重複部分を有する複数の画像間の動きを検出する動き検出手段と、前記検出した動きに基づいて、前記複数の画像を位置合わせして合成する合成手段とを有する画像処理装置であって、
前記複数の画像の各々を対象画像として、所定の輝度値を有する画素を用いて推定した光源の色温度に基づいて白バランス調整用の係数を算出し、当該係数を用いて前記対象画像の白バランスを調整する白バランス調整手段を有し、
前記白バランス調整手段が、前記所定の輝度値として、前記異なる露出条件と前記適正露出条件との関係に応じて補正した値を用いて前記光源の色温度を推定し、
前記動き検出手段及び前記合成手段が、前記白バランス調整後の画像に対して前記動きの検出及び前記合成を行うことを特徴とする画像処理装置。
Based on the detected motion, the plurality of images are aligned and synthesized based on motion detection means for detecting motion between a plurality of images having overlapping portions, which are photographed under an exposure condition different from the proper exposure condition. An image processing apparatus having a combining means,
Using each of the plurality of images as a target image, a white balance adjustment coefficient is calculated based on a color temperature of a light source estimated using a pixel having a predetermined luminance value, and the white of the target image is calculated using the coefficient. It has white balance adjustment means to adjust the balance,
The white balance adjustment unit estimates the color temperature of the light source using a value corrected according to the relationship between the different exposure condition and the appropriate exposure condition as the predetermined luminance value,
The image processing apparatus, wherein the motion detection unit and the synthesis unit perform the motion detection and the synthesis on the image after the white balance adjustment.
適正露出条件とは異なる露出条件で撮影された、重複部分を有する複数の画像間の動きを検出する動き検出手段と、前記検出した動きに基づいて、前記複数の画像を位置合わせして合成する合成手段とを有する画像処理装置であって、
前記合成手段により合成された画像を対象画像として、所定の輝度値を有する画素を用いて推定した光源の色温度に基づいて白バランス調整用の係数を算出し、当該係数を用いて前記対象画像の白バランスを調整する白バランス調整手段を有し、
前記白バランス調整手段が、前記所定の輝度値として、前記適正露出条件で撮影された画像に対して用いる輝度値を用いて前記光源の色温度を推定することを特徴とする画像処理装置。
Based on the detected motion, the plurality of images are aligned and synthesized based on motion detection means for detecting motion between a plurality of images having overlapping portions, which are photographed under an exposure condition different from the proper exposure condition. An image processing apparatus having a combining means,
Using the image synthesized by the synthesizing unit as a target image, a white balance adjustment coefficient is calculated based on the color temperature of a light source estimated using a pixel having a predetermined luminance value, and the target image is calculated using the coefficient. White balance adjusting means for adjusting the white balance of
The image processing apparatus, wherein the white balance adjustment unit estimates a color temperature of the light source using a luminance value used for an image photographed under the proper exposure condition as the predetermined luminance value.
前記複数の画像が、前記適正露出条件よりも短い露光時間で、かつ同一の露出条件で撮影された画像であることを特徴とする請求項1又は請求項2記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the plurality of images are images taken under an exposure time shorter than the appropriate exposure condition and under the same exposure condition. 前記複数の画像が、前記適正露出条件よりも短い露光時間で撮影された画像と、前記適正露出条件よりも長い露光時間で撮影された画像とからなることを特徴とする請求項1又は請求項2記載の画像処理装置。   The said several image consists of the image image | photographed with the exposure time shorter than the said appropriate exposure condition, and the image image | photographed with the exposure time longer than the said appropriate exposure condition, The Claim 1 or Claim characterized by the above-mentioned. 2. The image processing apparatus according to 2. 重複部分を有する第1及び第2の画像を位置合わせするための移動パラメータを求める動き検出装置であって、
前記第1の画像と、前記第2の画像との対応点を検出する対応点検出手段と、
前記対応点の信頼性を判定する判定手段と、
前記判定手段により信頼性が高いと判定された対応点の組み合わせに基づいて移動パラメータを推定する第1の推定手段と、
前記第1の推定手段が推定した移動パラメータの各々について、前記推定した移動パラメータを用いて推定した対応点との誤差が所定値以下である合格対応点を前記検出された対応点から検出する合格対応点検出手段と、
前記合格対応点が最大数となる場合の前記合格対応点を用いて、前記移動パラメータを推定し、推定結果を最終的な移動パラメータとする第2の推定手段とを有することを特徴とする動き検出装置。
A motion detection device for determining a movement parameter for aligning first and second images having overlapping portions,
Corresponding point detecting means for detecting corresponding points between the first image and the second image;
Determining means for determining the reliability of the corresponding points;
First estimation means for estimating a movement parameter based on a combination of corresponding points determined to be highly reliable by the determination means;
For each of the movement parameters estimated by the first estimating means, a pass corresponding point whose error from the corresponding point estimated using the estimated movement parameter is not more than a predetermined value is detected from the detected corresponding point. Corresponding point detecting means;
A second estimation unit that estimates the movement parameter using the number of the corresponding points corresponding to the maximum number of the corresponding points, and uses the estimation result as a final movement parameter. Detection device.
前記対応点検出手段が、前記第1の画像の部分画像をテンプレートとした、前記第2の画像の探索領域内におけるテンプレートマッチングにより前記第2の画像における対応点を検出し、
前記判定手段が、前記対応点における、前記部分画像と対応する前記第2の画像の部分画像との相関を表す情報に基づいて前記信頼性を判定することを特徴とする請求項5記載の動き検出装置。
The corresponding point detection means detects a corresponding point in the second image by template matching in a search area of the second image, using a partial image of the first image as a template;
The motion according to claim 5, wherein the determination unit determines the reliability based on information representing a correlation between the partial image and the partial image of the second image corresponding to the partial image at the corresponding point. Detection device.
請求項5又は請求項6に記載の動き検出装置を前記動き検出手段として有する請求項1乃至請求項4のいずれか1項に記載の画像処理装置と、
前記複数の画像を撮影する撮影手段とを有することを特徴とする撮像装置。
The image processing device according to any one of claims 1 to 4, comprising the motion detection device according to claim 5 or 6 as the motion detection means,
An imaging apparatus comprising: an imaging unit that captures the plurality of images.
適正露出条件とは異なる露出条件で撮影された、重複部分を有する複数の画像間の動きを検出する動き検出工程と、前記検出した動きに基づいて、前記複数の画像を位置合わせして合成する合成工程とを有する画像処理方法であって、
前記複数の画像の各々を対象画像として、所定の輝度値を有する画素を用いて推定した光源の色温度に基づいて白バランス調整用の係数を算出し、当該係数を用いて前記対象画像の白バランスを調整する白バランス調整工程を有し、
前記白バランス調整工程が、前記所定の輝度値として、前記異なる露出条件と前記適正露出条件との関係に応じて補正した値を用いて前記光源の色温度を推定し、
前記動き検出工程及び前記合成工程が、前記白バランス調整後の画像に対して前記動きの検出及び前記合成を行うことを特徴とする画像処理方法。
A motion detection step for detecting motion between a plurality of images having overlapping portions, which is photographed under an exposure condition different from the proper exposure condition, and aligning and combining the plurality of images based on the detected motion An image processing method including a synthesis step,
Using each of the plurality of images as a target image, a white balance adjustment coefficient is calculated based on a color temperature of a light source estimated using a pixel having a predetermined luminance value, and the white of the target image is calculated using the coefficient. Has a white balance adjustment process to adjust the balance,
The white balance adjustment step estimates the color temperature of the light source using a value corrected according to the relationship between the different exposure condition and the appropriate exposure condition as the predetermined luminance value,
The image processing method, wherein the motion detection step and the synthesis step perform the motion detection and the synthesis on the image after the white balance adjustment.
適正露出条件とは異なる露出条件で撮影された、重複部分を有する複数の画像間の動きを検出する動き検出工程と、前記検出した動きに基づいて、前記複数の画像を位置合わせして合成する合成工程とを有する画像処理方法であって、
前記合成工程により合成された画像を対象画像として、所定の輝度値を有する画素を用いて推定した光源の色温度に基づいて白バランス調整用の係数を算出し、当該係数を用いて前記対象画像の白バランスを調整する白バランス調整工程を有し、
前記白バランス調整工程が、前記所定の輝度値として、前記適正露出条件で撮影された画像に対して用いる輝度値を用いて前記光源の色温度を推定することを特徴とする画像処理方法。
A motion detection step for detecting motion between a plurality of images having overlapping portions, which is photographed under an exposure condition different from the proper exposure condition, and aligning and combining the plurality of images based on the detected motion An image processing method including a synthesis step,
A coefficient for white balance adjustment is calculated based on a color temperature of a light source estimated using a pixel having a predetermined luminance value, using the image synthesized by the synthesis step as a target image, and the target image is calculated using the coefficient. A white balance adjustment process for adjusting the white balance of
The image processing method, wherein the white balance adjustment step estimates a color temperature of the light source using a luminance value used for an image photographed under the appropriate exposure condition as the predetermined luminance value.
重複部分を有する第1及び第2の画像を位置合わせするための移動パラメータを求める動き検出方法であって、
前記第1の画像と、前記第2の画像との対応点を検出する対応点検出工程と、
前記対応点の信頼性を判定する判定工程と、
前記判定工程により信頼性が高いと判定された対応点の組み合わせに基づいて移動パラメータを推定する第1の推定工程と、
前記第1の推定工程が推定した移動パラメータの各々について、前記推定した移動パラメータを用いて推定した対応点との誤差が所定値以下である合格対応点を前記検出された対応点から検出する合格対応点検出工程と、
前記合格対応点が最大数となる場合の前記合格対応点を用いて、前記移動パラメータを推定し、推定結果を最終的な移動パラメータとする第2の推定工程とを有することを特徴とする動き検出方法。
A motion detection method for obtaining a movement parameter for aligning first and second images having overlapping portions, comprising:
A corresponding point detecting step of detecting corresponding points between the first image and the second image;
A determination step of determining the reliability of the corresponding points;
A first estimation step for estimating a movement parameter based on a combination of corresponding points determined to be highly reliable by the determination step;
For each of the movement parameters estimated by the first estimation step, a pass that detects an acceptable corresponding point whose error from a corresponding point estimated using the estimated movement parameter is equal to or less than a predetermined value is detected from the detected corresponding point. Corresponding point detection process;
A second estimation step of estimating the movement parameter using the number of acceptable corresponding points when the number of acceptable corresponding points is the maximum, and using the estimation result as a final movement parameter. Detection method.
請求項7又は請求項8に記載の画像処理方法、請求項10記載の動き検出方法の少なくとも1つに記載の各工程をコンピュータに実行させるプログラム。   The program which makes a computer perform each process of at least 1 of the image processing method of Claim 7 or Claim 8, and the motion detection method of Claim 10.
JP2005044458A 2005-02-21 2005-02-21 Image processing apparatus and method, and motion detection apparatus and method Withdrawn JP2006229868A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005044458A JP2006229868A (en) 2005-02-21 2005-02-21 Image processing apparatus and method, and motion detection apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005044458A JP2006229868A (en) 2005-02-21 2005-02-21 Image processing apparatus and method, and motion detection apparatus and method

Publications (1)

Publication Number Publication Date
JP2006229868A true JP2006229868A (en) 2006-08-31

Family

ID=36990783

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005044458A Withdrawn JP2006229868A (en) 2005-02-21 2005-02-21 Image processing apparatus and method, and motion detection apparatus and method

Country Status (1)

Country Link
JP (1) JP2006229868A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008118555A (en) * 2006-11-07 2008-05-22 Canon Inc Image processor, image pickup device, and image processing method
KR100912873B1 (en) 2007-04-26 2009-08-19 삼성전자주식회사 Method and apparatus for generating imgae
JP2009224971A (en) * 2008-03-14 2009-10-01 Omron Corp Image processing device
JP2009296434A (en) * 2008-06-06 2009-12-17 Sharp Corp Imaging device
JP2012147391A (en) * 2011-01-14 2012-08-02 Canon Inc Imaging apparatus and imaging apparatus control method
JP2014126892A (en) * 2012-12-25 2014-07-07 Fujitsu Ltd Image processing method, image processing apparatus, and image processing program
JP2015087041A (en) * 2013-10-29 2015-05-07 三菱電機株式会社 Refrigerator
US9224212B2 (en) 2012-09-12 2015-12-29 Canon Kabushiki Kaisha Image processing apparatus and image processing method
JP2016006379A (en) * 2015-10-15 2016-01-14 三菱電機株式会社 refrigerator

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008118555A (en) * 2006-11-07 2008-05-22 Canon Inc Image processor, image pickup device, and image processing method
KR100912873B1 (en) 2007-04-26 2009-08-19 삼성전자주식회사 Method and apparatus for generating imgae
JP2009224971A (en) * 2008-03-14 2009-10-01 Omron Corp Image processing device
JP2009296434A (en) * 2008-06-06 2009-12-17 Sharp Corp Imaging device
US8441539B2 (en) 2008-06-06 2013-05-14 Sharp Kabushiki Kaisha Imaging apparatus
JP2012147391A (en) * 2011-01-14 2012-08-02 Canon Inc Imaging apparatus and imaging apparatus control method
US9224212B2 (en) 2012-09-12 2015-12-29 Canon Kabushiki Kaisha Image processing apparatus and image processing method
JP2014126892A (en) * 2012-12-25 2014-07-07 Fujitsu Ltd Image processing method, image processing apparatus, and image processing program
JP2015087041A (en) * 2013-10-29 2015-05-07 三菱電機株式会社 Refrigerator
JP2016006379A (en) * 2015-10-15 2016-01-14 三菱電機株式会社 refrigerator

Similar Documents

Publication Publication Date Title
JP6157242B2 (en) Image processing apparatus and image processing method
US9456135B2 (en) Image synthesizing apparatus, image synthesizing method, and image synthesizing program
JP5179398B2 (en) Image processing apparatus, image processing method, and image processing program
JP5744614B2 (en) Image processing apparatus, image processing method, and image processing program
JP2006229868A (en) Image processing apparatus and method, and motion detection apparatus and method
JP5643563B2 (en) Image processing apparatus and control method thereof
JP4668956B2 (en) Image processing apparatus and method, and program
US20100209009A1 (en) Image capturing device, image capturing method, and storage medium having stored therein image capturing program
JP5210198B2 (en) Image processing apparatus, image processing method, and image processing program
JP2018107526A (en) Image processing device, imaging apparatus, image processing method and computer program
JP2015073185A (en) Image processing device, image processing method and program
JP6261205B2 (en) Image processing device
JP4869572B2 (en) Imaging device
JP2015012482A (en) Image processing apparatus and image processing method
JP2019101997A (en) Image processing apparatus and image processing method reducing noise by composing plural captured images
JP2019047336A (en) Image processing apparatus, imaging device, image processing method, and program
JP2019110430A (en) Control apparatus, imaging apparatus, control method, and program
JP5160655B2 (en) Image processing apparatus and method, and program
JP2009302960A (en) Video signal processing apparatus, program and method
JP2015041865A (en) Image processing apparatus and image processing method
JP2017212698A (en) Imaging apparatus, control method for imaging apparatus, and program
JP2008072428A (en) Image processor, electronic camera, and image processing program
JP7409604B2 (en) Image processing device, imaging device, image processing method, program and recording medium
JP2005347935A (en) Image processor, image processing method, and computer program
JP2019047436A (en) Image processing device, image processing method, image processing program, and imaging device

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20080513