JP2009177332A - Blurring detection apparatus, blurring correction apparatus, and imaging apparatus - Google Patents

Blurring detection apparatus, blurring correction apparatus, and imaging apparatus Download PDF

Info

Publication number
JP2009177332A
JP2009177332A JP2008011777A JP2008011777A JP2009177332A JP 2009177332 A JP2009177332 A JP 2009177332A JP 2008011777 A JP2008011777 A JP 2008011777A JP 2008011777 A JP2008011777 A JP 2008011777A JP 2009177332 A JP2009177332 A JP 2009177332A
Authority
JP
Japan
Prior art keywords
image
correction
blur
target image
correction target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008011777A
Other languages
Japanese (ja)
Other versions
JP4958806B2 (en
Inventor
Haruo Hatanaka
晴雄 畑中
Shinpei Fukumoto
晋平 福本
Yukio Mori
幸夫 森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2008011777A priority Critical patent/JP4958806B2/en
Publication of JP2009177332A publication Critical patent/JP2009177332A/en
Application granted granted Critical
Publication of JP4958806B2 publication Critical patent/JP4958806B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

<P>PROBLEM TO BE SOLVED: To reduce a data size of blurring correction information of a correction object image. <P>SOLUTION: A hand blurring amount (S<SB>L</SB>) of a normal exposure image is estimated from a focal length (f<SB>D</SB>) and an exposure time (T<SB>EP</SB>) when imaging the normal exposure image as a correction target image. When the hand blurring amount is comparatively large, the normal exposure image and a short exposure image which is photographed in a shorter exposure time than the normal exposure time, are continuously obtained, image data of a small image in the short exposure image are recorded in a recording medium together with the image data of the normal exposure image. At a time of image reproduction, a point spread function of the normal exposure image is obtained from both the image data, and blurring correction is made by image restoration processing. Meanwhile, when the presumed hand blurring amount is comparatively small, an edge emphasizing flag is recorded on the recording medium together with the image data of the normal exposure image as information for correction. In this case, the blurring correction at image reproduction is obtained by edge emphasizing processing. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、手ぶれ等に由来する静止画像のぶれを検出するぶれ検出装置、及び、そのぶれを補正するぶれ補正装置に関する。また、本発明は、ぶれ検出機能を備えた撮像装置に関する。   The present invention relates to a shake detection device that detects a shake of a still image derived from hand shake and the like, and a shake correction device that corrects the shake. The present invention also relates to an imaging apparatus having a shake detection function.

手ぶれ補正技術は、手ぶれに由来する画像のぶれを軽減する技術であり、デジタルスチルカメラ等の撮像装置における差別化技術として重要視されている。   The camera shake correction technology is a technology for reducing image blur caused by camera shake, and is regarded as important as a differentiation technology in an imaging apparatus such as a digital still camera.

手ぶれ補正の方法として、補正対象画像のぶれを画像処理によって補正するための手ぶれ情報を撮影時に記録しておき、画像再生時などに、その手ぶれ情報を読み出して補正対象画像のぶれを補正する方法が提案されている。例えば、補正対象画像の露光期間中における撮像装置の筐体の角速度を角速度センサにて計測しておき、角速度センサの出力データを補正対象画像の画像データと共に記録媒体に記録しておく。そして、画像再生時などにおいて、記録された角速度センサの出力データから、補正対象画像の点広がり関数(Point Spread Function;PSF)を求めて画像復元処理によってぶれ補正画像を生成する(下記特許文献1及び2参照)。   As a method for correcting camera shake, a method for recording camera shake information for correcting shake of a correction target image by image processing at the time of shooting and reading the camera shake information at the time of image reproduction and correcting the shake of the correction target image. Has been proposed. For example, the angular velocity of the housing of the imaging device during the exposure period of the correction target image is measured by the angular velocity sensor, and the output data of the angular velocity sensor is recorded on the recording medium together with the image data of the correction target image. Then, at the time of image reproduction or the like, a point spread function (PSF) of the correction target image is obtained from the recorded output data of the angular velocity sensor, and a blur correction image is generated by image restoration processing (Patent Document 1 below). And 2).

理想的な点像が撮像装置のぶれによって画像上で描く軌跡にあわせて重み付けがなされたオペレータ或るいは空間フィルタは、PSFと呼ばれ、手ぶれの数学モデルとして一般的に使用される。PSFは行列で表現されており、そのPSFの逆行列の各要素を各フィルタ係数として有する画像復元フィルタを用いて補正対象画像をフィルタリングすれば、ぶれのない画像が復元される。図33に、手ぶれの軌跡と行列表現されたPSFと画像復元フィルタの関係を示すと共に補正対象画像としての手ぶれ画像から復元画像が生成される様子を示す。尚、PSFの図示において、斜線が付された部分は重み付けがなされた行列要素を表している。   An operator or a spatial filter in which an ideal point image is weighted in accordance with a trajectory drawn on an image due to image blur is called a PSF and is generally used as a mathematical model for camera shake. The PSF is represented by a matrix, and if the correction target image is filtered using an image restoration filter having each element of the inverse matrix of the PSF as each filter coefficient, an image without blur is restored. FIG. 33 shows the relationship between the camera shake trajectory, the PSF expressed in a matrix and the image restoration filter, and how the restored image is generated from the camera shake image as the correction target image. In the PSF, the hatched portion represents a weighted matrix element.

また、角速度センサ等の手ぶれ検出センサを用いることなく、撮像素子の出力信号のみに基づいて補正対象画像のぶれを除去する方法も提案されている。例えば、補正対象画像としての主画像の撮影前後に主画像のぶれ補正用の副画像を撮影し、副画像の画像データを主画像の画像データと共に記録しておく。そして、画像再生時などにおいて、その副画像の画像データから主画像のぶれの状態を推定して主画像のぶれを補正する(下記特許文献3参照)。   There has also been proposed a method for removing the blur of the correction target image based only on the output signal of the image sensor without using a camera shake detection sensor such as an angular velocity sensor. For example, a sub image for blur correction of the main image is photographed before and after the main image as the correction target image is photographed, and the image data of the sub image is recorded together with the image data of the main image. Then, at the time of image reproduction or the like, the state of blurring of the main image is estimated from the image data of the sub-image to correct the blurring of the main image (see Patent Document 3 below).

上述の如く、角速度センサ等の手ぶれ検出センサを用いるか否かに関わらず、補正対象画像の撮影後に画像処理によってぶれ補正を行うためには、そのぶれを行うための補正用情報(上述の従来例においては、角速度センサの出力データ又は副画像の画像データ)を記録媒体に記録しておく必要がある。一方において、記録媒体の記録容量は有限であるため、補正用情報のデータサイズは小ければ小さいほどよいことは自明である。   As described above, regardless of whether or not a camera shake detection sensor such as an angular velocity sensor is used, in order to perform camera shake correction by image processing after shooting a correction target image, correction information for performing the camera shake (the above-described conventional technique) is used. In the example, it is necessary to record the output data of the angular velocity sensor or the image data of the sub-image on a recording medium. On the other hand, since the recording capacity of the recording medium is finite, it is obvious that the smaller the data size of the correction information is, the better.

尚、1枚の手ぶれ画像(補正対象画像)から、撮影中の手ぶれを表す手ぶれ情報(PSF)を推定し、その手ぶれ情報と手ぶれ画像からぶれのない復元画像を画像処理によって生成する方式も提案されている。この種の方式の中で、フーリエ反復法を用いた方式が下記非特許文献1に開示されている。図34にフーリエ反復法を実現する構成のブロック図を示す。フーリエ反復法では、復元画像とPSFの修正を介しつつフーリエ変換と逆フーリエ変換を反復実行することにより、劣化画像から最終的な復元画像を推定する。フーリエ反復法を実行するためには、初期の復元画像(復元画像の初期値)を与えてやる必要があり、初期の復元画像としては、ランダム画像または手ぶれ画像としての劣化画像が用いられる。   A method is also proposed in which camera shake information (PSF) representing camera shake during shooting is estimated from one camera shake image (correction target image), and a restored image free from shake is generated by image processing from the camera shake information and the camera shake image. Has been. Among these types of methods, a method using the Fourier iteration method is disclosed in Non-Patent Document 1 below. FIG. 34 shows a block diagram of a configuration for realizing the Fourier iteration method. In the Fourier iteration method, the final restored image is estimated from the degraded image by repeatedly executing Fourier transform and inverse Fourier transform while correcting the restored image and PSF. In order to execute the Fourier iteration method, it is necessary to give an initial restored image (initial value of the restored image), and a random image or a degraded image as a camera shake image is used as the initial restored image.

上述のフーリエ反復法を用いれば、補正対象画像の画像データのみから補正対象画像のぶれを除去することも可能ではある。しかし、フーリエ反復法は非線形最適化手法であり、適当な復元画像を得るためには多くの反復回数が必要となる。つまり、手ぶれ検出及び補正に必要な処理時間が非常に長くなってしまう。このため、デジタルスチルカメラ等での実用化が難しく、補正対象画像の画像データ以外の補正用情報を記録して利用することが現実的である。   If the above-mentioned Fourier iteration method is used, it is possible to remove the blur of the correction target image from only the image data of the correction target image. However, the Fourier iteration method is a nonlinear optimization method, and a large number of iterations are required to obtain an appropriate restored image. That is, the processing time required for camera shake detection and correction becomes very long. For this reason, it is difficult to put it into practical use with a digital still camera or the like, and it is realistic to record and use correction information other than the image data of the correction target image.

特開2006−129236号公報JP 2006-129236 A 特開2004−88567号公報JP 2004-88567 A 特開2001−346093号公報JP 2001-346093 A G. R. Ayers and J. C. Dainty, "Iterative blind deconvolution method and its applications", OPTICS LETTERS, 1988年,Vol.13, No.7, p.547-549G. R. Ayers and J. C. Dainty, "Iterative blind deconvolution method and its applications", OPTICS LETTERS, 1988, Vol. 13, No. 7, p.547-549

そこで本発明は、補正対象画像のぶれを補正するための補正用情報のデータサイズ低減に寄与する、ぶれ検出装置、ぶれ補正装置及び撮像装置を提供することを目的とする。   Therefore, an object of the present invention is to provide a shake detection device, a shake correction device, and an imaging device that contribute to reducing the data size of correction information for correcting shake of a correction target image.

本発明に係るぶれ検出装置は、撮影によって撮像装置にて得られた静止画像である補正対象画像のぶれを画像処理によって補正するための補正用情報を記録手段に記録する記録制御手段を備えたぶれ検出装置において、前記記録制御手段は、複数種類の補正用情報を生成可能であり、前記補正対象画像の露光期間中における前記撮像装置の動きに応じて、前記記録手段に記録する前記補正用情報の種類を選択することを特徴とする。   The blur detection device according to the present invention includes a recording control unit that records correction information for correcting blur of a correction target image, which is a still image obtained by an imaging device by photographing, by image processing. In the shake detection device, the recording control unit can generate a plurality of types of correction information, and the correction control unit records in the recording unit according to the movement of the imaging device during the exposure period of the correction target image. The type of information is selected.

例えば、補正対象画像の露光期間中における撮像装置の動きが小さい場合や該動きを単純な運動にて近似できる場合、補正用情報を簡略化しても、実用上問題ない程度のぶれ補正効果を得ることができる。これを考慮し、複数種類の補正用情報(或る種類の補正用情報のデータサイズは比較的大きく、他の種類の補正用情報のデータサイズは比較的小さい)を生成可能としておき、撮像装置の動きに応じて記録媒体に記録する補正用情報の種類を選択する。これにより、補正用情報のデータサイズを低減することが可能となる。   For example, when the movement of the imaging device during the exposure period of the correction target image is small or when the movement can be approximated by a simple motion, even if the correction information is simplified, a blur correction effect that does not cause a problem in practice is obtained. be able to. Taking this into consideration, it is possible to generate a plurality of types of correction information (the data size of certain types of correction information is relatively large and the data size of other types of correction information is relatively small), and the imaging apparatus The type of correction information to be recorded on the recording medium is selected according to the movement of the image. As a result, the data size of the correction information can be reduced.

具体的には例えば、前記ぶれ検出装置は、前記補正対象画像の露光期間中における前記撮像装置の動きの大きさを推定する装置動き推定手段を更に備え、前記記録制御手段は、推定された前記大きさに基づいて、前記記録手段に記録する前記補正用情報の種類を選択する。   Specifically, for example, the shake detection device further includes device motion estimation means for estimating the magnitude of motion of the imaging device during an exposure period of the correction target image, and the recording control means Based on the size, the type of the correction information to be recorded in the recording means is selected.

より具体的には例えば、前記記録制御手段は、推定された前記大きさが、比較的大きな大きさが属すべき第1範囲及び比較的小さな大きさが属すべき第2範囲の何れかに属するか否かを判断し、推定された前記大きさが前記第1範囲に属する場合と前記第2範囲に属する場合とで異なる種類の補正用情報を生成し、推定された前記大きさが前記第2範囲に属するとき、前記補正対象画像の補正方法を示す情報を前記補正用情報として前記記録媒体に記録する。   More specifically, for example, the recording control means determines whether the estimated size belongs to one of a first range to which a relatively large size should belong and a second range to which a relatively small size should belong. Whether or not the estimated size belongs to the first range and the second range is generated as different types of correction information, and the estimated size corresponds to the second range. When belonging to the range, information indicating a correction method of the correction target image is recorded on the recording medium as the correction information.

そして例えば、前記記録制御手段は、推定された前記大きさが前記第1範囲に属するとき、前記補正対象画像の撮影前又は撮影後に撮影される画像であって且つ前記補正対象画像の露光期間よりも長さの短い露光期間にて撮影される短露光画像の一部又は全部の画像データを、前記補正用情報として前記記録媒体に記録する。   And, for example, the recording control means, when the estimated size belongs to the first range, is an image shot before or after shooting of the correction target image, and from the exposure period of the correction target image Also, part or all of the image data of a short exposure image taken in an exposure period with a short length is recorded on the recording medium as the correction information.

また具体的には例えば、前記装置動き推定手段は、前記補正対象画像の撮影条件に基づいて前記大きさを推定する。   More specifically, for example, the apparatus motion estimation means estimates the size based on the shooting condition of the correction target image.

補正対象画像の撮影条件は補正対象画像の撮影前(又は撮影時)に定まる。このため、補正対象画像の撮影条件から補正対象画像の露光期間中における撮像装置の動きの大きさを推定するようにすれば、推定が短時間で完了する。結果、補正対象画像となるべき静止画像の連続撮影性能の低下を回避或いは抑制することができる。   The shooting condition of the correction target image is determined before (or during) the shooting of the correction target image. For this reason, if the magnitude of the movement of the imaging apparatus during the exposure period of the correction target image is estimated from the photographing conditions of the correction target image, the estimation is completed in a short time. As a result, it is possible to avoid or suppress a decrease in continuous shooting performance of a still image that should be a correction target image.

或いは具体的には例えば、前記装置動き推定手段は、前記補正対象画像の撮影前又は撮影後に撮影される画像であって且つ前記補正対象画像の露光期間よりも長さの短い露光期間にて撮影される短露光画像のエッジ強度と前記補正対象画像のエッジ強度とに基づいて、前記大きさを推定する。   Alternatively, specifically, for example, the apparatus motion estimation unit is an image that is captured before or after the correction target image is captured and is captured in an exposure period that is shorter than the exposure period of the correction target image. The size is estimated based on the edge intensity of the short-exposure image and the edge intensity of the correction target image.

これによっても、推定を比較的短時間で完了することができ、補正対象画像となるべき静止画像の連続撮影性能の低下を回避或いは抑制することができる。   Also by this, the estimation can be completed in a relatively short time, and it is possible to avoid or suppress a decrease in continuous shooting performance of a still image that should be a correction target image.

また例えば、前記装置動き推定手段は、前記撮像装置にて撮影された時系列で並ぶ複数の静止画像の夫々を補正対象画像として取り扱って各補正対象画像の露光期間中における前記撮像装置の動きの大きさを推定し、着目した補正対象画像に対して推定されるべき前記大きさを、前記着目した補正対象画像の過去の補正対象画像の画像データ、及び、前記過去の補正対象画像の撮影前又は撮影後に撮影される画像であって且つ前記過去の補正対象画像の露光期間よりも長さの短い露光期間にて撮影される短露光画像の画像データ、をも用いて推定する。   Further, for example, the apparatus motion estimation means treats each of a plurality of still images arranged in time series photographed by the imaging apparatus as a correction target image, and detects the movement of the imaging apparatus during the exposure period of each correction target image. The size to be estimated and the size to be estimated for the focused correction target image is the image data of the past correction target image of the focused correction target image, and before the past correction target image is captured. Alternatively, it is estimated using image data of a short exposure image which is an image shot after shooting and is shot in an exposure period shorter than the exposure period of the past correction target image.

また例えば、前記装置動き推定手段は、前記補正対象画像の撮影前に撮影された画像列に着目し、前記画像列を形成する時間的に隣接する画像間の動きベクトルの大きさが一定値以下となる状態が所定時間継続して観測されたとき、その動きベクトル、前記画像列の撮影時おけるフレームレート及び前記補正対象画像の露光期間の長さに基づいて、前記補正対象画像の露光期間中における前記撮像装置の動きの大きさを推定する。   Further, for example, the apparatus motion estimation means pays attention to an image sequence captured before capturing the correction target image, and the size of a motion vector between temporally adjacent images forming the image sequence is a predetermined value or less. During the exposure period of the correction target image, based on the motion vector, the frame rate at the time of shooting the image sequence, and the length of the exposure period of the correction target image. The magnitude of the movement of the imaging device is estimated.

補正対象画像の撮影前に撮影された画像列から補正対象画像の露光期間中における撮像装置の動きの大きさを推定するようにすれば、推定を補正対象画像の撮影前又はその近傍時点で完了することができる。結果、補正対象画像となるべき静止画像の連続撮影性能の低下を回避或いは抑制することができる。   If the magnitude of the movement of the imaging device during the exposure period of the correction target image is estimated from the image sequence captured before the correction target image is shot, the estimation is completed before or near the time of shooting the correction target image. can do. As a result, it is possible to avoid or suppress a decrease in continuous shooting performance of a still image that should be a correction target image.

また例えば、前記記録制御手段は、前記補正対象画像のぶれが予め規定された類型ぶれに属するか否かを前記撮像装置の動きを計測するセンサの出力信号に基づいて判断し、その判断結果に基づいて、前記記録手段に記録する前記補正用情報の種類を選択する。   Further, for example, the recording control unit determines whether or not the blur of the correction target image belongs to a predefined type of blur based on an output signal of a sensor that measures the movement of the imaging device, and the determination result Based on this, the type of the correction information to be recorded in the recording means is selected.

補正対象画像の露光期間中における撮像装置の動きが比較的単純であって、補正対象画像のぶれが予め規定された類型ぶれ(例えば、直線的且つ等速的なぶれ)にて近似できる場合、補正用情報を簡略化しても、実用上問題ない程度のぶれ補正効果を得ることができる。これを考慮し、複数種類の補正用情報(或る種類の補正用情報のデータサイズは比較的大きく、他の種類の補正用情報のデータサイズは比較的小さい)を生成可能としておき、補正対象画像のぶれが類型ぶれに属するか否かに応じて、記録媒体に記録する補正用情報の種類を選択する。これにより、補正用情報のデータサイズを低減することが可能となる。   When the movement of the imaging device during the exposure period of the correction target image is relatively simple and the blur of the correction target image can be approximated by a predefined type blur (for example, linear and constant speed blur), Even if the correction information is simplified, it is possible to obtain a shake correction effect with no practical problem. Considering this, it is possible to generate a plurality of types of correction information (the data size of one type of correction information is relatively large and the data size of other types of correction information is relatively small), and the correction target The type of correction information to be recorded on the recording medium is selected according to whether the image blur belongs to a type blur. As a result, the data size of the correction information can be reduced.

より具体的には例えば、前記記録制御手段は、前記補正対象画像のぶれが前記類型ぶれに属すると判断したとき、前記類型ぶれの軌跡形状及び該軌跡を描く速度状態を表す数式データを前記補正用情報として前記記録手段に記録する一方、前記補正対象画像のぶれが前記類型ぶれに属さないと判断したとき、前記補正対象画像の露光期間中における前記センサの出力信号を表すデータを前記補正用情報として前記記録手段に記録する。   More specifically, for example, when the recording control unit determines that the blur of the correction target image belongs to the type of blur, the correction data is converted to the formula data indicating the trajectory shape of the type of blur and the speed state of drawing the trajectory. While recording in the recording means as information for use, when it is determined that the blur of the correction target image does not belong to the type blur, data representing the output signal of the sensor during the exposure period of the correction target image is used for the correction. Information is recorded in the recording means.

本発明に係るぶれ補正装置は、前記ぶれ検出装置と、前記記録手段に記録された前記補正用情報に基づいて前記補正対象画像のぶれを補正する補正処理手段と、を備えたことを特徴とする。   The shake correction apparatus according to the present invention includes the shake detection apparatus, and a correction processing unit that corrects a shake of the correction target image based on the correction information recorded in the recording unit. To do.

本発明に係る撮像装置は、前記ぶれ検出装置を備え、撮影によって画像を取得することを特徴とする。   An image pickup apparatus according to the present invention includes the shake detection device and acquires an image by photographing.

本発明によれば、補正対象画像のぶれを補正するための補正用情報のデータサイズ低減に寄与する、ぶれ検出装置、ぶれ補正装置及び撮像装置を提供することができる。   According to the present invention, it is possible to provide a shake detection device, a shake correction device, and an imaging device that contribute to reducing the data size of correction information for correcting shake of a correction target image.

本発明の意義ないし効果は、以下に示す実施の形態の説明により更に明らかとなろう。ただし、以下の実施の形態は、あくまでも本発明の一つの実施形態であって、本発明ないし各構成要件の用語の意義は、以下の実施の形態に記載されたものに制限されるものではない。   The significance or effect of the present invention will become more apparent from the following description of embodiments. However, the following embodiment is merely one embodiment of the present invention, and the meaning of the term of the present invention or each constituent element is not limited to that described in the following embodiment. .

以下、本発明の実施の形態につき、図面を参照して具体的に説明する。参照される各図において、同一の部分には同一の符号を付し、同一の部分に関する重複する説明を原則として省略する。   Hereinafter, embodiments of the present invention will be specifically described with reference to the drawings. In each of the drawings to be referred to, the same part is denoted by the same reference numeral, and redundant description regarding the same part is omitted in principle.

<<第1実施形態>>
まず、本発明の第1実施形態について説明する。図1は、本発明の第1実施形態に係る撮像装置1の全体ブロック図である。撮像装置1は、静止画像を撮影及び記録可能なデジタルスチルカメラ、又は、静止画像及び動画像を撮影及び記録可能なデジタルビデオカメラである。
<< First Embodiment >>
First, a first embodiment of the present invention will be described. FIG. 1 is an overall block diagram of an imaging apparatus 1 according to the first embodiment of the present invention. The imaging device 1 is a digital still camera capable of capturing and recording still images, or a digital video camera capable of capturing and recording still images and moving images.

撮像装置1は、撮像部11と、AFE(Analog Front End)12と、主制御部13と、内部メモリ14と、表示部15と、記録媒体16と、操作部17と、を備えている。操作部17には、シャッタボタン17aが備えられている。   The imaging device 1 includes an imaging unit 11, an AFE (Analog Front End) 12, a main control unit 13, an internal memory 14, a display unit 15, a recording medium 16, and an operation unit 17. The operation unit 17 is provided with a shutter button 17a.

図2に、撮像部11の内部構成図を示す。撮像部11は、光学系35と、絞り32と、CCD(Charge Coupled Devices)やCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどから成る撮像素子33と、光学系35や絞り32を駆動制御するためのドライバ34と、を有している。光学系35は、ズームレンズ30及びフォーカスレンズ31を含む複数枚のレンズから形成される。ズームレンズ30及びフォーカスレンズ31は光軸方向に移動可能である。ドライバ34は、主制御部13からの駆動制御信号に基づいてズームレンズ30及びフォーカスレンズ31の各位置並びに絞り32の開度を駆動制御することにより、撮像部11の焦点距離(画角)及び焦点位置並びに撮像素子33への入射光量を制御する。   FIG. 2 shows an internal configuration diagram of the imaging unit 11. The imaging unit 11 drives and controls the optical system 35, the diaphragm 32, the imaging element 33 including a CCD (Charge Coupled Devices), a CMOS (Complementary Metal Oxide Semiconductor) image sensor, and the like, and the optical system 35 and the diaphragm 32. And a driver 34. The optical system 35 is formed from a plurality of lenses including the zoom lens 30 and the focus lens 31. The zoom lens 30 and the focus lens 31 are movable in the optical axis direction. The driver 34 drives and controls the positions of the zoom lens 30 and the focus lens 31 and the opening degree of the diaphragm 32 based on the drive control signal from the main control unit 13, so that the focal length (angle of view) and the imaging unit 11 are controlled. The focal position and the amount of light incident on the image sensor 33 are controlled.

撮像素子33は、光学系35及び絞り32を介して入射した被写体を表す光学像を光電変換し、該光電変換によって得られた電気信号をAFE12に出力する。より具体的には、撮像素子33は、マトリクス状に二次元配列された複数の受光画素を備え、各撮影において、各受光画素は露光時間に応じた電荷量の信号電荷を蓄える。蓄えた信号電荷の電荷量に比例した大きさを有する各受光画素からのアナログ信号は、撮像装置1内で生成される駆動パルスに従って順次AFE12に出力される。以下の説明における「露光」とは、撮像素子33の露光を意味するものとする。   The image sensor 33 photoelectrically converts an optical image representing a subject incident through the optical system 35 and the diaphragm 32 and outputs an electrical signal obtained by the photoelectric conversion to the AFE 12. More specifically, the image sensor 33 includes a plurality of light receiving pixels arranged two-dimensionally in a matrix, and in each photographing, each light receiving pixel stores a signal charge having a charge amount corresponding to the exposure time. An analog signal from each light receiving pixel having a magnitude proportional to the amount of stored signal charge is sequentially output to the AFE 12 in accordance with a drive pulse generated in the imaging device 1. In the following description, “exposure” means exposure of the image sensor 33.

AFE12は、撮像部11(撮像素子33)から出力されるアナログ信号を増幅し、増幅されたアナログ信号をデジタル信号に変換する。AFE12は、このデジタル信号を、順次、主制御部13に出力する。   The AFE 12 amplifies the analog signal output from the imaging unit 11 (image sensor 33), and converts the amplified analog signal into a digital signal. The AFE 12 sequentially outputs this digital signal to the main control unit 13.

主制御部13は、CPU(Central Processing Unit)、ROM(Read Only Memory)及びRAM(Random Access Memory)等を備え、映像信号処理部として機能する。主制御部13は、AFE12の出力信号に基づいて、撮像部11によって撮影された画像(以下、「撮影画像」ともいう)を表す映像信号を生成する。また、主制御部13は、表示部15の表示内容を制御する表示制御手段としての機能をも備え、表示に必要な制御を表示部15に対して行う。また、主制御部13は、撮像素子33の露光時間を制御するための露光時間制御信号を撮像部11に出力する。   The main control unit 13 includes a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and the like, and functions as a video signal processing unit. Based on the output signal of the AFE 12, the main control unit 13 generates a video signal representing an image captured by the imaging unit 11 (hereinafter also referred to as “captured image”). The main control unit 13 also has a function as display control means for controlling the display content of the display unit 15, and performs control necessary for display on the display unit 15. The main control unit 13 outputs an exposure time control signal for controlling the exposure time of the image sensor 33 to the imaging unit 11.

内部メモリ14は、SDRAM(Synchronous Dynamic Random Access Memory)等にて形成され、撮像装置1内で生成された各種データを一時的に記憶する。表示部15は、液晶ディスプレイパネル等から成る表示装置であり、主制御部13の制御の下、撮影された画像や記録媒体16に記録されている画像などを表示する。記録媒体16は、SD(Secure Digital)メモリカード等の不揮発性メモリであり、主制御部13による制御の下、撮影画像などを記憶する。   The internal memory 14 is formed by SDRAM (Synchronous Dynamic Random Access Memory) or the like, and temporarily stores various data generated in the imaging device 1. The display unit 15 is a display device including a liquid crystal display panel and the like, and displays a photographed image, an image recorded on the recording medium 16, and the like under the control of the main control unit 13. The recording medium 16 is a non-volatile memory such as an SD (Secure Digital) memory card, and stores captured images and the like under the control of the main control unit 13.

操作部17は、外部からの操作を受け付ける。操作部17に対する操作内容は、主制御部13に伝達される。シャッタボタン17aは、静止画像の撮影及び記録を指示するためのボタンである。シャッタボタン17aを押下することによって静止画像の撮影及び記録が指示される。   The operation unit 17 receives an operation from the outside. The content of the operation on the operation unit 17 is transmitted to the main control unit 13. The shutter button 17a is a button for instructing photographing and recording of a still image. By pressing the shutter button 17a, the photographing and recording of a still image is instructed.

撮像装置1の動作モードには、静止画像または動画像の撮影及び記録が可能な撮影モードと、記録媒体16に記録された静止画像または動画像を表示部15に再生表示する再生モードと、が含まれる。操作部17に対する操作に応じて、各モード間の遷移は実施される。   The operation modes of the imaging apparatus 1 include a shooting mode capable of shooting and recording still images or moving images, and a playback mode for playing back and displaying still images or moving images recorded on the recording medium 16 on the display unit 15. included. Transition between the modes is performed according to the operation on the operation unit 17.

撮影画像は、手ぶれに起因するぶれを含みうる。主制御部13にはぶれ補正処理を実行するぶれ補正部(ぶれ補正装置)が内在されており、画像処理によって静止画像のぶれを補正する機能を備える。以下、ぶれ補正部によってぶれが補正されるべき静止画像としての撮影画像を、特に「補正対象画像」と呼び、そのぶれの補正後の画像を「ぶれ補正画像」と呼ぶ。   The photographed image can include a camera shake caused by camera shake. The main control unit 13 includes a blur correction unit (blur correction device) that executes a blur correction process, and has a function of correcting blur of a still image by image processing. Hereinafter, a captured image as a still image whose blur is to be corrected by the blur correction unit is particularly referred to as a “correction target image”, and an image after the blur correction is referred to as a “blur correction image”.

撮影モードにおいてシャッタボタン17aを押下することによって、補正対象画像を撮影するための露光が行われて補正対象画像を表す信号が撮像素子33から出力される。補正対象画像を含む1枚又は複数枚の撮影画像の露光が行われる期間を実撮影期間と呼ぶ。撮影モードにおいて、撮像部11は所定のフレーム周期(例えば、1/30秒)にて順次撮影を行っており、実撮影期間以外の期間(以下、プレビュー期間という)中の撮影によって得られる各撮影画像をプレビュー画像と呼ぶ。次々と得られるプレビュー画像は、順次、表示部15上で更新表示される。   When the shutter button 17a is pressed in the shooting mode, exposure for shooting the correction target image is performed, and a signal representing the correction target image is output from the image sensor 33. A period in which one or a plurality of photographed images including the correction target image is exposed is referred to as an actual photographing period. In the shooting mode, the imaging unit 11 sequentially performs shooting at a predetermined frame period (for example, 1/30 second), and each shooting obtained by shooting during a period other than the actual shooting period (hereinafter referred to as a preview period). The image is called a preview image. The preview images obtained one after another are sequentially updated and displayed on the display unit 15.

図3に、撮影モードにおける、プレビュー期間と実撮影期間との時間的関係を示す。プレビュー期間中における周期的な撮影によってプレビュー画像列を取得している状態において、シャッタボタン17aが押下されるとプレビュー期間から実撮影期間に移行し、その期間中に補正対象画像の露光が実施される。補正対象画像の露光を含む必要な露光が完了すると、実撮影期間から再度プレビュー期間に戻る。以後、シャッタボタン17aが押下される度に、上述と同様にして、プレビュー期間から実撮影期間への遷移と実撮影期間からプレビュー期間への遷移が生じる。   FIG. 3 shows a temporal relationship between the preview period and the actual shooting period in the shooting mode. In a state where the preview image sequence is acquired by periodic shooting during the preview period, when the shutter button 17a is pressed, the preview period shifts to the actual shooting period, and the correction target image is exposed during that period. The When necessary exposure including exposure of the correction target image is completed, the preview period is resumed from the actual photographing period. Thereafter, each time the shutter button 17a is pressed, the transition from the preview period to the actual shooting period and the transition from the actual shooting period to the preview period occur in the same manner as described above.

図4に、撮像装置1の一部ブロック図を示す。主制御部13は、補正対象画像の露光期間中に撮像装置1に作用した手ぶれ量を推定するための手ぶれ量推定部51と、撮像素子33の露光時間に対する制御を含む撮影制御を行う撮影制御部52と、記録媒体16に記録されるべきデータを生成して該データを記録媒体16に記録させる記録制御部53と、記録媒体16の記録データを受け取って補正対象画像に対するぶれ補正処理を実行する補正処理部54と、を備える。   FIG. 4 shows a partial block diagram of the imaging apparatus 1. The main control unit 13 is a camera shake amount estimation unit 51 for estimating the amount of camera shake that has acted on the imaging apparatus 1 during the exposure period of the correction target image, and a shooting control that performs shooting control including control over the exposure time of the image sensor 33. Unit 52, a recording control unit 53 that generates data to be recorded on the recording medium 16 and records the data on the recording medium 16, and receives the recording data of the recording medium 16 and executes blur correction processing on the correction target image And a correction processing unit 54.

尚、本明細書では、画像を表すデータを画像データと呼び、或る画像の画像データに対して何らかの処理(記録、保存、読み出し等)を行うことを説明する文章において、記述の簡略化上、画像データの記述を省略することがある。例えば、静止画像の画像データの記録という表現と、静止画像の記録という表現は同義である。また、本明細書では、記号を記述することによって、その記号に対応する画像等の呼び名を簡略化することがある。例えば、通常露光画像GLと画像GLは同じものを指す。また、本明細書において、画像列とは、時系列で並ぶ複数の画像の集まりを指す。 In this specification, data representing an image is referred to as image data, and in a sentence explaining that some processing (recording, saving, reading, etc.) is performed on the image data of a certain image, the description is simplified. The description of the image data may be omitted. For example, the expression of recording still image data is synonymous with the expression of recording still images. In this specification, by describing a symbol, the name of an image or the like corresponding to the symbol may be simplified. For example, the normal exposure image GL and the image GL indicate the same thing. In the present specification, an image sequence refers to a collection of a plurality of images arranged in time series.

以下、撮像装置1の動作(特にぶれ補正処理の動作)を詳細に説明する実施例として、第1〜第7実施例を説明する。或る実施例に記載した事項は、矛盾なき限り、他の実施例にも適用可能である。   Hereinafter, first to seventh examples will be described as examples for explaining in detail the operation of the imaging apparatus 1 (particularly, the operation of blur correction processing). The matters described in one embodiment can be applied to other embodiments as long as no contradiction arises.

[第1実施例]
まず、第2実施例以降に示される処理の基本動作を実現する実施例として、第1実施例を説明する。第1実施例にて説明される事項は、第2実施例以降の説明において適宜参照される。図5は、第1実施例に係る、撮像装置1の撮影動作及び補正動作の流れを表すフローチャートである。尚、第1実施例において、図4の手ぶれ量推定部51は機能しない。
[First embodiment]
First, the first embodiment will be described as an embodiment for realizing the basic operation of the processing shown in the second and subsequent embodiments. Matters described in the first embodiment are appropriately referred to in the description of the second and subsequent embodiments. FIG. 5 is a flowchart illustrating the flow of the shooting operation and the correction operation of the imaging apparatus 1 according to the first embodiment. In the first embodiment, the camera shake amount estimation unit 51 of FIG. 4 does not function.

撮影モードにおいて実行されるステップS1〜S5の各処理内容を説明する。撮影モードにおいてシャッタボタン17aが押下されると、ステップS1において、主制御部13は、光学系35内のレンズの位置及び既知情報等に基づいて撮像部11の焦点距離fDを表すデータを取得すると共に、被写体の明るさを測定する測光回路(不図示)から得られた明るさ情報に基づいて撮像素子33の露光量が適正となる露光時間TEPを算出する。露光時間とは、或る静止画像を撮影するための露光期間の長さである。 Each processing content of steps S1 to S5 executed in the shooting mode will be described. Acquired when the shutter button 17a is pressed in shooting mode, in step S1, the main control unit 13, the data representing the focal length f D of the imaging unit 11 based on the position and the known information of the lens in the optical system 35 while, the exposure amount of the image sensor 33 to calculate the exposure time T EP to be appropriate based on the brightness information obtained from the photometric circuit for measuring the brightness of an object (not shown). The exposure time is the length of the exposure period for taking a certain still image.

この後、ステップS2において、撮像装置1は、通常露光撮影と短露光撮影を連続的に実行することにより通常露光画像及び短露光画像を取得する。短露光撮影は、通常露光撮影の露光時間よりも短い露光時間にて行われる撮影である。通常露光撮影の露光時間としてTEPが用いられ、短露光撮影の露光時間として例えばTEP/4が用いられる。撮影制御部52が、露光時間TEPに基づいて通常露光撮影及び短露光撮影用の露光時間制御信号を生成して撮像素子33に与えることにより通常露光撮影及び短露光撮影が実行される。また、通常露光撮影と短露光撮影の実行時における撮像部11の焦点距離はfDである。 Thereafter, in step S2, the imaging apparatus 1 acquires a normal exposure image and a short exposure image by continuously executing normal exposure shooting and short exposure shooting. Short exposure photography is photography performed with exposure time shorter than exposure time of normal exposure photography. TEP is used as the exposure time for normal exposure photography, and TEP / 4 is used as the exposure time for short exposure photography. The shooting control unit 52 generates an exposure time control signal for normal exposure shooting and short exposure shooting based on the exposure time TEP and supplies it to the image sensor 33, whereby normal exposure shooting and short exposure shooting are executed. Also, usually the focal length of the imaging unit 11 at the time of execution of exposure shooting and short-exposure shooting is f D.

通常露光画像は、通常露光撮影によって得られた静止画像としての撮影画像を意味し、短露光画像は、短露光撮影によって得られた静止画像としての撮影画像を意味する。ステップS2の通常露光撮影及び短露光撮影は実撮影期間中に行われ(図3参照)、短露光撮影は、通常露光画像の撮影直前又は直後に実行される。ここで得られた通常露光画像及び短露光画像をそれぞれ記号GL及びGSで表す。通常露光画像GL及び短露光画像GSの各画像データは図4の記録制御部53に与えられる。通常露光画像GLと短露光画像GSの画像サイズ(即ち、水平方向及び垂直方向の画素数)は等しいものとする。 The normal exposure image means a photographic image as a still image obtained by normal exposure photography, and the short exposure image means a photographic image as a still image obtained by short exposure photography. The normal exposure shooting and the short exposure shooting in step S2 are performed during the actual shooting period (see FIG. 3), and the short exposure shooting is performed immediately before or after the shooting of the normal exposure image. A normal exposure image and the short-exposure image obtained here are represented by the symbol G L and G S. Usually the image data of the exposure image G L and the short-exposure image G S is applied to the recording control unit 53 of FIG. Normal image size of the exposure image G L and the short-exposure image G S (i.e., number of pixels in the horizontal direction and the vertical direction) are equal.

ステップS2の後、ステップS3において、記録制御部53は、短露光画像GSの中から特徴的な小領域を抽出する。この抽出された小領域内の画像を小画像GSAで表す。例えば、ハリス(Harris)のコーナ検出器を用いて128×128画素の小領域を特徴的な小領域として抽出する。特徴的な小領域は、抽出元画像の中でエッジ成分が比較的多い(換言すれば、コントラストが比較的強い)領域のことを指し、例えば、特徴的な絵柄を含む領域である。特徴的な絵柄とは、例えば、物体の角部のような2方向以上に輝度変化を有し、その輝度変化に基づき画像処理によって該絵柄の位置(画像上の位置)を容易に検出できるような絵柄を意味する。 After step S2, at step S3, the recording control unit 53 extracts a characteristic small area from a short-exposure image G S. The image in the extracted small area is represented by a small image GSA . For example, a small area of 128 × 128 pixels is extracted as a characteristic small area by using a Harris corner detector. A characteristic small region refers to a region having a relatively large number of edge components (in other words, a relatively strong contrast) in the extraction source image, and is, for example, a region including a characteristic pattern. A characteristic pattern has, for example, a luminance change in two or more directions such as a corner of an object, and the position of the pattern (position on the image) can be easily detected by image processing based on the luminance change. Meaning a simple pattern.

その後、ステップS4において、記録制御部53は、通常露光画像GL及び小画像GSAの画像データをJPEG(Joint Photographic Experts Group)の圧縮方式に従って圧縮する。以下、この圧縮をJPEG圧縮という。このJPEG圧縮によって画像サイズの変化は生じないものとする。通常露光画像GL及び小画像GSAに、この圧縮を施して得た画像をそれぞれ記号JL及びJSAにて表す。画像GLとJLは圧縮の有無が異なるだけであるので、以下、画像JLも通常露光画像と呼ぶこともある。同様に、画像JSAも、小画像又は短露光画像内の小画像などと呼ぶことがある。 Thereafter, in step S4, the recording control unit 53 compresses the image data of the normal exposure image G L and the small image G SA according to the compression method of JPEG (Joint Photographic Experts Group). Hereinafter, this compression is referred to as JPEG compression. It is assumed that the image size does not change by this JPEG compression. Images obtained by applying this compression to the normal exposure image G L and the small image G SA are denoted by symbols J L and J SA, respectively. Since the image G L and J L is the presence or absence of compression only difference is, hereinafter, sometimes image J L is also referred to as a normal exposure image. Similarly, the image J SA may be called a small image or a small image in a short exposure image.

そして、ステップS5において、記録制御部53は、画像データを記録するための画像ファイルを記録媒体16内に作成し、その画像ファイルの本体領域に通常露光画像JLの画像データを記録する一方で、その画像ファイルのヘッダ領域に短露光画像内の小画像JSAの画像データを記録する。尚、この際、記録制御部53は、小画像JSAの位置を表す位置データ、焦点距離fDを表すデータ及び露光時間TEPを表すデータもヘッダ領域に記録する。位置データは、小画像GSAの中心画素の、短露光画像GS上における座標値を表す。画像JSAの画像データは、ぶれ補正処理の実行時において通常露光画像JLのぶれを補正するために用いられる補正用情報であり、この補正用情報に上記位置データも含まれる。 In step S5, the recording control unit 53 creates an image file for recording the image data in the recording medium 16, and records the image data of the normal exposure image J L in the main body area of the image file. The image data of the small image JSA in the short exposure image is recorded in the header area of the image file. At this time, the recording control unit 53, the position data representing the position of the small image J SA, also data representing the data and the exposure time T EP which represents the focal length f D is recorded in the header area. The position data represents the coordinate value of the central pixel of the small image G SA on the short exposure image G S. Image data of the image J SA is a correction information used to correct the blur of the normal exposure image J L during execution of the motion compensation process, the position data is also included in the correction information.

例えば、画像ファイルは、Exif(Exchangeable image file format)のファイルフォーマットに準拠するように作成される。図6に、1つの画像ファイルの構造を示す。画像ファイルは、本体領域とヘッダ領域から形成されている。Exifのファイルフォーマットに準拠する場合、ヘッダ領域はExifタグ又はExif領域とも呼ばれる。尚、以下の説明おいて、特に記述なき限り、画像ファイルとは、記録媒体16内に記録された画像ファイルを指す。   For example, the image file is created so as to conform to the file format of Exif (Exchangeable image file format). FIG. 6 shows the structure of one image file. The image file is formed of a main body area and a header area. When conforming to the Exif file format, the header area is also referred to as an Exif tag or an Exif area. In the following description, an image file refers to an image file recorded in the recording medium 16 unless otherwise specified.

上述の撮影動作の後において、撮像装置1に補正指示が与えられると(或いは所定条件が満たされると)補正動作が実行される。第1実施例において、補正動作はステップS6〜S9の各処理から成る。補正指示は、例えば、ユーザによる操作部17への所定操作によって撮像装置1に与えられる。但し、補正指示の有無に関係なく、補正動作を実行することも可能である。補正動作は再生モードにおいて実行される。但し、補正動作を撮影モードにて行うことも可能である。   After the above-described photographing operation, when a correction instruction is given to the imaging apparatus 1 (or when a predetermined condition is satisfied), the correction operation is executed. In the first embodiment, the correction operation includes steps S6 to S9. The correction instruction is given to the imaging device 1 by a predetermined operation on the operation unit 17 by the user, for example. However, the correction operation can be executed regardless of whether or not there is a correction instruction. The correction operation is executed in the reproduction mode. However, the correction operation can also be performed in the shooting mode.

ステップS6〜S9の各処理について説明する。撮像装置1に補正指示が与えられると、ステップS6において、補正処理部54は、記録媒体16から通常露光画像JLの画像データ及び短露光画像から抽出された小画像JSAの画像データを読み出すと共に、小画像JSAの位置データも記録媒体16から読み出す。補正処理部54は、通常露光画像JLを補正対象画像として取り扱う。 Each process of steps S6 to S9 will be described. When a correction instruction is given to the imaging apparatus 1, in step S6, the correction processing unit 54 reads out the image data of the normal exposure image JL and the image data of the small image JSA extracted from the short exposure image from the recording medium 16. At the same time, the position data of the small image J SA is also read from the recording medium 16. The correction processing unit 54 handles the normal exposure image JL as a correction target image.

続くステップS7において、補正処理部54は、通常露光画像JL及び小画像JSAの各画像データに基づき、通常露光画像JLに含まれるぶれの状態を表す手ぶれ情報を算出する。手ぶれ情報は、例えば、通常露光画像JLの劣化の状態を表す画像劣化関数であり、画像劣化関数として点広がり関数(Point Spread Function;以下、PSFと呼ぶ)が求められる。また、ここで得られる手ぶれ情報を記号PLにて表す。 In subsequent step S7, the correction processing unit 54 calculates camera shake information representing a shake state included in the normal exposure image J L based on the image data of the normal exposure image J L and the small image J SA . Shake information, for example, an image convolution function that normally represent the state of deterioration of the exposure image J L, the point spread function as an image convolution function (Point Spread Function; hereinafter referred to as PSF) is obtained. Further, denoted by where resulting camera shake information symbols P L.

そしてステップS8において、補正処理部54は、ステップS7にて求められた手ぶれ情報PLに基づいて、通常露光画像JLに含まれるぶれを除去するための画像復元処理を通常露光画像JLに対して施し、これによって補正対象画像である通常露光画像JLからぶれ補正画像を生成する。通常露光画像JL及び小画像JSAの各画像データに基づく手ぶれ情報の算出方法例、並びに、その手ぶれ情報を利用した画像復元処理の方法例については、後述する(第7実施例参照)。 In step S8, the correction processing unit 54, based on the camera shake information P L obtained in step S7, the normal image restoration process for removing blur contained in the exposure image J L normal exposure image J L As a result, a blur correction image is generated from the normal exposure image J L that is the correction target image. An example method for calculating camera shake information based on the image data of the normal exposure image J L and the small image J SA and an example method for image restoration processing using the camera shake information will be described later (see the seventh embodiment).

その後、ステップS9において、主制御部13は、ステップS8にて生成されたぶれ補正画像の画像データを記録するための画像ファイルを新たに生成して、その画像ファイルを記録媒体16に記録する。或いは、画像ファイルを新たに生成することなく、通常露光画像JLの画像データが上書きされるように、通常露光画像JLの画像データを記録していた画像ファイルの本体領域にぶれ補正画像の画像データを記録してもよい。また、ぶれ補正画像は、表示部15に表示される。 Thereafter, in step S9, the main control unit 13 newly generates an image file for recording the image data of the shake correction image generated in step S8, and records the image file on the recording medium 16. Alternatively without newly generating an image file, usually as image data of the exposure image J L is overwritten, it corrected image blur in the body region of the normal image file which has been recorded image data of the exposure image J L Image data may be recorded. The blur correction image is displayed on the display unit 15.

通常露光画像よりも短露光画像の方がぶれは通常小さく、短露光画像のエッジ状態を目標に通常露光画像を補正すれば、通常露光画像のぶれは低減される。このため、上述の如く、シャッタボタン17aの押下に応じて通常露光画像と短露光画像を撮影する。この際、ステップS5において、短露光画像GSの全体画像をJPEG圧縮して得た画像の全画像データを、補正用情報として、小画像JSAの画像データの代わりに画像ファイルのヘッダ領域に記録することも可能ではある。この場合、ぶれ補正処理時において、記録された短露光画像の全体画像から小画像JSAと同等の小画像をステップS3の処理を利用して抽出し、抽出した小画像を小画像JSAとして取り扱ってステップS7の処理を実行することで手ぶれ情報PLを作成することができる。但し、そのようにすると、補正用情報を記録することによる、画像ファイルのサイズ増大量がかなり大きくなる。そこで、上述の如く、短露光画像の一部画像に相当する小画像(即ち、JSA)の画像データを補正用情報として画像ファイルに記録する。これにより、画像ファイルのサイズの増大が抑制される。 The short exposure image is usually less blurred than the normal exposure image, and if the normal exposure image is corrected with the edge state of the short exposure image as a target, the blur of the normal exposure image is reduced. For this reason, as described above, the normal exposure image and the short exposure image are taken in response to the pressing of the shutter button 17a. In this case, in step S5, the entire image data of an image obtained by JPEG compression of the entire image of the short-exposure image G S, as correction information, the header area of an image file instead of the image data of the small image J SA It is also possible to record. In this case, at the time of blur correction processing, a small image equivalent to the small image J SA is extracted from the entire image of the recorded short exposure image using the processing in step S3, and the extracted small image is used as the small image J SA. handle can create camera shake information P L by executing the process of step S7. However, by doing so, the amount of increase in the size of the image file due to the recording of the correction information is considerably increased. Therefore, as described above, image data of a small image (that is, J SA ) corresponding to a partial image of the short exposure image is recorded in the image file as correction information. Thereby, an increase in the size of the image file is suppressed.

しかしながら、小画像(即ち、JSA)の画像データも十分に小さいとは言えない。補正用情報のサイズ増大は、所定の記録容量を有する記録媒体16の記録可能画像枚数を減少させる。故に、画像ファイルのサイズ増大を更に抑制するための機能を設けておくことが望ましい。その機能をも実現する実施例を第2実施例以降に説明する。 However, the image data of a small image (that is, J SA ) cannot be said to be sufficiently small. Increasing the size of the correction information decreases the number of recordable images on the recording medium 16 having a predetermined recording capacity. Therefore, it is desirable to provide a function for further suppressing an increase in the size of the image file. An embodiment for realizing this function will be described in the second and subsequent embodiments.

尚、通常露光画像及び短露光画像の各画像データに基づく手ぶれ情報の作成を撮影時に実行する、といったことも考えられる。この場合、小画像の画像データを含む補正用情報を記録媒体16に記録する必要はなく、例えば、作成された手ぶれ情報を画像ファイルのヘッダ領域に記録しておけばよい。手ぶれ情報のデータサイズは小画像(即ち、JSA)のデータサイズよりも小さいため、撮影時に手ぶれ情報を作成する方法は、画像ファイルのサイズ増大抑制効果が大きい。 It is also conceivable to create camera shake information based on the image data of the normal exposure image and the short exposure image at the time of shooting. In this case, it is not necessary to record the correction information including the image data of the small image on the recording medium 16, and for example, the created camera shake information may be recorded in the header area of the image file. Since the data size of camera shake information is smaller than the data size of a small image (that is, J SA ), the method of creating camera shake information at the time of shooting has a great effect of suppressing the increase in the size of the image file.

しかし、通常露光画像及び短露光画像の各画像データに基づいて手ぶれ情報を正確に算出するためには大きな処理時間が必要であり、仮に撮影時に手ぶれ情報の作成を行うようにすると、その作成処理の一部又は全部が完了するまでの比較的長い時間の間、次の静止画像撮影を実行することができなくなる。ぶれ検出及びぶれ補正のために、撮像装置の重要性能である連続撮影の性能を低下させることは望ましくない。故に、撮像装置1は、手ぶれ情報の算出を比較的長時間の処理が許されやすい期間(例えば、画像の再生時)に実行する。   However, a large amount of processing time is required to accurately calculate the camera shake information based on the image data of the normal exposure image and the short exposure image. If the camera shake information is created at the time of shooting, the creation process During the relatively long time until part or all of is completed, the next still image shooting cannot be executed. For blur detection and blur correction, it is not desirable to reduce the performance of continuous shooting, which is an important performance of the imaging apparatus. Therefore, the imaging apparatus 1 executes the camera shake information calculation in a period during which processing for a relatively long time is likely to be permitted (for example, during image reproduction).

[第2実施例]
第2実施例について説明する。図7は、第2実施例に係る、撮像装置1の撮影動作の流れを表すフローチャートである。第2実施例において実行される、図7に示すステップS1〜S5の各処理は、第1実施例で説明したそれらと同じであるため(図5参照)、第2実施例の説明ではステップS1〜S5の各処理内容の説明を簡略化する。
[Second Embodiment]
A second embodiment will be described. FIG. 7 is a flowchart illustrating the flow of the shooting operation of the imaging apparatus 1 according to the second embodiment. Since the processes in steps S1 to S5 shown in FIG. 7 executed in the second embodiment are the same as those described in the first embodiment (see FIG. 5), step S1 is described in the description of the second embodiment. Explanation of each processing content of ~ S5 is simplified.

撮影モードにおいてシャッタボタン17aが押下されると、ステップS1にて焦点距離fDを表すデータが取得されると共に露光時間TEPが算出され、その後、ステップS11に移行する。第1実施例で述べたように、焦点距離fD及び露光時間TEPは、補正対象画像となるべき通常露光画像GLの撮影時における焦点距離及び露光時間である。 When the shutter button 17a is pressed in shooting mode, exposure time T EP together with data representing the focal length f D is obtained is calculated at step S1, then the process proceeds to step S11. As described in the first embodiment, the focal length f D and the exposure period T EP is generally to be the correction target image is the focal length and the exposure time at the time of shooting the exposure image G L.

ステップS11において、図4の手ぶれ量推定部51は、通常露光画像の露光期間中における撮像装置1の動きの大きさを推定する。撮像装置1の動き(即ち、実空間上における、撮像装置1の筐体の動き)は主として手ぶれによって引き起こされるが、撮像装置1の筐体が手で把持されておらず三脚などで固定されている場合でも地面の振動などに由来して撮像装置1は動きうる。撮像装置1が三脚で固定されている場合における撮像装置1の動きは手ぶれに由来するものではないが、撮像装置1が手ぶれに由来して動くことを主として想定し、通常露光画像の露光期間中における撮像装置1の動きの大きさを手ぶれ量と呼ぶ。従って、手ぶれ量推定部51は、手ぶれ量を推定する。手ぶれ量は一次元量であり、通常露光画像の露光期間中における撮像装置1の動きの大きさ(例えば、その露光期間中における、撮像装置1のヨー方向の回転量)が大きい程、手ぶれ量は増大するものとする。ステップS11で推定された手ぶれ量をSLで表す。手ぶれ量SLは、図4の記録制御部53に与えられる。 In step S11, the camera shake amount estimation unit 51 in FIG. 4 estimates the magnitude of the movement of the imaging device 1 during the exposure period of the normal exposure image. Although the movement of the imaging device 1 (that is, the movement of the housing of the imaging device 1 in real space) is mainly caused by camera shake, the housing of the imaging device 1 is not held by a hand and is fixed by a tripod or the like. Even when the image pickup apparatus 1 is, the image pickup apparatus 1 can move due to vibration of the ground. Although the movement of the imaging device 1 when the imaging device 1 is fixed on a tripod is not derived from camera shake, it is mainly assumed that the imaging device 1 moves due to camera shake, and during the exposure period of a normal exposure image The magnitude of the movement of the image pickup apparatus 1 in FIG. Therefore, the camera shake amount estimation unit 51 estimates the camera shake amount. The amount of camera shake is a one-dimensional amount, and the amount of camera shake increases as the magnitude of movement of the imaging apparatus 1 during the exposure period of the normal exposure image (for example, the amount of rotation of the imaging apparatus 1 in the yaw direction during the exposure period) increases. Shall increase. Shake amount estimated in step S11 represented by S L. Shake amount S L is supplied to the recording control unit 53 of FIG.

手ぶれ量は、概ね、焦点距離と露光時間に比例する。そこで、手ぶれ量推定部51は、ステップS1にて取得された焦点距離fD及び露光時間TEPを用い、下記式(A−1)に従って手ぶれ量SLを推定する。ここで、kESTは変換係数である。変換係数kESTの値を可変とすることも可能であるが、第1実施例では、変換係数kESTの値は予め設定された固定値(例えば、0.7)であるとする。
L=kEST×TEP×fD ・・・(A−1)
The amount of camera shake is generally proportional to the focal length and the exposure time. Therefore, we shake amount estimation unit 51, using the acquired focal length f D and the exposure time T EP in step S1, estimates the shake amount S L according to the following formula (A-1). Here, k EST is a conversion coefficient. Although the value of the conversion coefficient k EST can be made variable, in the first embodiment, the value of the conversion coefficient k EST is assumed to be a preset fixed value (for example, 0.7).
S L = k EST × T EP × f D (A-1)

手ぶれ量SLが求められた後、ステップS12及びS13において、記録制御部53は、その手ぶれ量SLと、所定の閾値TH1〜TH3との大小関係を判断する。ここで、0<TH1<TH2<TH3である(図8参照)。まず、ステップS12において、第1不等式「SL<TH1」又は第2不等式「SL>TH3」が成立するかを判断し、前者の不等式が成立する場合は、補正対象画像となるべき通常露光画像のぶれ量が無視できる程度に小さくぶれ補正が不要であると判断してステップS17に移行し、後者の不等式が成立する場合は、そのぶれ量が大きすぎてぶれ補正が困難であると判断し、この場合もステップS17に移行する。 After the camera shake amount S L is obtained, in steps S12 and S13, the recording control unit 53 determines the magnitude relationship between the camera shake amount S L and predetermined threshold values TH 1 to TH 3 . Here, 0 <TH 1 <TH 2 <TH 3 (see FIG. 8). First, in step S12, it is determined whether the first inequality “S L <TH 1 ” or the second inequality “S L > TH 3 ” is satisfied, and if the former inequality is satisfied, the image should be a correction target image. If the blur amount of the normal exposure image is so small as to be negligible, it is determined that the blur correction is unnecessary, and the process proceeds to step S17. If the latter inequality holds, the blur amount is too large and the blur correction is difficult. In this case as well, the process proceeds to step S17.

ステップS17に移行した場合、実撮影期間において通常露光撮影のみを実行し、これによって得た通常露光画像GLをステップS18にてJPEG圧縮して画像JLを生成し、この画像JLの画像データをステップS19にて画像ファイルに記録して該画像ファイルを記録媒体16に保存する。つまり、ステップS17に移行した場合は、補正用情報は記録媒体16に記録されない。 When the process proceeds to step S17, and executes only ordinary-exposure shooting in real shooting period, thereby to JPEG compression in the normal exposure image G L a step S18 obtained to generate an image J L, the image of the image J L Data is recorded in an image file in step S19, and the image file is stored in the recording medium 16. That is, when the process proceeds to step S17, the correction information is not recorded on the recording medium 16.

ステップS12において、第1及び第2不等式の双方が不成立の場合、ステップS13に移行して、第3不等式「SL<TH2」が成立するか否かを判断する。この第3不等式が成立しない場合は、補正対象画像となるべき通常露光画像のぶれ量がある程度大きいため、通常露光画像と短露光画像に基づく画像復元処理を行うべきであると判断し、ステップS13からステップS2に移行してステップS2〜S5の各処理を実行する。つまり、通常露光撮影と短露光撮影によって通常露光画像GL及び短露光画像GSを取得し(ステップS2)、小領域抽出処理及びJPEG圧縮(ステップS3及びS4)を介して得た通常露光画像JL及び短露光画像内の小画像JSAを画像ファイルに記録し、その画像ファイルを記録媒体16に保存する(ステップS5)。 In step S12, when both the first and second inequalities are not established, the process proceeds to step S13, and it is determined whether or not the third inequality “S L <TH 2 ” is established. If this third inequality is not satisfied, it is determined that the image restoration process based on the normal exposure image and the short exposure image should be performed because the amount of blurring of the normal exposure image to be the correction target image is large to some extent. From step S2 to steps S2 to S5. In other words, the ordinary-exposure shooting and short-exposure shooting acquires a normal exposure image G L and the short-exposure image G S (step S2), the normal exposure image obtained through a small region extraction process and the JPEG compression (Step S3 and S4) J L and the small image J SA in the short exposure image are recorded in an image file, and the image file is stored in the recording medium 16 (step S5).

一方、ステップS13において、第3不等式が成立する場合は、補正対象画像となるべき通常露光画像のぶれ量は軽微である。このような場合は、正確な手ぶれ情報を用いた画像復元処理ではなく、他の画像処理によってもぶれを補正することが可能である。例えば、通常露光画像にエッジ強調処理を行うことによっても、通常露光画像と短露光画像に基づく画像復元処理を行う場合と比べて視覚的に殆ど差がないぶれ補正画像を生成することが可能である。そこで、ステップS13において第3不等式「SL<TH2」が成立する場合は、ステップS13からステップS14に移行し、ステップS14、S15及びS16の処理を実行する。 On the other hand, when the third inequality is satisfied in step S13, the amount of blurring of the normal exposure image that should be the correction target image is slight. In such a case, it is possible not to perform image restoration processing using accurate camera shake information, but also to correct camera shake by other image processing. For example, even if edge enhancement processing is performed on a normal exposure image, it is possible to generate a blur correction image that has almost no visual difference compared to the case where image restoration processing based on a normal exposure image and a short exposure image is performed. is there. Therefore, when the third inequality “S L <TH 2 ” is satisfied in step S13, the process proceeds from step S13 to step S14, and the processes of steps S14, S15, and S16 are executed.

即ち、ステップS14において、撮像装置1は実撮影期間中に通常露光撮影のみを実行する。続くステップS15において 記録制御部53は、ステップS14の通常露光撮影によって得られた通常露光画像GLの画像データをJPEG圧縮して画像JLを生成する。その後、ステップS16において、記録制御部53は、画像ファイルを記録媒体16内に作成し、その画像ファイルの本体領域に通常露光画像JLの画像データを記録する一方で、その画像ファイルのヘッダ領域にエッジ強調フラグを記録する。エッジ強調フラグは、ぶれ補正処理の実行時において参照される補正用情報であり、そのデータサイズは高々数バイトである。 That is, in step S14, the imaging apparatus 1 executes only normal exposure shooting during the actual shooting period. Recording control unit 53 in step S15 to continue, the normal image data of the exposure image G L obtained by ordinary-exposure shooting in step S14 and JPEG compression to generate an image J L. Thereafter, in step S16, the recording control unit 53 creates an image file in the recording medium 16, and records the image data of the normal exposure image J L in the main body area of the image file, while at the same time, the header area of the image file. The edge emphasis flag is recorded in The edge emphasis flag is correction information that is referred to when the blur correction process is executed, and its data size is several bytes at most.

ステップS13にて成される分岐判断から理解されるように、エッジ強調処理を行って得られるべきぶれ補正画像と、通常露光画像と短露光画像に基づく画像復元処理を行って得られるべきぶれ補正画像とを対比した場合において、両画像間に視覚的な差がある程度生じるような場合にステップS13からステップS2に移行するように且つ視覚的な差が殆ど生じないような場合にステップS13からステップS14に移行するように、閾値TH2を実験を介して設定しておくとよい。 As can be understood from the branch determination made in step S13, the blur correction image to be obtained by performing the edge enhancement process and the image restoration process based on the normal exposure image and the short exposure image. When contrasting with an image, if there is a certain visual difference between the two images, the process proceeds from step S13 to step S2, and if there is almost no visual difference, the process proceeds from step S13 to step S13. The threshold value TH 2 may be set through experiments so that the process proceeds to S14.

ステップS5、S16又はS19の記録処理を終えると、1枚の通常露光画像を得るための動作を終了する。再度、シャッタボタン17aが押下されると、上述したステップS1以降の動作が実行される。尚、ステップS5、S16及びS19において、画像JLの画像データが記録されるべき画像ファイルのヘッダ領域には、焦点距離fD及び露光時間TEPを表すデータも記録される。 When the recording process in step S5, S16, or S19 is completed, the operation for obtaining one normal exposure image is terminated. When the shutter button 17a is pressed again, the operations after step S1 described above are executed. In step S5, S16 and S19, the header area of the image file to the image data of the image J L is recorded, the data representing the focal length f D and the exposure time T EP also recorded.

次に、補正動作について説明する。図9は、第2実施例に係る、撮像装置1の補正動作の流れを表すフローチャートである。第2実施例において実行される、図9に示すステップS7〜S9の各処理は、第1実施例で説明したそれらと同じであるため(図5参照)、第2実施例の説明ではステップS7〜S9の各処理内容の説明を簡略化する。   Next, the correction operation will be described. FIG. 9 is a flowchart illustrating the flow of the correction operation of the imaging apparatus 1 according to the second embodiment. Since the processes of steps S7 to S9 shown in FIG. 9 executed in the second embodiment are the same as those described in the first embodiment (see FIG. 5), step S7 is described in the description of the second embodiment. The description of each processing content of S9 is simplified.

図7に示す撮影動作の後、撮像装置1に補正指示が与えられると(或いは所定条件が満たされると)、ステップS21以降の補正動作が実行される。ステップS21において、補正処理部54は、記録媒体16から通常露光画像JLの画像データを読み出す。補正処理部54は、通常露光画像JLを補正対象画像として取り扱う。 After the shooting operation shown in FIG. 7, when a correction instruction is given to the imaging apparatus 1 (or when a predetermined condition is satisfied), the correction operation after step S21 is executed. In step S21, the correction processing unit 54 reads the image data of the normal exposure image J L from the recording medium 16. The correction processing unit 54 handles the normal exposure image JL as a correction target image.

次に、ステップS22において、補正処理部54は、通常露光画像JLが記録されている画像ファイルのヘッダ領域に短露光画像に基づく画像データ、即ち小画像JSAの画像データが存在しているか否かを確認する。そして、小画像JSAの画像データが存在している場合は、ステップS22からステップS23に移行し、該小画像JSAの画像データを記録媒体16内の画像ファイルから読み出して、その後ステップS7〜S9の処理を実行する。即ち、ステップS21及びS23にて読み出した画像JL及びJSAの画像データに基づいて画像JLの手ぶれ情報PLを算出し(ステップS7)、手ぶれ情報PLに基づく画像復元処理を補正対象画像である画像JLに施すことによってぶれ補正画像を生成して(ステップS8)、それを画像ファイルに記録する(ステップS9)。 In step S22, the correction processing unit 54 determines whether image data based on the short exposure image, that is, image data of the small image JSA exists in the header area of the image file in which the normal exposure image J L is recorded. Confirm whether or not. If the image data of the small image J SA exists, the process proceeds from step S22 to step S23, and the image data of the small image J SA is read from the image file in the recording medium 16, and then the steps S7 to S7 are performed. The process of S9 is executed. That is, based on the image data of the image J L and J SA read in step S21 and S23 calculates the hand shake information P L of the image J L (step S7), and corrects the image restoration process based on the camera shake information P L target to generate a corrected image blur by subjecting the image J L is an image (step S8), and records it in the image file (step S9).

一方、通常露光画像JLが記録されている画像ファイルのヘッダ領域に小画像JSAの画像データが存在していない場合は、ステップS22からステップS24に移行し、補正処理部54は、そのヘッダ領域内にエッジ強調フラグが存在しているか否かを確認する。エッジ強調フラグが存在していない場合は、通常露光画像JLに対するぶれ補正処理を実行することなく図9に示す補正動作を終了する一方、エッジ強調フラグが存在している場合はステップS24からステップS25に移行して、ステップS25及びS26の各処理を実行する。 On the other hand, when the image data of the small image JSA does not exist in the header area of the image file in which the normal exposure image J L is recorded, the process proceeds from step S22 to step S24, and the correction processing unit 54 It is confirmed whether or not an edge emphasis flag exists in the region. If the edge enhancement flag does not exist, the correction operation shown in FIG. 9 is terminated without executing the blur correction process for the normal exposure image J L. On the other hand, if the edge enhancement flag exists, steps S24 to S24 are performed. The process proceeds to S25, and each process of steps S25 and S26 is executed.

ステップS25において、補正処理部54は、補正対象画像である通常露光画像JLに、通常露光画像JL内のエッジを強調するためのエッジ強調処理を施し、エッジ強調処理後の通常露光画像JLをぶれ補正画像として生成する。 In step S25, correction processor 54 is normally exposed image J L is a correction target image, usually performing the edge enhancement processing for enhancing edges in the exposure image J L, ordinary-exposure image J after the edge emphasis processing L is generated as a blur correction image.

例えば、所定のフィルタサイズを有する予め設定された鮮鋭化フィルタを用いて通常露光画像JLの全体を空間フィルタリングすることにより、エッジ強調処理後の通常露光画像JLを生成する。或いは、アンシャープマスクフィルタを用いたフィルタリングによってステップS25のエッジ強調処理を実現しても良い。アンシャープマスクフィルタを用いたフィルタリングは、アンシャープマスキングとも呼ばれる。アンシャープマスキングでは、入力画像(今の例おいて、通常露光画像JL)を平滑化して平滑化画像を生成した後、その平滑化画像と入力画像との差分画像を生成する。そして、その差分画像の各画素値と入力画像の各画素値を足し合わせるように差分画像と入力画像を合成することで出力画像(今の例において、ぶれ補正画像)を生成する。 For example, usually by spatial filtering the entire exposure image J L, generates a normal exposure image J L after the edge emphasis process using a sharpening filter that is set in advance with a predetermined filter size. Alternatively, the edge enhancement processing in step S25 may be realized by filtering using an unsharp mask filter. Filtering using an unsharp mask filter is also called unsharp masking. In unsharp masking, an input image (normal exposure image J L in this example) is smoothed to generate a smoothed image, and then a difference image between the smoothed image and the input image is generated. Then, the difference image and the input image are synthesized so that the pixel values of the difference image and the pixel values of the input image are added together, thereby generating an output image (in this example, a shake correction image).

ステップS25に続くステップS26における処理はステップS9のそれと同じである。但し、ステップS26において記録されるべきぶれ補正画像は、ステップS25にて生成されたぶれ補正画像である。   The processing in step S26 following step S25 is the same as that in step S9. However, the shake correction image to be recorded in step S26 is the shake correction image generated in step S25.

上述の如く、通常露光画像にエッジ強調処理を行うことによっても、通常露光画像と短露光画像に基づく画像復元処理を行う場合と比べて視覚的に殆ど差がないぶれ補正画像を生成することができると判断される場合には、補正用情報を簡略化して、通常露光画像(補正対象画像)のぶれを補正する方法を示す情報(本実施例において、エッジ強調フラグ)を補正用情報として記録媒体16に記録しておく。これにより、ぶれ補正処理の視覚的な効果を殆ど減少させることなく、第1実施例と比べて補正用情報のデータサイズを大幅に低減することができる。   As described above, even if the edge enhancement processing is performed on the normal exposure image, it is possible to generate a blur-corrected image that is almost visually different from the case of performing the image restoration processing based on the normal exposure image and the short exposure image. If it is determined that the correction can be made, the correction information is simplified and information indicating a method of correcting the blur of the normal exposure image (correction target image) (in this embodiment, the edge enhancement flag) is recorded as the correction information. It is recorded on the medium 16. As a result, the data size of the correction information can be significantly reduced as compared with the first embodiment, without substantially reducing the visual effect of the blur correction process.

また、手ぶれ量を、通常露光画像の撮影前に得られる撮影条件(具体的にはfD及びTEP)を用いた極めて簡素な演算によって推定しているため、撮像装置の重要性能である連続撮影の性能を低下させることもない。 In addition, since the amount of camera shake is estimated by an extremely simple calculation using shooting conditions (specifically, f D and T EP ) obtained before shooting of a normal exposure image, it is a continuous performance that is an important performance of the imaging apparatus. It does not degrade the shooting performance.

尚、上述の例におけるステップS25では、固定的に設定された鮮鋭化フィルタを用いることなどによって一定のエッジ強調処理を通常露光画像JLに施すようにしているが、このエッジ強調処理におけるエッジ強調度合いを手ぶれ量SLに応じて変更するようにしてもよい。この場合は、例えば、図7のステップS16において、通常露光画像JLが記録されるべき画像ファイルのヘッダ領域にエッジ強調フラグと共に手ぶれ量SLを表すデータを記録しておくようにする。そして、図9のステップS25におけるエッジ強調処理のエッジ強調度合いを、その記録された手ぶれ量SLを表すデータに応じて変更するとよい。 In step S25 in the above-described example, a fixed edge enhancement process is performed on the normal exposure image J L by using a fixedly set sharpening filter. However, the edge enhancement process in this edge enhancement process is performed. The degree may be changed according to the amount of camera shake S L. In this case, for example, in step S16 of FIG. 7, data representing the camera shake amount S L is recorded together with the edge enhancement flag in the header area of the image file in which the normal exposure image J L is to be recorded. Then, the edge enhancement degree of the edge enhancement processing in step S25 in FIG. 9, may be changed in accordance with data representing the recorded image blur amount S L.

また、通常露光画像と短露光画像に基づく画像復元処理を行うことを想定した場合において、手ぶれ量が比較的小さいときは、その小さな手ぶれを良好に検出するべく、手ぶれ情報としてのPSFを精度良く求める必要がある。一方において、手ぶれ量が比較的大きいときは、通常露光画像にかなりのぼけが含まれることとなるため、PSFの算出精度はそれ程高くなくても実用上問題は少ない。これを考慮し、図7のステップS4の、小画像GSAに対するJPEG圧縮の圧縮率を、手ぶれ量SLが増加するに従って増加させるようにしてもよい。これにより、補正用情報のデータサイズを更に低減することができる。 In addition, assuming that image restoration processing based on a normal exposure image and a short exposure image is performed, if the amount of camera shake is relatively small, the PSF as camera shake information is accurately detected in order to detect the small camera shake well. Need to ask. On the other hand, when the amount of camera shake is relatively large, the normal exposure image includes a considerable amount of blur. Therefore, there is little practical problem even if the PSF calculation accuracy is not so high. Considering this, in step S4 in FIG. 7, the compression ratio of JPEG compression for the small image G SA, may be increased in accordance with the camera shake amount S L increases. As a result, the data size of the correction information can be further reduced.

具体的には例えば、ステップS4において不等式「TH1≦SL<TH4」が満たされるか否かを判断し、それが満たされる場合は、画像GSAから画像JSAを生成する際におけるJPEG圧縮の圧縮率を第1圧縮率とする一方、それが満たされない場合は、その圧縮率を、第1圧縮率よりも大きな第2圧縮率とする。ここで、TH4は「TH1<TH4<TH2」を満たす所定の閾値である(図8参照)。この例では、圧縮率を2段階に可変設定しているが、圧縮率を3段階以上に可変設定してもよい。 Specifically, for example, in step S4, it is determined whether or not the inequality “TH 1 ≦ S L <TH 4 ” is satisfied, and if it is satisfied, the JPEG when generating the image J SA from the image G SA is determined. While the compression rate of compression is the first compression rate, if it is not satisfied, the compression rate is set to a second compression rate that is greater than the first compression rate. Here, TH 4 is a predetermined threshold value that satisfies “TH 1 <TH 4 <TH 2 ” (see FIG. 8). In this example, the compression rate is variably set in two steps, but the compression rate may be variably set in three or more steps.

[第3実施例]
第3実施例について説明する。手ぶれ量が小さいとき、PSFの形状は点に近づくため、PSFは方向性のないガウスぼけ(即ち、ガウシアンフィルタを用いた平滑化によるぼけ)を表す画像劣化関数に近似できる。実際、手ぶれ量が小さいときには、ガウスぼけによる近似PSFを用いた画像復元処理によっても、通常露光画像と短露光画像に基づく画像復元処理を行う場合と比べて視覚的に殆ど差がないぶれ補正画像を生成することができる。そこで、第3実施例では、推定された手ぶれ量SLが閾値TH1以上であって且つ閾値TH2未満である時、エッジ強調処理の代わりに、ガウスぼけによる近似PSFを用いた画像復元処理をぶれ補正処理として用いる。
[Third embodiment]
A third embodiment will be described. Since the shape of the PSF approaches a point when the amount of camera shake is small, the PSF can be approximated to an image deterioration function that represents non-directional Gaussian blur (that is, blur due to smoothing using a Gaussian filter). In fact, when the amount of camera shake is small, even with the image restoration process using the approximate PSF due to Gaussian blur, the blur-corrected image that has almost no visual difference compared to the case of performing the image restoration process based on the normal exposure image and the short exposure image Can be generated. Therefore, in the third embodiment, when the estimated camera shake amount S L is greater than or equal to the threshold value TH 1 and less than the threshold value TH 2 , an image restoration process using an approximate PSF due to Gaussian blur instead of the edge enhancement process. Is used as blur correction processing.

第3実施例は、第2実施例に示した動作の一部を変形した実施例に相当し、第3実施例の説明文において特に記述しない内容は第2実施例にて示したものと同じである。以下、第2実施例との相違点を説明する。図7及び図9を参照する。   The third embodiment corresponds to an embodiment obtained by modifying a part of the operation shown in the second embodiment, and the contents not particularly described in the description of the third embodiment are the same as those shown in the second embodiment. It is. Hereinafter, differences from the second embodiment will be described. Please refer to FIG. 7 and FIG.

図7に示す撮影動作時において、不等式「TH1≦SL<TH2」が成立することによってステップS13からステップS14に移行し、ステップS15を介してステップS16に至った場合、ステップS16において、記録制御部53は、画像ファイルを記録媒体16内に作成し、その画像ファイルの本体領域に通常露光画像JLの画像データを記録する一方で、その画像ファイルのヘッダ領域にガウス近似フラグとステップS11で推定された手ぶれ量SLを記録する。ガウス近似フラグ及び手ぶれ量SLは、ぶれ補正処理の実行時において参照される補正用情報であり、そのデータサイズは高々数バイトである。 When the inequality “TH 1 ≦ S L <TH 2 ” is satisfied during the shooting operation shown in FIG. 7, the process proceeds from step S13 to step S14, and when step S16 is reached via step S15, in step S16, The recording control unit 53 creates an image file in the recording medium 16 and records the image data of the normal exposure image J L in the main body area of the image file, while the Gaussian approximation flag and the step are recorded in the header area of the image file. recording the estimated shake amount S L in S11. The Gaussian approximation flag and the camera shake amount S L are correction information that is referred to when the camera shake correction process is executed, and the data size is at most several bytes.

その後、図9に示す補正動作時において、ステップS22からステップS24に至った場合、補正処理部54は、通常露光画像JLが記録されている画像ファイルのヘッダ領域にガウス近似フラグが存在しているか否かを確認する。ガウス近似フラグが存在していない場合は、通常露光画像JLに対するぶれ補正処理を実行することなく図9に示す補正動作を終了する一方、ガウス近似フラグが存在している場合はステップS24からステップS25に移行して、ガウスぼけによる近似PSFを用いた画像復元処理を通常露光画像JLに対して行ってぶれ補正画像を生成し、生成したぶれ補正画像を記録媒体16に記録する。 Thereafter, in the correction operation shown in FIG. 9, when the process proceeds from step S22 to step S24, the correction processing unit 54 has a Gaussian approximation flag in the header area of the image file in which the normal exposure image JL is recorded. Check if it exists. If the Gaussian approximation flag does not exist, the correction operation shown in FIG. 9 is terminated without executing the blur correction processing for the normal exposure image J L. On the other hand, if the Gaussian approximation flag exists, Steps S24 to S24 are performed. The process proceeds to S <b> 25, and an image restoration process using an approximate PSF due to Gaussian blur is performed on the normal exposure image J L to generate a shake correction image, and the generated shake correction image is recorded on the recording medium 16.

実空間上で静止している点を「実静止点」と呼ぶ。手ぶれ量SLは、理想的な点像(即ち、実静止点の像)が、補正対象画像としての通常露光画像の露光期間中に撮像素子33の撮像面上で移動する軌跡の大きさの推定量を表しており、その推定量は、通常露光画像の隣接画素間隔を単位として求められる。第3実施例に係るステップS25では、補正処理部54が、通常露光画像JLが記録されている画像ファイルのヘッダ領域から手ぶれ量SLを読み出し、読み出した手ぶれ量SLに応じたタップ数を有するガウシアンフィルタをガウスぼけによる近似PSFとして採用する。例えば、手ぶれ量SLの大きさが通常露光画像の3画素分である場合は、3×3のフィルタサイズを有するガウシアンフィルタをガウスぼけによる近似PSFとして採用し、手ぶれ量SLの大きさが通常露光画像の5画素分である場合は、5×5のフィルタサイズを有するガウシアンフィルタをガウスぼけによる近似PSFとして採用する。尚、ガウシアンフィルタにおける分散は、予め定めておけばよい。 A point that is stationary in real space is called a “real stationary point”. The amount of camera shake S L is the size of a trajectory where an ideal point image (that is, an image of an actual still point) moves on the imaging surface of the image sensor 33 during the exposure period of a normal exposure image as a correction target image. An estimated amount is represented, and the estimated amount is obtained in units of the adjacent pixel interval of the normal exposure image. In step S25 according to the third embodiment, the correction processing unit 54 reads the camera shake amount S L from the header area of the image file in which the normal exposure image J L is recorded, and the number of taps corresponding to the read camera shake amount S L. Is used as an approximate PSF with Gaussian blur. For example, when the amount of camera shake S L is three pixels of the normal exposure image, a Gaussian filter having a 3 × 3 filter size is adopted as an approximate PSF by Gaussian blur, and the size of camera shake S L is In the case of 5 pixels of the normal exposure image, a Gaussian filter having a filter size of 5 × 5 is adopted as an approximate PSF by Gaussian blur. The dispersion in the Gaussian filter may be determined in advance.

その後、補正処理部54は、近似PSFの逆関数(一般逆行列)に相当する画像復元関数を求める。画像復元関数は、単一の画像復元フィルタとして表現され、近似PSFを表す行列の一般逆行列の各要素が該画像復元フィルタの各フィルタ係数とされる。補正処理部54は、この画像復元フィルタを用いた空間フィルタリングを補正対象画像(即ち、通常露光画像JL)の全体に対して施すことで、補正対象画像に含まれるぶれが低減されたぶれ補正画像を生成する。 Thereafter, the correction processing unit 54 obtains an image restoration function corresponding to the inverse function (general inverse matrix) of the approximate PSF. The image restoration function is expressed as a single image restoration filter, and each element of the general inverse matrix of the matrix representing the approximate PSF is used as each filter coefficient of the image restoration filter. The correction processing unit 54 applies the spatial filtering using the image restoration filter to the entire correction target image (that is, the normal exposure image J L ), thereby reducing the blur included in the correction target image. Generate an image.

ステップS13にて成される分岐判断から理解されるように、ガウスぼけによる近似PSFを用いた画像復元処理を行って得られるべきぶれ補正画像と、通常露光画像と短露光画像に基づく画像復元処理を行って得られるべきぶれ補正画像とを対比した場合において、両画像間に視覚的な差がある程度生じるような場合にステップS13からステップS2に移行するように且つ視覚的な差が殆ど生じないような場合にステップS13からステップS14に移行するように、閾値TH2を実験を介して設定しておくとよい。 As will be understood from the branch determination made in step S13, the image restoration process based on the blur correction image to be obtained by performing the image restoration process using the approximate PSF due to Gaussian blur, and the normal exposure image and the short exposure image When the image is compared with the shake-corrected image to be obtained by performing the above, when there is some visual difference between the two images, there is almost no visual difference so that the process proceeds from step S13 to step S2. In such a case, the threshold value TH 2 may be set through experiments so that the process proceeds from step S13 to step S14.

そして、上述の如く、ガウスぼけによる近似PSFを用いた画像復元処理を行うことによっても、通常露光画像と短露光画像に基づく画像復元処理を行う場合と比べて視覚的に殆ど差がないぶれ補正画像を生成することができると判断される場合には、補正用情報を簡略化して、通常露光画像(補正対象画像)のぶれを補正する方法を示す情報(本実施例において、ガウス近似フラグ)を補正用情報として記録媒体16に記録しておく。これにより、ぶれ補正処理の視覚的な効果を殆ど減少させることなく、第1実施例と比べて補正用情報のデータサイズを大幅に低減することができる。   Further, as described above, even if image restoration processing using an approximate PSF due to Gaussian blur is performed, there is no visual difference compared with the case where image restoration processing based on a normal exposure image and a short exposure image is performed. If it is determined that an image can be generated, the correction information is simplified and information indicating a method of correcting the blur of the normal exposure image (correction target image) (in this embodiment, a Gaussian approximation flag) Is recorded on the recording medium 16 as correction information. As a result, the data size of the correction information can be significantly reduced as compared with the first embodiment, without substantially reducing the visual effect of the blur correction process.

[第4実施例]
第4実施例について説明する。図10は、第4実施例に係る、撮像装置1の撮影動作の流れを表すフローチャートである。第4実施例において実行される、図10に示すステップS1〜S5、S12、S13、S15、S16、S18及びS19の各処理は、第2実施例におけるそれらと同じであるため(図7参照)、第4実施例の説明では、それらの各処理内容の説明を簡略化する。また、第4実施例に係る撮像装置1の補正動作は、第2実施例におけるそれと同じである。
[Fourth embodiment]
A fourth embodiment will be described. FIG. 10 is a flowchart illustrating the flow of the shooting operation of the imaging apparatus 1 according to the fourth embodiment. Since the processes of steps S1 to S5, S12, S13, S15, S16, S18, and S19 shown in FIG. 10 executed in the fourth embodiment are the same as those in the second embodiment (see FIG. 7). In the description of the fourth embodiment, the description of each processing content is simplified. The correction operation of the image pickup apparatus 1 according to the fourth example is the same as that in the second example.

第4実施例における手ぶれ量SLの推定方法は、第2実施例におけるそれと異なる。この相違点に着目し、図10を参照して撮像装置1の撮影動作を説明する。 Estimation method of shake amount S L in the fourth embodiment is different from that in the second embodiment. Focusing on this difference, the imaging operation of the imaging apparatus 1 will be described with reference to FIG.

撮影モードにおいてシャッタボタン17aが押下されると、ステップS1にて焦点距離fDを表すデータが取得されると共に露光時間TEPが算出される。その後、ステップS2に移行し、撮像装置1は、通常露光撮影と短露光撮影を連続的に実行することにより通常露光画像GL及び短露光画像GSを取得する。通常露光画像GL及び短露光画像GSが取得された後、ステップS30に移行する。ステップS30において、手ぶれ量推定部51は、通常露光画像GL及び短露光画像GSの画像データに基づいて手ぶれ量SLを推定する。 When the shutter button 17a is pressed in shooting mode, exposure time T EP is calculated together with data representing the focal length f D is obtained at step S1. Thereafter, the flow proceeds to step S2, the image pickup apparatus 1 acquires the normal exposure image G L and the short-exposure image G S by executing the ordinary-exposure shooting and short-exposure shooting continuously. After the normal exposure image G L and the short-exposure image G S is acquired, the process proceeds to step S30. In step S30, shake amount estimation unit 51, typically estimates the shake amount S L based on the image data of the exposure image G L and the short-exposure image G S.

図11に、ステップS30の処理の詳細フローチャートを示す。ステップS30では、図4の手ぶれ量推定部51がステップS31〜S35の処理を順次実行する。まず、手ぶれ量推定部51は、通常露光画像GLの中央に位置する小領域を抽出して該小領域内の画像を小画像GLBとし、且つ、短露光画像GSの中央に位置する小領域を抽出して該小領域内の画像を小画像GSBとする。小画像GLB及びGSBは、例えば、128×128の画像サイズを有する。尚、ここでは演算の簡素化を目的として通常露光画像GL及び短露光画像GSの夫々から中央小領域を抽出するようにしているが、ハリスのコーナ検出器等を用いて、それらから特徴的な小領域を抽出するようにしてもよい。 FIG. 11 shows a detailed flowchart of the process in step S30. In step S30, the camera shake amount estimation unit 51 of FIG. 4 sequentially executes the processes of steps S31 to S35. First, shake amount estimation unit 51, an image of the small area as a small image G LB usually by extracting the small area located in the center of the exposure image G L, and, located in the center of the short-exposure image G S the small image G SB image of the small area by extracting a small area. The small images G LB and G SB have, for example, an image size of 128 × 128. Although here is to extract a central small region from each of the normal exposure image G L and the short-exposure image G S for the purpose of simplifying the calculation, using a corner detector or the like Harris, it features from them A typical small area may be extracted.

次にステップS32において、小画像GLBを基準にして小画像GSBの輝度レベルを増加させる。即ち、小画像GSBの輝度レベルが小画像GLBの輝度レベルと等しくなるように(小画像GSBの平均輝度と小画像GLBの平均輝度が等しくなるように)、小画像GSBの各画素の輝度値に一定値を乗じるという輝度正規化処理を行う。この輝度正規化処理後の小画像GSBを小画像GSB’と呼ぶ。 Next, in step S32, the luminance level of the small image GSB is increased with the small image GLB as a reference. That is, (as the average luminance of the average luminance and the small image G LB of the small image G SB equals) luminance level is small image G LB of to equal the brightness level of the small image G SB, the small image G SB A luminance normalization process is performed in which the luminance value of each pixel is multiplied by a certain value. The small image G SB after this luminance normalization processing is called a small image G SB ′.

続くステップS33において、小画像GLB及びGSB’の夫々に対してエッジ抽出処理を施すことで、小画像GLBのエッジ抽出画像ELB及び小画像GSB’のエッジ抽出画像ESB’を得る。例えば、小画像GLBの各画素に対して任意のエッジ検出フィルタ(ラプラシアンフィルタ等)を適用すれば、エッジ検出フィルタの出力値からエッジ抽出画像ELBが得られる。小画像GSB’についても同様である。 In subsequent step S33, 'by performing an edge extraction process for each of the small image G LB edge extraction image E LB and small image G SB' small images G LB and G SB edge extraction image E SB 'of obtain. For example, if an arbitrary edge detection filter (Laplacian filter or the like) is applied to each pixel of the small image G LB, the edge extraction image E LB is obtained from the output value of the edge detection filter. The same applies to the small image G SB ′.

その後、ステップS34において、エッジ抽出画像ELBの画素値の総和VL及びエッジ抽出画像ESB’の画素値の総和VSを算出し、ステップS35において、下記式(A−2)に従って、図10のステップS30にて推定されるべき手ぶれ量SLを算出する。変換係数kESTは、第2実施例の説明文で述べたものと同じものである。
L=kEST×(VS/VL) ・・・(A−2)
Thereafter, in step S34, the sum V L of the pixel values of the edge extracted image E LB and the sum V S of the pixel values of the edge extracted image E SB ′ are calculated. In step S35, according to the following equation (A-2), The amount of camera shake S L to be estimated in step S30 is calculated. The conversion coefficient k EST is the same as that described in the description of the second embodiment.
S L = k EST × (V S / V L ) (A-2)

周知の如く、エッジ抽出画像における各画素値は、エッジ抽出元画像(今の例において、小画像GLB又はGSB’)における対応部位のエッジ強度を表している。短露光画像におけるエッジが十分に鮮明であると考えた場合、短露光画像のエッジ強度に応じた値VSと通常露光画像のエッジ強度に応じた値VLとの比から、通常露光画像の手ぶれ量SLを推定可能である。 As is well known, each pixel value in the edge extraction image represents the edge strength of the corresponding part in the edge extraction source image (in this example, the small image G LB or G SB ′). When it is considered that the edge in the short exposure image is sufficiently clear, the ratio of the value V S corresponding to the edge intensity of the short exposure image and the value V L corresponding to the edge intensity of the normal exposure image is used. The amount of camera shake S L can be estimated.

ステップS30にて手ぶれ量SLが推定された後、ステップS12及びS13にて、記録制御部53は、その手ぶれ量SLと所定の閾値TH1〜TH3との大小関係を判断する。そして、不等式「SL<TH1」又は「SL>TH3」が成立する場合は、ステップS18及びS19の処理を行って撮影動作を終了する。また、不等式「TH1≦SL<TH2」が成立する場合はステップS15及びS16の処理を行って撮影動作を終了する。また、不等式「TH2≦SL≦TH3」が成立する場合はステップS3〜S5の処理を行って撮影動作を終了する。 After shake amount S L is estimated in step S30, step S12 and S13, the recording control unit 53 determines the magnitude relation between the image blur amount S L and a predetermined threshold value TH 1 to TH 3. If the inequality “S L <TH 1 ” or “S L > TH 3 ” is satisfied, the processes of steps S18 and S19 are performed, and the photographing operation is terminated. If the inequality “TH 1 ≦ S L <TH 2 ” is satisfied, the processes of steps S15 and S16 are performed, and the photographing operation is terminated. If the inequality “TH 2 ≦ S L ≦ TH 3 ” is satisfied, the processing of steps S3 to S5 is performed and the photographing operation is terminated.

図7に対応する第2実施例では、手ぶれ量SLが推定された後において、不等式「SL<TH1」又は不等式「SL>TH3」が成立する場合はステップS17〜S19の処理を行い、不等式「TH1≦SL<TH2」が成立する場合はステップS14〜S16の処理を行い、不等式「TH2≦SL≦TH3」が成立する場合はステップS2〜S5の処理を行っていたが、第4実施例では、手ぶれ量SLの推定前に通常露光画像GL及び短露光画像GSが取得されているため、手ぶれ量SLの推定後においてステップS17、S14及びS2の処理を実行する必要はない。 In the second embodiment corresponding to FIG. 7, if the inequality “S L <TH 1 ” or the inequality “S L > TH 3 ” is satisfied after the camera shake amount S L is estimated, the processing in steps S 17 to S 19 is performed. When the inequality “TH 1 ≦ S L <TH 2 ” is satisfied, the processes of steps S14 to S16 are performed. When the inequality “TH 2 ≦ S L ≦ TH 3 ” is satisfied, the processes of steps S2 to S5 are performed. Although has been performed, in the fourth embodiment, since the amount of camera shake S L normal exposure image G L and the short-exposure image G S before estimation is acquired, step S17, S14 after the estimation of the shake amount S L And S2 need not be executed.

本実施例によっても、ぶれ補正処理の視覚的な効果を殆ど減少させることなく、第1実施例と比べて補正用情報のデータサイズを大幅に低減することができる。また、手ぶれ量を、通常露光画像及び短露光画像の画像データに基づく簡素な演算によって推定しているため、この推定を行ったことによる、連続撮影性能の低下はない(或いは軽微である)。   According to the present embodiment, the data size of the correction information can be greatly reduced as compared with the first embodiment without substantially reducing the visual effect of the blur correction process. Further, since the amount of camera shake is estimated by a simple calculation based on the image data of the normal exposure image and the short exposure image, there is no (or minor) deterioration in continuous shooting performance due to this estimation.

尚、本実施例に示す内容と第3実施例に示す内容を組み合わせることも可能である。   It should be noted that the contents shown in the present embodiment can be combined with the contents shown in the third embodiment.

[第5実施例]
第5実施例を説明する。第2〜第4実施例では手ぶれ量SLを推定するための変換係数kESTを固定値としている。しかし、実際の手ぶれ量は、撮像装置1を把持するユーザが異なれば若干異なる。そこで、焦点距離及び露光時間に基づく推定方法と比べて、より推定精度が高いと思われる推定方法を用いて手ぶれ量を別途推定し、その別途推定した手ぶれ量を用いて変換係数kESTを更新(換言すれば、補正)することが望ましい。
[Fifth embodiment]
A fifth embodiment will be described. In the second to fourth embodiment is of a fixed value conversion factor k EST for estimating a shake amount S L. However, the actual amount of camera shake differs slightly if the user holding the imaging device 1 is different. Therefore, compared with the estimation method based on the focal length and exposure time, the amount of camera shake is estimated separately using an estimation method that seems to have higher estimation accuracy, and the conversion coefficient k EST is updated using the amount of camera shake estimated separately. (In other words, correction) is desirable.

この変換係数kESTの更新方法を、第2実施例に示す動作に当てはめて説明する。勿論、第5実施例で述べる変換係数kESTの更新方法を、第3又は第4実施例に適用することも可能である。 The method for updating the conversion coefficient k EST will be described by applying it to the operation shown in the second embodiment. Of course, the conversion coefficient k EST updating method described in the fifth embodiment can be applied to the third or fourth embodiment.

図4の手ぶれ量推定部51は、手ぶれ量SLと異なる手ぶれ量SL2を、通常露光画像と短露光画像に基づく手ぶれ情報PLから別途推定する。手ぶれ情報PLはPSFである。手ぶれ情報PLとしてのPSFを表す行列において、0以外の値を有する要素を繋ぎ合わせた線は、理想的な点像(即ち、実静止点の像)が通常露光画像の露光期間中に撮像素子33の撮像面上で移動する軌跡を表している。図12に示される、符号200が付された曲線は、その軌跡を通常露光画像上に表現したものである。図13に、その軌跡200に対応する、行列表現されたPSFを示す。図13のPSFにおいて、斜線で満たされた部位は0以外の値を有する行列要素を表している。 Shake amount estimation unit 51 of FIG. 4, the amount of camera shake S L2 different from the amount of camera shake S L, separately estimated from camera shake information P L based on the normal-exposure image and the short-exposure image. The camera shake information P L is PSF. In the matrix representing the PSF as the camera shake information P L , an ideal point image (that is, an image of the actual still point) is captured during the exposure period of the normal exposure image by connecting the elements having values other than 0. The locus | trajectory which moves on the imaging surface of the element 33 is represented. The curve denoted by reference numeral 200 shown in FIG. 12 represents the locus on the normal exposure image. FIG. 13 shows a PSF expressed in a matrix corresponding to the locus 200. In the PSF of FIG. 13, the part filled with diagonal lines represents a matrix element having a value other than zero.

手ぶれ量推定部51は、この軌跡200から手ぶれ量SL2を推定する。具体的には、軌跡200の始点201と終点202との間の距離を手ぶれ量SL2として求める。この距離は、通常露光画像上における距離である。 The camera shake amount estimation unit 51 estimates the camera shake amount S L2 from the locus 200. Specifically, the distance between the start point 201 and the end point 202 of the trajectory 200 is obtained as the camera shake amount S L2 . This distance is a distance on the normal exposure image.

補正対象画像としての通常露光画像はシャッタボタン17aの押下の度に得られ、シャッタボタン17aを複数回押下することによって、図14に示す如く、時系列で並ぶ、・・・(p−2)番目、(p−1)番目、p番目の通常露光画像が得られる(pは3以上の整数)。手ぶれ量推定部51は、(p−1)番目以前の通常露光画像に対して求められた手ぶれ量SL2を用いて変換係数kESTを更新し、その更新後の変換係数kESTを用いて、p番目の通常露光画像に対する手ぶれ量SLを推定する。 The normal exposure image as the correction target image is obtained each time the shutter button 17a is pressed, and is arranged in time series as shown in FIG. 14 by pressing the shutter button 17a a plurality of times. (P-2) The (p-1) th and pth normal exposure images are obtained (p is an integer of 3 or more). The camera shake amount estimation unit 51 updates the conversion coefficient k EST using the camera shake amount S L2 obtained for the (p−1) th normal exposure image and uses the updated conversion coefficient k EST. The camera shake amount S L for the p th normal exposure image is estimated.

典型的な例として、変換係数kESTの更新処理を補正動作時において実行する例を説明する。この場合、図9のステップS7にて(p−1)番目の通常露光画像に対する手ぶれ情報PLが求められた後、手ぶれ量推定部51は、(p−1)番目の通常露光画像に対する手ぶれ情報PLから求めた手ぶれ量SL2と(p−1)番目の通常露光画像の撮影時における露光時間TEP及び焦点距離fDとに基づき、下記式(A−3)に従って更新用係数ktmpを算出する。
tmp=SL2/(TEP×fD) ・・・(A−3)
As a typical example, an example in which update processing of the conversion coefficient k EST is executed during the correction operation will be described. In this case, after the camera shake information P L for the (p−1) th normal exposure image is obtained in step S7 of FIG. 9, the camera shake amount estimation unit 51 performs the camera shake for the (p−1) th normal exposure image. Based on the camera shake amount S L2 obtained from the information P L, the exposure time T EP and the focal length f D at the time of shooting the (p−1) th normal exposure image, the update coefficient k according to the following equation (A-3): Calculate tmp .
k tmp = S L2 / (T EP × f D ) (A-3)

そして、下記式(A−4)に従って変換係数を更新し、更新後の変換係数をp番目の通常露光画像の手ぶれ量SLを推定する際における変換係数として用いる。式(A−4)において、kESTは更新前の変換係数、即ち(p−1)番目の通常露光画像の手ぶれ量SLを推定する際における変換係数kESTであり、kEST’は更新後の変換係数、即ちp番目の通常露光画像の手ぶれ量SLを推定する際における変換係数kESTである。また、kOは所定の減衰係数である(但し、0<kO<1)。
EST’=kO×kEST+(1−kO)×ktmp ・・・(A−4)
Then, update the transform coefficients according to the following formula (A-4), using the transformation coefficient after updating as the conversion coefficient at the time of estimating the p-th shake amount S L of the normal exposure image. In equation (A-4), k EST is the conversion coefficient before update, that is, the conversion coefficient k EST when estimating the camera shake amount S L of the (p−1) -th normal exposure image, and k EST ′ is updated. This is the subsequent conversion coefficient, that is, the conversion coefficient k EST when estimating the camera shake amount S L of the p-th normal exposure image. K O is a predetermined attenuation coefficient (where 0 <k O <1).
k EST '= k O × k EST + (1−k O ) × k tmp (A-4)

このように、変換係数kESTを更新していくことにより、使用を重ねるたびに変換係数の値は特定ユーザの手ぶれに適した値へと徐々に更新されていくことになる。 In this way, by updating the conversion coefficient k EST , the value of the conversion coefficient is gradually updated to a value suitable for the shake of the specific user every time it is used.

尚、変換係数kESTの値の更新が収束したと判断される場合には、以後、その更新を行わないようにしてもよい。例えば、式(A−4)を用いて更新前の変換係数kESTから更新後の変換係数kEST’を求めた後、両者の差分を求め、その差分が基準差分よりも小さい場合に、変換係数kESTの値の更新が収束したと判断する。 If it is determined that the update of the conversion coefficient k EST has converged, the update may not be performed thereafter. For example, after obtaining the updated conversion coefficient k EST ′ from the conversion coefficient k EST before update using the formula (A-4), the difference between the two is obtained, and the conversion is performed when the difference is smaller than the reference difference. It is determined that the update of the coefficient k EST has converged.

また、変換係数kESTの更新処理を第2実施例に示す動作に単純に当てはめた場合、図7のステップS11からステップS12及びS13を介してステップS2に移行しなければ、短露光画像の撮影が行われないため変換係数kESTを更新することができず、また、短露光画像の撮影が行われていたとしても、ぶれ補正画像を生成するための補正動作が実行されなければ変換係数kESTは更新されないことになる。 Further, when the update processing of the conversion coefficient k EST is simply applied to the operation shown in the second embodiment, a short exposure image is captured unless the process proceeds from step S11 in FIG. 7 to step S2 through steps S12 and S13. Conversion coefficient k EST cannot be updated, and even if a short-exposure image is captured, conversion coefficient k EST is not executed unless a correction operation for generating a shake correction image is performed. The EST will not be updated.

これを考慮し、撮影モードにおいてシャッタボタン17aが押下されたならばステップS11において推定された手ぶれ量SLに関わらず、通常露光画像GLと短露光画像GSの撮影を行ってそれらの画像データを一時的に内部メモリ14(又は記録媒体16)に記録しておくようにしてもよい。そして、撮像装置1における処理の負荷が軽い時に、一時的に記録された画像GL及びGSの画像データから手ぶれ量SL2を求めて、式(A−3)及び(A−4)に従って変換係数を更新するようにしてもよい。尚、変換係数を更新するための演算処理の途中で撮像装置1の駆動を停止させるための操作がなされた場合や、他のタスクでメモリが必要となる場合は、その演算処理を直ちに中止し、その演算処理で使用していたメモリを開放する。 Considering this, regardless of the estimated shake amount S L in step S11 if the shutter button 17a is pressed in shooting mode, the images by performing a normal photographing exposure image G L and the short-exposure image G S Data may be temporarily recorded in the internal memory 14 (or the recording medium 16). Then, when the processing load in the imaging device 1 is light, the camera shake amount S L2 is obtained from the temporarily recorded image data of the images G L and G S , and is according to the equations (A-3) and (A-4). The conversion coefficient may be updated. If an operation for stopping the driving of the imaging apparatus 1 is performed during the calculation process for updating the conversion coefficient, or if other tasks require memory, the calculation process is immediately stopped. , The memory used for the arithmetic processing is released.

また、撮影動作時に自動的にぶれ補正処理を実行するモード(以下、第1モードという)と、画像再生時にぶれ補正処理を実行するモード(以下、第2モードという)とを切替実行可能なように撮像装置1を形成しておき、第1モードでの動作時に得られる手ぶれ量SL2を用いて変換係数kESTを更新し、その更新後の変換係数kESTを第2モードで利用するようにしてもよい。尚、図7及び図9に示す動作は、第2モードにおける動作の典型例である。 In addition, it is possible to switch between a mode in which blur correction processing is automatically performed during a shooting operation (hereinafter referred to as a first mode) and a mode in which blur correction processing is performed during image reproduction (hereinafter referred to as a second mode). The imaging device 1 is formed in advance, the conversion coefficient k EST is updated using the camera shake amount S L2 obtained during the operation in the first mode, and the updated conversion coefficient k EST is used in the second mode. It may be. The operations shown in FIGS. 7 and 9 are typical examples of operations in the second mode.

即ち、第1モードでの動作時では、シャッタボタン17aの押下に伴って常に通常露光画像と短露光画像が連続撮影されて、通常露光画像及び短露光画像に基づいて自動的に手ぶれ情報PLが算出される。その後、手ぶれ情報PLに基づく画像復元処理によってぶれ補正画像が生成される一方で、手ぶれ情報PLに基づいて手ぶれ量SL2が毎回求められる。手ぶれ量推定部51は、この毎回求められる手ぶれ量SL2とシャッタボタン17aの押下の度に算出される露光時間TEP及び焦点距離fDを用いて、上記式(A−3)及び(A−4)に従い変換係数kESTを更新してゆく。そして、この更新後、第2モードでの動作が実行されるとき、第1モードにて更新された変換係数kESTを用いて、手ぶれ量SLを推定するようにする。 That is, during the operation in the first mode, the normal exposure image and the short exposure image are always continuously photographed as the shutter button 17a is pressed, and the camera shake information P L is automatically based on the normal exposure image and the short exposure image. Is calculated. Thereafter, a shake-corrected image is generated by image restoration processing based on the camera shake information P L , while a camera shake amount S L2 is obtained every time based on the camera shake information P L. Shake amount estimation unit 51 uses the exposure time T EP and focal length f D which is calculated each time the depression of the each sought shake amount S L2 and the shutter button 17a, formula (A-3) and (A -4), the conversion coefficient k EST is updated. After this update, when the operation in the second mode is executed, the camera shake amount S L is estimated using the conversion coefficient k EST updated in the first mode.

[第6実施例]
第6実施例について説明する。撮像装置1の筐体を手で把持する場合を主として想定して第1〜第5実施例を説明したが、三脚等を用いて撮像装置1の筐体を地面に対して固定していても、地面の振動により、撮像装置1に小さな動きが生じることがある。この動きの大きさは、実撮影期間前のプレビュー期間に取得されるプレビュー画像列から推定可能である。第6実施例では、このプレビュー画像列を用いて手ぶれ量SLを推定する。
[Sixth embodiment]
A sixth embodiment will be described. Although the first to fifth embodiments have been described mainly assuming that the housing of the imaging device 1 is held by hand, even if the housing of the imaging device 1 is fixed to the ground using a tripod or the like. A small movement may occur in the imaging apparatus 1 due to the vibration of the ground. The magnitude of this movement can be estimated from the preview image sequence acquired in the preview period before the actual shooting period. In the sixth embodiment, the camera shake amount SL is estimated using this preview image sequence.

この推定方法を、より具体的に説明する。今、図15に示す如く、或る着目した実撮影期間の直前のプレビュー期間において、プレビュー画像PI1、PI2、PI3、・・・、PIq-1及びPIqが順次撮影され、プレビュー画像PIqの撮影直後に着目した実撮影期間へ移行した場合を想定する(qは3以上の整数)。 This estimation method will be described more specifically. As shown in FIG. 15, preview images PI 1 , PI 2 , PI 3 ,..., PI q-1 and PI q are sequentially photographed and previewed in the preview period immediately before a certain actual photographing period. Assume a case where a shift is made to an actual shooting period of interest immediately after shooting of the image PI q (q is an integer of 3 or more).

図4の手ぶれ量推定部51は、そのプレビュー期間中に取得されたプレビュー画像列に着目し、そのプレビュー画像列を形成する隣接フレームのプレビュー画像を対比することにより、隣接フレームのプレビュー画像間におけるオプティカルフローを求める。隣接フレームのプレビュー画像とは、時間的に隣接して撮影された2枚のプレビュー画像を指し、一方のプレビュー画像における露光期間の中間時刻と他方のそれとの時間差は、フレーム周期(例えば、1/30秒)の時間長さと合致する。   The camera shake amount estimation unit 51 in FIG. 4 pays attention to the preview image sequence acquired during the preview period, and compares the preview images of the adjacent frames forming the preview image sequence, so that the preview image sequence between adjacent frames is compared. Find the optical flow. The preview image of the adjacent frame refers to two preview images taken adjacent in time, and the time difference between the intermediate time of the exposure period in one preview image and that of the other is the frame period (for example, 1 / 30 seconds).

オプティカルフローは、代表点マッチング法、ブロックマッチング法又は勾配法を用いて、対比されるプレビュー画像の画像データに基づいて求められ、両画像間の物体の動きを表す複数の動きベクトルから形成される。手ぶれ量推定部51は、2枚のプレビュー画像に対して求めた複数の動きベクトルの平均ベクトルを求め、その平均ベクトルの大きさが所定時間継続して一定値以下となっている時、撮像装置1の筐体が三脚等で固定されていると判断する。   The optical flow is obtained based on the image data of the contrasted preview image using a representative point matching method, a block matching method, or a gradient method, and is formed from a plurality of motion vectors representing the motion of the object between the two images. . The camera shake amount estimation unit 51 obtains an average vector of a plurality of motion vectors obtained for two preview images, and when the magnitude of the average vector continues to be a predetermined value or less for a predetermined time, It is determined that one housing is fixed with a tripod or the like.

今、上記の所定時間がプレビュー画像PI1〜PIqの撮影期間に相当する場合を考える。この場合、手ぶれ量推定部51は、プレビュー画像PI1とPI2との間における複数の動きベクトルの平均ベクトルm[1:2]、プレビュー画像PI2とPI3との間における複数の動きベクトルの平均ベクトルm[2:3]、・・・、プレビュー画像PIq-1とPIqとの間における複数の動きベクトルの平均ベクトルm[q-1:q]を求める。そして、それらの平均ベクトルm[1:2]〜m[q-1:q]の大きさを所定の一定値と比較し、平均ベクトルm[1:2]〜m[q-1:q]の大きさが全て該一定値以下となっている場合に、撮像装置1の筐体が三脚等で固定されていると判断し、そうでない場合、撮像装置1の筐体は手で把持されていると判断する。 Consider a case where the predetermined time corresponds to the photographing period of the preview images PI 1 to PI q . In this case, the camera shake amount estimation unit 51 includes an average vector m [1: 2] of a plurality of motion vectors between the preview images PI 1 and PI 2 and a plurality of motion vectors between the preview images PI 2 and PI 3. mean vector m [2: 3], ··· , the average of a plurality of motion vectors between the preview image PI q-1 and PI q vector m [q-1: q] obtained. Then, their mean vector m [1: 2] ~m: the magnitude of [q-1 q] is compared with a predetermined constant value, the mean vector m [1: 2] ~m [ q-1: q] If the size of the image pickup device 1 is less than or equal to the predetermined value, it is determined that the housing of the imaging device 1 is fixed by a tripod or the like. Otherwise, the housing of the imaging device 1 is gripped by a hand. Judge that

撮像装置1の筐体が手で把持されていると判断した場合は、第2〜第5実施例で述べた方法にて通常露光画像GLに対する手ぶれ量SLを推定するが、撮像装置1の筐体が三脚等で固定されていると判断した場合は、下記式(A−5)に従って、通常露光画像GLに対する手ぶれ量SLを推定する。ここで、FRはプレビュー期間中におけるフレームレート(フレーム周期の逆数)であり、|mAVE|は合計(q−1)個の平均ベクトルm[1:2]〜m[q-1:q]を平均化したベクトルの大きさである。TEPは、上述したように通常露光画像GLの露光期間の長さである。
L=FR×|mAVE|×TEP ・・・(A−5)
If the housing of the imaging apparatus 1 is determined to be manually grasped, usually it estimates the shake amount S L for exposing the image G L by the method described in the second to fifth embodiment, the imaging device 1 If the housing is determined to be fixed by a tripod or the like, according to the following formula (a-5), estimates the shake amount S L for the normal exposure image G L. Here, FR is a frame rate (reciprocal of the frame period) during the preview period, and | m AVE | is a total of (q−1) average vectors m [1: 2] to m [q-1: q]. Is the size of the vector. TEP is the length of the exposure period of the normal exposure image GL as described above.
S L = FR × | m AVE | × T EP (A-5)

手ぶれ量SLを推定動作以外の撮影動作及び補正動作は、第2〜第5実施例の何れかにて説明したそれらと同じである。プレビュー画像列を用いて推定された手ぶれ量SLは、例えば、図7のステップS11にて推定されるべき手ぶれ量SLとして用いられる。 Photographing operation and correction operation other than estimation operation shake amount S L are the same as those explained in any one of the second to fifth embodiment. The camera shake amount S L estimated using the preview image sequence is used as, for example, the camera shake amount S L to be estimated in step S11 of FIG.

本実施例の如く、通常露光画像に対する手ぶれ量を、通常露光画像の撮影前に得られるプレビュー画像列から推定するようにすれば、それを撮影条件(fD及びTEP)を用いて推定する場合と同様、手ぶれ量の推定を行ったことによる、連続撮影性能の低下は完全に或いは略回避される。 If the camera shake amount for the normal exposure image is estimated from the preview image sequence obtained before shooting the normal exposure image as in this embodiment, it is estimated using the shooting conditions (f D and T EP ). As in the case, the deterioration of the continuous shooting performance due to the estimation of the amount of camera shake is completely or substantially avoided.

[第7実施例]
第7実施例を説明する。第7実施例では、通常露光画像JL及び小画像JSAの画像データに基づく手ぶれ情報PLの算出方法例、並びに、その手ぶれ情報PLを利用した画像復元処理の方法例を説明する。第7実施例に記載した内容は、第1〜第6実施例に適用される(具体的には、図5又は図9に示されるステップS7及びS8の処理に用いられる)。尚、第7実施例の記述において、単に「メモリ」といった場合、それは内部メモリ14を意味するものとする。
[Seventh embodiment]
A seventh embodiment will be described. In the seventh embodiment, an example of a method for calculating the camera shake information P L based on the image data of the normal exposure image J L and the small image J SA and an example of an image restoration process using the camera shake information P L will be described. The contents described in the seventh embodiment are applied to the first to sixth embodiments (specifically, they are used for the processes in steps S7 and S8 shown in FIG. 5 or FIG. 9). In the description of the seventh embodiment, when “memory” is simply used, it means the internal memory 14.

図16は、第7実施例に係るぶれ補正処理の流れを表すフローチャートである。図4の補正処理部54は、記録媒体16から読み出した通常露光画像JL及び小画像JSAの画像データ並びに小画像JSAの位置を表す位置データに基づいて、ステップS71〜S77の処理を順次実行することによりぶれ補正画像を生成する。 FIG. 16 is a flowchart showing the flow of blur correction processing according to the seventh embodiment. Correction processing unit 54 of FIG. 4, on the basis of the position data normally read out from the recording medium 16 representing the position of the image data and small image J SA exposure image J L and the small image J SA, the process of step S71~S77 A blur correction image is generated by sequentially executing.

上述したように、小画像JSAは、短露光画像GSから抽出された特徴的な小領域内の画像である(より正確には、その画像をJPEG圧縮した画像である;図7のステップS3及びS4を参照)。まず、ステップS71では、短露光画像GSから抽出された特徴的な小領域に対応する小領域を補正対象画像としての通常露光画像JLから抽出し、通常露光画像JLから抽出された小領域内の画像を小画像JLAとしてメモリ上に記憶する。小画像JSAが128×128画素の画像サイズを有する場合、小画像JLAも128×128画素の画像サイズを有する。 As described above, the small image J SA is an image in a characteristic small region extracted from the short exposure image G S (more precisely, it is an image obtained by JPEG compression of the image; step of FIG. 7). (See S3 and S4). First, in step S71, a small area corresponding to a characteristic small area extracted from the short exposure image G S is extracted from the normal exposure image J L as the correction target image, and the small area extracted from the normal exposure image J L is extracted. The image in the area is stored on the memory as a small image JLA . When the small image JSA has an image size of 128 × 128 pixels, the small image JLA also has an image size of 128 × 128 pixels.

通常露光画像と短露光画像との間の位置ずれを無視する場合は、通常露光画像から抽出される小画像JLAの中心座標(通常露光画像内における中心座標)と、短露光画像から抽出される小画像JSAの中心座標(短露光画像内における中心座標)とが等しくなるように、小画像JSAの位置データに基づいて小領域の抽出を行う。その位置ずれを無視できない場合は、テンプレートマッチング法などを利用して対応小領域の探索を行うようにしても良い。即ち例えば、小画像JSAをテンプレートとし、周知のテンプレートマッチング法を用いて、そのテンプレートとの類似度が最も高い小領域を通常露光画像JL内から探索し、探索された小領域内の画像を小画像JLAとする。この探索の探索範囲は、小画像JSAの位置データに基づいて設定される。 When ignoring the misalignment between the normal exposure image and the short exposure image, it is extracted from the center coordinates of the small image JLA extracted from the normal exposure image (center coordinates in the normal exposure image) and the short exposure image. that the center coordinates of the small image J SA as the (center coordinates in the short-exposure image) are equal, and extracts a small region based on the positional data of the small image J SA. If the positional deviation cannot be ignored, a corresponding small region may be searched using a template matching method or the like. That is, for example, a small area having the highest similarity to the template is searched from the normal exposure image J L using the small image JSA as a template, and the image in the searched small area is searched. Is a small image JLA . The search range of this search is set based on the position data of the small image JSA .

短露光画像の露光時間は比較的短いため、小画像JSAの信号対雑音比は比較的低いと共に小画像JSAの輝度は比較的低い。そこで、ステップS72において、小画像JSAに対してメディアンフィルタ等を用いたノイズ除去処理を施し、更に、ノイズ除去処理後の小画像JSAの輝度レベルを増加させる。即ち例えば、小画像JSAの輝度レベルが小画像JLAの輝度レベルと等しくなるように(小画像JSAの平均輝度と小画像JLAの平均輝度が等しくなるように)、小画像JSAの各画素の輝度値に一定値を乗じるという輝度正規化処理を行う。ノイズ除去処理及び輝度正規化処理後の小画像JSAは小画像JSA’としてメモリ上に記憶される。 Since the exposure time of the short-exposure image is relatively short, the signal-to-noise ratio of the small image J SA, along with relatively low small image J SA luminance is relatively low. Therefore, in step S72, the subjected to noise removal processing using a median filter or the like to the small image J SA, further increases the brightness level of the small image J SA after noise removal processing. Thus, for example, (as the average luminance of the average luminance and the small image J LA of the small image J SA equals) luminance level is small image J to equal the luminance level of the LA of the small image J SA, small image J SA A luminance normalization process is performed in which the luminance value of each pixel is multiplied by a certain value. The small image J SA after the noise removal processing and the luminance normalization processing is stored on the memory as a small image J SA ′.

上述のようにして得られた小画像JLAを劣化画像として且つ小画像JSA’を初期復元画像として取り扱った上で(ステップS73)、ステップS74にてフーリエ反復法を実施することにより、小画像JLAのぶれによる劣化の状態を表す画像劣化関数を求める。ここで求められる画像劣化関数は、ステップS7(図9等参照)にて算出されるべき手ぶれ情報PLである。 The small image JLA obtained as described above is treated as a deteriorated image and the small image J SA ′ is treated as an initial restored image (step S73). obtaining an image degradation function representing the state of degradation due to blurring of the image J LA. The image degradation function obtained here is camera shake information P L to be calculated in step S7 (see FIG. 9 and the like).

画像劣化関数としてPSFを求める。手ぶれは画像全体に対して一様な劣化を与えるため、小画像JLAに対して求めたPSFは、通常露光画像JLの全体に対するPSFとして利用することができる。 PSF is obtained as an image degradation function. Since motion blur uniformly deteriorated on the entire image, PSF found for the small image J LA can be utilized as a PSF for the entire normal exposure image J L.

フーリエ反復法は、劣化を含む劣化画像から、劣化を除去或いは低減した復元画像を得る手法である(上記非特許文献1参照)。フーリエ反復法を実施する際、初期の復元画像(復元画像の初期値)を与えてやる必要があるが、この初期の復元画像を初期復元画像と呼ぶ。このフーリエ反復法を、図17及び図18を参照して詳細に説明する。図17は、図16のステップS74の処理の詳細フローチャートである。図18は、図4の補正処理部54に内在する、フーリエ反復法を実施する部位のブロック図である。   The Fourier iteration method is a method for obtaining a restored image from which deterioration is removed or reduced from a deteriorated image including deterioration (see Non-Patent Document 1 above). When performing the Fourier iteration method, it is necessary to give an initial restored image (initial value of the restored image). This initial restored image is called an initial restored image. This Fourier iteration method will be described in detail with reference to FIGS. FIG. 17 is a detailed flowchart of the process in step S74 of FIG. FIG. 18 is a block diagram of a part of the correction processing unit 54 of FIG.

まず、ステップS101において、復元画像をf’とし、この復元画像f’に初期復元画像をセットする。即ち、初期の復元画像f’として小画像JSA’を用いるようにする。次に、ステップS102において、劣化画像(即ち、小画像JLA)をgとする。そして、劣化画像gをフーリエ変換したものをGとしてメモリ上に記憶しておく(ステップS103)。例えば、初期復元画像及び劣化画像の画像サイズが128×128画素の場合、f’及びgは、128×128の行列サイズを有する行列として表現できる。 First, in step S101, a restored image is set as f ′, and an initial restored image is set in the restored image f ′. That is, the small image J SA ′ is used as the initial restored image f ′. Next, in step S102, the deteriorated image (that is, the small image J LA ) is set as g. Then, the result of Fourier transform of the deteriorated image g is stored in the memory as G (step S103). For example, when the image sizes of the initial restored image and the degraded image are 128 × 128 pixels, f ′ and g can be expressed as a matrix having a matrix size of 128 × 128.

次に、ステップS110において、復元画像f’をフーリエ変換したF’を求め、更にステップS111において、下記式(B−1)によりHを算出する。Hは、PSFをフーリエ変換したものに相当する。式(B−1)において、F’*は、F’の共役複素行列であり、αは、定数である。 Next, in step S110, F ′ obtained by Fourier transform of the restored image f ′ is obtained, and in step S111, H is calculated by the following equation (B-1). H corresponds to the result of Fourier transform of PSF. In Formula (B-1), F ′ * is a conjugate complex matrix of F ′, and α is a constant.

次に、ステップS112において、Hを逆フーリエ変換することにより、PSFを得る。ここで得られるPSFをhとする。次に、ステップS113において、PSF hを下記式(B−2a)の拘束条件で修正した後、更に式(B−2b)の拘束条件にて修正する。   Next, in step S112, PSF is obtained by performing inverse Fourier transform on H. The PSF obtained here is assumed to be h. Next, in step S113, after the PSF h is corrected under the constraint condition of the following formula (B-2a), it is further corrected under the constraint condition of the formula (B-2b).

PSF hは、2次元の行列として表現されるため、この行列の各要素をh(x,y)で表す。PSFの各要素は、本来、0以上且つ1以下の値をとるはずである。従って、ステップS113において、PSFの各要素が0以上且つ1以下であるかを判断し、0以上且つ1以下となっている要素の値はそのままにする一方、1より大きな要素がある場合はその要素の値を1に修正し、且つ、0より小さい要素がある場合はその要素の値を0に修正する。これが、式(B−2a)の拘束条件による修正である。そして、この修正後のPSFの各要素の総和が1となるように、PSFを正規化する。この正規化が、式(B−2b)の拘束条件による修正である。   Since PSF h is expressed as a two-dimensional matrix, each element of this matrix is represented by h (x, y). Each element of the PSF should originally take a value of 0 or more and 1 or less. Therefore, in step S113, it is determined whether each element of the PSF is 0 or more and 1 or less, and the value of the element that is 0 or more and 1 or less is left as it is. The value of the element is corrected to 1, and if there is an element smaller than 0, the value of the element is corrected to 0. This is correction by the constraint condition of Formula (B-2a). Then, the PSF is normalized so that the sum of the elements of the PSF after correction is 1. This normalization is correction by the constraint condition of the formula (B-2b).

式(B−2a)及び(B−2b)の拘束条件によって修正されたPSFを、h'とする。   The PSF corrected by the constraints of the equations (B-2a) and (B-2b) is set as h ′.

次に、ステップS114において、PSF h’をフーリエ変換したH’を求め、更にステップS115において、下記式(B−3)によりFを算出する。Fは、復元画像fをフーリエ変換したものに相当する。式(B−3)において、H’*は、H’の共役複素行列であり、βは、定数である。 Next, in step S114, H ′ obtained by Fourier transforming PSF h ′ is obtained, and in step S115, F is calculated by the following equation (B-3). F corresponds to a Fourier transform of the restored image f. In the formula (B-3), H ′ * is a conjugate complex matrix of H ′, and β is a constant.

次に、ステップS116において、Fを逆フーリエ変換することにより、復元画像を取得する。ここで得られる復元画像をfとする。次に、ステップS117において、復元画像fを下記式(B−4)の拘束条件で修正し、修正された復元画像を、新たにf’とする。   Next, in step S116, a restored image is obtained by performing an inverse Fourier transform on F. Let f be the restored image obtained here. Next, in step S117, the restored image f is corrected under the constraint condition of the following formula (B-4), and the corrected restored image is newly set as f '.

復元画像fは、2次元の行列として表現されるため、この行列の各要素をf(x,y)で表す。今、劣化画像及び復元画像の各画素の画素値が、0から255までのデジタル値にて表されるものとする。そうすると、復元画像fを表す行列の各要素(即ち、各画素値)は、本来、0以上且つ255以下の値をとるはずである。従って、ステップS117において、復元画像fを表す行列の各要素が0以上且つ255以下であるかを判断し、0以上且つ255以下となっている要素の値はそのままにする一方、255より大きな要素がある場合はその要素の値を255に修正し、且つ、0より小さい要素がある場合はその要素の値を0に修正する。これが、式(B−4)の拘束条件による修正である。   Since the restored image f is represented as a two-dimensional matrix, each element of the matrix is represented by f (x, y). Now, it is assumed that the pixel value of each pixel of the degraded image and the restored image is represented by a digital value from 0 to 255. Then, each element (that is, each pixel value) of the matrix representing the restored image f should originally have a value of 0 or more and 255 or less. Accordingly, in step S117, it is determined whether each element of the matrix representing the restored image f is 0 or more and 255 or less, and the value of the element that is 0 or more and 255 or less is left as it is. If there is an element, the value of the element is corrected to 255, and if there is an element smaller than 0, the value of the element is corrected to 0. This is correction by the constraint condition of Formula (B-4).

次に、ステップS118において、収束条件を満たすか否かを判断することによって、反復処理の収束判定を行う。   Next, in step S118, it is determined whether or not the convergence condition is satisfied, thereby determining whether or not the iterative process is converged.

例えば、最新のF'と1つ前に得られたF'との差分の絶対値を収束判定の指標として用いる。この指標が所定の閾値以下の場合、収束条件が満たされると判断する一方、そうでない場合、収束条件は満たされないと判断する。   For example, the absolute value of the difference between the latest F ′ and the previous F ′ is used as an index for convergence determination. If this index is less than or equal to a predetermined threshold value, it is determined that the convergence condition is satisfied. Otherwise, it is determined that the convergence condition is not satisfied.

収束条件が満たされる場合、最新のH'を逆フーリエ変換したものを最終的なPSFとする。即ち、この最新のH'を逆フーリエ変換したものが、図16のステップS74で求められるべきPSFとなる。収束条件が満たされない場合、ステップS110に戻り、ステップS110〜S118の各処理を繰り返す。ステップS110〜S118の各処理の繰り返しにおいて、f'、F'、H、h、h'、H'、F及びf(図18参照)は、順次、最新のものに更新されていく。   When the convergence condition is satisfied, a final PSF is obtained by performing inverse Fourier transform on the latest H ′. That is, the latest H ′ obtained by inverse Fourier transform is the PSF to be obtained in step S74 of FIG. When the convergence condition is not satisfied, the process returns to step S110, and the processes of steps S110 to S118 are repeated. In the repetition of the processes of steps S110 to S118, f ′, F ′, H, h, h ′, H ′, F, and f (see FIG. 18) are sequentially updated to the latest ones.

収束判定の指標として、他の指標を用いることも可能である。例えば、最新のH'と1つ前に得られたH'との差分の絶対値を収束判定の指標として用いて、上記の収束条件の成立/不成立を判断してもよい。また例えば、上記式(B−2a)及び(B−2b)を用いたステップS113における修正量、或いは、式(B−4)を用いたステップS117における修正量を収束判定の指標として用いて、上記の収束条件の成立/不成立を判断してもよい。反復処理が収束に向かえば、それらの修正量が小さくなるからである。   Another index can be used as an index for determining convergence. For example, the absolute value of the difference between the latest H ′ and the previous H ′ obtained may be used as the convergence determination index to determine whether or not the convergence condition is satisfied. Further, for example, the correction amount in step S113 using the above formulas (B-2a) and (B-2b) or the correction amount in step S117 using formula (B-4) is used as an index for convergence determination. Whether or not the convergence condition is satisfied may be determined. This is because if the iterative process is toward convergence, the amount of correction becomes small.

また、ステップS110〜S118から成るループ処理の繰り返し回数が所定回数に達した場合、収束不可と判断して、最終的なPSFを算出することなく処理を終了するようにしてもよい。この場合、補正対象画像である通常露光画像JLの補正は行われない。 Further, when the number of repetitions of the loop process consisting of steps S110 to S118 reaches a predetermined number, it may be determined that convergence is impossible and the process may be terminated without calculating a final PSF. This case, normal correction of the exposure image J L is a correction target image is not performed.

図16の各ステップの説明に戻る。ステップS74にて、PSFが算出された後、ステップS75に移行する。ステップS75では、ステップS74で求められたPSFの逆行列の各要素を画像復元フィルタの各フィルタ係数として求める。この画像復元フィルタは、劣化画像から復元画像を得るためのフィルタである。実際には、上記式(B−3)の右辺の一部に相当する下記式(B−5)にて表される行列の各要素が、画像復元フィルタの各フィルタ係数に相当するため、ステップS74におけるフーリエ反復法の計算途中結果をそのまま利用可能である。但し、式(B−5)におけるH’*及びH’は、ステップS118の収束条件の成立直前に得られたH’*及びH’(即ち、最終的に得られたH’*及びH’)である。 Returning to the description of each step in FIG. After the PSF is calculated in step S74, the process proceeds to step S75. In step S75, each element of the inverse matrix of PSF obtained in step S74 is obtained as each filter coefficient of the image restoration filter. This image restoration filter is a filter for obtaining a restored image from a deteriorated image. Actually, each element of the matrix represented by the following equation (B-5) corresponding to a part of the right side of the equation (B-3) corresponds to each filter coefficient of the image restoration filter. The intermediate calculation result of the Fourier iteration method in S74 can be used as it is. However, the formula (B-5) H 'in * and H' is, H obtained satisfied immediately before the convergence condition in step S118 '* and H' (i.e., the finally obtained H '* and H' ).

ステップS75にて画像復元フィルタの各フィルタ係数が求められた後、ステップS76に移行し、この画像復元フィルタを用いて、補正対象画像としての通常露光画像JLの全体をフィルタリング(空間フィルタリング)する。即ち、求められた各フィルタ係数を有する画像復元フィルタを通常露光画像JLの各画素に適用して通常露光画像JLをフィルタリングする。これにより、通常露光画像JLに含まれるぶれを低減したフィルタリング画像が生成される。画像復元フィルタのサイズは通常露光画像JLの画像サイズよりも小さいが、手ぶれは画像全体に一様な劣化を与えると考えられるため、この画像復元フィルタを通常露光画像JLの全体に対して適用することによって、通常露光画像JLの全体のぶれが低減される。 After each filter coefficient of the image restoration filter is obtained in step S75, the process proceeds to step S76, and the entire normal exposure image J L as the correction target image is filtered (spatial filtering) using this image restoration filter. . That is, the image deconvolution filter having the filter coefficients calculated usually applied to each pixel of the exposure image J L filtering the normal exposure image J L. Accordingly, the filtered image with reduced blur contained in the ordinary-exposure image J L is generated. Although the size of the image restoration filter is smaller than the image size of the normal exposure image J L , camera shake is considered to give uniform degradation to the entire image, so this image restoration filter is applied to the entire normal exposure image J L. by application to the overall blurring of the normal exposure image J L is reduced.

フィルタリング画像には、フィルタリングに伴うリンギングが含まれうる。このため、ステップS77において、これを除去するためのリンギング除去処理をフィルタリング画像に施すことにより最終的なぶれ補正画像を生成する。リンギングを除去する手法は公知であるため、詳細な説明を割愛する。その手法として、例えば特開2006−129236号公報に記載の手法を用いればよい。   The filtering image may include ringing accompanying filtering. For this reason, in step S77, a final blurring correction image is generated by applying a ringing removal process for removing this to the filtered image. Since the method for removing ringing is known, a detailed description is omitted. For example, a technique described in JP 2006-129236 A may be used.

ぶれ補正画像は、補正対象画像に含まれるぶれが低減され且つフィルタリングに伴うリンギングが低減された画像となる。但し、フィルタリング画像もぶれが低減された画像であるため、フィルタリング画像をぶれ補正画像として捉えることも可能である。   The blur correction image is an image in which blur included in the correction target image is reduced and ringing due to filtering is reduced. However, since the filtered image is also an image with reduced blur, the filtered image can be regarded as a shake-corrected image.

短露光画像に含まれるぶれ量は少ないため、それのエッジ成分は、手ぶれのない理想画像のエッジ成分に近い。従って、上述の如く、この短露光画像から得られる画像をフーリエ反復法における初期復元画像とする。   Since the amount of blur included in the short-exposure image is small, its edge component is close to the edge component of an ideal image without camera shake. Therefore, as described above, an image obtained from this short-exposure image is used as an initial restored image in the Fourier iteration method.

フーリエ反復法によるループ処理の繰り返しによって、復元画像(f')は、手ぶれが極力除去された画像に徐々に近づいていくが、初期復元画像自体が既に手ぶれのない画像に近いため、従来の如くランダム画像や劣化画像を初期復元画像とするよりも収束が早くなる(最短では、1回のループ処理で収束する)。この結果、ぶれ補正処理に必要な手ぶれ情報作成用の処理時間が短縮される。また、初期復元画像が収束すべき画像からかけ離れていると局所解(真に収束すべき画像とは異なる画像)に収束する確率が高くなるが、上述のように初期復元画像を設定することにより、局所解に収束する確率が低くなる(即ち、手ぶれ補正に失敗する確率が低くなる)。   By repetitive loop processing by the Fourier iteration method, the restored image (f ′) gradually approaches an image from which camera shake has been removed as much as possible. However, since the initial restored image itself is already close to an image without camera shake, Convergence is faster than a random image or a deteriorated image as an initial restored image (in the shortest, convergence is achieved by a single loop process). As a result, the processing time for creating camera shake information necessary for the camera shake correction process is shortened. If the initial restored image is far from the image to be converged, the probability of convergence to a local solution (an image different from the image to be truly converged) increases. However, by setting the initial restored image as described above, , The probability of convergence to a local solution is low (that is, the probability that camera shake correction fails) is low.

また、手ぶれは画像全体に一様な劣化を与えると考えられるため、各画像から小領域を抽出して各小領域の画像データから手ぶれ情報を作成し、それを画像全体に適用する。これにより、必要な演算量が低減され、手ぶれ情報作成用の処理時間及び手ぶれ補正用の処理時間が短縮される。勿論、必要回路の規模縮小化やそれに伴うコストダウン効果も見込める。   In addition, since camera shake is considered to cause uniform degradation on the entire image, a small area is extracted from each image, and camera shake information is created from the image data of each small area, and is applied to the entire image. As a result, the amount of calculation required is reduced, and the processing time for creating camera shake information and the processing time for correcting camera shake are shortened. Of course, the required circuit scale can be reduced and the cost reduction effect can be expected.

この際、上述の如く、エッジ成分を多く含む特徴的な小領域から手ぶれ情報を作成するようにする。PSFの算出元画像におけるエッジ成分の増大は、雑音成分に対する信号成分の割合の増大を意味するため、特徴的な小領域の抽出によって雑音の影響が小さくなり、PSFをより正確に検出することができるようになる。   At this time, as described above, camera shake information is created from a characteristic small region containing a lot of edge components. An increase in the edge component in the PSF calculation source image means an increase in the ratio of the signal component to the noise component. Therefore, the influence of noise is reduced by extracting a characteristic small region, and the PSF can be detected more accurately. become able to.

尚、図17の処理では、空間領域上における劣化画像g及び復元画像f’がフーリエ変換によって周波数領域上に変換されることで、周波数領域上の劣化画像gを表す関数G及び周波数領域上の復元画像f’を表す関数F’が求められる(尚、周波数領域とは、勿論、二次元の周波数領域である)。求められた関数G及びF’から周波数領域上のPSFを表す関数Hが求められ、この関数Hは逆フーリエ変換によって空間領域上の関数、即ち、PSF hに変換される。このPSF hは、所定の拘束条件を用いて修正され、修正後のPSF h'が求められる。このPSFを修正する処理を、以下「第1の修正処理」と呼ぶ。   In the process of FIG. 17, the degraded image g and the restored image f ′ on the spatial domain are transformed to the frequency domain by Fourier transform, so that the function G representing the degraded image g on the frequency domain and the frequency domain A function F ′ representing the restored image f ′ is obtained (note that the frequency domain is, of course, a two-dimensional frequency domain). A function H representing PSF in the frequency domain is obtained from the obtained functions G and F ′, and this function H is converted into a function in the spatial domain, that is, PSF h by inverse Fourier transform. The PSF h is corrected using a predetermined constraint condition, and a corrected PSF h ′ is obtained. The process of correcting the PSF is hereinafter referred to as “first correction process”.

PSF h'はフーリエ変換によって再度、周波数領域上に変換されて関数H’が求められ、関数H’と関数Gから周波数領域上の復元画像を表す関数Fが求められる。この関数Fを逆フーリエ変換することによって空間領域上の復元画像fが得られ、この復元画像fが所定の拘束条件を用いて修正されて、修正後の復元画像f’が求められる。この復元画像を修正する処理を、以下「第2の修正処理」と呼ぶ。   PSF h ′ is again transformed onto the frequency domain by Fourier transform to obtain a function H ′, and a function F representing a restored image on the frequency domain is obtained from the functions H ′ and G. By performing inverse Fourier transform on this function F, a restored image f in the spatial domain is obtained, and this restored image f is corrected using a predetermined constraint condition, and a corrected restored image f ′ is obtained. The processing for correcting the restored image is hereinafter referred to as “second correction processing”.

上述の例では、この後、図17のステップS118にて収束条件が満たされるまで、修正後の復元画像f’を用いて上述の処理が反復されると述べた。また、反復処理が収束に向かえば修正量が小さくなるという特性を考慮し、この収束条件の成立/不成立を、第1の修正処理に対応するステップS113での修正量、又は、第2の修正処理に対応するステップS117での修正量に基づいて判断しても良いとも述べた。この判断を修正量に基づいて行う場合、基準修正量を予め設定しておき、ステップS113での修正量又はステップS117での修正量と基準修正量とを比較して、前者が後者よりも小さい場合に収束条件が成立すると判断することになるが、基準修正量を十分に大きく設定しておけば、ステップS110〜S117の処理は反復実行されない。つまり、この場合、第1の修正処理を1回だけ行って得たPSF h'が、図16のステップS74で導出されるべき最終的なPSFとなる。このように、図17の処理を用いたとしても、第1及び第2の修正処理が繰り返し実行されるとは限らない。   In the above-described example, it has been described that, after that, the above-described processing is repeated using the corrected restored image f ′ until the convergence condition is satisfied in step S <b> 118 of FIG. 17. Further, considering the characteristic that the correction amount becomes smaller when the iterative process is toward convergence, the establishment / non-establishment of the convergence condition is determined by the correction amount in step S113 corresponding to the first correction process or the second correction. It has also been stated that the determination may be made based on the correction amount in step S117 corresponding to the processing. When this determination is made based on the correction amount, a reference correction amount is set in advance, and the correction amount in step S113 or the correction amount in step S117 is compared with the reference correction amount, and the former is smaller than the latter. In this case, it is determined that the convergence condition is satisfied. However, if the reference correction amount is set sufficiently large, the processes in steps S110 to S117 are not repeatedly executed. That is, in this case, PSF h ′ obtained by performing the first correction process only once is the final PSF to be derived in step S74 in FIG. Thus, even if the process of FIG. 17 is used, the first and second correction processes are not always repeatedly executed.

第1及び第2の修正処理の繰り返し実行回数の増大は、最終的に求まるPSFの精度向上に寄与するが、本例では初期復元画像自体が既に手ぶれのない画像に近いため、第1の修正処理を1回だけ行って得たPSF h’の精度も、実用上、問題ない程度に高い。これを考慮すれば、ステップS118の判定処理自体を省略することも可能である。この場合、1回だけステップS113の処理を実行することで求まるPSF h’が図16のステップS74で導出されるべき最終的なPSFとなり、1回だけステップS114の処理を実行することで求まる関数H’から、図16のステップS75で導出されるべき画像復元フィルタの各フィルタ係数が求まる。故に、ステップS118の処理を省略する場合は、ステップS115〜S117の処理も割愛される。   The increase in the number of repeated executions of the first and second correction processes contributes to improving the accuracy of the finally obtained PSF. However, in this example, since the initial restoration image itself is close to an image without camera shake, the first correction is performed. The accuracy of PSF h ′ obtained by performing the treatment only once is also high enough to cause no problem. In consideration of this, the determination process itself in step S118 can be omitted. In this case, the PSF h ′ obtained by executing the process of step S113 only once becomes the final PSF to be derived in step S74 of FIG. 16, and the function obtained by executing the process of step S114 only once. From H ′, each filter coefficient of the image restoration filter to be derived in step S75 in FIG. 16 is obtained. Therefore, when the process of step S118 is omitted, the processes of steps S115 to S117 are also omitted.

<<第2実施形態>>
次に、本発明の第2実施形態について説明する。図19は、本発明の第2実施形態に係る撮像装置1aの全体ブロック図である。撮像装置1aは、静止画像を撮影及び記録可能なデジタルスチルカメラ、又は、静止画像及び動画像を撮影及び記録可能なデジタルビデオカメラである。
<< Second Embodiment >>
Next, a second embodiment of the present invention will be described. FIG. 19 is an overall block diagram of an imaging apparatus 1a according to the second embodiment of the present invention. The imaging device 1a is a digital still camera capable of capturing and recording still images, or a digital video camera capable of capturing and recording still images and moving images.

撮像装置1aは、撮像部11、AFE(Analog Front End)12、内部メモリ14、表示部15、記録媒体16及び操作部17を備えており、それらは、図1の撮像装置1におけるそれらと同じものである。撮像装置1aは、更に、主制御部13a及びセンサ部18を備えている。主制御部13aは、図1の主制御部13が有する機能と同等の機能を備えている。撮像装置1aは、センサ部18から与えられる角速度データに基づいてぶれ補正処理を実行する点において、撮像装置1と相違しているが、その他の点において、両撮像装置の構成及び機能は共通している。故に、両撮像装置間の共通点に対する説明を割愛し、両撮像装置間の相違点に特に着目して、第2実施形態の説明を行う。   The imaging device 1a includes an imaging unit 11, an AFE (Analog Front End) 12, an internal memory 14, a display unit 15, a recording medium 16, and an operation unit 17, which are the same as those in the imaging device 1 of FIG. Is. The imaging apparatus 1a further includes a main control unit 13a and a sensor unit 18. The main control unit 13a has a function equivalent to the function of the main control unit 13 of FIG. The imaging device 1a is different from the imaging device 1 in that it performs shake correction processing based on the angular velocity data given from the sensor unit 18, but in other points, the configuration and function of both imaging devices are common. ing. Therefore, description of the common points between the two image pickup devices will be omitted, and the second embodiment will be described by paying particular attention to the difference between the two image pickup devices.

第1実施形態に記載した事項は、矛盾なき限り第2実施形態に適用されるが、この適用の際、同一名称によって参照される部位間の符号の相違は無視される(例えば、主制御部13と主制御部13aとの間における、符号の相違(13と13aの相違)は適宜無視される)。   The matters described in the first embodiment are applied to the second embodiment as long as there is no contradiction. However, in this application, the difference in reference numerals between parts referred to by the same name is ignored (for example, the main control unit 13 and the main control unit 13a are different in sign (difference between 13 and 13a is appropriately ignored).

図20に、撮像装置1aの外観斜視図を示す。図20における一点鎖線300は、撮像部11の光軸を表している。今、光軸は水平面に平行であるとする。   FIG. 20 shows an external perspective view of the imaging apparatus 1a. An alternate long and short dash line 300 in FIG. 20 represents the optical axis of the imaging unit 11. Now assume that the optical axis is parallel to the horizontal plane.

センサ部18は、2つの角速度センサ18Y及び18Pを有し、撮像装置1aに作用する所謂手ぶれを検出する。角速度センサ18Yは、一定のサンプリング間隔にて周期的に撮像装置1aのヨー方向(水平方向)の角速度を計測して各サンプリング期間における撮像装置1aのヨー方向の角速度を表す信号を出力する。同様に、角速度センサ18Pは、上記サンプリング間隔にて周期的に撮像装置1aのピッチ方向(垂直方向)の角速度を計測して各サンプリング期間における撮像装置1aのピッチ方向の角速度を表す信号を出力する。   The sensor unit 18 includes two angular velocity sensors 18Y and 18P, and detects so-called camera shake that acts on the imaging device 1a. The angular velocity sensor 18Y periodically measures the angular velocity in the yaw direction (horizontal direction) of the imaging device 1a at a constant sampling interval, and outputs a signal representing the angular velocity in the yaw direction of the imaging device 1a in each sampling period. Similarly, the angular velocity sensor 18P periodically measures the angular velocity in the pitch direction (vertical direction) of the imaging device 1a at the sampling interval, and outputs a signal representing the angular velocity in the pitch direction of the imaging device 1a in each sampling period. .

ヨー方向とピッチ方向は、互いに直交し、且つ、光軸にも直交する。撮像装置1aにヨー方向のぶれを与えれば、撮像装置1aの光軸は水平面に平行な面上で回転し、撮像装置1aにピッチ方向のぶれを与えれば、撮像装置1aの光軸は鉛直面に平行な面上で回転する。ヨー方向の手ぶれによって撮像素子33の撮像面上に結像する像は撮像面上で左右方向(撮像面の水平方向)に移動し、ピッチ方向の手ぶれによって撮像素子33の撮像面上に結像する像は撮像面上で上下方向(撮像面の垂直方向)に移動する。各角速度センサの出力信号から生成される角速度データは、主制御部13aに伝達される。角速度データは、撮像装置1aの動き(即ち、撮像装置1aのヨー方向及びピッチ方向の動き)を表す情報である。   The yaw direction and the pitch direction are orthogonal to each other and also orthogonal to the optical axis. If the image pickup device 1a is shaken in the yaw direction, the optical axis of the image pickup device 1a rotates on a plane parallel to the horizontal plane. If the image pickup device 1a is shaken in the pitch direction, the optical axis of the image pickup device 1a is the vertical plane. Rotate on a plane parallel to. An image formed on the image pickup surface of the image pickup device 33 due to camera shake in the yaw direction moves in the left-right direction (horizontal direction of the image pickup surface) on the image pickup surface, and is formed on the image pickup surface of the image pickup device 33 by camera shake in the pitch direction. The image to be moved moves in the vertical direction (perpendicular to the imaging surface) on the imaging surface. Angular velocity data generated from the output signal of each angular velocity sensor is transmitted to the main controller 13a. The angular velocity data is information representing the movement of the imaging apparatus 1a (that is, the movement of the imaging apparatus 1a in the yaw direction and the pitch direction).

撮影画像は、手ぶれに起因するぶれを含みうる。主制御部13aにはぶれ補正処理を実行するぶれ補正部(ぶれ補正装置)が内在されており、画像処理によって静止画像のぶれを補正する機能を備える。第1実施形態と同様、ぶれ補正部によってぶれが補正されるべき静止画像としての撮影画像を、特に「補正対象画像」と呼び、そのぶれの補正後の画像を「ぶれ補正画像」と呼ぶ。   The photographed image can include a camera shake caused by camera shake. The main control unit 13a includes a blur correction unit (blur correction device) that performs a blur correction process, and has a function of correcting blur of a still image by image processing. As in the first embodiment, a captured image as a still image whose blur is to be corrected by the blur correction unit is particularly referred to as a “correction target image”, and an image after the blur correction is referred to as a “blur correction image”.

図21に、撮像装置1aの一部ブロック図を示す。主制御部13aは、補正対象画像の露光期間中における撮像装置1aの動きに由来する補正対象画像のぶれが予め規定された類型的なぶれに属するか否かを角速度データに基づいて判断する類型判定部61と、撮像素子33の露光時間に対する制御を含む撮影制御を行う撮影制御部62と、類型判定部61の判断結果に基づいて記録媒体16に記録されるべきデータを生成して該データを記録媒体16に記録させる記録制御部63と、記録媒体16の記録データを受け取って補正対象画像に対するぶれ補正処理を実行する補正処理部64と、を備える。尚、類型判定部61は、記録制御部63に内在している。センサ部18からの角速度データは、記録制御部63及びそれに内在する類型判定部61に与えられる。   FIG. 21 shows a partial block diagram of the imaging apparatus 1a. The main control unit 13a determines, based on the angular velocity data, whether the blur of the correction target image resulting from the movement of the imaging device 1a during the exposure period of the correction target image belongs to a predetermined type of blur. The data to be recorded on the recording medium 16 is generated based on the determination result of the determination unit 61, the imaging control unit 62 that performs imaging control including control over the exposure time of the image sensor 33, and the data to be recorded on the recording medium 16. Are recorded on the recording medium 16, and a correction processing unit 64 that receives the recording data of the recording medium 16 and executes shake correction processing on the correction target image. The type determination unit 61 is inherent in the recording control unit 63. The angular velocity data from the sensor unit 18 is given to the recording control unit 63 and the type determination unit 61 included therein.

図22は、第2実施形態に係る、撮像装置1aの撮影動作の流れを表すフローチャートである。このフローチャートを参照して、撮像装置1aの撮影動作を説明する。図22に示すステップS201〜S211の各処理は撮影モードにおいて実行される。   FIG. 22 is a flowchart showing the flow of the shooting operation of the imaging apparatus 1a according to the second embodiment. With reference to this flowchart, the photographing operation of the imaging apparatus 1a will be described. Each process of steps S201 to S211 shown in FIG. 22 is executed in the photographing mode.

撮影モードにおいてシャッタボタン17aが押下されると、ステップS201において、主制御部13aは、光学系35内のレンズの位置及び既知情報等に基づいて撮像部11の焦点距離fDを表すデータを取得すると共に、被写体の明るさを測定する測光回路(不図示)から得られた明るさ情報に基づいて撮像素子33の露光量が適正となる露光時間TEPを算出する。 Acquired when the shutter release button 17a is pressed in shooting mode, in step S201, the main control unit 13a, the data representing the focal length f D of the imaging unit 11 based on the position and the known information of the lens in the optical system 35 while, the exposure amount of the image sensor 33 to calculate the exposure time T EP to be appropriate based on the brightness information obtained from the photometric circuit for measuring the brightness of an object (not shown).

この後、ステップS202において、撮像装置1aは、通常露光撮影を実行することにより通常露光画像GLを取得する。通常露光撮影の露光時間としてTEPが用いられる。撮影制御部62が、露光時間TEPに基づいて通常露光撮影用の露光時間制御信号を生成して撮像素子33に与えることよりにより通常露光撮影が実行される。また、通常露光撮影の実行時における撮像部11の焦点距離はfDである。通常露光画像GLの画像データは記録制御部63に与えられる。 Thereafter, in step S202, the imaging apparatus 1a acquires the normal exposure image GL by executing normal exposure shooting. TEP is used as the exposure time for normal exposure photography. The exposure control unit 62 generates an exposure time control signal for normal exposure shooting based on the exposure time TEP and supplies it to the image sensor 33, whereby normal exposure shooting is executed. Further, the focal length of the imaging unit 11 at the time of executing the normal exposure shooting is f D. The image data of the normal exposure image GL is given to the recording control unit 63.

他方、ステップS203において、記録制御部63は、通常露光画像GLの露光期間中における角速度データを取得する。今、図23に示す如く、通常露光画像GLの露光期間の開始時刻及び終了時刻が夫々t0及びtnであり、時刻t0を起点として角速度センサ18P及び18Yのサンプリング間隔が経過する毎に時刻t1、t2、・・・、tn-1及びtnが順次訪れるものとする(nは2以上の整数であって例えば33)。時刻t0と時刻t1との間の期間、時刻t1と時刻t2との間の期間、・・・、時刻tn-1と時刻tnとの間の期間の夫々が、サンプリング期間である。サンプリング期間の長さは、例えば、1/1000秒である。 On the other hand, in step S203, the recording control unit 63 acquires angular velocity data during the exposure period of the normal exposure image GL . Now, as shown in FIG. 23, the start time and end time of the exposure period of the normal exposure image GL are t 0 and t n , respectively, and every time the sampling interval of the angular velocity sensors 18P and 18Y elapses starting from the time t 0. time t 1, t 2, ···, t n-1 and t n is assumed to come sequentially (n is 2 or more an integer example 33) in. Each of a period between time t 0 and time t 1 , a period between time t 1 and time t 2 ,..., A period between time t n−1 and time t n is a sampling period. It is. The length of the sampling period is, for example, 1/1000 second.

センサ部18は、サンプリング期間毎に1つの角速度データを出力する。或る1つの着目したサンプリング期間に対する角速度データは、その着目したサンプリング期間における、撮像装置1aのヨー方向及びピッチ方向の角速度を表す。通常露光画像GLの露光期間中における全角速度データ(即ち、n個の角速度データ)を、角速度データ群DALLと呼ぶ。 The sensor unit 18 outputs one angular velocity data for each sampling period. The angular velocity data for one particular sampling period represents the angular velocities in the yaw direction and the pitch direction of the imaging apparatus 1a during the noticed sampling period. All angular velocity data (that is, n angular velocity data) during the exposure period of the normal exposure image GL is referred to as an angular velocity data group D ALL .

角速度データ群DALLは類型判定部61に与えられる。類型判定部61は、焦点距離fD並びに通常露光画像GLの水平及び垂直方向の画素数などに基づいて、角速度データ群DALLを形成する角速度データの夫々を、通常露光画像GL上の動きベクトルに変換する。この変換方法は周知であるため詳細な説明を割愛する(例えば、特開2006−129236号参照)。時刻ti-1−ti間のサンプリング期間における角速度データを変換することによって得られる動きベクトルをmiにて表す(ここで、iは1以上n以下の整数)。類型判定部61は、通常露光画像GLに対してn個の動きベクトルm1〜mnを算出する(図23参照)。 The angular velocity data group D ALL is given to the type determination unit 61. Type determination unit 61, based on such focal length f D and normal number of pixels in the horizontal and vertical directions of the exposure image G L, respectively of the angular velocity data forming the angular velocity data groups D ALL, on normal exposure image G L Convert to motion vector. Since this conversion method is well known, a detailed description thereof will be omitted (for example, see JP-A-2006-129236). The motion vectors obtained by converting the angular velocity data during the sampling phase between times t i-1 -t i expressed by m i (where, i is an integer from 1 to n). The type determining unit 61 calculates n motion vectors m 1 to m n for the normal exposure image GL (see FIG. 23).

例えば、時刻ti-1において撮像部11の撮像面の中心に実静止点(実空間上で静止している点)の像が結像しており且つ時刻ti-1−ti間においてヨー方向又はピッチ方向に撮像装置1aが回転した場合、時刻ti-1−ti間において該実静止点の像は撮像面上において該中心から移動する。この移動の方向及び大きさを、通常露光画像GL上におけるベクトルとして表現したものが動きベクトルmiである。 For example, an image of a real still point (a point stationary in real space) is formed at the center of the imaging surface of the imaging unit 11 at time t i−1 , and between time t i−1 and t i . When the imaging device 1a rotates in the yaw direction or the pitch direction, the image of the actual still point moves from the center on the imaging surface between times t i-1 and t i . The direction and magnitude of this movement, a normal exposure image G L on a representation of the vector in the motion vector m i.

また、動きベクトルm1〜miを合成して得られる合成ベクトルを積分ベクトルSiという。類型判定部61は、変数iを1以上n以下の整数の夫々とした場合における積分ベクトルSi(即ち、積分ベクトルS1〜Sn)を求める。S1は、動きベクトルm1そのものであるが、便宜上、S1も積分ベクトルと呼ぶ。図24に示す如く、例えば、積分ベクトルS2は、動きベクトルm1及びm2を順次繋ぎ合わせて生成される、動きベクトルm1及びm2の合成ベクトルであり、積分ベクトルS3は、動きベクトルm1〜m3を順次繋ぎ合わせて生成される、動きベクトルm1〜m3の合成ベクトルである。 Moreover, the combined vector obtained by combining the motion vector m 1 ~m i that integral vector S i. The type determination unit 61 obtains an integration vector S i (that is, integration vectors S 1 to S n ) when the variable i is an integer of 1 to n . S 1 is the motion vector m 1 itself, but for convenience, S 1 is also called an integral vector. As shown in FIG. 24, for example, integral vector S 2 is generated in accordance sequentially connecting the motion vector m 1 and m 2, a composite vector of the motion vectors m 1 and m 2, integral vector S 3, the motion generated combined sequentially connecting the vector m 1 ~m 3, a synthetic vector of the motion vector m 1 ~m 3.

また、便宜上、図25に示すような、互いに直交するx軸及びy軸を座標軸とする二次元の座標面XYを定義し、その座標面XY上に通常露光画像GLが投影されるものとする。x軸及びy軸方向は夫々通常露光画像GLの水平及び垂直方向に合致するものとする。動きベクトルm1〜mn及び積分ベクトルS1〜Snは全て座標面XY上のベクトルであり、動きベクトルm1の始点及び積分ベクトルS1〜Snの全ての始点は座標面XY上の原点に配置されるものとする。 For convenience, a two-dimensional coordinate plane XY with the x axis and the y axis orthogonal to each other as shown in FIG. 25 is defined, and the normal exposure image GL is projected on the coordinate plane XY. To do. The x-axis and y-axis directions are assumed to match the horizontal and vertical directions of the normal exposure image GL , respectively. All motion vectors m 1 ~m n and integral vector S 1 ~S n is a vector on the coordinate plane XY, all motion vectors m 1 of the start point and the integral vector S 1 ~S n start point on the coordinate plane XY of It shall be placed at the origin.

類型判定部61によって、角速度データ群DALLから動きベクトルm1〜mn及び積分ベクトルS1〜Snが求められた後、図22のステップS203からステップS204に移行する。 The type determination unit 61, after the motion vector m 1 ~m n and integral vector S 1 to S n is determined from the angular velocity data group D ALL, the program proceeds from step S203 in FIG. 22 to step S204.

ステップS204において、類型判定部61は、ぶれ軌跡の形状を数式化できるか否かを判定する。ぶれ軌跡とは、通常露光画像GLの露光期間中における撮像装置1aの動きによって生じた、通常露光画像GLのぶれの軌跡を意味する。積分ベクトルS1〜Snの終点を順次結んでいった時に得られる軌跡がぶれ軌跡に相当する(図24も参照)。 In step S204, the type determining unit 61 determines whether or not the shape of the blurring trajectory can be mathematically expressed. The blur locus means a blur locus of the normal exposure image GL caused by the movement of the imaging device 1a during the exposure period of the normal exposure image GL . Locus obtained when the end point went sequentially connecting the integral vector S 1 to S n are blurring corresponds to the trajectory (see Figure 24 also).

数式化できるか否かの判定は、ぶれ軌跡の形状が、点、直線又は二次曲線の形状に近似できるか否かを判定することによって行われる。数式化できると判定された場合は、ステップS204からステップS205に移行し、類型判定部61にて形状数式データDF(以下、数式データDFと略記することがある)が生成される。図26に、その判定方法を含む、ステップS204及びS205の処理内容を表す。   The determination as to whether the expression can be made is performed by determining whether the shape of the blur locus can be approximated to the shape of a point, a straight line, or a quadratic curve. If it is determined that the expression can be expressed, the process proceeds from step S204 to step S205, and the shape determination unit 61 generates the shape expression data DF (hereinafter sometimes abbreviated as expression data DF). FIG. 26 shows the processing contents of steps S204 and S205 including the determination method.

具体的には、ステップS204において、積分ベクトルSnの大きさと所定の閾値THAとを比較し、前者が後者よりも小さい場合に、ぶれ軌跡の形状を点の形状に近似できると判定し、前者が後者以上である場合、その近似ができないと判定する。 More specifically, in step S204, compares the magnitude of the integral vector S n with a predetermined threshold value TH A, if the former is smaller than the latter, it determines that it approximates the shape of the trajectory of blur in the shape of a point, If the former is greater than or equal to the latter, it is determined that the approximation cannot be performed.

ぶれ軌跡の形状を点の形状に近似できると判定した場合は、ぶれ軌跡の近似式を「x2+y2<r2」とみなし、その近似式におけるrの値と点フラグとを含むデータを数式データDFとして生成する。ぶれ軌跡の近似式におけるx及びyは、ぶれ軌跡の、座標面XYにおけるx軸成分及びy軸成分を表している。rの値は、予め設定されている。或いは、積分ベクトルSnの大きさをrの値に代入するようにしてもよい。 When it is determined that the shape of the blur locus can be approximated to the shape of a point, the approximate equation of the blur locus is regarded as “x 2 + y 2 <r 2 ”, and data including the value of r and the point flag in the approximate equation is used. Generated as mathematical formula data DF. X and y in the approximate expression of the blur locus represent the x-axis component and the y-axis component of the blur locus on the coordinate plane XY. The value of r is set in advance. Alternatively, the magnitude of the integral vector S n may be substituted for the value of r.

また、ステップS204において、積分ベクトルS1〜Snの終点(合計n個の終点)から成る点群に対する近似直線を最小二乗法によって求める。図27に、積分ベクトルSn-3、Sn-2、Sn-1及びSnの終点としての点311、312、313及び314と、求められた近似直線320を示す。或る積分ベクトルの終点(例えば、点311)と近似直線320との距離は、その終点に対する近似直線の誤差を表している。類型判定部61は、近似直線の誤差を積分ベクトルS1〜Snの夫々に対して求めて、積分ベクトルS1〜Snに対する誤差の総和をnで割った値を評価値EV1として求める。そして、評価値EV1と所定の閾値THBとを比較し、前者が後者よりも小さい場合に、ぶれ軌跡の形状を直線の形状に近似できると判定し、前者が後者以上である場合、その近似ができないと判定する。 Further, in step S204, we obtain an approximate straight line for the point group consisting of the end point of the integral vector S 1 to S n (total of n end points) by the least square method. FIG. 27 shows the points 311, 312, 313 and 314 as the end points of the integral vectors S n−3 , S n−2 , S n−1 and S n and the obtained approximate straight line 320. The distance between the end point (for example, the point 311) of an integration vector and the approximate line 320 represents the error of the approximate line with respect to the end point. Type determination unit 61, the error of the approximation straight line calculated for each of the integral vector S 1 to S n, obtains the value of the sum of the error divided by n for the integral vector S 1 to S n as the evaluation value E V1 . Then, the evaluation value E V1 is compared with a predetermined threshold value TH B , and when the former is smaller than the latter, it is determined that the shape of the blurring locus can be approximated to the shape of a straight line. Determine that approximation is not possible.

ぶれ軌跡の形状を直線の形状に近似できると判定した場合は、ぶれ軌跡の近似式を「y=ax+b」とみなし、その近似式におけるa及びbの値と直線フラグとを含むデータを数式データDFとして生成する。a及びbは、夫々、近似直線320の傾き及びy切片である。   If it is determined that the shape of the blur locus can be approximated to a straight line shape, the approximate equation of the blur locus is regarded as “y = ax + b”, and data including the values of a and b and the straight line flag in the approximate equation is expressed as mathematical data. Generate as DF. a and b are the slope and y-intercept of the approximate line 320, respectively.

また、ステップS204において、積分ベクトルS1〜Snの終点(合計n個の終点)から成る点群に対する近似二次曲線を最小二乗法によって求める。或る積分ベクトルの終点と近似二次曲線との距離は、その終点に対する近似二次曲線の誤差を表している。類型判定部61は、近似二次曲線の誤差を積分ベクトルS1〜Snの夫々に対して求めて、積分ベクトルS1〜Snに対する誤差の総和をnで割った値を評価値EV2として求める。そして、評価値EV2と所定の閾値THCとを比較し、前者が後者よりも小さい場合に、ぶれ軌跡の形状を二次曲線の形状に近似できると判定し、前者が後者以上である場合、その近似ができないと判定する。 Further, in step S204, it obtains the approximate quadratic curve for the integral vector S 1 to S n point group consisting of the end point (the sum of n end points) of the least squares method. The distance between the end point of an integral vector and the approximate quadratic curve represents the error of the approximate quadratic curve with respect to the end point. Type determination unit 61, the error of the approximate quadratic curve determined for each of the integral vector S 1 to S n, the value obtained by dividing the error summation for the integral vector S 1 to S n in n evaluation value E V2 Asking. Then, by comparing the evaluation value E V2 with a predetermined threshold value TH C, if the former is smaller than the latter, it determines that the shape of the trajectory of blur can be approximated to the shape of the quadratic curve, if the former is the latter more It is determined that the approximation cannot be performed.

ぶれ軌跡の形状を二次曲線の形状に近似できると判定した場合は、ぶれ軌跡の近似式を「y=ax2+bx+c」とみなし、その近似式におけるa、b及びcの値と二次曲線フラグとを含むデータを数式データDFとして生成する。a、b及びcの値は、近似二次曲線から求まる。 When it is determined that the shape of the blur locus can be approximated to the shape of a quadratic curve, the approximate equation of the blur locus is regarded as “y = ax 2 + bx + c”, and the values of a, b, and c in the approximate equation and the quadratic curve Data including a flag is generated as mathematical formula data DF. The values of a, b, and c are obtained from an approximate quadratic curve.

ステップS204において、ぶれ軌跡の形状が、点、直線又は二次曲線の形状に近似できると判定された場合、ステップS205にて数式データDFが生成された後、ステップS206に移行し、ぶれ軌跡の形状が点、直線及び二次曲線の形状の何れにも近似できないと判定された場合、ステップS204からステップS210に移行する。   If it is determined in step S204 that the shape of the blur locus can be approximated to the shape of a point, straight line, or quadratic curve, the mathematical formula data DF is generated in step S205, and then the process proceeds to step S206. When it is determined that the shape cannot be approximated to any of a point, a straight line, and a quadratic curve, the process proceeds from step S204 to step S210.

尚、ステップS206に移行した場合、原則としてステップS206の判定処理が実行されるが、ぶれ軌跡の形状が点の形状に近似できると判定された場合は、例外的にステップS206及びS207の処理を行うことなく、ステップS208に移行する。   When the process proceeds to step S206, in principle, the determination process of step S206 is executed. However, when it is determined that the shape of the blurring locus can be approximated to the shape of a point, the processes of steps S206 and S207 are exceptionally performed. Without performing, the process proceeds to step S208.

ステップS206において、類型判定部61は、ぶれ速度の変化状態を数式化できるか否かを判定する。ぶれ速度とは、ぶれ軌跡を描く速度を意味する。数式化できるか否かの判定は、ぶれ速度の変化状態が、等速又は等加速に近似できるか否かを判定することによって行われる。ここにおける等加速とは、負の加速(即ち、等減速)をも含む概念である。数式化できると判定された場合は、ステップS206からステップS207に移行し、類型判定部61にて速度変化数式データDS(以下、数式データDSと略記することがある)が生成される。図28に、その判定方法を含む、ステップS206及びS207の処理内容を表す。   In step S206, the type determination unit 61 determines whether or not the change state of the shake speed can be expressed as a formula. The blur speed means the speed at which the blur trajectory is drawn. The determination as to whether or not the expression can be expressed is performed by determining whether or not the change state of the shake speed can be approximated to a constant speed or a constant acceleration. Here, equal acceleration is a concept including negative acceleration (that is, equal deceleration). If it is determined that the expression can be expressed, the process proceeds from step S206 to step S207, and the type determination unit 61 generates speed change expression data DS (hereinafter sometimes abbreviated as expression data DS). FIG. 28 shows the processing contents of steps S206 and S207 including the determination method.

具体的には、ステップS206において、動きベクトルm1〜mnのノルムの分散(即ち、動きベクトルm1〜mnの大きさの分散)と所定の閾値THDを比較し、前者が後者よりも小さい場合に、ぶれ軌跡を描く過程においてぶれ速度の変化がない、即ちぶれ速度の変化状態を等速に近似できると判定し、前者が後者以上である場合、その近似ができないと判定する。 Specifically, in step S206, variance of the norm of the motion vector m 1 ~m n (i.e., the variance of the magnitude of the motion vector m 1 ~m n) is compared with a predetermined threshold value TH D, the former than the latter Is smaller, it is determined that there is no change in the shake speed in the process of drawing the blur locus, that is, it is determined that the change state of the shake speed can be approximated at a constant speed.

ぶれ速度の変化状態を等速に近似できると判定した場合は、ぶれ速度V(t)を表す近似関数を「V(t)=VCONST」とみなし、その近似関数におけるVCONSTの値と等速フラグとを含むデータを数式データDSとして生成する。VCONSTの値は、動きベクトルm1〜mnの大きさの平均値とされる。また、この近似関数における、tは1つのサンプリング期間が経過する毎に1増加する変数である。 When it is determined that the change state of the shake speed can be approximated at a constant speed, the approximate function representing the shake speed V (t) is regarded as “V (t) = V CONST ” and is equal to the value of V CONST in the approximate function. Data including a speed flag is generated as mathematical formula data DS. The value of V CONST is an average value of the magnitudes of the motion vectors m 1 to m n . Further, t in this approximate function is a variable that increases by 1 every time one sampling period elapses.

また、図29に示す如く、変数i及び動きベクトルmiの大きさを夫々横軸及び縦軸にとった二次元座標面を想定し、その二次元座標面上に動きベクトルm1〜mnの大きさをプロットしていく。そして、プロットされた合計n個の点から成る点群に対する近似直線を最小二乗法によって求める。図29において、点331〜334は動きベクトルm1〜m4の大きさに対してプロットされた点であり、破線直線340は求められた近似直線を示している。 Further, as shown in FIG. 29, the variable i and assume the two-dimensional coordinate plane taking the size respectively the horizontal and vertical axes of motion vector m i, vector m 1 ~m n motion to the two-dimensional coordinate plane Plot the size of. Then, an approximate straight line for a point group consisting of a total of n points plotted is obtained by the method of least squares. In FIG. 29, points 331 to 334 are plotted with respect to the magnitudes of the motion vectors m 1 to m 4 , and a broken line 340 indicates the obtained approximate line.

プロットされた或る点(例えば、点331)と近似直線340との距離は、その点に対する近似直線の誤差を表している。類型判定部61は、近似直線の誤差を、動きベクトルm1〜mnに対してプロットされた各点に対して求めて、各点に対する誤差の総和をnで割った値を評価値EV3として求める。そして、評価値EV3と所定の閾値THEとを比較し、前者が後者よりも小さい場合に、ぶれ軌跡を描く過程においてぶれ速度が一定割合で変化している、即ちぶれ速度の変化状態を等加速に近似できると判定し、前者が後者以上である場合、その近似ができないと判定する。 A distance between a plotted point (for example, the point 331) and the approximate line 340 represents an error of the approximate line with respect to the point. Type determination unit 61, the error of the approximation straight line, asking for each point plotted versus the motion vector m 1 ~m n, evaluation value E a value the sum of the error divided by n for each point V3 Asking. Then, the evaluation value E V3 is compared with a predetermined threshold value TH E , and when the former is smaller than the latter, the blurring speed changes at a constant rate in the process of drawing the blurring trajectory. It is determined that the acceleration can be approximated, and when the former is greater than or equal to the latter, it is determined that the approximation cannot be performed.

ぶれ速度の変化状態を等加速に近似できると判定した場合は、ぶれ速度V(t)を表す近似関数を「V(t)=V0+dt」とみなし、その近似関数におけるV0及びdの値と等加速フラグとを含むデータを数式データDSとして生成する。この近似関数におけるV0は動きベクトルm1の大きさであり、dは近似直線340の傾きであり、tは1つのサンプリング期間が経過する毎に1増加する変数である。 When it is determined that the change state of the shake speed can be approximated to equal acceleration, the approximate function representing the shake speed V (t) is regarded as “V (t) = V 0 + dt”, and V 0 and d of the approximate function are Data including a value and an equal acceleration flag is generated as mathematical formula data DS. In this approximate function, V 0 is the magnitude of the motion vector m 1 , d is the slope of the approximate line 340, and t is a variable that increases by 1 every time one sampling period elapses.

ステップS206において、ぶれ速度の変化状態を等速又は等加速に近似できると判定した場合、ステップS207にて数式データDSが生成された後、ステップS208に移行し、ぶれ速度の変化状態を等速及び等加速の何れにも近似できないと判定した場合、ステップS206からステップS210に移行する。   If it is determined in step S206 that the change state of the shake speed can be approximated to constant speed or constant acceleration, the mathematical formula data DS is generated in step S207, and then the process proceeds to step S208, where the change state of the shake speed is changed to constant speed. If it is determined that the acceleration cannot be approximated to any of the constant accelerations, the process proceeds from step S206 to step S210.

ステップS208に移行した場合、記録制御部63によってステップS208及びS209の処理が実行され、その後、撮影動作が終了する。ステップS208及び209では、通常露光画像GLをJPEG圧縮して画像JLを生成すると共に画像ファイルを記録媒体16内に作成し、その画像ファイルの本体領域に通常露光画像JLの画像データを記録する一方で、その画像ファイルのヘッダ領域に数式データDF及びDSを手ぶれデータ(補正用情報)として記録する。また、この際、記録制御部63は、焦点距離fD及び露光時間TEPを表すデータもヘッダ領域に記録する。尚、ぶれ軌跡の形状が点の形状に近似できると判定された場合は、上述の如くステップS207の処理は実行されないため、数式データDSの記録は行われない。 When the process proceeds to step S208, the recording control unit 63 performs the processes of steps S208 and S209, and then the photographing operation ends. In steps S208 and S209, the normal exposure image GL is JPEG-compressed to generate an image J L and an image file is created in the recording medium 16, and the image data of the normal exposure image J L is stored in the main body area of the image file. On the other hand, the mathematical formula data DF and DS are recorded as camera shake data (correction information) in the header area of the image file. At this time, the recording control unit 63, data representing the focal length f D and the exposure time T EP also recorded in the header area. If it is determined that the shape of the blur locus can be approximated to the shape of a point, the process of step S207 is not executed as described above, and the mathematical formula data DS is not recorded.

ステップS210に移行した場合、記録制御部63によってステップS210及びS211の処理が実行され、その後、撮影動作が終了する。ステップS210及び211では、通常露光画像GLをJPEG圧縮して画像JLを生成すると共に画像ファイルを記録媒体16内に作成し、その画像ファイルの本体領域に通常露光画像JLの画像データを記録する一方で、その画像ファイルのヘッダ領域に角速度データ群DALLを手ぶれデータ(補正用情報)として記録する。また、この際、記録制御部63は、焦点距離fD及び露光時間TEPを表すデータもヘッダ領域に記録する。 When the process proceeds to step S210, the recording control unit 63 performs the processes of steps S210 and S211 and thereafter ends the photographing operation. In steps S210 and 211, the normal exposure image GL is JPEG compressed to generate an image J L and an image file is created in the recording medium 16, and the image data of the normal exposure image J L is stored in the main body area of the image file. On the other hand, the angular velocity data group D ALL is recorded as camera shake data (correction information) in the header area of the image file. At this time, the recording control unit 63, data representing the focal length f D and the exposure time T EP also recorded in the header area.

次に、図30を参照して撮像装置1aの補正動作を説明する。図30は、この補正動作の流れを表すフローチャートである。上述の撮影動作の後において、撮像装置1aに補正指示が与えられると(或いは所定条件が満たされると)補正動作が実行される。補正動作はステップS221〜S224の各処理から成る。補正指示は、例えば、ユーザによる操作部17への所定操作によって撮像装置1aに与えられる。但し、補正指示の有無に関係なく、補正動作を実行することも可能である。補正動作は再生モードにおいて実行される。但し、補正動作を撮影モードにて行うことも可能である。   Next, the correction operation of the imaging apparatus 1a will be described with reference to FIG. FIG. 30 is a flowchart showing the flow of this correction operation. After the above-described shooting operation, when a correction instruction is given to the imaging apparatus 1a (or when a predetermined condition is satisfied), the correction operation is executed. The correction operation includes steps S221 to S224. The correction instruction is given to the imaging device 1a by a predetermined operation on the operation unit 17 by the user, for example. However, the correction operation can be executed regardless of whether or not there is a correction instruction. The correction operation is executed in the reproduction mode. However, the correction operation can also be performed in the shooting mode.

撮像装置1aに補正指示が与えられると、ステップS221において、図21の補正処理部64は、記録媒体16内の画像ファイルから通常露光画像JLの画像データを読み出すと共に通常露光画像JLが記録された画像ファイルのヘッダ領域から手ぶれデータを読み出す。補正処理部64は、通常露光画像JLを補正対象画像として取り扱う。 When a correction instruction is given to the imaging apparatus 1a, in step S221, the correction processing unit 64 in FIG. 21 reads the image data of the normal exposure image J L from the image file in the recording medium 16, and the normal exposure image J L is recorded. The camera shake data is read from the header area of the image file. The correction processing unit 64 handles the normal exposure image JL as a correction target image.

ここで読み出される手ぶれデータは、上記のヘッダ領域に角速度データ群DALLが記録されておれば、その角速度データ群DALLであり、上記のヘッダ領域に数式データDF及びDSが記録されておれば、その数式データDF及びDSである。 Shake data read here is if I in the above header area is the angular velocity data groups D ALL is recorded is the angular velocity data group D ALL, if my above header area formulas data DF and DS is recorded The mathematical formula data DF and DS.

続くステップS222において、補正処理部64は、読み出した手ぶれデータに基づいて通常露光画像JLのぶれの状態を表すPSFを求める。 In subsequent step S222, the correction processing unit 64 obtains a PSF which normally represents the state of blurring of the exposed image J L on the basis of the read-out camera shake data.

読み出した手ぶれデータが角速度データ群DALLである場合、公知の方法(例えば、特開2006−129236号公報や特開2006−279807号公報に記載の方法)によって、角速度データ群DALLから通常露光画像JLのPSFを求めることが可能である。即ち、角速度データ群DALLから動きベクトルm1〜mnを求め、動きベクトルm1〜mnの向き及び大きさに応じてフィルタ係数の重み付けがなされた空間フィルタをPSFとして求める。 If the read hand movement data is angular velocity data group D ALL, known methods (e.g., methods described in JP 2006-279807 and JP 2006-129236 JP) by, normal exposure from the angular velocity data group D ALL The PSF of the image J L can be obtained. That is, determine the motion vector m 1 ~m n from the angular velocity data group D ALL, obtains a spatial filter weighting filter coefficients is made in accordance with the direction and magnitude of the motion vector m 1 ~m n as PSF.

読み出した手ぶれデータが数式データDF及びDSである場合、補正処理部64は、角速度データ群DALLに基づいて求められるPSFに類似したPSFを数式データDF及びDSを用いて算出する。 When the read camera shake data is the mathematical formula data DF and DS, the correction processing unit 64 calculates a PSF similar to the PSF obtained based on the angular velocity data group D ALL using the mathematical formula data DF and DS.

図31を参照して、数式データDF及びDSからPSFを算出する方法を説明する。図31の上段には、撮影動作時において生成された角速度データ群DALLの例が示されている。今、この角速度データ群DALLから数式データDF及びDSが生成されて記録媒体16に記録され、且つ、形状数式データDFが直線フラグ並びにa及びbの値を含むと共に速度変化数式データDSが等速フラグ及びVCONSTの値を含んでいる場合を考える。この場合、補正処理部64は、ぶれ軌跡が近次式「y=ax+b」で表され且つぶれ速度V(t)が近似関数「V(t)=VCONST」で表されるとみなし、数式データDF及びDSから撮影動作に生成された角速度データ群を推定する。ここで推定された角速度データ群を、推定角速度データ群DALL_Eと呼ぶ。図31の下段には、推定角速度データ群DALL_Eが示されている。 A method for calculating the PSF from the mathematical formula data DF and DS will be described with reference to FIG. The upper part of FIG. 31 shows an example of the angular velocity data group D ALL generated during the photographing operation. Now, mathematical formula data DF and DS are generated from the angular velocity data group D ALL and recorded on the recording medium 16, and the shape mathematical formula data DF includes the straight line flag and the values of a and b, and the velocity change mathematical formula data DS is equal to Consider the case where the speed flag and the value of V CONST are included. In this case, the correction processing unit 64 considers that the blur locus is represented by the near-order expression “y = ax + b” and the blur speed V (t) is represented by the approximate function “V (t) = V CONST ”. An angular velocity data group generated for the photographing operation is estimated from the data DF and DS. The angular velocity data group estimated here is referred to as an estimated angular velocity data group D ALL_E . In the lower part of FIG. 31, an estimated angular velocity data group D ALL_E is shown.

例えば、a=4/3、b=0及びVCONST=5である場合は、全サンプリング期間における動きベクトルの大きさが5であって且つ全サンプリング期間における動きベクトルの水平成分(x軸成分)と垂直成分(y軸成分)の比が3:4となるように、推定角速度データ群DALL_Eを求める。 For example, when a = 4/3 , b = 0 and V CONST = 5, the magnitude of the motion vector in the entire sampling period is 5, and the horizontal component (x-axis component) of the motion vector in the entire sampling period Estimated angular velocity data group D ALL_E is obtained so that the ratio of the vertical component (y-axis component) is 3: 4.

その後、角速度データ群DALLにて定まる動きベクトルm1〜mnを推定角速度データ群DALL_Eに基づいて推定し、推定した動きベクトルからPSFを求める。推定角速度データ群DALL_Eに基づくPSFの算出方法は、角速度データ群DALLに基づくPSFの算出方法と同じである。推定角速度データ群DALL_Eを求めなくとも数式データDF及びDSから動きベクトルm1〜mnを直接推定することができるため、実際には、数式データDF及びDSからPSFを求めるに当たり、推定角速度データ群DALL_Eを求める必要はない。 Thereafter, motion vectors m 1 to mn determined by the angular velocity data group D ALL are estimated based on the estimated angular velocity data group D ALL — E , and a PSF is obtained from the estimated motion vector. The PSF calculation method based on the estimated angular velocity data group D ALL_E is the same as the PSF calculation method based on the angular velocity data group D ALL . Since it is possible to directly estimate the motion vectors m 1 to m n from the mathematical formula data DF and DS without obtaining the estimated angular velocity data group D ALL_E , in actuality , when obtaining the PSF from the mathematical formula data DF and DS, the estimated angular velocity data It is not necessary to find the group D ALL_E .

尚、形状数式データDFに点フラグ及びrの値が含まれる場合は、rの値に応じたタップ数を有するガウシアンフィルタをPSFとして求める。例えば、rの値が通常露光画像の3画素分である場合は、3×3のフィルタサイズを有するガウシアンフィルタをPSFとして求める。ガウシアンフィルタにおける分散は、予め定めておけばよい。   When the shape formula data DF includes a point flag and a value of r, a Gaussian filter having the number of taps corresponding to the value of r is obtained as PSF. For example, when the value of r is three pixels of the normal exposure image, a Gaussian filter having a 3 × 3 filter size is obtained as the PSF. The dispersion in the Gaussian filter may be determined in advance.

その後、ステップS223において、補正処理部64は、ステップS222にて求められたPSFの逆関数(一般逆行列)に相当する画像復元関数を求める。画像復元関数は、単一の画像復元フィルタとして表現され、PSFを表す行列の一般逆行列の各要素が該画像復元フィルタの各フィルタ係数とされる。補正処理部64は、この画像復元フィルタを用いた空間フィルタリングを補正対象画像(即ち、通常露光画像JL)の全体に対して施すことで、補正対象画像に含まれるぶれが低減されたぶれ補正画像を生成する。補正対象画像に画像復元フィルタを用いた空間フィルタリングを施して得た画像に対し、更にリンギング除去処理を施すことによって、最終的なぶれ補正画像を得るようにしてもよい。 Thereafter, in step S223, the correction processing unit 64 obtains an image restoration function corresponding to the inverse function (general inverse matrix) of the PSF obtained in step S222. The image restoration function is expressed as a single image restoration filter, and each element of the general inverse matrix of the matrix representing the PSF is used as each filter coefficient of the image restoration filter. The correction processing unit 64 performs the spatial filtering using the image restoration filter on the entire correction target image (that is, the normal exposure image J L ), thereby reducing the blur included in the correction target image. Generate an image. You may make it obtain a final blurring correction image by performing a ringing removal process further with respect to the image obtained by performing the spatial filtering which used the image restoration filter for the correction object image.

続くステップS224において、主制御部13aは、ステップS223にて生成されたぶれ補正画像の画像データを記録するための画像ファイルを新たに生成して、その画像ファイルを記録媒体16に記憶する。或いは、画像ファイルを新たに生成することなく、通常露光画像JLの画像データが上書きされるように、通常露光画像JLの画像データを記録していた画像ファイルの本体領域にぶれ補正画像の画像データを記録してもよい。また、ぶれ補正画像は、表示部15に表示される。 In subsequent step S224, the main control unit 13a newly generates an image file for recording the image data of the shake correction image generated in step S223, and stores the image file in the recording medium 16. Alternatively, without newly generating an image file, usually as image data of the exposure image J L is overwritten, corrected image blur in the body region of the normal image file which has been recorded image data of the exposure image J L Image data may be recorded. The blur correction image is displayed on the display unit 15.

手ぶれを単純な運動(例えば等速直線運動)に近似できる場合、正確な角速度データを用いた画像復元処理によって得られるぶれ補正画像と、数式近似を利用した画像復元処理によって得られるぶれ補正画像との間で視覚的な差は殆どない(換言すれば、その差が殆ど生じないように、図22のステップS204及びS206の判定条件を定めておく)。これを考慮し、本実施形態では、補正対象画像のぶれが予め規定された類型的なぶれ(直線的且つ等速的なぶれや、二次曲線的且つ等加速的なぶれなど)に属するか否かをステップS204及びS206の判定処理によって判断し、それが類型的なぶれに属する場合は、実際の角速度データの代わりに、類型的なぶれの軌跡形状及び該軌跡を描く速度状態を表す数式データを補正用情報として記録するようにする。これにより、実際の角速度データを記録する場合と比べて、補正用情報のデータサイズを小さくすることができる。   When camera shake can be approximated to a simple motion (for example, constant velocity linear motion), a shake correction image obtained by image restoration processing using accurate angular velocity data, and a blur correction image obtained by image restoration processing using mathematical approximation (In other words, the determination conditions in steps S204 and S206 in FIG. 22 are determined so that the difference hardly occurs). Considering this, in the present embodiment, whether the blur of the correction target image belongs to a predefined type of blur (linear and constant velocity blur, quadratic curve and equal acceleration blur, or the like). Is determined by the determination processing in steps S204 and S206, and if it belongs to a typical blur, a mathematical expression representing a typical blur trajectory shape and a speed state for drawing the trajectory instead of actual angular velocity data Data is recorded as correction information. As a result, the data size of the correction information can be made smaller than when actual angular velocity data is recorded.

尚、上述の例では、ヨー方向とピッチ方向の角速度を合わせた動きベクトルm1〜mnに基づいて、角速度データ群DALLと数式データの何れを記録するかの切替判断を行っているが、この判断を、ヨー方向の角速度とピッチ方向の角速度に対して個別に行ってもよい。 In the above-described example, the switching determination as to which of the angular velocity data group D ALL and the mathematical formula data is recorded is made based on the motion vectors m 1 to mn obtained by combining the angular velocities in the yaw direction and the pitch direction. This determination may be made individually for the angular velocity in the yaw direction and the angular velocity in the pitch direction.

例えば、図32に示す如く、通常露光画像GLの露光期間中の全サンプリング期間におけるヨー方向の角速度が一定或いは略一定であって且つ通常露光画像GLの露光期間中においてピッチ方向の角速度が一定或いは略一定の割合で増加している場合、類型判定部61は、ヨー方向の角速度VX(t)を表す近似関数を「VX(t)=VXCONST」且つピッチ方向の角速度VY(t)を表す近似関数を「VY(t)=VY0+dYt」とみなし、それらの近似関数におけるVXCONST、VY0及びdYの値と、ヨー方向の角速度が等速であることを示すヨー方向等速フラグと、ピッチ方向の角速度の変化状態が等加速であることを示すピッチ方向等加速フラグと、を含むデータを数式データとして生成する。この数式データは、通常露光画像の画像データが記録されるべき画像ファイルのヘッダ領域に記録された後、補正動作時において補正処理部64によって該画像ファイルから読み出されて、その数式データから通常露光画像GLの露光期間中における角速度データ群DALLが推定される。 For example, as shown in FIG. 32, the angular velocity in the yaw direction during the entire sampling period during the exposure period of the normal exposure image GL is constant or substantially constant, and the angular velocity in the pitch direction during the exposure period of the normal exposure image GL. When increasing at a constant or substantially constant rate, the type determination unit 61 uses an approximate function representing the angular velocity V X (t) in the yaw direction as “V X (t) = V XCONST ” and the angular velocity V Y in the pitch direction. The approximate function representing (t) is regarded as “V Y (t) = V Y0 + d Y t”, and the values of V XCONST , V Y0 and d Y in these approximate functions and the angular velocity in the yaw direction are constant. Data including a yaw direction constant speed flag indicating that this is the case and a pitch direction constant acceleration flag indicating that the change state of the angular velocity in the pitch direction is equal acceleration is generated as mathematical formula data. The mathematical formula data is recorded in the header area of the image file where the image data of the normal exposure image is to be recorded, and then read out from the image file by the correction processing unit 64 during the correction operation. The angular velocity data group D ALL during the exposure period of the exposure image GL is estimated.

尚、VXCONSTの値は、通常露光画像GLの露光期間中におけるヨー方向の角速度の平均値であり、VY0の値は、通常露光画像GLの露光期間中における1番目のサンプリング期間のピッチ方向の角速度であり、dYの値は、通常露光画像GLの露光期間中におけるピッチ方向の角速度の平均的な増加率である。また、近似関数におけるtは、1つのサンプリング期間が経過する毎に1増加する変数である。 The value of V XCONST is the average value of the angular velocities in the yaw direction during the exposure period of the normal exposure image GL , and the value of V Y0 is the value of the first sampling period during the exposure period of the normal exposure image GL . It is an angular velocity in the pitch direction, and the value of d Y is an average increase rate of the angular velocity in the pitch direction during the exposure period of the normal exposure image GL . Further, t in the approximate function is a variable that increases by 1 every time one sampling period elapses.

<<変形等>>
上述した説明文中に示した具体的な数値は、単なる例示であって、当然の如く、それらを様々な数値に変更することができる。上述の実施形態の変形例または注釈事項として、以下に、注釈1〜注釈4を記す。各注釈に記載した内容は、矛盾なき限り、任意に組み合わせることが可能である。
<< Deformation, etc. >>
The specific numerical values shown in the above description are merely examples, and as a matter of course, they can be changed to various numerical values. As modifications or annotations of the above-described embodiment, notes 1 to 4 are described below. The contents described in each comment can be arbitrarily combined as long as there is no contradiction.

[注釈1]
第2実施形態において、センサ部18を、角速度を検出する角速度センサにて構成する例を上述したが(図19参照)、撮像装置1aの動きを表す、角速度以外の物理量を検出するセンサにて、センサ部18を構成しても良い。例えば、撮像装置1aの加速度を検出する加速度センサ又は撮像装置1aの角加速度を検出する角加速度センサにてセンサ部18を形成するようにしてもよい。撮像装置1aの加速度又は角加速度を表す、加速度センサ又は角加速度センサの出力信号に基づいて補正対象画像のPSFを求めることも可能である。
[Note 1]
In the second embodiment, the example in which the sensor unit 18 is configured by the angular velocity sensor that detects the angular velocity has been described above (see FIG. 19), but the sensor that detects the physical quantity other than the angular velocity that represents the movement of the imaging device 1a. The sensor unit 18 may be configured. For example, the sensor unit 18 may be formed by an acceleration sensor that detects the acceleration of the imaging device 1a or an angular acceleration sensor that detects the angular acceleration of the imaging device 1a. It is also possible to obtain the PSF of the correction target image based on the output signal of the acceleration sensor or the angular acceleration sensor that represents the acceleration or the angular acceleration of the imaging device 1a.

[注釈2]
撮像装置(1又は1a)は、ハードウェア、或いは、ハードウェアとソフトウェアの組み合わせによって実現可能である。特に、主制御部(13又は13a)内で実行される処理の全部又は一部は、ハードウェア、ソフトウェア、またはハードウェアとソフトウェアの組み合わせによって実現可能である。ソフトウェアを用いて撮像装置(1又は1a)を構成する場合、ソフトウェアにて実現される部位についてのブロック図は、その部位の機能ブロック図を表すことになる。
[Note 2]
The imaging device (1 or 1a) can be realized by hardware or a combination of hardware and software. In particular, all or part of the processing executed in the main control unit (13 or 13a) can be realized by hardware, software, or a combination of hardware and software. When the imaging apparatus (1 or 1a) is configured using software, a block diagram of a part realized by software represents a functional block diagram of the part.

また、主制御部(13又は13a)内で実行される演算処理の全部または一部を、プログラムとして記述し、該プログラムをプログラム実行装置(例えばコンピュータ)上で実行することによって、その演算処理の全部または一部を実現するようにしてもよい。   Further, all or part of the arithmetic processing executed in the main control unit (13 or 13a) is described as a program, and the program is executed on a program execution device (for example, a computer), so that the arithmetic processing is executed. You may make it implement | achieve all or one part.

[注釈3]
上述の各実施形態では、撮像装置(1又は1a)内にぶれ補正処理を実行する補正処理部(54又は64)を設け、撮像装置(1又は1a)内でぶれ補正処理を実行しているが(図4又は図21参照)、撮像装置(1又は1a)と異なる外部機器(不図示)にて、そのぶれ補正処理を実行するようにしてもよい。この場合、その外部機器に、上述の補正処理部54又は64と同等の補正処理部を設けておき、その外部機器に記録媒体16の記録データを供給することによって補正対象画像からぶれ補正画像を生成すればよい。
[Note 3]
In each of the above-described embodiments, the correction processing unit (54 or 64) that executes the shake correction process is provided in the imaging apparatus (1 or 1a), and the shake correction process is executed in the imaging apparatus (1 or 1a). However (see FIG. 4 or FIG. 21), the blur correction process may be executed by an external device (not shown) different from the imaging device (1 or 1a). In this case, a correction processing unit equivalent to the correction processing unit 54 or 64 described above is provided in the external device, and the blur correction image is extracted from the correction target image by supplying the recording data of the recording medium 16 to the external device. It only has to be generated.

[注釈4]
例えば、以下のように考えることができる。第1実施形態において、主制御部13に内在するぶれ検出部(ぶれ検出装置)は、図4の手ぶれ量推定部(装置動き検出手段)51及び記録制御部53を含み、更に撮影制御部52を含みうる。そのぶれ検出部に補正処理部54を加えた部位は、ぶれ補正部(ぶれ補正装置)として機能する。第2実施形態において、主制御部13aに内在するぶれ検出部(ぶれ検出装置)は、図21の記録制御部63を含み、更に撮影制御部62を含みうる。そのぶれ検出部に補正処理部64を加えた部位は、ぶれ補正部(ぶれ補正装置)として機能する。
[Note 4]
For example, it can be considered as follows. In the first embodiment, the shake detection unit (blur detection device) included in the main control unit 13 includes the shake amount estimation unit (device motion detection means) 51 and the recording control unit 53 of FIG. Can be included. A portion obtained by adding the correction processing unit 54 to the shake detection unit functions as a shake correction unit (blur correction device). In the second embodiment, the shake detection unit (blur detection device) included in the main control unit 13a includes the recording control unit 63 of FIG. 21 and may further include an imaging control unit 62. A portion obtained by adding the correction processing unit 64 to the shake detection unit functions as a shake correction unit (blur correction device).

本発明の第1実施形態に係る撮像装置の全体ブロック図である。1 is an overall block diagram of an imaging apparatus according to a first embodiment of the present invention. 図1の撮像部の内部構成図である。It is an internal block diagram of the imaging part of FIG. プレビュー期間と実撮影期間との時間的関係を示す図である。It is a figure which shows the time relationship between a preview period and an actual imaging | photography period. 図1の撮像装置の一部ブロック図である。It is a partial block diagram of the imaging device of FIG. 本発明の第1実施例に係る、撮像装置の撮影動作及び補正動作のフローチャートである。3 is a flowchart of a shooting operation and a correction operation of the imaging apparatus according to the first embodiment of the present invention. 図1の記録媒体内に保存されるべき画像ファイルの構造を示す図である。It is a figure which shows the structure of the image file which should be preserve | saved in the recording medium of FIG. 本発明の第2実施例に係る、撮像装置の撮影動作のフローチャートである。It is a flowchart of imaging | photography operation | movement of an imaging device based on 2nd Example of this invention. 本発明の第2実施例に係り、推定された手ぶれ量と所定の閾値との関係を示す図である。It is a figure which concerns on 2nd Example of this invention and shows the relationship between the estimated amount of camera shake and a predetermined threshold value. 本発明の第2実施例に係る、撮像装置の補正動作のフローチャートである。It is a flowchart of the correction | amendment operation | movement of an imaging device based on 2nd Example of this invention. 本発明の第4実施例に係る、撮像装置の撮影動作のフローチャートである。It is a flowchart of imaging | photography operation | movement of an imaging device based on 4th Example of this invention. 本発明の第4実施例に係る、手ぶれ量の推定動作のフローチャートである。It is a flowchart of the estimation operation | movement of the amount of camera shake based on 4th Example of this invention. 本発明の第5実施例に係り、理想的な点像が通常露光画像の露光期間中に撮像素子の撮像面上で移動する軌跡を表す図である。FIG. 16 is a diagram illustrating a locus of an ideal point image moving on an imaging surface of an imaging element during an exposure period of a normal exposure image according to the fifth example of the present invention. 本発明の第5実施例に係り、図12の軌跡に対応する、行列表現されたPSFを示す図である。FIG. 14 is a diagram illustrating a matrix-represented PSF corresponding to the locus in FIG. 12 according to the fifth embodiment of the present invention. 本発明の第5実施例に係り、時系列で並ぶ通常露光画像列を示す図である。It is a figure which shows the normal exposure image sequence arranged in a time series concerning 5th Example of this invention. 本発明の第6実施例に係り、或る実撮影期間前のプレビュー期間中に取得されるプレビュー画像列を示す図である。FIG. 20 is a diagram illustrating a preview image sequence acquired during a preview period before a certain actual shooting period according to the sixth embodiment of the present invention. 本発明の第7実施例に係るぶれ補正処理のフローチャートである。It is a flowchart of the blurring correction process which concerns on 7th Example of this invention. 本発明の第7実施例に係り、ぶれ補正処理にて利用されるフーリエ反復法の詳細フローチャートである。FIG. 16 is a detailed flowchart of a Fourier iteration method used in shake correction processing according to the seventh embodiment of the present invention. FIG. 本発明の第7実施例に係り、ぶれ補正処理にて利用されるフーリエ反復法を実現する部位のブロック図である。It is a block diagram of the site | part which implement | achieves the Fourier iteration method utilized in the 7th Example of this invention, and used in a blurring correction process. 本発明の第2実施形態に係る撮像装置の全体ブロック図である。It is a whole block diagram of the imaging device concerning a 2nd embodiment of the present invention. 図19の撮像装置の外観斜視図である。It is an external appearance perspective view of the imaging device of FIG. 図19の撮像装置の一部ブロック図である。It is a partial block diagram of the imaging device of FIG. 本発明の第2実施形態に係る、撮像装置の撮影動作のフローチャートである。It is a flowchart of imaging operation | movement of an imaging device based on 2nd Embodiment of this invention. 本発明の第2実施形態に係り、通常露光画像の露光期間中における複数の時刻間の関係、並びに、それらの時刻と角速度データ及び動きベクトルとの関係を示す図である。It is a figure which concerns on 2nd Embodiment of this invention and shows the relationship between several time in the exposure period of a normal exposure image, and the relationship between those time, angular velocity data, and a motion vector. 本発明の第2実施形態に係り、角速度データから求められる動きベクトルと積分ベクトルを示す図である。It is a figure which shows the motion vector and integral vector calculated | required from angular velocity data in connection with 2nd Embodiment of this invention. 本発明の第2実施形態に係り、角速度データから求められる動きベクトルと積分ベクトルが配置される二次元座標面を示す図である。It is a figure which shows the two-dimensional coordinate surface in which the motion vector and integration vector calculated | required from angular velocity data are arrange | positioned regarding 2nd Embodiment of this invention. 本発明の第2実施形態に係り、撮像装置の撮影動作時において実行される判定処理を説明するための図である。It is a figure for demonstrating the determination process performed in the 2nd Embodiment of this invention at the time of imaging | photography operation | movement of an imaging device. 本発明の第2実施形態に係り、点群とその点群に対する近似曲線の関係を示す図である。It is a figure which concerns on 2nd Embodiment of this invention and shows the relationship of the approximate curve with respect to a point group and the point group. 本発明の第2実施形態に係り、撮像装置の撮影動作時において実行される判定処理を説明するための図である。It is a figure for demonstrating the determination process performed in the 2nd Embodiment of this invention at the time of imaging | photography operation | movement of an imaging device. 本発明の第2実施形態に係り、点群とその点群に対する近似曲線の関係を示す図である。It is a figure which concerns on 2nd Embodiment of this invention and shows the relationship of the approximate curve with respect to a point group and the point group. 本発明の第2実施形態に係る、撮像装置の補正動作のフローチャートである。It is a flowchart of correction | amendment operation | movement of an imaging device based on 2nd Embodiment of this invention. 本発明の第2実施形態に係り、実際の計測によって得られた角速度データ群と、その角速度データ群から導出された数式データと、その数式データから求められた推定角速度データ群と、を示す図である。The figure which concerns on 2nd Embodiment of this invention, and shows the angular velocity data group obtained by the actual measurement, the numerical formula data derived | led-out from the angular velocity data group, and the estimated angular velocity data group calculated | required from the numerical formula data It is. 本発明の第2実施形態に係り、実際の計測によって得られた角速度データ群と、その角速度データ群から導出された数式データと、を示す図である。It is a figure which concerns on 2nd Embodiment of this invention and shows the angular velocity data group obtained by actual measurement, and the numerical formula data derived | led-out from the angular velocity data group. 従来技術に係り、手ぶれの軌跡とPSFと画像復元フィルタの関係を示すと共に手ぶれ画像から復元画像が生成される様子を示す図である。It is a figure which shows a mode that a decompression | restoration image is produced | generated from a camera shake image while showing the locus | trajectory of camera shake, PSF, and an image restoration filter according to a prior art. 従来のフーリエ反復法を実現する部位のブロック図である。It is a block diagram of the site | part which implement | achieves the conventional Fourier iteration method.

符号の説明Explanation of symbols

1、1a 撮像装置
11 撮像部
13、13a 主制御部
14 内部メモリ
16 記録媒体
17a シャッタボタン
18 センサ部
33 撮像素子
35 光学系
51 手ぶれ量推定部
52、62 撮影制御部
53、63 記録制御部
54、64 補正処理部
DESCRIPTION OF SYMBOLS 1, 1a Image pick-up device 11 Image pick-up part 13, 13a Main control part 14 Internal memory 16 Recording medium 17a Shutter button 18 Sensor part 33 Image pick-up element 35 Optical system 51 Camera shake amount estimation part 52, 62 Shooting control part 53, 63 Recording control part 54 64 Correction processing unit

Claims (12)

撮影によって撮像装置にて得られた静止画像である補正対象画像のぶれを画像処理によって補正するための補正用情報を記録手段に記録する記録制御手段を備えたぶれ検出装置において、
前記記録制御手段は、複数種類の補正用情報を生成可能であり、前記補正対象画像の露光期間中における前記撮像装置の動きに応じて、前記記録手段に記録する前記補正用情報の種類を選択する
ことを特徴とするぶれ検出装置。
In a shake detection apparatus including a recording control unit that records correction information for correcting blur of a correction target image, which is a still image obtained by an imaging device by shooting, by image processing.
The recording control unit can generate a plurality of types of correction information, and selects the type of the correction information to be recorded in the recording unit according to the movement of the imaging apparatus during the exposure period of the correction target image. A shake detection device characterized by:
前記補正対象画像の露光期間中における前記撮像装置の動きの大きさを推定する装置動き推定手段を更に備え、
前記記録制御手段は、推定された前記大きさに基づいて、前記記録手段に記録する前記補正用情報の種類を選択する
ことを特徴とする請求項1に記載のぶれ検出装置。
A device motion estimation means for estimating the motion magnitude of the imaging device during the exposure period of the correction target image;
The shake detection apparatus according to claim 1, wherein the recording control unit selects a type of the correction information to be recorded in the recording unit based on the estimated size.
前記記録制御手段は、推定された前記大きさが、比較的大きな大きさが属すべき第1範囲及び比較的小さな大きさが属すべき第2範囲の何れかに属するか否かを判断し、推定された前記大きさが前記第1範囲に属する場合と前記第2範囲に属する場合とで異なる種類の補正用情報を生成し、推定された前記大きさが前記第2範囲に属するとき、前記補正対象画像の補正方法を示す情報を前記補正用情報として前記記録媒体に記録する
ことを特徴とする請求項2に記載のぶれ検出装置。
The recording control means determines whether or not the estimated size belongs to either the first range to which a relatively large size should belong or the second range to which a relatively small size should belong. When the estimated size belongs to the first range and the second range, different types of correction information are generated, and when the estimated size belongs to the second range, the correction is performed. The blur detection apparatus according to claim 2, wherein information indicating a correction method of the target image is recorded on the recording medium as the correction information.
前記記録制御手段は、推定された前記大きさが前記第1範囲に属するとき、前記補正対象画像の撮影前又は撮影後に撮影される画像であって且つ前記補正対象画像の露光期間よりも長さの短い露光期間にて撮影される短露光画像の一部又は全部の画像データを、前記補正用情報として前記記録媒体に記録する
ことを特徴とする請求項3に記載のぶれ検出装置。
When the estimated size belongs to the first range, the recording control unit is an image shot before or after shooting the correction target image and is longer than an exposure period of the correction target image. The blur detection apparatus according to claim 3, wherein part or all of image data of a short exposure image photographed in a short exposure period is recorded on the recording medium as the correction information.
前記装置動き推定手段は、前記補正対象画像の撮影条件に基づいて前記大きさを推定する
ことを特徴とする請求項2〜請求項4の何れかに記載のぶれ検出装置。
The shake detection apparatus according to claim 2, wherein the apparatus motion estimation unit estimates the size based on a shooting condition of the correction target image.
前記装置動き推定手段は、前記補正対象画像の撮影前又は撮影後に撮影される画像であって且つ前記補正対象画像の露光期間よりも長さの短い露光期間にて撮影される短露光画像のエッジ強度と前記補正対象画像のエッジ強度とに基づいて、前記大きさを推定する
ことを特徴とする請求項2〜請求項4の何れかに記載のぶれ検出装置。
The apparatus motion estimation means is an edge of a short-exposure image that is captured before or after the correction target image and is captured in an exposure period that is shorter than the exposure period of the correction target image. The blur detection apparatus according to claim 2, wherein the magnitude is estimated based on an intensity and an edge intensity of the correction target image.
前記装置動き推定手段は、
前記撮像装置にて撮影された時系列で並ぶ複数の静止画像の夫々を補正対象画像として取り扱って各補正対象画像の露光期間中における前記撮像装置の動きの大きさを推定し、
着目した補正対象画像に対して推定されるべき前記大きさを、
前記着目した補正対象画像の過去の補正対象画像の画像データ、及び、前記過去の補正対象画像の撮影前又は撮影後に撮影される画像であって且つ前記過去の補正対象画像の露光期間よりも長さの短い露光期間にて撮影される短露光画像の画像データ、をも用いて推定する
ことを特徴とする請求項5または請求項6に記載のぶれ検出装置。
The apparatus motion estimation means includes
Treating each of a plurality of still images arranged in time series photographed by the imaging device as a correction target image, estimating the magnitude of movement of the imaging device during the exposure period of each correction target image,
The size to be estimated for the target correction target image,
Image data of the past correction target image of the target correction target image, and an image shot before or after shooting the past correction target image, and longer than an exposure period of the past correction target image The blur detection apparatus according to claim 5 or 6, wherein estimation is performed also using image data of a short exposure image taken in a short exposure period.
前記装置動き推定手段は、前記補正対象画像の撮影前に撮影された画像列に着目し、前記画像列を形成する時間的に隣接する画像間の動きベクトルの大きさが一定値以下となる状態が所定時間継続して観測されたとき、その動きベクトル、前記画像列の撮影時おけるフレームレート及び前記補正対象画像の露光期間の長さに基づいて、前記補正対象画像の露光期間中における前記撮像装置の動きの大きさを推定する
ことを特徴とする請求項2〜請求項4の何れかに記載のぶれ検出装置。
The apparatus motion estimation means pays attention to an image sequence captured before capturing the correction target image, and a state in which the size of a motion vector between temporally adjacent images forming the image sequence is a predetermined value or less. Is continuously observed for a predetermined time, the imaging during the exposure period of the correction target image based on the motion vector, the frame rate at the time of shooting the image sequence, and the length of the exposure period of the correction target image The shake detection apparatus according to claim 2, wherein the magnitude of movement of the apparatus is estimated.
前記記録制御手段は、前記補正対象画像のぶれが予め規定された類型ぶれに属するか否かを前記撮像装置の動きを計測するセンサの出力信号に基づいて判断し、その判断結果に基づいて、前記記録手段に記録する前記補正用情報の種類を選択する
ことを特徴とする請求項1に記載のぶれ検出装置。
The recording control unit determines whether the blur of the correction target image belongs to a predefined type of blur based on an output signal of a sensor that measures the movement of the imaging device, and based on the determination result, The blur detection apparatus according to claim 1, wherein a type of the correction information recorded in the recording unit is selected.
前記記録制御手段は、
前記補正対象画像のぶれが前記類型ぶれに属すると判断したとき、前記類型ぶれの軌跡形状及び該軌跡を描く速度状態を表す数式データを前記補正用情報として前記記録手段に記録する一方、
前記補正対象画像のぶれが前記類型ぶれに属さないと判断したとき、前記補正対象画像の露光期間中における前記センサの出力信号を表すデータを前記補正用情報として前記記録手段に記録する
ことを特徴とする請求項9に記載のぶれ検出装置。
The recording control means includes
When it is determined that the blur of the correction target image belongs to the type blur, the mathematical data representing the trajectory shape of the type blur and the speed state of drawing the trajectory are recorded as the correction information in the recording unit,
When it is determined that the blur of the correction target image does not belong to the type blur, data representing the output signal of the sensor during the exposure period of the correction target image is recorded in the recording unit as the correction information. The shake detection device according to claim 9.
請求項1〜請求項10の何れかに記載のぶれ検出装置と、
前記記録手段に記録された前記補正用情報に基づいて前記補正対象画像のぶれを補正する補正処理手段と、を備えた
ことを特徴とするぶれ補正装置。
The shake detection device according to any one of claims 1 to 10,
A shake correction apparatus comprising: correction processing means for correcting shake of the correction target image based on the correction information recorded in the recording means.
請求項1〜請求項10の何れかに記載のぶれ検出装置を備え、撮影によって画像を取得する
ことを特徴とする撮像装置。
An imaging apparatus comprising the shake detection apparatus according to claim 1, wherein an image is acquired by photographing.
JP2008011777A 2008-01-22 2008-01-22 Blur detection device, blur correction device, and imaging device Expired - Fee Related JP4958806B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008011777A JP4958806B2 (en) 2008-01-22 2008-01-22 Blur detection device, blur correction device, and imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008011777A JP4958806B2 (en) 2008-01-22 2008-01-22 Blur detection device, blur correction device, and imaging device

Publications (2)

Publication Number Publication Date
JP2009177332A true JP2009177332A (en) 2009-08-06
JP4958806B2 JP4958806B2 (en) 2012-06-20

Family

ID=41032000

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008011777A Expired - Fee Related JP4958806B2 (en) 2008-01-22 2008-01-22 Blur detection device, blur correction device, and imaging device

Country Status (1)

Country Link
JP (1) JP4958806B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110056098A (en) * 2009-11-20 2011-05-26 삼성전자주식회사 A apparatus and method for estimating psf
JP2013508811A (en) * 2009-10-16 2013-03-07 イーストマン コダック カンパニー Blur image correction using spatial image prior probability
JP2013509820A (en) * 2009-10-28 2013-03-14 ザ トラスティーズ オブ コロンビア ユニヴァーシティ イン ザ シティ オブ ニューヨーク Coded rolling shutter method and system
JP2013544050A (en) * 2010-10-28 2013-12-09 グーグル・インク Method and system for processing video for stabilization and retargeting
JP2014178414A (en) * 2013-03-14 2014-09-25 Seiko Epson Corp Image processing apparatus, projector, and image processing method
JP2015207308A (en) * 2010-03-29 2015-11-19 ソニー株式会社 Data processing apparatus and method, and data processing system
JP2016081431A (en) * 2014-10-21 2016-05-16 キヤノン株式会社 Image processing method, image processor, imaging device and image processing program
EP2592824A3 (en) * 2011-11-14 2016-06-01 Samsung Electronics Co., Ltd. Photographing Apparatus and Image Processing Apparatus Using Coded Light, and Method Thereof

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007096477A (en) * 2005-09-27 2007-04-12 Fujitsu Ltd Camera, camera shake correction method, and camera shake correction program

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007096477A (en) * 2005-09-27 2007-04-12 Fujitsu Ltd Camera, camera shake correction method, and camera shake correction program

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013508811A (en) * 2009-10-16 2013-03-07 イーストマン コダック カンパニー Blur image correction using spatial image prior probability
US9736425B2 (en) 2009-10-28 2017-08-15 Sony Corporation Methods and systems for coded rolling shutter
JP2013509820A (en) * 2009-10-28 2013-03-14 ザ トラスティーズ オブ コロンビア ユニヴァーシティ イン ザ シティ オブ ニューヨーク Coded rolling shutter method and system
US9100514B2 (en) 2009-10-28 2015-08-04 The Trustees Of Columbia University In The City Of New York Methods and systems for coded rolling shutter
KR20110056098A (en) * 2009-11-20 2011-05-26 삼성전자주식회사 A apparatus and method for estimating psf
KR101594300B1 (en) 2009-11-20 2016-02-16 삼성전자주식회사 A apparatus and method for estimating PSF
US10692223B2 (en) 2010-03-29 2020-06-23 Sony Corporation Image processing apparatus and method for evaluating objects in an image
JP2015207308A (en) * 2010-03-29 2015-11-19 ソニー株式会社 Data processing apparatus and method, and data processing system
US10311582B2 (en) 2010-03-29 2019-06-04 Sony Corporation Image processing apparatus and method for evaluating objects in an image
US9786052B2 (en) 2010-03-29 2017-10-10 Sony Corporation Image processing apparatus and method for evaluating objects in an image
JP2013544050A (en) * 2010-10-28 2013-12-09 グーグル・インク Method and system for processing video for stabilization and retargeting
EP2592824A3 (en) * 2011-11-14 2016-06-01 Samsung Electronics Co., Ltd. Photographing Apparatus and Image Processing Apparatus Using Coded Light, and Method Thereof
JP2014178414A (en) * 2013-03-14 2014-09-25 Seiko Epson Corp Image processing apparatus, projector, and image processing method
US9654707B2 (en) 2014-10-21 2017-05-16 Canon Kabushiki Kaisha Image processing apparatus, image capturing apparatus, image processing method and storage medium storing image processing program
JP2016081431A (en) * 2014-10-21 2016-05-16 キヤノン株式会社 Image processing method, image processor, imaging device and image processing program

Also Published As

Publication number Publication date
JP4958806B2 (en) 2012-06-20

Similar Documents

Publication Publication Date Title
JP5909540B2 (en) Image processing display device
US8649628B2 (en) Adaptive PSF estimation technique using a sharp preview and a blurred image
JP4958806B2 (en) Blur detection device, blur correction device, and imaging device
EP2574039B1 (en) Image pickup device, image processing device, image processing method, and image processing program
US8090212B1 (en) Method, apparatus, and system for reducing blurring of an image using multiple filtered images
JP4454657B2 (en) Blur correction apparatus and method, and imaging apparatus
KR101594300B1 (en) A apparatus and method for estimating PSF
JP4307430B2 (en) Camera shake detection device
JP5237978B2 (en) Imaging apparatus and imaging method, and image processing method for the imaging apparatus
JP2011502367A (en) Camera motion detection and estimation
JP2006129236A (en) Ringing eliminating device and computer readable recording medium with ringing elimination program recorded thereon
JP2013192224A (en) Method and apparatus for deblurring non-uniform motion blur using multi-frame including blurred image and noise image
JP5388072B2 (en) Motion blur control device, method, and program
JP2002288653A (en) Image processing device, method, program and recording medium
JP2006279807A (en) Camera-shake correction apparatus
JP2009088935A (en) Image recording apparatus, image correcting apparatus, and image pickup apparatus
KR101653272B1 (en) A digital photographing apparatus, a method for controlling the same, and a computer-readable medium
JP2009171341A (en) Blur correcting device and imaging apparatus
JP2009153046A (en) Blur correcting device and method, and imaging apparatus
JP2012085205A (en) Image processing apparatus, imaging device, image processing method, and image processing program
JP2009088933A (en) Image recording apparatus, image correcting apparatus and image pickup apparatus
JP2017173920A (en) Image processor, image processing method, image processing program, and record medium
JP2002288652A (en) Image processing device, method, program and recording medium
JP4236642B2 (en) Imaging device
JP2017092749A (en) Imaging apparatus, blur correction method, program, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120111

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120221

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120319

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150330

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150330

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150330

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees