JP5029573B2 - Imaging apparatus and imaging method - Google Patents

Imaging apparatus and imaging method Download PDF

Info

Publication number
JP5029573B2
JP5029573B2 JP2008289645A JP2008289645A JP5029573B2 JP 5029573 B2 JP5029573 B2 JP 5029573B2 JP 2008289645 A JP2008289645 A JP 2008289645A JP 2008289645 A JP2008289645 A JP 2008289645A JP 5029573 B2 JP5029573 B2 JP 5029573B2
Authority
JP
Japan
Prior art keywords
region
motion vector
image
moving
camera shake
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008289645A
Other languages
Japanese (ja)
Other versions
JP2010118822A (en
Inventor
和幸 高尾
秀弘 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2008289645A priority Critical patent/JP5029573B2/en
Publication of JP2010118822A publication Critical patent/JP2010118822A/en
Application granted granted Critical
Publication of JP5029573B2 publication Critical patent/JP5029573B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、撮像装置及び撮像方法に関する。 The present invention relates to an imaging apparatus and an imaging method .

近年、ビデオカメラには、撮影時の手ぶれを軽減するための手ぶれ補正機能を搭載している。通常の手ぶれ補正機能は、撮影画像中の被写体に動きがある場合に、被写体の動きを誤って手ぶれと判断してしまい、不自然な手ぶれ補正を行ってしまう問題点があった。   In recent years, video cameras are equipped with a camera shake correction function for reducing camera shake during shooting. The normal camera shake correction function has a problem in that when the subject in the captured image has a motion, the motion of the subject is erroneously determined as a camera shake, and an unnatural camera shake correction is performed.

その問題点を解決する手ぶれ補正技術が特許文献1に開示されている。そして、特許文献1には、撮影画像を複数の領域に分割し、その領域ごとに被写体となる人物の顔が含まれるか否かを判別し、人物の顔が含まれると判別された領域は手ぶれを検出する領域から除外して手ぶれ量を検出する方法が記載されている。
特開2008−124787号公報
Japanese Patent Application Laid-Open No. 2004-151561 discloses a camera shake correction technique that solves the problem. Patent Document 1 divides a captured image into a plurality of regions, determines whether or not a person's face as a subject is included in each region, and determines the region determined to include a person's face. A method of detecting the amount of camera shake by excluding from the region for detecting camera shake is described.
JP 2008-124787 A

ところが、上述の手ぶれ補正方法では、人物の顔が含まれない領域においても被写体に動きがある場合には、適切な手ぶれ量を検出することができず、不自然な画像を表示させてしまう問題があった。   However, with the above-described camera shake correction method, if the subject moves even in a region that does not include a human face, an appropriate amount of camera shake cannot be detected, and an unnatural image is displayed. was there.

本発明はこのような問題点に鑑みなされたものであり、人物の顔が含まれない領域においても被写体の動きを判別または予測して適切な手ぶれ量を検出することができる撮像装置及び撮像方法を提供することを目的とする。 The present invention has been made in view of such problems, and an imaging apparatus and an imaging method capable of detecting or detecting an appropriate amount of camera shake by determining or predicting the movement of a subject even in an area that does not include a human face. The purpose is to provide.

本発明は、前述した従来の技術の課題を解決するため、撮像部(11)が取得した画像を分割した各領域の動きベクトルを算出する算出部(23)と、前記画像中から動く被写体となりうる動対象が存在するか否かを判定し、存在すると判定した場合にはその動対象が存在する領域を第1の動体領域として、前記画像を分割した各領域のなかから検出する動体領域検出部(14)と、前記動体領域検出部(14)が検出した前記第1の動体領域について前記算出部(23)が算出した動きベクトルを基準動きベクトルとして抽出する抽出部(15)と、前記画像から前記第1の動体領域を除いた領域について前記算出部(23)が算出した動きベクトルと、前記基準動きベクトルとが類似するか否かを判定し、類似すると判定した動きベクトルが算出された領域を第2の動体領域として特定する特定部(15)と、前記画像から前記第1の動体領域及び前記第2の動体領域を除いた領域について前記算出部(23)が算出した動きベクトルに基づいて、前記画像全体の手ぶれ量を算出する手ぶれ量算出部(15)とを備える撮像装置(1)を提供する
ここで、上記撮像装置(1)は、前記基準動きベクトルと前記画像全体の手ぶれ量に基づき、前記動対象の動きを予測する予測動きベクトルを算出する予測動きベクトル算出部(62)をさらに備え、前記特定部(15)はさらに、前記予測動きベクトルに基づいて、前記画像よりも時間的に後の画像について、前記動対象が含まれると予測される領域を第3の動体領域をして特定し、前記手ぶれ量算出部(15)はさらに、前記後の画像から少なくとも前記第3の動体領域を除いた領域の動きベクトルに基づいて、前記後の画像全体の手ぶれ量を算出するようにしてもよい。
また、上記動体領域検出部(14)は、領域毎に顔の有無を判別し、顔が存在すると判別した領域を前記動対象が存在する第1の動体領域とするようにしてもよい
In order to solve the above-described problems of the conventional technology, the present invention provides a calculation unit (23) that calculates a motion vector of each area obtained by dividing an image acquired by the imaging unit (11), and a moving object from the image. Moving object region detection for detecting whether or not there is a moving object that can be detected, and detecting the moving object region as a first moving object region from among the regions obtained by dividing the image Unit (14), an extraction unit (15) for extracting the motion vector calculated by the calculation unit (23) as a reference motion vector for the first moving object region detected by the moving object region detection unit (14), It is determined whether or not the motion vector calculated by the calculation unit (23) for the region excluding the first moving body region from the image is similar to the reference motion vector, and the motion vector determined to be similar The specifying unit (15) that specifies the region for which the value is calculated as the second moving object region, and the calculating unit (23) for the region excluding the first moving object region and the second moving object region from the image An image pickup apparatus (1) is provided that includes a camera shake amount calculation unit (15) that calculates a camera shake amount of the entire image based on the motion vector .
Here, the imaging apparatus (1) further includes a predicted motion vector calculation unit (62) that calculates a predicted motion vector for predicting the motion of the moving target based on the reference motion vector and the amount of camera shake of the entire image. The specifying unit (15) further determines, based on the predicted motion vector, an area predicted to include the moving object as a third moving body area for an image temporally later than the image. In particular, the camera shake amount calculation unit (15) further calculates the camera shake amount of the entire subsequent image based on a motion vector of an area excluding at least the third moving body area from the subsequent image. May be.
Also, the moving object region detection unit (14) discriminates the existence of the face in each area, an area is determined that a face is present may be a first moving object area where the moving object exists.

本発明は、前述した従来の技術の課題を解決するため、撮像部(11)から取得された画像を分割した各領域の動きベクトルを算出する算出ステップと、前記画像中から動く被写体となりうる動対象が存在するか否かを判定し、存在すると判定した動対象が存在する領域を第1の動体領域として、前記画像を分割した各領域のなかから検出する動体領域検出ステップと、前記動体領域検出ステップで検出された前記第1の動体領域について前記算出ステップで算出された動きベクトルを基準動きベクトルとして抽出する抽出ステップと、前記画像から前記第1の動体領域を除いた領域について前記算出ステップで算出された動きベクトルと、前記基準動きベクトルとが類似するか否かを判定し、類似すると判定した場合にはその動きベクトルが算出された領域を第2の動体領域として特定する特定ステップと、前記画像から前記第1の動体領域及び前記第2の動体領域を除いた領域について前記算出ステップで算出された動きベクトルに基づいて、前記画像全体の手ぶれ量を算出する手ぶれ量算出ステップとからなる撮像方法を提供する
ここで、上記撮像方法は、前記基準動きベクトルと前記画像全体の手ぶれ量に基づき、前記動対象の動きを予測する予測動きベクトルを算出する予測動きベクトル算出ステップをさらに備え、前記特定ステップはさらに、前記予測動きベクトルに基づいて、前記画像よりも時間的に後の画像について、前記動対象が含まれると予測される領域を第3の動体領域をして特定し、前記手ぶれ量算出ステップはさらに、前記後の画像から少なくとも前記第3の動体領域を除いた領域の動きベクトルに基づいて、前記後の画像全体の手ぶれ量を算出するようにしてもよい。
また、上記動体領域検出ステップは、領域毎に顔の有無を判別し、顔が存在すると判別された領域を前記動対象が存在する第1の動体領域とするようにしてもよい
In order to solve the above-described problems of the conventional technology, the present invention calculates a motion vector of each area obtained by dividing an image acquired from the imaging unit (11), and a motion that can be a moving subject from the image. A moving object region detecting step for determining whether or not a target exists, and detecting a moving object region determined to be present as a first moving object region from each of the divided regions, and the moving object region An extraction step for extracting the motion vector calculated in the calculation step as a reference motion vector for the first moving body region detected in the detection step, and the calculation step for a region obtained by removing the first moving body region from the image It is determined whether or not the motion vector calculated in step 3 is similar to the reference motion vector. A specifying step of specifying the calculated region as a second moving body region, and a region obtained by removing the first moving body region and the second moving body region from the image based on the motion vector calculated in the calculating step , to provide an imaging method comprising the shake amount calculation step of calculating the shake amount of the whole image.
Here, the imaging method further includes a predicted motion vector calculating step of calculating a predicted motion vector for predicting the motion of the moving target based on the reference motion vector and the amount of camera shake of the entire image, and the specifying step further includes Based on the predicted motion vector, a region that is predicted to include the moving object is specified as a third moving body region for an image temporally later than the image, and the amount of camera shake calculation step includes: Furthermore, the amount of camera shake of the entire subsequent image may be calculated based on a motion vector of an area obtained by removing at least the third moving body area from the subsequent image.
In the moving object region detecting step, the presence or absence of a face may be determined for each region , and the region determined to have a face may be set as the first moving object region in which the moving object exists .

本発明によれば、影画像の被写体の状況に応じた適切な手ぶれ量を検出することが可能である。
According to the present invention, it is possible to detect the appropriate blur amount according to the situation of the subject of the shadow image shooting.

<第1の実施形態>
以下、第1の実施形態の手ぶれ補正装置及び手ぶれ補正方法について、添付図面を参照して説明する。図1は、本発明の手ぶれ補正装置の一例を示すブロック図である。
<First Embodiment>
Hereinafter, a camera shake correction apparatus and a camera shake correction method according to a first embodiment will be described with reference to the accompanying drawings. FIG. 1 is a block diagram showing an example of a camera shake correction apparatus according to the present invention.

手ぶれ補正装置1は、撮像部11、信号処理部12、動きベクトル検出部13、動体領域検出部14、手ぶれ量検出部15、アドレス制御部16及びフィールドメモリ17を有している。   The camera shake correction apparatus 1 includes an imaging unit 11, a signal processing unit 12, a motion vector detection unit 13, a moving object region detection unit 14, a camera shake amount detection unit 15, an address control unit 16, and a field memory 17.

撮像部11は、不図示の光学系、絞り、CCD(Charge Coupled Devices)やCMOS(Complementary Metal Oxide Semiconductor)等の撮像素子、光学系や絞りを制御するためのドライバを有している。撮像部11は、被写体からの光学像を光学系及び絞りを介して撮像素子により受光して光信号を得る。そして、撮像部21は、受光して得られる光信号をアナログ画像信号に光電変換して、信号処理部12に供給する。   The imaging unit 11 has an optical system (not shown), an aperture, an imaging element such as a CCD (Charge Coupled Devices) and a CMOS (Complementary Metal Oxide Semiconductor), and a driver for controlling the optical system and the aperture. The imaging unit 11 receives an optical image from a subject by an imaging device via an optical system and a diaphragm, and obtains an optical signal. Then, the imaging unit 21 photoelectrically converts an optical signal obtained by receiving light into an analog image signal and supplies the analog image signal to the signal processing unit 12.

信号処理部12は、撮像部11より供給されたアナログ画像信号をデジタル画像信号に変換し、デジタル画像信号を色信号に分離してRGB信号を生成する。更に、信号処理部12は、得られたRGB信号より輝度信号Y、及び色差信号Cb,Crを生成する。輝度信号Yは、動きベクトル検出部13内の代表点記憶部21、相関値データ算出部22及び動体領域検出部14に供給される。また、輝度信号Y,色差信号Cb,Crは、フィールドメモリ17に供給される。なお、RGB信号、輝度信号Y、色差信号Cb,Crは必要に応じてガンマ補正処理がなされる。  The signal processing unit 12 converts the analog image signal supplied from the imaging unit 11 into a digital image signal, and separates the digital image signal into color signals to generate RGB signals. Further, the signal processing unit 12 generates a luminance signal Y and color difference signals Cb and Cr from the obtained RGB signals. The luminance signal Y is supplied to the representative point storage unit 21, the correlation value data calculation unit 22, and the moving object region detection unit 14 in the motion vector detection unit 13. Further, the luminance signal Y and the color difference signals Cb and Cr are supplied to the field memory 17. The RGB signal, the luminance signal Y, and the color difference signals Cb and Cr are subjected to gamma correction processing as necessary.

動きベクトル検出部13は、例えば代表点マッチング法を用いて、1フィールド分の撮影画像を垂直方向及び水平方向に所定数分割した領域毎に動きベクトルを検出する。図2は、撮影画像を複数の領域に分割した一例を示している。代表点記憶部21は、撮影画像を領域P1〜P16に分割する。また、各領域は水平方向に32画素、垂直方向に20画素からなる。第1の実施形態における領域P1〜P16をあわせた領域全体は、撮影画像の一部を切り出して手ぶれ量を算出するのに用いられる領域である。   The motion vector detection unit 13 detects a motion vector for each region obtained by dividing a captured image for one field into a vertical number and a horizontal direction by using, for example, a representative point matching method. FIG. 2 shows an example in which a captured image is divided into a plurality of regions. The representative point storage unit 21 divides the captured image into regions P1 to P16. Each region is composed of 32 pixels in the horizontal direction and 20 pixels in the vertical direction. The entire region including the regions P1 to P16 in the first embodiment is a region used to calculate a camera shake amount by cutting out a part of the captured image.

代表点記憶部21は、各領域内で指定の画素を代表点と定める。図3は、各領域の代表点を説明するための図であり、黒円で示す画素が代表点である。代表点記憶部21は、各領域で水平方向に4ライン毎、垂直方向に5ライン毎、合わせて4×8=32画素を代表点とする。そして、代表点記憶部21は、すべての領域において定めた各代表点に対応する輝度信号Yを1フィールド期間記憶し、1フィールド期間記憶した輝度信号Yのデータを相関値データ算出部22に供給する。   The representative point storage unit 21 determines a designated pixel as a representative point in each region. FIG. 3 is a diagram for explaining representative points of each region, and pixels indicated by black circles are representative points. The representative point storage unit 21 uses 4 × 8 = 32 pixels in total as a representative point for every four lines in the horizontal direction and every five lines in the vertical direction. Then, the representative point storage unit 21 stores the luminance signal Y corresponding to each representative point determined in all regions for one field period, and supplies the luminance signal Y data stored for one field period to the correlation value data calculation unit 22. To do.

相関値データ算出部22は、各代表点について、代表点記憶部21より供給される1フィールド前の代表点の輝度値(輝度信号の値)と現在のフィールドの所定領域内に含まれるすべての画素との輝度値の差分を計算する。現在のフィールドの所定領域とは、例えば1フィールド前の各代表点と同じ座標位置から垂直方向及び水平方向にそれぞれ±16画素ずつの領域とする。第1の実施形態における領域P1〜P16をあわせた領域全体は、撮影画像の一部を切り出しているので、各代表点において±16画素ずつの画素を確保することができる。   For each representative point, the correlation value data calculation unit 22 supplies the luminance value (luminance signal value) of the representative point one field before supplied from the representative point storage unit 21 and all the values included in the predetermined area of the current field. The difference in luminance value from the pixel is calculated. The predetermined area of the current field is, for example, an area of ± 16 pixels in the vertical and horizontal directions from the same coordinate position as each representative point in the previous field. Since the entire region including the regions P1 to P16 in the first embodiment cuts out a part of the captured image, it is possible to secure ± 16 pixels at each representative point.

更に、相関値データ算出部22は、各代表点について、上述の輝度値の差分(輝度差)の計算結果から、輝度差の最小値と、輝度差を最小にする現在のフィールドの画素位置を求める。そして、相関値データ算出部22は、各代表点について、輝度差の最小値と輝度差を最小にする画素位置と代表点との関係を示す相関値を求める。各代表点の輝度差を最小にする画素位置データは動きベクトル算出部23に供給され、各代表点の相関値データは相関値データ解析部24に供給される。   Further, the correlation value data calculation unit 22 calculates the minimum value of the luminance difference and the pixel position of the current field that minimizes the luminance difference from the calculation result of the luminance value difference (luminance difference) for each representative point. Ask. Then, for each representative point, the correlation value data calculation unit 22 obtains a correlation value indicating a relationship between the minimum value of the luminance difference and the pixel position that minimizes the luminance difference and the representative point. Pixel position data that minimizes the luminance difference between the representative points is supplied to the motion vector calculation unit 23, and correlation value data of each representative point is supplied to the correlation value data analysis unit 24.

動きベクトル算出部23は、各代表点とその代表点に対応する画素位置の間の動きベクトルを求め、1つの領域内に含まれるすべての代表点の動きベクトルを平均して、1つの領域に対して1つの動きベクトルを算出する。そして、動きベクトル算出部23は、上述の方法により、すべての領域に対して動きベクトルを求める。領域毎に求められた動きベクトルデータは、手ぶれ量検出部15に供給される。   The motion vector calculation unit 23 obtains a motion vector between each representative point and a pixel position corresponding to the representative point, and averages the motion vectors of all the representative points included in one region, thereby obtaining one region. On the other hand, one motion vector is calculated. Then, the motion vector calculation unit 23 obtains motion vectors for all the regions by the above-described method. The motion vector data obtained for each region is supplied to the camera shake amount detection unit 15.

相関値データ解析部24は、相関値データ算出部22より供給される相関値データに基づいて、各領域の有効性を判定する。領域の有効性とは、領域内の各代表点の動きベクトルの大きさのばらつきが所定値以上であり、動きベクトルの方向が所定の割合以上揃うことを示すものである。各領域の有効性を判定することにより、領域内の各代表点の動きベクトルの大きさのばらつきが大きかったり、動きベクトルの方向がまちまちであったりするなどの信頼性の低い領域を、後述する画面全体の手ぶれ量を算出する領域から除外することができる。   The correlation value data analysis unit 24 determines the validity of each region based on the correlation value data supplied from the correlation value data calculation unit 22. The validity of the area indicates that the variation in the magnitude of the motion vector of each representative point in the area is equal to or greater than a predetermined value, and the direction of the motion vector is equal to or greater than a predetermined ratio. By determining the effectiveness of each region, a region with low reliability such as a large variation in the size of the motion vector of each representative point in the region or a variation in the direction of the motion vector will be described later. It can be excluded from the area for calculating the amount of camera shake on the entire screen.

相関値データ解析部24は、例えば、各領域の有効性を以下の方法で求める。最初に、領域に含まれる代表点の相関値を合計し、相関値の合計が所定の閾値よりも大きいか否か、及び各相関値の平均を最小値で除した値が所定の閾値よりも大きいか否かを判定する。そして、相関値の合計が所定の閾値よりも大きく、相関値の平均を最小値で除した値も所定の閾値より大きい場合は、その領域を有効と判定する。それ以外の場合は、その領域を無効と判定する。各領域の有効性を示すデータは、手ぶれ量検出部15に供給される。   For example, the correlation value data analysis unit 24 obtains the effectiveness of each region by the following method. First, the correlation values of representative points included in the region are summed, whether the sum of correlation values is larger than a predetermined threshold, and a value obtained by dividing the average of each correlation value by the minimum value is smaller than the predetermined threshold. Determine whether it is larger. When the sum of correlation values is larger than a predetermined threshold value and the value obtained by dividing the average of correlation values by the minimum value is also larger than the predetermined threshold value, the area is determined to be valid. Otherwise, it is determined that the area is invalid. Data indicating the effectiveness of each region is supplied to the camera shake amount detection unit 15.

動体領域検出部14は、例えば被写体に含まれる顔を検出することによって撮影画像中の動く被写体(以下、動体という)となる対象が存在するか否かを判定する。動体となる対象(以下、動対象という)が存在するか否かは、例えば、信号処理部12より供給された輝度信号Yに基づいて、撮影画像中の肌色領域を抽出する公知技術や、予め不図示のメモリに蓄積されている参照データとマッチングをとるなどの公知技術によって、領域毎に顔が含まれるか否かを判定する。なお、動体領域検出部14は、1または複数のフィールドを記憶するメモリを備えて、1または複数のフィールドにより動体となる対象が存在するか否かを検出してもよい。   The moving body region detection unit 14 determines whether or not there is a target to be a moving subject (hereinafter referred to as a moving body) in the captured image by detecting a face included in the subject, for example. Whether or not there is a moving object (hereinafter referred to as a moving object) is determined by, for example, a known technique for extracting a skin color region in a captured image based on the luminance signal Y supplied from the signal processing unit 12, It is determined whether or not a face is included in each region by a known technique such as matching with reference data stored in a memory (not shown). Note that the moving object region detection unit 14 may include a memory that stores one or a plurality of fields, and may detect whether or not there is an object to be a moving object based on the one or more fields.

そして、動体領域検出部14は、顔が含まれるすなわち動対象が存在すると判定した領域を第1の動体領域として、各領域が第1の動体領域であるか否かのデータを手ぶれ量検出部15に供給する。ただし、動対象を検出する方法は、顔を検出する方法には限定されず、顔を検出する場合も肌色領域を抽出する方法に限定されない。   Then, the moving body region detection unit 14 uses a region including the face, that is, a region determined to have a moving target as the first moving body region, and determines whether or not each region is the first moving body region. 15 is supplied. However, the method for detecting the moving object is not limited to the method for detecting the face, and the method for detecting the face is not limited to the method for extracting the skin color region.

手ぶれ量検出部15は、動体領域検出部14より第1の動体領域とされた領域の動きベクトルを基準動きベクトルV1として抽出する。そして、手ぶれ量検出部15は、基準動きベクトルV1と、第1の動体領域を除いて相関値データ解析部24より有効であると判定された領域(以下、有効な領域という)の動きベクトルとを順に比較して、両者の動きベクトルが類似するか否かを判定する。例えば、類似の基準は、動きベクトル同士の方向が所定範囲以内であること、及び動きベクトル同士の大きさの差が所定の閾値以下であることとすればよい。   The camera shake amount detection unit 15 extracts the motion vector of the region that is the first moving object region from the moving object region detection unit 14 as the reference motion vector V1. Then, the camera shake amount detection unit 15 includes the reference motion vector V1 and the motion vector of a region determined to be effective by the correlation value data analysis unit 24 except for the first moving body region (hereinafter referred to as an effective region). Are sequentially compared to determine whether or not the motion vectors are similar to each other. For example, the similar criterion may be that the directions of the motion vectors are within a predetermined range, and the difference in magnitude between the motion vectors is equal to or less than a predetermined threshold.

そして、手ぶれ量検出部15は、両者の動きベクトルを類似すると判定した場合は、その類似した動きベクトルを含む領域を第2の動体領域とする。更に、手ぶれ量検出部15は、有効な領域から第1の動体領域と第2の動体領域を除外した有効な領域の動きベクトルを平均して、画面全体の手ぶれ量V2として算出する。そして、手ぶれ量V2のデータはアドレス制御部16に供給される。   If the camera shake amount detection unit 15 determines that the two motion vectors are similar to each other, the region including the similar motion vectors is set as the second moving object region. Furthermore, the camera shake amount detection unit 15 averages the motion vectors of the effective area obtained by excluding the first moving body area and the second moving body area from the effective area, and calculates the average as the camera shake amount V2 of the entire screen. Then, the data of the camera shake amount V2 is supplied to the address control unit 16.

なお、第1の動体領域が複数存在する場合は、複数の基準動きベクトルV1を設定して、複数の基準動きベクトルV1のいずれかに類似する動きベクトルを有する領域を第2の動体領域としてもよく、複数の基準動きベクトルを平均して1つの基準動きベクトルV1としてもよい。また、第1の動体領域が検出されない場合は、第2の動体領域も検出せず、すべての有効な領域において手ぶれ量V2を算出する。   If there are a plurality of first moving body regions, a plurality of reference motion vectors V1 are set, and a region having a motion vector similar to any of the plurality of reference motion vectors V1 is set as the second moving body region. Alternatively, a plurality of reference motion vectors may be averaged to form one reference motion vector V1. When the first moving object region is not detected, the second moving object region is not detected, and the camera shake amount V2 is calculated in all effective regions.

図4は、画面全体の手ぶれ量の算出を説明するための図である。図4において、分割領域P1〜P16に表す矢印は動きベクトルを示している。図4中ハッチングを付して示す領域P1〜P4,P7,P8は、相関値データ解析部24により無効な領域と判定された領域であり、画面全体の手ぶれ量を算出する際の領域から除外される。   FIG. 4 is a diagram for explaining the calculation of the amount of camera shake of the entire screen. In FIG. 4, the arrows shown in the divided areas P1 to P16 indicate motion vectors. Areas P1 to P4, P7, and P8 indicated by hatching in FIG. 4 are areas that are determined as invalid areas by the correlation value data analysis unit 24, and are excluded from areas when calculating the amount of camera shake on the entire screen. Is done.

また、領域P5,P6,P9〜P16は、相関値データ解析部24により有効な領域と判定された領域である。更に、領域P11は、動体領域検出部14により人物の顔が含まれる領域として検出された第1の動体領域である。領域P11の動きベクトルは基準動きベクトルV1となる。そして、領域P12,P15,P16は、手ぶれ量検出部15により、基準動きベクトルV1に類似する動きベクトルを有する第2の動体領域として検出される。よって、手ぶれ量検出部15は、有効な領域から第1の動体領域と第2の動体領域を除外した領域P5、P6,P9,P10,P13,P14の動きベクトルを平均して画面全体の手ぶれ量V2を算出する。   Regions P5, P6, and P9 to P16 are regions determined to be effective regions by the correlation value data analysis unit 24. Furthermore, the region P11 is a first moving body region detected by the moving body region detection unit 14 as a region including a human face. The motion vector in the region P11 is the reference motion vector V1. The regions P12, P15, and P16 are detected by the camera shake amount detection unit 15 as the second moving body region having a motion vector similar to the reference motion vector V1. Therefore, the camera shake amount detection unit 15 averages the motion vectors of the regions P5, P6, P9, P10, P13, and P14 in which the first moving body region and the second moving body region are excluded from the effective regions, and the camera shake of the entire screen. The amount V2 is calculated.

アドレス制御部16は、手ぶれ量V2を算出する際に用いた領域全体のアドレス開始位置に対して、手ぶれ量V2の反対方向−V2分のベクトル量で補正したデジタル画像信号のアドレス読み出し位置を算出する。読み出しアドレス位置データは、フィールドメモリ17に供給される。デジタル画像信号とは、信号処理部12から後述するフィールドメモリ17に供給された輝度信号Yと色差信号Cb,Crに基づく信号である。   The address control unit 16 calculates the address reading position of the digital image signal corrected by the vector amount corresponding to the direction opposite to the camera shake amount V2−V2 with respect to the address start position of the entire region used when the camera shake amount V2 is calculated. To do. The read address position data is supplied to the field memory 17. The digital image signal is a signal based on the luminance signal Y and the color difference signals Cb and Cr supplied from the signal processing unit 12 to the field memory 17 described later.

フィールドメモリ17は、アドレス制御部16より供給される読み出しアドレス位置より、デジタル画像信号を読み出す位置を制御して、デジタル画像信号を不図示の表示部に出力する。図5は、読み出しアドレス位置を制御して画像を表示するための説明図である。図5において、実線で示す領域は、撮影画像全体を示す領域Im1である。また、破線で示す領域は、手ぶれ量V2を算出するために領域P1〜P16として切り出した領域Im2である。また、一点鎖線で示す領域は、アドレス制御部16により手ぶれ量V2の反対方向−V2分のベクトルを移動した位置を読み出し開始位置Rとして切り出した領域Im3である。   The field memory 17 controls the position where the digital image signal is read from the read address position supplied from the address control unit 16 and outputs the digital image signal to a display unit (not shown). FIG. 5 is an explanatory diagram for displaying an image by controlling the read address position. In FIG. 5, a region indicated by a solid line is a region Im1 indicating the entire captured image. A region indicated by a broken line is a region Im2 cut out as regions P1 to P16 in order to calculate the camera shake amount V2. A region indicated by a one-dot chain line is a region Im3 cut out by using the address control unit 16 as a read start position R, which is a position moved by a vector corresponding to the direction −V2 opposite to the camera shake amount V2.

なお、相関値データ解析部24にて求められる領域の有効性を示すデータは、手ぶれ量検出部15に供給される構成として説明したが、動きベクトル算出部23に供給して、無効とされた分割領域においては動きベクトルを算出しない構成としてもよい。また、第1の実施形態における代表点を定める方法、領域分割数、領域の有効性の判定方法等は、趣旨を逸脱しない範囲で種々の変更が可能である。   The data indicating the validity of the region obtained by the correlation value data analysis unit 24 has been described as being supplied to the camera shake amount detection unit 15, but is supplied to the motion vector calculation unit 23 and invalidated. A configuration may be adopted in which motion vectors are not calculated in the divided areas. In addition, the method for determining the representative points, the number of area divisions, the method for determining the validity of the area, and the like in the first embodiment can be variously changed without departing from the spirit.

図6を用いて、以上説明した図1に示す手ぶれ補正装置の動作、及び図1に示す手ぶれ補正装置で行われる手ぶれ補正方法の手順について改めて説明する。代表点記憶部21は、ステップS01にて撮影画像を複数の領域に分割し、各領域内で複数の代表点を定める。相関値データ算出部22は、ステップS02にて各領域の代表点毎に代表点と輝度差を最小にする画素との関係から相関値を算出する。   The operation of the camera shake correction apparatus shown in FIG. 1 described above and the procedure of the camera shake correction method performed by the camera shake correction apparatus shown in FIG. 1 will be described again with reference to FIG. In step S01, the representative point storage unit 21 divides the captured image into a plurality of regions, and defines a plurality of representative points in each region. In step S02, the correlation value data calculation unit 22 calculates a correlation value from the relationship between the representative point and the pixel that minimizes the luminance difference for each representative point in each region.

動きベクトル算出部23は、ステップS03にて代表点毎に動きベクトルを求め、1つの領域内に含まれるすべての動きベクトルを平均し、1つの領域に対して1つの動きベクトルを算出して、すべての領域について動きベクトルを算出する。相関値データ解析部24は、ステップS04にて領域内に含まれる各代表点の相関値から各領域について有効性を判定して有効な領域を求める。動体領域検出部14は、ステップS05にて動対象が存在するか否かを判定し、動対象が存在する領域を第1の動体領域とする。手ぶれ量検出部15は、ステップS06にて動対象が存在する領域の動きベクトルを基準動きベクトルとする   The motion vector calculation unit 23 obtains a motion vector for each representative point in step S03, averages all the motion vectors included in one region, calculates one motion vector for one region, Motion vectors are calculated for all regions. In step S04, the correlation value data analysis unit 24 determines the validity of each region from the correlation value of each representative point included in the region to obtain an effective region. In step S05, the moving object region detection unit 14 determines whether or not a moving object exists, and sets the region where the moving object exists as a first moving object region. In step S06, the camera shake amount detection unit 15 sets the motion vector of the region where the moving target exists as the reference motion vector.

手ぶれ量検出部15は、ステップS07にて、基準動きベクトルに類似の動きベクトルを有する領域を第2の動体領域と判定する。手ぶれ量検出部15は、ステップS08にて、第1の動体領域及び第2の動体領域を除いた有効な領域の動きベクトルを平均して手ぶれ量を算出する。アドレス制御部16は、S09にて手ぶれ量分を補正してデジタル画像信号のアドレス読み出し位置を算出し、フィールドメモリ17は、読み出しアドレス位置によりデジタル画像信号を読み出す位置を制御して、デジタル画像信号を不図示の表示部に出力する。   In step S07, the camera shake amount detection unit 15 determines that the region having a motion vector similar to the reference motion vector is the second moving object region. In step S08, the camera shake amount detection unit 15 calculates the camera shake amount by averaging the motion vectors of the effective regions excluding the first moving body region and the second moving body region. The address controller 16 corrects the amount of camera shake in S09 to calculate the address reading position of the digital image signal, and the field memory 17 controls the position where the digital image signal is read based on the reading address position. Is output to a display unit (not shown).

以上説明したように、第1の実施形態では、撮影画像から有効な領域を求め、動対象が存在する領域として検出した第1の動体領域の他に、第1の動体領域の動きベクトルに類似する動きベクトルをもつ第2の動体領域をも除外して手ぶれ量を算出する構成としたので、正確な手ぶれ量を求めることができる。   As described above, in the first embodiment, an effective area is obtained from the captured image, and in addition to the first moving body area detected as the area where the moving object exists, the motion vector of the first moving body area is similar. Since the camera shake amount is calculated by excluding the second moving body region having the motion vector to be corrected, an accurate camera shake amount can be obtained.

<第2の実施形態>
以下、第2の実施形態の手ぶれ補正装置及び手ぶれ補正方法について、添付図面を参照して説明する。図7は、本発明の手ぶれ補正装置の一例を示すブロック図である。図7において図1と同一部分には同一符号を付し、その説明を適宜省略する。手ぶれ補正装置51は、図1に示す手ぶれ補正装置1の手ぶれ量検出部15にかわって手ぶれ量検出部61と、更に予測動きベクトル算出部62とを採用した構成である。
<Second Embodiment>
Hereinafter, a camera shake correction apparatus and a camera shake correction method according to a second embodiment will be described with reference to the accompanying drawings. FIG. 7 is a block diagram illustrating an example of a camera shake correction apparatus according to the present invention. In FIG. 7, the same parts as those in FIG. The camera shake correction apparatus 51 employs a camera shake amount detection unit 61 and a predicted motion vector calculation unit 62 in place of the camera shake amount detection unit 15 of the camera shake correction apparatus 1 shown in FIG.

手ぶれ量検出部61は、手ぶれ量検出部15と同様に、動体領域検出部14より検出された第1の動体領域の基準動きベクトルV1に類似する動きベクトルを有する第2の動体領域として検出する。そして、第1の動体領域と第2の動体領域を除外した有効な領域において動きベクトルを平均し、画面全体の手ぶれ量V2を算出する。有効な領域は、第1の実施形態と同様の方法で求められる。基準動きベクトルV1のデータと手ぶれ量V2のデータは、予測動きベクトル算出部62に供給される。   Similar to the camera shake amount detection unit 15, the camera shake amount detection unit 61 detects a second moving body region having a motion vector similar to the reference motion vector V1 of the first moving body region detected by the moving body region detection unit 14. . Then, motion vectors are averaged in an effective area excluding the first moving body area and the second moving body area, and the amount of camera shake V2 of the entire screen is calculated. The effective area is obtained by the same method as in the first embodiment. The data of the reference motion vector V1 and the data of the camera shake amount V2 are supplied to the predicted motion vector calculation unit 62.

予測動きベクトル算出部62は、基準動きベクトルV1と手ぶれ量V2との差分をとり、動対象自体の移動量示す動きベクトル(動対象の動きベクトル)V3を求める。また、予測動きベクトル算出部62は、1フィールドまたは複数フィールド分の動対象の動きベクトルV3を記憶する。そして、予測動きベクトル算出部62は、1フィールドまたは複数フィールド分の動対象の動きベクトルV3から、次のフィールドにおいて、動対象が移動すると予測される位置を求めるための予測動きベクトルV4を算出し、予測動きベクトルV4を手ぶれ量検出部61に供給する。   The predicted motion vector calculation unit 62 calculates the difference between the reference motion vector V1 and the amount of camera shake V2, and obtains a motion vector (motion target motion vector) V3 indicating the amount of movement of the motion target itself. Also, the predicted motion vector calculation unit 62 stores a motion vector V3 for one field or a plurality of fields. Then, the predicted motion vector calculation unit 62 calculates a predicted motion vector V4 for obtaining a position where the moving target is predicted to move in the next field from the moving target motion vector V3 for one field or a plurality of fields. The predicted motion vector V4 is supplied to the camera shake amount detection unit 61.

手ぶれ量検出部61は、予測動きベクトルV4に基づいて次のフィールドにおける動対象の位置を予測し、動対象が含まれると予測される領域を第3の動体領域とする。そして、手ぶれ量検出部61は、次のフィールドが供給されたときに、第3の動体領域を除外した有効な領域から手ぶれ量V2を算出する。予め予測される第3の動体領域を除外して手ぶれ量V2を求めることにより、より正確に手ぶれ量を求めることができる。また、第3の動体領域に加えて、第1の動体領域や第2の動体領域をも除外する構成としてもよい。第3の動体領域は、あくまで予測される領域であり、第1の動体領域や第2の動体領域に動体対象が残存していることも考えられ、すべての動体領域を除外することによって、より正確な手ぶれ量を求めることができるからである。   The camera shake amount detection unit 61 predicts the position of the moving object in the next field based on the predicted motion vector V4, and sets the area predicted to include the moving object as the third moving body area. Then, when the next field is supplied, the camera shake amount detection unit 61 calculates the camera shake amount V2 from an effective region excluding the third moving body region. By calculating the camera shake amount V2 excluding the third moving object region predicted in advance, the camera shake amount can be determined more accurately. Moreover, it is good also as a structure which excludes a 1st moving body area | region and a 2nd moving body area | region in addition to a 3rd moving body area | region. The third moving object region is a predicted region to the last, and it is possible that the moving object remains in the first moving object region or the second moving object region, and by excluding all moving object regions, This is because an accurate amount of camera shake can be obtained.

また、手ぶれ量検出部61は、奇数番目のフィールドにおいて、第1,第2の動体領域を除外して手ぶれ量を算出し、偶数番目のフィールドにおいて、第3の領域を除外して手ぶれ量を算出するなど種々変形した構成としてもよい。更に、手ぶれ量検出部61は、上述の動対象の予測動きベクトルV4を用いて、アドレス制御部16やフィールドメモリ17を介して、不図示の表示部における予測される位置に動対象を表示させるなども可能である。   Further, the camera shake amount detection unit 61 calculates the camera shake amount by excluding the first and second moving object regions in the odd-numbered field, and the camera shake amount by excluding the third region in the even-numbered field. Various modifications such as calculation may be used. Further, the camera shake amount detection unit 61 displays the moving target at a predicted position on a display unit (not shown) via the address control unit 16 and the field memory 17 using the predicted motion vector V4 of the moving target. Etc. are also possible.

図8は、動対象の動きベクトルの算出を説明するための図である。図8(A),(C)において、領域P1〜P16に表す矢印は動きベクトルを示している。図8では、相関値解析データ部24によりすべての領域P1〜P16が有効な領域と判定されたものとしている。領域P11は、動体領域検出部14により人物の顔が含まれる領域として検出された第1の動体領域である。領域P11の動きベクトルは基準動きベクトルV1となる。   FIG. 8 is a diagram for explaining calculation of a motion vector of a moving target. 8A and 8C, the arrows shown in the areas P1 to P16 indicate motion vectors. In FIG. 8, it is assumed that all the regions P1 to P16 are determined as valid regions by the correlation value analysis data unit 24. The region P11 is a first moving body region detected by the moving body region detection unit 14 as a region including a human face. The motion vector in the region P11 is the reference motion vector V1.

そして、分割領域P12,P15,P16は、手ぶれ量検出部15により、基準動きベクトルV1に類似する動きベクトルを有する第2の動体領域として検出される。よって、手ぶれ量検出部15は、現在のフィールドに対して、有効な領域から第1の動体領域と第2の動体領域を除外した領域P5、P6,P9,P10,P13,P14の動きベクトルを平均して画面全体の手ぶれ量V2を算出する。基準動きベクトルV1のデータと手ぶれ量V2のデータは、予測動きベクトル算出部62に供給される。   Then, the divided areas P12, P15, and P16 are detected by the camera shake amount detection unit 15 as the second moving body area having a motion vector similar to the reference motion vector V1. Therefore, the camera shake amount detection unit 15 calculates the motion vectors of the areas P5, P6, P9, P10, P13, and P14 obtained by excluding the first moving body area and the second moving body area from the effective area for the current field. The camera shake amount V2 of the entire screen is calculated on average. The data of the reference motion vector V1 and the data of the camera shake amount V2 are supplied to the predicted motion vector calculation unit 62.

図8(B)は、基準動きベクトルV1と手ぶれ量V2を拡大して示したものである。予測動きベクトル算出部62は、図8(B)に示すように、両者の差分(V1−V2)から、動対象の動きベクトルV3を求める。   FIG. 8B shows the enlarged reference motion vector V1 and camera shake amount V2. As shown in FIG. 8B, the predicted motion vector calculation unit 62 obtains a motion vector V3 from the difference (V1−V2) between the two.

図8(C)は、図8(A)の撮影画像の次のフィールドにおいて、動対象の予測位置を示したものである。また、図8(C)は、予測動きベクトル算出部62により、1フィールド分の動対象の動きベクトルV3から予測動きベクトルV4を算出した場合を示している。このとき、予測動きベクトルV4は動きベクトルV3に一致する。図8(C)に示すように、次のフィールドにおいて、動対象は、領域P10,P11,P14,P15に渡って位置すると予測され、この予測される領域を第3の動体領域とする。   FIG. 8C shows the predicted position of the moving target in the next field of the captured image of FIG. FIG. 8C shows a case where the predicted motion vector calculation unit 62 calculates the predicted motion vector V4 from the motion vector V3 to be moved for one field. At this time, the predicted motion vector V4 matches the motion vector V3. As shown in FIG. 8C, in the next field, the moving object is predicted to be located over the areas P10, P11, P14, and P15, and this predicted area is set as the third moving body area.

図9を用いて、以上説明した図7に示す手ぶれ補正装置の動作、及び図7に示す手ぶれ補正装置で行われる手ぶれ補正方法の手順について改めて説明する。   The operation of the camera shake correction apparatus shown in FIG. 7 described above and the procedure of the camera shake correction method performed by the camera shake correction apparatus shown in FIG. 7 will be described again with reference to FIG.

予測動きベクトル算出部62は、ステップS11にて、ステップS05で算出された基準動きベクトルV1とステップS08で算出された手ぶれ量V2の差分から、動対象の動きベクトルV3を算出する。予測動きベクトル算出部62は、1または複数のフィールド分の動体対象の動きベクトルV3を記憶して、ステップS12にて、その動対象の動きベクトV3から次のフィールドにおける動対象の予測動きベクトルV4を算出する。   In step S11, the predicted motion vector calculation unit 62 calculates a motion vector V3 from the difference between the reference motion vector V1 calculated in step S05 and the camera shake amount V2 calculated in step S08. The predicted motion vector calculation unit 62 stores the motion vector V3 of the moving object for one or more fields, and in step S12, the predicted motion vector V4 of the moving object in the next field from the motion vector V3 of the moving object. Is calculated.

手ぶれ量検出部61は、ステップS13にて、予測動きベクトルV4に基づいて次のフィールドの動対象の移動位置を予測して、動対象の予測位置が含まれる領域を第3の動体領域とする。更に、手ぶれ量検出部61は、ステップS14にて、次のフィールドが供給されたとき、第3の動体領域を除外して手ぶれ量V2を算出する。なお、ステップS14の処理は上述のように、第3の動体領域を含む第1の動体領域や第2の動体領域を除外して手ぶれ量V2を算出するなど、種々変形した方法でもよい。   In step S13, the camera shake amount detection unit 61 predicts the moving position of the moving object in the next field based on the predicted motion vector V4, and sets the area including the predicted position of the moving object as the third moving body area. . Further, the camera shake amount detection unit 61 calculates the camera shake amount V2 excluding the third moving body region when the next field is supplied in step S14. Note that the process in step S14 may be variously modified methods such as calculating the camera shake amount V2 excluding the first moving body region and the second moving body region including the third moving body region as described above.

以上説明したように、第2の実施形態では、次のフィールドで動対象の位置として予測される領域として検出した第3の動体領域を除外して手ぶれ量を算出する構成としたので、より正確な手ぶれ量を求めることができる。   As described above, in the second embodiment, the amount of camera shake is calculated by excluding the third moving body region detected as the region predicted as the position of the moving target in the next field. The amount of camera shake can be obtained.

本発明の第1の実施形態に係る手ぶれ補正装置の全体構成を示すブロック図である。1 is a block diagram illustrating an overall configuration of a camera shake correction apparatus according to a first embodiment of the present invention. 本発明の第1,第2の実施形態に係る撮影画像の領域分割の一例を示す図である。It is a figure which shows an example of the area | region division of the picked-up image which concerns on the 1st, 2nd embodiment of this invention. 本発明の第1,第2の実施形態に係る撮影画像の各領域内の代表点の一例を示す図である。It is a figure which shows an example of the representative point in each area | region of the picked-up image which concerns on the 1st, 2nd embodiment of this invention. 本発明の第1の実施形態に係る画面全体の手ぶれ量の算出を説明するための図である。It is a figure for demonstrating calculation of the camera-shake amount of the whole screen which concerns on the 1st Embodiment of this invention. 本発明の第1,第2の実施形態に係る撮影画像の全体領域と切り出し枠の関係を示す図である。It is a figure which shows the relationship between the whole area | region of the picked-up image based on 1st, 2nd embodiment of this invention, and a cutting frame. 本発明の第1の実施形態に係る手ぶれ補正方法の全体の流れを示すフローチャートである。It is a flowchart which shows the whole flow of the camera-shake correction method which concerns on the 1st Embodiment of this invention. 本発明の第2の実施形態に係る手ぶれ補正装置の全体構成を示すブロック図である。It is a block diagram which shows the whole structure of the camera-shake correction apparatus which concerns on the 2nd Embodiment of this invention. 本発明の第2の実施形態に係る動対象の動きベクトルの例を示す図である。It is a figure which shows the example of the motion vector of the moving object which concerns on the 2nd Embodiment of this invention. 本発明の第2の実施形態に係る手ぶれ補正方法の全体の流れを示すフローチャートである。It is a flowchart which shows the whole flow of the camera-shake correction method which concerns on the 2nd Embodiment of this invention.

符号の説明Explanation of symbols

1、51 手ぶれ補正装置
11 撮像部
12 信号処理部
13 動きベクトル検出部
14 動体領域検出部
15、61 手ぶれ量検出部
16 アドレス制御部
17 フィールドメモリ
21 代表点記憶部
22 相関値データ算出部
23 動きベクトル算出部
24 相関値データ解析部
62 予測動きベクトル算出部
DESCRIPTION OF SYMBOLS 1, 51 Camera shake correction apparatus 11 Imaging part 12 Signal processing part 13 Motion vector detection part 14 Moving body area | region detection part 15, 61 Camera shake amount detection part 16 Address control part 17 Field memory 21 Representative point memory | storage part 22 Correlation value data calculation part 23 Motion Vector calculation unit 24 Correlation value data analysis unit 62 Predicted motion vector calculation unit

Claims (6)

撮像部が取得した画像を分割した各領域の動きベクトルを算出する算出部と、
前記画像中から動く被写体となりうる動対象が存在するか否かを判定し、存在すると判定した場合にはその動対象が存在する領域を第1の動体領域として、前記画像を分割した各領域のなかから検出する動体領域検出部と、
前記動体領域検出部が検出した前記第1の動体領域について前記算出部が算出した動きベクトルを基準動きベクトルとして抽出する抽出部と、
前記画像から前記第1の動体領域を除いた領域について前記算出部が算出した動きベクトルと、前記基準動きベクトルとが類似するか否かを判定し、類似すると判定した動きベクトルが算出された領域を第2の動体領域として特定する特定部と、
前記画像から前記第1の動体領域及び前記第2の動体領域を除いた領域について前記算出部が算出した動きベクトルに基づいて、前記画像全体の手ぶれ量を算出する手ぶれ量算出部とを備える撮像装置。
A calculation unit that calculates a motion vector of each region obtained by dividing the image acquired by the imaging unit;
It is determined whether or not there is a moving target that can be a moving subject in the image. If it is determined that there is a moving target, the region where the moving target exists is set as a first moving body region, and each region obtained by dividing the image is divided. A moving object region detection unit for detecting from among,
An extraction unit that extracts, as a reference motion vector, a motion vector calculated by the calculation unit for the first moving object region detected by the moving object region detection unit;
A region in which the motion vector calculated by the calculation unit for the region excluding the first moving body region from the image is similar to the reference motion vector, and the motion vector determined to be similar is calculated A specifying unit for specifying as a second moving body region;
An image pickup comprising: a shake amount calculation unit that calculates a shake amount of the entire image based on a motion vector calculated by the calculation unit for a region obtained by removing the first moving body region and the second moving body region from the image. apparatus.
前記基準動きベクトルと前記画像全体の手ぶれ量に基づき、前記動対象の動きを予測する予測動きベクトルを算出する予測動きベクトル算出部をさらに備え、
前記特定部はさらに、前記予測動きベクトルに基づいて、前記画像よりも時間的に後の画像について、前記動対象が含まれると予測される領域を第3の動体領域をして特定し、
前記手ぶれ量算出部はさらに、前記後の画像から少なくとも前記第3の動体領域を除いた領域の動きベクトルに基づいて、前記後の画像全体の手ぶれ量を算出することを特徴とする撮像装置。
A prediction motion vector calculation unit that calculates a prediction motion vector for predicting the motion of the moving object based on the reference motion vector and the amount of camera shake of the entire image;
The specifying unit further specifies a region predicted to include the moving object as a third moving object region for an image temporally later than the image based on the predicted motion vector,
The image pickup apparatus further includes a camera shake amount calculation unit that calculates a camera shake amount of the entire subsequent image based on a motion vector of an area obtained by removing at least the third moving body area from the subsequent image .
前記動体領域検出部は、前記領域毎に顔の有無を判別し、顔が存在すると判別した領域を前記動対象が存在する第1の動体領域とすることを特徴とする請求項1または2記載の撮像装置。 The said moving body area | region detection part discriminate | determines the presence or absence of a face for every said area | region, The area | region discriminate | determined that the face exists is made into the 1st moving body area | region where the said moving object exists . Imaging device. 撮像部から取得された画像を分割した各領域の動きベクトルを算出する算出ステップと、
前記画像中から動く被写体となりうる動対象が存在するか否かを判定し、存在すると判定した場合にはその動対象が存在する領域を第1の動体領域として、前記画像を分割した各領域のなかから検出する動体領域検出ステップと、
前記動体領域検出ステップで検出された前記第1の動体領域について前記算出ステップで算出された動きベクトルを基準動きベクトルとして抽出する抽出ステップと、
前記画像から前記第1の動体領域を除いた領域について前記算出ステップで算出された動きベクトルと、前記基準動きベクトルとが類似するか否かを判定し、類似すると判定した動きベクトルが算出された領域を第2の動体領域として特定する特定ステップと、
前記画像から前記第1の動体領域及び前記第2の動体領域を除いた領域について前記算出ステップで算出された動きベクトルに基づいて、前記画像全体の手ぶれ量を算出する手ぶれ量算出ステップとからなる撮像方法。
A calculation step of calculating a motion vector of each region obtained by dividing the image acquired from the imaging unit;
It is determined whether or not there is a moving target that can be a moving subject in the image. If it is determined that there is a moving target, the region where the moving target exists is set as a first moving body region, and each region obtained by dividing the image is divided. A moving object region detecting step for detecting from among them,
An extraction step for extracting, as a reference motion vector, the motion vector calculated in the calculation step for the first moving body region detected in the moving body region detection step;
It is determined whether or not the motion vector calculated in the calculation step for the region excluding the first moving body region from the image is similar to the reference motion vector, and the motion vector determined to be similar is calculated A specific step of identifying the region as the second moving body region;
A camera shake amount calculating step of calculating a camera shake amount of the entire image based on the motion vector calculated in the calculating step for the region excluding the first moving object region and the second moving object region from the image. Imaging method.
前記基準動きベクトルと前記画像全体の手ぶれ量に基づき、前記動対象の動きを予測する予測動きベクトルを算出する予測動きベクトル算出ステップをさらに備え、
前記特定ステップはさらに、前記予測動きベクトルに基づいて、前記画像よりも時間的に後の画像について、前記動対象が含まれると予測される領域を第3の動体領域をして特定し、
前記手ぶれ量算出ステップはさらに、前記後の画像から少なくとも前記第3の動体領域を除いた領域の動きベクトルに基づいて、前記後の画像全体の手ぶれ量を算出することを特徴とする請求項4に記載の撮像方法。
A predicted motion vector calculating step of calculating a predicted motion vector for predicting the motion of the moving object based on the reference motion vector and the amount of camera shake of the entire image;
The specifying step further specifies a region predicted to include the moving object as a third moving object region for an image temporally later than the image based on the predicted motion vector,
5. The camera shake amount calculation step further calculates a camera shake amount of the entire subsequent image based on a motion vector of an area obtained by removing at least the third moving body area from the subsequent image. The imaging method described in 1 .
前記動体領域検出ステップは、前記領域毎に顔の有無を判別し、顔が存在すると判別した領域を動対象が存在する第1の動体領域とすることを特徴とする請求項4または5記載の撮像方法。 6. The moving object region detecting step determines the presence or absence of a face for each of the regions, and sets the region determined to have a face as a first moving object region in which a moving object exists . Imaging method.
JP2008289645A 2008-11-12 2008-11-12 Imaging apparatus and imaging method Active JP5029573B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008289645A JP5029573B2 (en) 2008-11-12 2008-11-12 Imaging apparatus and imaging method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008289645A JP5029573B2 (en) 2008-11-12 2008-11-12 Imaging apparatus and imaging method

Publications (2)

Publication Number Publication Date
JP2010118822A JP2010118822A (en) 2010-05-27
JP5029573B2 true JP5029573B2 (en) 2012-09-19

Family

ID=42306200

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008289645A Active JP5029573B2 (en) 2008-11-12 2008-11-12 Imaging apparatus and imaging method

Country Status (1)

Country Link
JP (1) JP5029573B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6341708B2 (en) * 2014-03-17 2018-06-13 キヤノン株式会社 Information processing apparatus, control method therefor, and program
US10051274B2 (en) 2013-10-25 2018-08-14 Canon Kabushiki Kaisha Image processing apparatus, method of calculating information according to motion of frame, and storage medium

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4595834B2 (en) * 2006-03-03 2010-12-08 日本ビクター株式会社 Motion vector detection method and apparatus
JP4201809B2 (en) * 2006-11-13 2008-12-24 三洋電機株式会社 Camera shake correction apparatus and method, and imaging apparatus

Also Published As

Publication number Publication date
JP2010118822A (en) 2010-05-27

Similar Documents

Publication Publication Date Title
US7639889B2 (en) Method of notifying users regarding motion artifacts based on image analysis
US7639888B2 (en) Method and apparatus for initiating subsequent exposures based on determination of motion blurring artifacts
US8134604B2 (en) Camera shake correction device, camera shake correction method and imaging device
EP1779322B1 (en) A digital image acquisition system having means for determining a camera motion blur function
US7660478B2 (en) Method of determining PSF using multiple instances of nominally scene
EP2063390B1 (en) Image processing device and its program
US8509481B2 (en) Image processing apparatus, image processing method, imaging apparatus
US9542754B2 (en) Device and method for detecting moving objects
JP6157242B2 (en) Image processing apparatus and image processing method
JP5569357B2 (en) Image processing apparatus, image processing method, and image processing program
JP2010166558A (en) Image forming apparatus
US11722771B2 (en) Information processing apparatus, imaging apparatus, and information processing method each of which issues a notification of blur of an object, and control method for the imaging apparatus
JP2007281555A (en) Imaging apparatus
JP4420906B2 (en) Imaging device
JP2010114752A (en) Device and method of imaging and program
CN110958361B (en) Image pickup apparatus capable of HDR composition, control method therefor, and storage medium
JP2009088935A (en) Image recording apparatus, image correcting apparatus, and image pickup apparatus
JP2006311058A (en) Motion vector detection circuit and detection method thereof, and camera shake correction apparatus
JP5029573B2 (en) Imaging apparatus and imaging method
JP4942572B2 (en) Image adding apparatus and method, and program
JP4052348B2 (en) Image processing apparatus and image processing method
JP5300413B2 (en) Motion vector detection device, motion vector detection method, imaging device, and program
JP2008270983A (en) Camera shake correction device and camera shake correction method
JP5301690B2 (en) Imaging apparatus, method, and program
JP2009088933A (en) Image recording apparatus, image correcting apparatus and image pickup apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100916

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20111012

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120529

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120611

R150 Certificate of patent or registration of utility model

Ref document number: 5029573

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150706

Year of fee payment: 3