JP2003331292A - Image processor and method for processing image, recording medium, and program - Google Patents

Image processor and method for processing image, recording medium, and program

Info

Publication number
JP2003331292A
JP2003331292A JP2002133806A JP2002133806A JP2003331292A JP 2003331292 A JP2003331292 A JP 2003331292A JP 2002133806 A JP2002133806 A JP 2002133806A JP 2002133806 A JP2002133806 A JP 2002133806A JP 2003331292 A JP2003331292 A JP 2003331292A
Authority
JP
Japan
Prior art keywords
block
similar
reference block
difference
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2002133806A
Other languages
Japanese (ja)
Inventor
Mitsuharu Oki
光晴 大木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2002133806A priority Critical patent/JP2003331292A/en
Publication of JP2003331292A publication Critical patent/JP2003331292A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Adjustment Of Camera Lenses (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To stably display by compensating a camera shake. <P>SOLUTION: A block extracting part 12 extracts two portions of a still object as reference blocks from a frame image input at first, to be stored in a reference block storage part 13, and the center position in either of the reference blocks is output to a locus storage part 18 to be stored. A vector extracting part 14 extracts a reference vector from an inter-center position of the two reference blocks, a comparing part 15 makes the reference vector stored in a reference vector storage part 16. A target vector is extracted from a frame image thereafter by the same manner, the reference vector is compared with the target vector, and the comparing part 15 issues a command to the block extracting part 12 to substitute the block extracting part 12 reference block with the target block at that time, when a difference in the comparison hereinbefore comes to a prescribed threshold value or more. <P>COPYRIGHT: (C)2004,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、画像処理装置およ
び方法、記録媒体、並びにプログラムに関し、特に、撮
像の際に生じる手ぶれの補正をより安定的に実現させる
ようにした画像処理装置および方法、記録媒体、並びに
プログラムに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus and method, a recording medium, and a program, and more particularly, to an image processing apparatus and method for more stably realizing correction of camera shake that occurs during imaging. The present invention relates to a recording medium and a program.

【0002】[0002]

【従来の技術】ビデオカメラなどで、画像を撮像する
際、いわゆる手ぶれを起こすことが知られており、この
手ぶれを補正する技術が一般に普及しつつある。
2. Description of the Related Art It is known that so-called camera shake occurs when capturing an image with a video camera or the like, and a technique for correcting this camera shake is becoming popular.

【0003】これは、撮像した動画像に対して、各時刻
における画像を、「手ぶれ」の度合いに応じて、ずらし
ていくことで、「手ぶれ」のない動画像に補正するとい
うものである。この「手ぶれ」の補正は、動画像に写っ
ている物体(特に静止物体)の投影像の変化を求めるこ
とで「手ぶれ」の度合いを検知し、その度合いに応じて
撮像画像をずらす方法が一般的である。すなわち、過去
に撮像したフレーム画像中の所定の物体の投影像の一部
を基準ブロックとし、今現在撮像したフレーム画像中の
所定の物体の投影像の一部をターゲットブロックとし
て、この基準ブロックとターゲットブロックとの変化を
求め、例えば、全体として右に10画素だけ変化してい
れば(動いていれば)、手ぶれにより右に10画素だけ
ビデオカメラの撮像位置が動いたことが分かるため、こ
のフレームを左に10画素ずらす事で「手ぶれ」を補正
することができるというものである。
This is to correct an image at each time point with respect to a picked-up moving image according to the degree of "camera shake" so as to correct the moving image without "camera shake". This "camera shake" correction generally involves detecting the degree of "camera shake" by determining the change in the projected image of an object (especially a stationary object) in the moving image, and shifting the captured image according to that degree. Target. That is, a part of the projected image of the predetermined object in the frame image captured in the past is used as a reference block, and a part of the projected image of the predetermined object in the frame image captured now is used as a target block, and this reference block is used. For example, if there is a change of 10 pixels to the right as a whole (if it is moving), it is understood that the image pickup position of the video camera has moved to the right by 10 pixels due to camera shake. By shifting the frame to the left by 10 pixels, "camera shake" can be corrected.

【0004】[0004]

【発明が解決しようとする課題】ところで、手ぶれの変
化を検知するために基準となる所定の物体の画像(基準
ブロック)は、撮像の進行と共に更新する必要がある。
この基準ブロックの更新方法としては、撮像されたフレ
ーム画像を所定のフレーム画像数毎に抜き出して、所定
の物体の一部を基準ブロックとして抽出して更新する方
法と、常に時間的に直前のフレーム画像中に含まれる所
定の物体の一部を基準ブロックとして抽出して更新する
方法がある。
By the way, an image (reference block) of a predetermined object serving as a reference for detecting a change in camera shake needs to be updated with the progress of imaging.
As the method of updating the reference block, a method of extracting the captured frame images for each predetermined number of frame images, extracting a part of the predetermined object as a reference block and updating it, and a method of always updating the frame immediately preceding in time. There is a method of extracting a part of a predetermined object included in an image as a reference block and updating it.

【0005】しかしながら、所定のフレーム画像毎に抜
き出されたフレーム画像から基準ブロックを抽出して、
それ以降のフレーム画像から抽出されるターゲットブロ
ックとの比較により手ぶれによる変化を検知する場合、
所定のフレーム画像数よりも短いフレーム画像数の間
に、フレーム画像内に大きな変化があると(基準ブロッ
クを抽出した所定の物体自体に大きな動きがあると)、
基準ブロックと今現在撮像したターゲットブロックとの
変化が大きくなり過ぎることがあり、この場合、手ぶれ
による変化を求めることができず、結果として、手ぶれ
を補正することができないことがあった。
However, the reference block is extracted from the frame image extracted for each predetermined frame image,
When detecting changes due to camera shake by comparison with target blocks extracted from subsequent frame images,
If there is a large change in the frame images during the number of frame images shorter than the predetermined number of frame images (when there is a large movement in the predetermined object itself from which the reference block is extracted),
The change between the reference block and the currently captured target block may be too large, and in this case, the change due to camera shake cannot be obtained, and as a result, camera shake may not be corrected.

【0006】また、時間的に直前のフレーム画像から常
に基準ブロックを抽出して、手ぶれによる変化を検知す
る場合、所定のフレーム画像数毎に撮像されるフレーム
画像から基準ブロックを更新する場合と比べて、常に直
前のフレーム画像から基準ブロックが抽出されるので、
フレーム画像内の変化に対しては追従しやすくなるが、
処理量が膨大なものとなってしまうという課題があっ
た。
Further, when the reference block is always extracted from the frame image immediately preceding in time to detect a change due to camera shake, compared with the case where the reference block is updated from the frame images picked up every predetermined number of frame images. , The reference block is always extracted from the previous frame image.
It will be easier to follow changes in the frame image,
There is a problem that the processing amount becomes enormous.

【0007】さらに、基準ブロックが更新される際に
は、微小ながら画像に揺らぎが生じてしまうことが知ら
れているが、これは、所定のフレーム画像数間隔で更新
される場合には、補正による画像への影響は無視できる
程度のものである。しかしながら、基準ブロックが毎フ
レーム画像毎に更新される場合、1回の更新で生じる揺
らぎが基準ブロックの変化とともに蓄積されることにな
り、結果として、見た目には手ぶれ補正による効果が低
減してしまうという課題があった。
Further, it is known that when the reference block is updated, a slight fluctuation occurs in the image. This is corrected when the reference block is updated at a predetermined number of frame images. The effect on the image is negligible. However, when the reference block is updated for each frame image, fluctuations that occur in one update are accumulated along with the change of the reference block, and as a result, the effect of the image stabilization is visually reduced. There was a problem.

【0008】本発明はこのような状況に鑑みてなされた
ものであり、基準ブロックを画像の動きに合わせて変化
させることにより、入力されるフレーム画像に対する最
適な処理を可能にするものである。
The present invention has been made in view of such circumstances, and makes it possible to optimally process an input frame image by changing the reference block according to the movement of the image.

【0009】[0009]

【課題を解決するための手段】本発明の第1の画像処理
装置は、所定の時刻のフレームより複数の基準ブロック
を抽出する基準ブロック抽出手段と、複数の基準ブロッ
クを記憶する記憶手段と、記憶手段により記憶された複
数の基準ブロック間の位置関係を表す基準位置関係情報
を生成する基準位置関係情報生成手段と、所定の時刻以
降のフレームより、記憶手段に記憶された複数の基準ブ
ロックに類似した複数の類似ブロックを抽出する類似ブ
ロック抽出手段と、複数の類似ブロック間の位置関係を
表す類似位置関係情報を生成する類似位置関係情報生成
手段と、類似位置関係情報と基準位置関係情報との差分
を生成する差分生成手段と、差分を所定の閾値と比較す
る比較手段と、比較結果に対応して、記憶手段に記憶さ
れている複数の基準ブロックを、複数の類似ブロックに
置き換える置換手段と、複数の基準ブロックのうちの所
定の基準ブロックの位置情報と、複数の類似ブロックの
うちの所定の類似ブロックの位置情報に基づいて、所定
の時刻以降のフレームに所定の処理を施す処理手段とを
備えることを特徴とする。
A first image processing apparatus of the present invention comprises a reference block extracting means for extracting a plurality of reference blocks from a frame at a predetermined time, a storage means for storing the plurality of reference blocks, A reference positional relationship information generating unit that generates reference positional relationship information representing the positional relationship between the plurality of reference blocks stored by the storage unit, and a plurality of reference blocks stored in the storage unit from a frame after a predetermined time. Similar block extraction means for extracting a plurality of similar blocks, similar positional relationship information generation means for generating similar positional relationship information indicating the positional relationship between the plurality of similar blocks, similar positional relationship information and reference positional relationship information Difference generating means for generating a difference between the plurality of groups, a comparing means for comparing the difference with a predetermined threshold, and a plurality of groups stored in the storing means corresponding to the comparison result. Based on the replacement means for replacing the block with a plurality of similar blocks, the position information of a predetermined reference block of the plurality of reference blocks, and the position information of a predetermined similar block of the plurality of similar blocks, a predetermined time It is characterized by comprising processing means for performing a predetermined processing on the subsequent frames.

【0010】前記基準位置関係情報は、2つの基準ブロ
ックの中心間のベクトルとしての基準ベクトルとするよ
うにすることができ、類似位置関係情報は、2つの類似
ブロックの中心間のベクトルとしての類似ベクトルとす
るようにすることができる。
The reference positional relationship information may be a reference vector as a vector between the centers of two reference blocks, and the similar positional relationship information may be similar as a vector between the centers of two similar blocks. It can be a vector.

【0011】前記差分は、基準ベクトルと類似ベクトル
の差分とするようにすることができる。
The difference may be a difference between the reference vector and the similar vector.

【0012】前記処理手段には、複数の基準ブロックの
うちの所定の基準ブロックの位置情報と、複数の類似ブ
ロックのうちの所定の類似ブロックの位置情報に基づい
て、所定の時刻以降のフレームに所定の処理として、手
ぶれ補正処理、または、画像合成処理を施すようにさせ
ることができる。
The processing means determines a frame after a predetermined time based on position information of a predetermined reference block of the plurality of reference blocks and position information of a predetermined similar block of the plurality of similar blocks. As the predetermined processing, it is possible to perform camera shake correction processing or image combination processing.

【0013】本発明の第1の画像処理方法は、所定の時
刻のフレームより複数の基準ブロックを抽出する基準ブ
ロック抽出ステップと、複数の基準ブロックを記憶する
記憶ステップと、記憶ステップの処理で記憶された複数
の基準ブロック間の位置関係を表す基準位置関係情報を
生成する基準位置関係情報生成ステップと、所定の時刻
以降のフレームより、記憶ステップの処理で記憶された
複数の基準ブロックに類似した複数の類似ブロックを抽
出する類似ブロック抽出ステップと、複数の類似ブロッ
ク間の位置関係を表す類似位置関係情報を生成する類似
位置関係情報生成ステップと、類似位置関係情報と基準
位置関係情報との差分を生成する差分生成ステップと、
差分を所定の閾値と比較する比較ステップと、比較結果
に対応して、記憶ステップの処理で記憶されている複数
の基準ブロックを、複数の類似ブロックに置き換える置
換ステップと、複数の基準ブロックのうちの所定の基準
ブロックの位置情報と、複数の類似ブロックのうちの所
定の類似ブロックの位置情報に基づいて、所定の時刻以
降のフレームに所定の処理を施す処理ステップとを含む
ことを特徴とする。
According to the first image processing method of the present invention, a reference block extraction step of extracting a plurality of reference blocks from a frame at a predetermined time, a storage step of storing a plurality of reference blocks, and a storage step are stored. The reference positional relationship information generating step of generating reference positional relationship information representing the positional relationship between the plurality of reference blocks described above, and the frame after the predetermined time are similar to the plurality of reference blocks stored in the processing of the storing step. A similar block extracting step of extracting a plurality of similar blocks, a similar positional relationship information generating step of generating similar positional relationship information indicating a positional relationship between a plurality of similar blocks, and a difference between the similar positional relationship information and the reference positional relationship information. A difference generation step for generating
A comparison step of comparing the difference with a predetermined threshold value, a replacement step of replacing the plurality of reference blocks stored in the processing of the storage step with a plurality of similar blocks corresponding to the comparison result, and a plurality of reference blocks among the plurality of reference blocks. Of the predetermined reference block and position information of a predetermined similar block of the plurality of similar blocks, the processing step of performing a predetermined process on a frame after a predetermined time. .

【0014】本発明の第1の記録媒体のプログラムは、
所定の時刻のフレームより複数の基準ブロックの抽出を
制御する基準ブロック抽出制御ステップと、複数の基準
ブロックの記憶を制御する記憶制御ステップと、記憶制
御ステップの処理で記憶が制御された複数の基準ブロッ
ク間の位置関係を表す基準位置関係情報の生成を制御す
る基準位置関係情報生成制御ステップと、所定の時刻以
降のフレームより、記憶制御ステップの処理で記憶が制
御された複数の基準ブロックに類似した複数の類似ブロ
ックの抽出を制御する類似ブロック抽出制御ステップ
と、複数の類似ブロック間の位置関係を表す類似位置関
係情報の生成を制御する類似位置関係情報生成制御ステ
ップと、類似位置関係情報と基準位置関係情報との差分
の生成を制御する差分生成制御ステップと、差分の所定
の閾値との比較を制御する比較制御ステップと、比較結
果に対応して、記憶制御ステップの処理で記憶が制御さ
れている複数の基準ブロックの、複数の類似ブロックへ
の置き換えを制御する置換制御ステップと、複数の基準
ブロックのうちの所定の基準ブロックの位置情報と、複
数の類似ブロックのうちの所定の類似ブロックの位置情
報に基づいて、所定の時刻以降のフレームに施す所定の
処理を制御する処理制御ステップとを含むことを特徴と
する。
The program of the first recording medium of the present invention is
A reference block extraction control step that controls extraction of a plurality of reference blocks from a frame at a predetermined time, a storage control step that controls storage of the plurality of reference blocks, and a plurality of references whose storage is controlled by the processing of the storage control step. A reference positional relationship information generation control step that controls the generation of reference positional relationship information that represents the positional relationship between blocks, and a frame after a predetermined time is similar to a plurality of reference blocks whose storage is controlled by the processing of the storage control step. A similar block extraction control step for controlling the extraction of the plurality of similar blocks, a similar positional relationship information generation control step for controlling the generation of similar positional relationship information representing the positional relationship between the plurality of similar blocks, and a similar positional relationship information, The difference generation control step for controlling the generation of the difference from the reference positional relationship information and the comparison of the difference with a predetermined threshold are controlled. And a replacement control step for controlling replacement of a plurality of reference blocks whose storage is controlled by the processing of the storage control step with a plurality of similar blocks corresponding to the comparison result, and a plurality of reference blocks. Of the plurality of similar blocks, and a processing control step of controlling a predetermined processing performed on a frame after a predetermined time based on the position information of the predetermined similar block of the plurality of similar blocks. It is characterized by

【0015】本発明の第1のプログラムは、所定の時刻
のフレームより複数の基準ブロックの抽出を制御する基
準ブロック抽出制御ステップと、複数の基準ブロックの
記憶を制御する記憶制御ステップと、記憶制御ステップ
の処理で記憶が制御された複数の基準ブロック間の位置
関係を表す基準位置関係情報の生成を制御する基準位置
関係情報生成制御ステップと、所定の時刻以降のフレー
ムより、記憶制御ステップの処理で記憶が制御された複
数の基準ブロックに類似した複数の類似ブロックの抽出
を制御する類似ブロック抽出制御ステップと、複数の類
似ブロック間の位置関係を表す類似位置関係情報の生成
を制御する類似位置関係情報生成制御ステップと、類似
位置関係情報と基準位置関係情報との差分の生成を制御
する差分生成制御ステップと、差分の所定の閾値との比
較を制御する比較制御ステップと、比較結果に対応し
て、記憶制御ステップの処理で記憶が制御されている複
数の基準ブロックの、複数の類似ブロックへの置き換え
を制御する置換制御ステップと、複数の基準ブロックの
うちの所定の基準ブロックの位置情報と、複数の類似ブ
ロックのうちの所定の類似ブロックの位置情報に基づい
て、所定の時刻以降のフレームに施す所定の処理を制御
する処理制御ステップとをコンピュータに実行させるこ
とを特徴とする。
A first program of the present invention is a reference block extraction control step for controlling extraction of a plurality of reference blocks from a frame at a predetermined time, a storage control step for controlling storage of a plurality of reference blocks, and a storage control. The reference position relation information generation control step for controlling the generation of the reference position relation information indicating the position relation between the plurality of reference blocks whose storage is controlled by the step process, and the process of the storage control step from the frame after the predetermined time. Similar block extraction control step that controls the extraction of a plurality of similar blocks similar to the plurality of reference blocks whose storage is controlled by the similar block, and the similar position that controls the generation of similar positional relationship information indicating the positional relationship between the similar blocks. Relation information generation control step and difference generation control for controlling generation of difference between similar positional relation information and reference positional relation information Step and a comparison control step for controlling the comparison of the difference with a predetermined threshold value, and a plurality of reference blocks whose storage is controlled by the processing of the storage control step corresponding to the comparison result to a plurality of similar blocks. Based on the replacement control step of controlling the replacement, the position information of a predetermined reference block of the plurality of reference blocks, and the position information of a predetermined similar block of the plurality of similar blocks, the frame after the predetermined time And a process control step of controlling a predetermined process to be performed.

【0016】本発明の第2の画像処理装置は、所定の時
刻のフレームより基準ブロックを抽出する基準ブロック
抽出手段と、基準ブロックを記憶する記憶手段と、所定
の時刻以降のフレームより基準ブロックに類似した類似
ブロックを抽出する類似ブロック抽出手段と、基準ブロ
ックと類似ブロックとの差分を生成する差分生成手段
と、差分を所定の閾値と比較する比較手段と、比較結果
に対応して、記憶手段に記憶されている基準ブロックを
類似ブロックに置き換える置換手段と、基準ブロックの
位置情報と、類似ブロックの位置情報に基づいて、所定
の時刻以降のフレームに所定の処理を施す処理手段とを
備えることを特徴とする。
The second image processing apparatus of the present invention comprises a reference block extracting means for extracting a reference block from a frame at a predetermined time, a storage means for storing the reference block, and a reference block from a frame after the predetermined time. Similar block extracting means for extracting similar similar blocks, difference generating means for generating a difference between the reference block and similar block, comparing means for comparing the difference with a predetermined threshold value, and storage means corresponding to the comparison result. A replacement unit that replaces the reference block stored in the same block with a similar block, position information of the reference block, and processing unit that performs a predetermined process on a frame after a predetermined time based on the position information of the similar block. Is characterized by.

【0017】前記差分は、基準ブロックと類似ブロック
にアフィン変換する際の変換パラメータに基づくものと
するようにすることができる。
The difference may be based on a conversion parameter when affine-transforming the reference block and the similar block.

【0018】前記アフィン変換する際の変換パラメータ
には、基準ブロックを類似ブロックにアフィン変換する
際の拡大率、または、縮小率、並びに回転角を含ませる
ようにすることができる。
The conversion parameter for the affine transformation may include an enlargement rate or a reduction rate and a rotation angle when the reference block is affine transformed into the similar block.

【0019】前記処理手段には、基準ブロックの位置情
報と、類似ブロックの位置情報に基づいて、所定の時刻
以降のフレームに所定の処理として、手ぶれ補正処理、
または、画像合成処理を施すようにさせることができ
る。
The processing means, on the basis of the position information of the reference block and the position information of the similar block, a camera shake correction process as a predetermined process for a frame after a predetermined time.
Alternatively, it is possible to perform an image combining process.

【0020】本発明の第2の画像処理方法は、所定の時
刻のフレームより基準ブロックを抽出する基準ブロック
抽出ステップと、基準ブロックを記憶する記憶ステップ
と、所定の時刻以降のフレームより基準ブロックに類似
した類似ブロックを抽出する類似ブロック抽出ステップ
と、基準ブロックと類似ブロックとの差分を生成する差
分生成ステップと、差分を所定の閾値と比較する比較ス
テップと、比較結果に対応して、記憶ステップの処理に
より記憶されている基準ブロックを類似ブロックに置き
換える置換ステップと、基準ブロックの位置情報と、類
似ブロックの位置情報に基づいて、所定の時刻以降のフ
レームに所定の処理を施す処理ステップとを含むことを
特徴とする。
According to the second image processing method of the present invention, a reference block extraction step of extracting a reference block from a frame at a predetermined time, a storage step of storing the reference block, and a reference block from the frame after the predetermined time are made. A similar block extraction step of extracting similar similar blocks, a difference generation step of generating a difference between the reference block and the similar block, a comparison step of comparing the difference with a predetermined threshold value, and a storage step corresponding to the comparison result. The substituting step of replacing the reference block stored by the process of with the similar block, the position information of the reference block, and the processing step of performing a predetermined process on a frame after a predetermined time based on the position information of the similar block. It is characterized by including.

【0021】本発明の第2の記録媒体のプログラムは、
所定の時刻のフレームより基準ブロックの抽出を制御す
る基準ブロック抽出制御ステップと、基準ブロックの記
憶を制御する記憶制御ステップと、所定の時刻以降のフ
レームより基準ブロックに類似した類似ブロックの抽出
を制御する類似ブロック抽出制御ステップと、基準ブロ
ックと類似ブロックとの差分の生成を制御する差分生成
制御ステップと、差分の所定の閾値との比較を制御する
比較制御ステップと、比較結果に対応した、記憶ステッ
プの処理により記憶が制御されている基準ブロックの類
似ブロックへの置き換えを制御する置換制御ステップ
と、基準ブロックの位置情報と、類似ブロックの位置情
報に基づいて、所定の時刻以降のフレームに施す所定の
処理を制御する処理制御ステップとを含むことを特徴と
する。
The program of the second recording medium of the present invention is
A reference block extraction control step that controls the extraction of the reference block from the frame at a predetermined time, a storage control step that controls the storage of the reference block, and a extraction of a similar block similar to the reference block from the frame after the predetermined time A similar block extraction control step, a difference generation control step for controlling the generation of the difference between the reference block and the similar block, a comparison control step for controlling the comparison of the difference with a predetermined threshold, and a memory corresponding to the comparison result. The replacement control step for controlling the replacement of the reference block whose storage is controlled by the step processing with the similar block, the position information of the reference block, and the position information of the similar block are applied to the frames after a predetermined time. A process control step of controlling a predetermined process.

【0022】本発明の第2のプログラムは、所定の時刻
のフレームより基準ブロックの抽出を制御する基準ブロ
ック抽出制御ステップと、基準ブロックの記憶を制御す
る記憶制御ステップと、所定の時刻以降のフレームより
基準ブロックに類似した類似ブロックの抽出を制御する
類似ブロック抽出制御ステップと、基準ブロックと類似
ブロックとの差分の生成を制御する差分生成制御ステッ
プと、差分の所定の閾値との比較を制御する比較制御ス
テップと、比較結果に対応した、記憶ステップの処理に
より記憶が制御されている基準ブロックの類似ブロック
への置き換えを制御する置換制御ステップと、基準ブロ
ックの位置情報と、類似ブロックの位置情報に基づい
て、所定の時刻以降のフレームに施す所定の処理を制御
する処理制御ステップとをコンピュータに実行させるこ
とを特徴とする。
A second program of the present invention is a reference block extraction control step for controlling extraction of a reference block from a frame at a predetermined time, a storage control step for controlling storage of the reference block, and a frame after the predetermined time. A similar block extraction control step for controlling extraction of a similar block more similar to the reference block, a difference generation control step for controlling generation of a difference between the reference block and the similar block, and a comparison of a difference with a predetermined threshold value. A comparison control step, a replacement control step that controls replacement of a reference block whose storage is controlled by the processing of the storage step with a similar block corresponding to the comparison result, position information of the reference block, and position information of the similar block The process control step for controlling the predetermined process performed on the frame after the predetermined time based on Characterized in that to execute the door to the computer.

【0023】本発明の第3の画像処理装置は、所定の時
刻のフレームより基準ブロックを抽出する基準ブロック
抽出手段と、基準ブロックを記憶する記憶手段と、所定
の時刻以降のフレームより基準ブロックに類似した類似
ブロックを抽出する類似ブロック抽出手段と、基準ブロ
ックを類似ブロックにアフィン変換する際の変換パラメ
ータを、基準ブロックと類似ブロックとの差分として生
成する差分生成手段と、差分により基準ブロックをアフ
ィン変換する変換手段と、差分を所定の閾値と比較する
比較手段と、比較結果に応じて、記憶手段に記憶されて
いる基準ブロックを、変換手段によりアフィン変換され
た基準ブロックに置き換えて記憶させる置換手段と、基
準ブロックの位置情報と、類似ブロックの位置情報に基
づいて、所定の時刻以降のフレームに所定の処理を施す
処理手段とを備えることを特徴とする。
A third image processing apparatus of the present invention comprises a reference block extracting means for extracting a reference block from a frame at a predetermined time, a storage means for storing the reference block, and a reference block from a frame after the predetermined time. Similar block extracting means for extracting similar similar blocks, difference generating means for generating a conversion parameter for affine-transforming a reference block into similar blocks as a difference between the reference block and the similar block, and affine the reference block by the difference. A conversion unit for converting, a comparison unit for comparing the difference with a predetermined threshold value, and a replacement for replacing the reference block stored in the storage unit with the reference block affine-transformed by the conversion unit and storing the reference block according to the comparison result. Based on the means, the position information of the reference block, and the position information of the similar block, Wherein the in subsequent frames and processing means for performing a predetermined processing.

【0024】前記差分としてのアフィン変換する際の変
換パラメータには、類似ブロックに対する基準ブロック
の拡大率、または、縮小率、並びに回転角を含ませるよ
うにすることができる。
The conversion parameter for the affine conversion as the difference may include the enlargement ratio or reduction ratio of the reference block with respect to the similar block, and the rotation angle.

【0025】前記処理手段には、基準ブロックの位置情
報と、類似ブロックの位置情報に基づいて、所定の時刻
以降のフレームに所定の処理として、手ぶれ補正処理、
または、画像合成処理を施すようにさせることができ
る。
The processing means, on the basis of the position information of the reference block and the position information of the similar block, a camera shake correction process as a predetermined process for a frame after a predetermined time.
Alternatively, it is possible to perform an image combining process.

【0026】本発明の第3の画像処理方法は、所定の時
刻のフレームより基準ブロックを抽出する基準ブロック
抽出ステップと、基準ブロックを記憶する記憶ステップ
と、所定の時刻以降のフレームより基準ブロックに類似
した類似ブロックを抽出する類似ブロック抽出ステップ
と、基準ブロックを類似ブロックにアフィン変換する際
の変換パラメータを、基準ブロックと類似ブロックとの
差分として生成する差分生成ステップと、差分により基
準ブロックをアフィン変換する変換ステップと、差分を
所定の閾値と比較する比較ステップと、比較結果に応じ
て、記憶ステップの処理により記憶されている基準ブロ
ックを、変換ステップの処理でアフィン変換された基準
ブロックに置き換えて記憶させる置換ステップと、基準
ブロックの位置情報と、類似ブロックの位置情報に基づ
いて、所定の時刻以降のフレームに所定の処理を施す処
理ステップとを含むことを特徴とする。
According to a third image processing method of the present invention, a reference block extracting step of extracting a reference block from a frame at a predetermined time, a storing step of storing the reference block, and a reference block from a frame after the predetermined time are made. A similar block extraction step of extracting similar similar blocks, a difference generation step of generating a conversion parameter when affine-transforming a reference block into a similar block as a difference between the reference block and the similar block, and an affine reference block based on the difference. A conversion step of converting, a comparison step of comparing the difference with a predetermined threshold value, and the reference block stored by the processing of the storage step is replaced with the reference block affine-transformed by the processing of the conversion step according to the comparison result. Replacement step to be stored as If, based on the position information of the similar block, characterized in that it comprises a processing step of performing predetermined processing at a predetermined time after the frame.

【0027】本発明の第3の記録媒体のプログラムは、
所定の時刻のフレームより基準ブロックの抽出を制御す
る基準ブロック抽出制御ステップと、基準ブロックの記
憶を制御する記憶制御ステップと、所定の時刻以降のフ
レームより基準ブロックに類似した類似ブロックの抽出
を制御する類似ブロック抽出制御ステップと、基準ブロ
ックを類似ブロックにアフィン変換する際の変換パラメ
ータの、基準ブロックと類似ブロックとの差分としての
生成を制御する差分生成制御ステップと、差分により基
準ブロックのアフィン変換を制御する変換制御ステップ
と、差分の所定の閾値との比較を制御する比較制御ステ
ップと、比較結果に応じて、記憶制御ステップの処理に
より記憶が制御されている基準ブロックの、変換ステッ
プの処理でアフィン変換された基準ブロックとの置き換
えと記憶を制御する置換制御ステップと、基準ブロック
の位置情報と、類似ブロックの位置情報に基づいた、所
定の時刻以降のフレームへの所定の処理を制御する処理
制御ステップとを含むことを特徴とする。
The program of the third recording medium of the present invention is
A reference block extraction control step that controls the extraction of the reference block from the frame at a predetermined time, a storage control step that controls the storage of the reference block, and a extraction of a similar block similar to the reference block from the frame after the predetermined time A similar block extraction control step, a difference generation control step for controlling generation of a conversion parameter when the reference block is affine transformed into a similar block as a difference between the reference block and the similar block, and an affine transformation of the reference block by the difference. Of the reference block whose storage is controlled by the processing of the storage control step in accordance with the comparison result, and the comparison control step of controlling the comparison with the predetermined threshold value of the difference. Control the replacement and storage with the reference block affine transformed by A replacement control step, the positional information of the reference block, based on the position information of the similar block, characterized in that it comprises a processing control step of controlling the predetermined processing to a predetermined subsequent time frame.

【0028】本発明の第3のプログラムは、所定の時刻
のフレームより基準ブロックの抽出を制御する基準ブロ
ック抽出制御ステップと、基準ブロックの記憶を制御す
る記憶制御ステップと、所定の時刻以降のフレームより
基準ブロックに類似した類似ブロックの抽出を制御する
類似ブロック抽出制御ステップと、基準ブロックを類似
ブロックにアフィン変換する際の変換パラメータの、基
準ブロックと類似ブロックとの差分としての生成を制御
する差分生成制御ステップと、差分により基準ブロック
のアフィン変換を制御する変換制御ステップと、差分の
所定の閾値との比較を制御する比較制御ステップと、比
較結果に応じて、記憶制御ステップの処理により記憶が
制御されている基準ブロックの、変換ステップの処理で
アフィン変換された基準ブロックへの置き換えと記憶を
制御する置換制御ステップと、基準ブロックの位置情報
と、類似ブロックの位置情報に基づいた、所定の時刻以
降のフレームへの所定の処理を制御する処理制御ステッ
プとをコンピュータに実行させることを特徴とする。
A third program of the present invention is a reference block extraction control step for controlling extraction of a reference block from a frame at a predetermined time, a storage control step for controlling storage of the reference block, and a frame after a predetermined time. A similar block extraction control step for controlling the extraction of a similar block more similar to the reference block, and a difference for controlling the generation of the conversion parameter when the reference block is affine-transformed into the similar block as the difference between the reference block and the similar block. The generation control step, the conversion control step for controlling the affine transformation of the reference block by the difference, the comparison control step for controlling the comparison of the difference with a predetermined threshold, and the storage control step according to the comparison result It is affine transformed in the transformation step of the controlled reference block. A replacement control step of controlling replacement and storage with the reference block, position information of the reference block, and a processing control step of controlling a predetermined process for a frame after a predetermined time based on the position information of the similar block. It is characterized by causing a computer to execute.

【0029】本発明の第1の画像処理装置および方法、
並びにプログラムにおいては、所定の時刻のフレームよ
り複数の基準ブロックが抽出され、複数の基準ブロック
が記憶され、記憶された複数の基準ブロック間の位置関
係を表す基準位置関係情報が生成され、所定の時刻以降
のフレームより、記憶された複数の基準ブロックに類似
した複数の類似ブロックが抽出され、複数の類似ブロッ
ク間の位置関係を表す類似位置関係情報が生成され、類
似位置関係情報と基準位置関係情報との差分が生成さ
れ、差分が所定の閾値と比較され、比較結果に対応し
て、記憶されている複数の基準ブロックが、複数の類似
ブロックに置き換えられ、複数の基準ブロックのうちの
所定の基準ブロックの位置情報と、複数の類似ブロック
のうちの所定の類似ブロックの位置情報に基づいて、所
定の時刻以降のフレームに所定の処理が施される。
A first image processing apparatus and method of the present invention,
In addition, in the program, a plurality of reference blocks are extracted from the frame at a predetermined time, the plurality of reference blocks are stored, reference positional relationship information indicating the positional relationship between the stored plurality of reference blocks is generated, and the predetermined positional relationship is generated. A plurality of similar blocks similar to the plurality of stored reference blocks are extracted from the frame after the time, and similar positional relationship information indicating the positional relationship between the plurality of similar blocks is generated. Similar positional relationship information and reference positional relationship A difference from the information is generated, the difference is compared with a predetermined threshold value, and the plurality of reference blocks stored are replaced with a plurality of similar blocks according to the comparison result, and a predetermined one of the plurality of reference blocks is replaced. Based on the position information of the reference block and the position information of a predetermined similar block among the plurality of similar blocks, Predetermined processing is performed on.

【0030】本発明の第2の画像処理装置および方法、
並びに第2のプログラムにおいては、所定の時刻のフレ
ームより基準ブロックが抽出され、基準ブロックが記憶
され、所定の時刻以降のフレームより基準ブロックに類
似した類似ブロックが抽出され、基準ブロックと類似ブ
ロックとの差分が生成され、差分が所定の閾値と比較さ
れ、比較結果に対応して、記憶されている基準ブロック
が類似ブロックに置き換えられ、基準ブロックの位置情
報と、類似ブロックの位置情報に基づいて、所定の時刻
以降のフレームに所定の処理が施される。
A second image processing apparatus and method of the present invention,
In the second program, the reference block is extracted from the frame at the predetermined time, the reference block is stored, the similar block similar to the reference block is extracted from the frame after the predetermined time, and the reference block and the similar block are extracted. Difference is generated, the difference is compared with a predetermined threshold value, the stored reference block is replaced with a similar block according to the comparison result, and the reference block position information and the similar block position information are used. , A predetermined process is performed on frames after a predetermined time.

【0031】本発明の第3の画像処理装置および方法、
並びに第3のプログラムにおいては、所定の時刻のフレ
ームより基準ブロックが抽出され、基準ブロックが記憶
され、所定の時刻以降のフレームより基準ブロックに類
似した類似ブロックが抽出され、基準ブロックを類似ブ
ロックにアフィン変換する際の変換パラメータが、基準
ブロックと類似ブロックとの差分として生成され、差分
により基準ブロックがアフィン変換され、差分が所定の
閾値と比較され、比較結果に応じて、記憶されている基
準ブロックが、アフィン変換された基準ブロックに置き
換えられ、基準ブロックの位置情報と、類似ブロックの
位置情報に基づいて、所定の時刻以降のフレームに所定
の処理が施される。
A third image processing apparatus and method of the present invention,
In the third program, the reference block is extracted from the frame at the predetermined time, the reference block is stored, the similar block similar to the reference block is extracted from the frame after the predetermined time, and the reference block is changed to the similar block. A conversion parameter for affine transformation is generated as a difference between a reference block and a similar block, the reference block is affine-transformed by the difference, the difference is compared with a predetermined threshold value, and the reference value stored in accordance with the comparison result. The block is replaced with the affine-transformed reference block, and a predetermined process is performed on a frame after a predetermined time based on the position information of the reference block and the position information of the similar block.

【0032】[0032]

【発明の実施の形態】図1は、本発明に係る画像処理装
置の一実施の形態の構成を示すブロック図である。
1 is a block diagram showing the configuration of an embodiment of an image processing apparatus according to the present invention.

【0033】画像入力部11は、例えば、画像を記憶す
る画像記憶装置であり、予め記憶している画像をブロッ
ク抽出部12、および、画像メモリ17に供給する。も
ちろん、CCD(Charge Coupled Device)などからなる撮
像装置により撮像され、供給された画像をそのままブロ
ック抽出部12、および、画像メモリ17に供給するよ
うにしてもよい。
The image input unit 11 is, for example, an image storage device that stores images, and supplies the images stored in advance to the block extraction unit 12 and the image memory 17. Of course, an image captured by an imaging device such as a CCD (Charge Coupled Device) and supplied may be directly supplied to the block extraction unit 12 and the image memory 17.

【0034】ブロック抽出部12は、基準ブロック記憶
部13に基準ブロックが記憶されていない場合、最初に
入力されるフレーム画像のうち、2箇所の交流部分(例
えば、撮像時に図示せぬ光学系により焦点位置があった
状態で、画像入力部11により撮像された静物体などの
ぶれの少ない鮮明な部分)を基準ブロックとして抽出
し、基準ブロック記憶部13に記憶させる。例えば、図
2で示すようなフレーム画像が撮像開始と同時に入力さ
れた場合、このうちドア30のドアノブ32と窓枠33
の角部が、交流部分であったとき、ブロック抽出部12
は、図中のドアノブ32に対応する部分を基準ブロック
31’−1として、窓枠33の角部付近を基準ブロック
31’−2としてそれぞれ抽出して、基準ブロック記憶
部13に記憶させると共に、基準ブロック31’−1,
31’−2のそれぞれの中央位置の座標をベクトル抽出
部14に出力し、さらに基準ブロック31’−1,3
1’−2の中央位置の座標を軌跡記憶部18に出力して
記憶させる。
When no reference block is stored in the reference block storage unit 13, the block extraction unit 12 selects two AC portions (for example, by an optical system (not shown) at the time of image pickup in the first input frame image. In the state where the focus position exists, a clear portion such as a static object captured by the image input unit 11 with little blurring) is extracted as a reference block and stored in the reference block storage unit 13. For example, when a frame image as shown in FIG. 2 is input at the same time as the start of image capturing, the door knob 32 and the window frame 33 of the door 30 among them are input.
When the corner portion of the block is the AC portion, the block extraction unit 12
Is a block corresponding to the door knob 32 in the figure as a reference block 31'-1, and the vicinity of the corner of the window frame 33 is extracted as a reference block 31'-2 and stored in the reference block storage unit 13. Reference block 31'-1,
The coordinates of the respective central positions of 31'-2 are output to the vector extraction unit 14, and the reference blocks 31'-1, 3 '
The coordinates of the central position of 1'-2 are output to the locus storage unit 18 and stored therein.

【0035】尚、以下の説明において、基準ブロック3
1’−1,31’−2を区別する必要がない場合、単に
基準ブロック31’と称する。また、その他も同様とす
る。
In the following description, the reference block 3
When it is not necessary to distinguish 1'-1 and 31'-2, they are simply referred to as reference blocks 31 '. The same applies to other cases.

【0036】また、ブロック抽出部12は、基準ブロッ
ク記憶部13に基準ブロックが記憶されている場合(一
度基準ブロックが記憶された場合)、順次入力されるフ
レーム画像に、基準ブロック記憶部13に記憶された基
準ブロックに類似するブロックをパターンマッチング
(フレーム画像上で基準ブロックを水平方向および垂直
方向に移動させて類似する部位を検索する処理)により
検索し、これをターゲットブロックとして抽出して、タ
ーゲットブロックの中央位置の座標をベクトル抽出部1
4に出力し、さらに基準ブロック31’−1,31’−
2の中央位置の座標を軌跡記憶部18に出力して記憶さ
せる。
Further, when the reference block is stored in the reference block storage unit 13 (when the reference block is stored once), the block extraction unit 12 stores the sequentially input frame images in the reference block storage unit 13. A block similar to the stored reference block is searched by pattern matching (a process of moving the reference block in the horizontal direction and the vertical direction on the frame image to search for a similar portion), and this is extracted as a target block, Vector extraction unit 1 calculates the coordinates of the center position of the target block.
4 to the reference blocks 31'-1, 31'-
The coordinates of the center position of 2 are output to the locus storage unit 18 and stored therein.

【0037】すなわち、例えば、図2で示すように、基
準ブロック31’−1,31’−2が、基準ブロック記
憶部13に記憶された状態で、例えば、図3で示すよう
なフレーム画像が入力されると、ブロック抽出部12
は、基準ブロック記憶部13に記憶されたドアノブ32
付近の基準ブロック31’−1によりパターンマッチン
グを行うことにより、類似したターゲットブロック41
−1を検索する。結果として、ターゲットブロック41
−1としては、図3で示すように、ドアノブ42周辺の
ブロックが検索されることになる。
That is, for example, as shown in FIG. 2, when the reference blocks 31'-1, 31'-2 are stored in the reference block storage unit 13, for example, a frame image as shown in FIG. When input, the block extraction unit 12
Is the door knob 32 stored in the reference block storage unit 13.
By performing pattern matching with the reference block 31′-1 in the vicinity, the similar target block 41
Search for -1. As a result, the target block 41
As -1, as shown in FIG. 3, the blocks around the door knob 42 are searched.

【0038】同様にして、ブロック抽出部12は、基準
ブロック記憶部13に記憶された窓枠33の角部周辺の
基準ブロック31’−2によりパターンマッチングを行
うことにより、類似したターゲットブロック41−2を
検索する。結果として、ターゲットブロック41−2と
しては、図3で示すように、窓枠43周辺のブロックが
検索されることになる。
Similarly, the block extraction unit 12 performs pattern matching with the reference blocks 31'-2 around the corners of the window frame 33 stored in the reference block storage unit 13 to obtain similar target blocks 41- Search for 2. As a result, as the target block 41-2, as shown in FIG. 3, the blocks around the window frame 43 are searched.

【0039】そして、ブロック抽出部12は、抽出した
ターゲットブロック41−1,41−2の中央の座標を
ベクトル抽出部14に出力する。
Then, the block extracting unit 12 outputs the center coordinates of the extracted target blocks 41-1 and 41-2 to the vector extracting unit 14.

【0040】さらに、ブロック抽出部12は、次のフレ
ームの処理が始まるまで、抽出したターゲットブロック
を一時的に記憶し、比較部15からの比較結果の通知を
受けて、そのタイミングで抽出した(その時点で記憶し
ている)フレーム画像のターゲットブロックを、基準ブ
ロック記憶部13のデータに上書きさせ、基準ブロック
を更新させる。
Further, the block extraction unit 12 temporarily stores the extracted target block until the processing of the next frame starts, receives the notification of the comparison result from the comparison unit 15, and extracts at that timing ( The target block of the frame image (stored at that time) is overwritten on the data in the reference block storage unit 13 to update the reference block.

【0041】ベクトル抽出部14は、ブロック抽出部1
2より入力される2つの基準ブロックの各中央部の座
標、または、2つのターゲットブロックの各中央部の座
標から、それぞれベクトルを求めて比較部15に出力す
る。従って、図2の場合、例えば、基準ブロック31’
−1,31’−2のそれぞれの中央部を始点、および、
終点としたベクトルが求められることになる。また、図
3の場合、例えば、ターゲットブロック41−1,41
−2のそれぞれの中央部を始点、および、終点としたベ
クトルが、求められることになる。
The vector extraction unit 14 is a block extraction unit 1.
Vectors are respectively obtained from the coordinates of the central portions of the two reference blocks or the coordinates of the central portions of the two target blocks, which are input from 2 and are output to the comparison unit 15. Therefore, in the case of FIG. 2, for example, the reference block 31 '
-1, 31'-2 as the starting point of the central part of each, and
The vector that is the end point will be obtained. Further, in the case of FIG. 3, for example, the target blocks 41-1 and 41
A vector with the center point of each −2 as the start point and the end point is obtained.

【0042】比較部15は、ベクトル抽出部14より入
力された最初のベクトルを基準ベクトルとして基準ベク
トル記憶部16に記憶させ、それ以降に入力されるベク
トルをターゲットベクトルとして、基準ベクトルとの差
分ベクトルを求め、その差分ベクトルの絶対値と所定の
閾値との比較処理を行う。より詳細には、比較部15
は、基準ベクトルとターゲットベクトルとの差分ベクト
ルを求め、差分ベクトルの絶対値を基準ベクトルの絶対
値で割り、閾値と比較する。そして、比較部15は、こ
の比較結果において、閾値よりも大きくなった場合、基
準ベクトル記憶部16に記憶されている基準ベクトル
を、入力されたターゲットベクトルに替えて、上書き記
憶させ、ブロック抽出部12に基準ブロックを、その時
点のフレームから抽出したターゲットブロックに置き換
えて、基準ブロック記憶部13に記憶させるように指令
する。
The comparison unit 15 stores the first vector input from the vector extraction unit 14 in the reference vector storage unit 16 as the reference vector, and the vector input thereafter is used as the target vector, and the difference vector from the reference vector. Is calculated and the absolute value of the difference vector is compared with a predetermined threshold value. More specifically, the comparison unit 15
Calculates the difference vector between the reference vector and the target vector, divides the absolute value of the difference vector by the absolute value of the reference vector, and compares it with the threshold value. Then, the comparison unit 15 replaces the reference vector stored in the reference vector storage unit 16 with the input target vector and overwrites and stores the reference vector when the comparison result is larger than the threshold value. 12 is instructed to replace the reference block with the target block extracted from the frame at that time and store it in the reference block storage unit 13.

【0043】画像メモリ17は、画像入力部11より供
給される画像を順次記憶し、読み込みが完了した時点
で、手ぶれ補正部19に出力する。軌跡記憶部18は、
ブロック抽出部12より供給される基準ブロックとター
ゲットブロックの、それぞれの中央の座標位置を記憶
し、基準ブロックとターゲットブロックからなるブロッ
クの対象物体(例えば、後述するフレーム画像中のドア
ノブ、および、窓枠の角部)の移動の軌跡を記憶し、画
像入力部11からの画像の供給が終了したタイミングで
手ぶれ補正部19に軌跡情報として出力する。
The image memory 17 sequentially stores the images supplied from the image input unit 11, and outputs them to the camera shake correction unit 19 when the reading is completed. The locus storage unit 18 is
The central coordinate positions of the reference block and the target block supplied from the block extraction unit 12 are stored, and the target object of the block composed of the reference block and the target block (for example, a door knob and a window in a frame image described later) The locus of movement of the (corner of the frame) is stored and output as locus information to the camera shake correction unit 19 at the timing when the supply of the image from the image input unit 11 is completed.

【0044】手ぶれ補正部19は、画像メモリ17より
供給される画像を軌跡記憶部18からの軌跡情報に、従
って、入力されたフレーム画像をずらすことにより、手
ぶれを補正して、画像出力部20に出力する。画像出力
部20は、手ぶれ補正部19により手ぶれが補正された
画像を、図示せぬ記憶装置や表示装置に出力する。
The camera shake correction unit 19 corrects the camera shake by shifting the image supplied from the image memory 17 according to the trajectory information from the trajectory storage unit 18, and thus the input frame image, and the image output unit 20. Output to. The image output unit 20 outputs the image in which the camera shake is corrected by the camera shake correction unit 19 to a storage device or a display device (not shown).

【0045】次に、図4のフローチャートを参照して、
第1フレームから第6フレームまでのフレーム画像が入
力される場合の図1の画像処理装置による手ぶれ補正処
理について説明する。尚、この例においては、第1フレ
ームから第6フレームまでの処理について説明するが、
実際には、数百、数千と言うフレームで行われる処理で
あり、ここでは、説明の都合上、第6フレームまでの処
理について説明するものである。
Next, referring to the flow chart of FIG.
The image stabilization processing by the image processing apparatus in FIG. 1 when the frame images from the first frame to the sixth frame are input will be described. In this example, the processing from the first frame to the sixth frame will be described.
Actually, the processing is performed in frames of hundreds or thousands, and here, for convenience of description, the processing up to the sixth frame will be described.

【0046】ステップS1において、ブロック抽出部1
2は、画像入力部11より入力される図2で示すような
最初のフレーム、すなわち第1フレームのうち、交流の
部分(フレーム画像中の焦点の合った静物体となる部
分)を基準ブロックとして抽出し、基準ブロック記憶部
13に記憶させる。すなわち、第1フレーム画像が撮像
開始と同時に入力された場合、このうちドア30のドア
ノブ32と窓枠33の角部が、交流の画像であったと
き、上述のように、ブロック抽出部12は、図中のドア
ノブ32に対応する基準ブロック31’−1と窓枠33
の角部付近を基準ブロック31’−2として抽出して、
基準ブロック記憶部13に記憶させ、ベクトル抽出部1
4に出力する。
In step S1, the block extraction unit 1
Reference numeral 2 is a first frame input from the image input unit 11 as shown in FIG. 2, that is, an alternating current portion (a portion that becomes a focused still object in the frame image) of the first frame as a reference block. It is extracted and stored in the reference block storage unit 13. That is, if the first frame image is input at the same time as the start of image capturing, and if the corners of the door knob 32 and the window frame 33 of the door 30 are AC images, the block extraction unit 12 operates as described above. , A reference block 31'-1 and a window frame 33 corresponding to the door knob 32 in the figure
Extract the vicinity of the corner of the block as the reference block 31'-2,
It is stored in the reference block storage unit 13, and the vector extraction unit 1
Output to 4.

【0047】ステップS2において、画像メモリ17
は、画像入力部11より入力されたフレーム画像、すな
わち、今の場合、第1フレームの画像を記憶する。
In step S2, the image memory 17
Stores the frame image input from the image input unit 11, that is, the image of the first frame in this case.

【0048】ステップS3において、ブロック抽出部1
2は、入力されたフレーム画像より基準ブロック記憶部
13に記憶された基準ブロック31’−1,31’−2
を用いてターゲットブロックを抽出する。図2の場合、
ブロック抽出部12は、パターンマッチングによりター
ゲットブロック31−1,31−2を抽出し、その中央
の座標位置をベクトル抽出部14に出力する。最初の処
理では、基準ブロック31’−1,31’−2とターゲ
ットブロック31−1,31−2は、同じ物であるの
で、基準ブロック31’−1,31’−2の中央の座標
がベクトル抽出部14に出力されることになる。
In step S3, the block extraction unit 1
2 is the reference blocks 31′-1, 31′-2 stored in the reference block storage unit 13 from the input frame image.
To extract the target block. In the case of FIG.
The block extraction unit 12 extracts the target blocks 31-1 and 31-2 by pattern matching and outputs the coordinate position of the center thereof to the vector extraction unit 14. In the first process, since the reference blocks 31′-1, 31′-2 and the target blocks 31-1, 31-2 are the same object, the coordinates of the center of the reference blocks 31′-1, 31′-2 are It will be output to the vector extraction unit 14.

【0049】ステップS4において、ブロック抽出部1
2は、ターゲットブロック31−1,31−2の中央の
座標位置を軌跡情報として軌跡記憶部18に出力し、記
憶させる。
In step S4, the block extraction unit 1
2 outputs the center coordinate position of the target blocks 31-1 and 31-2 to the locus storage unit 18 as locus information and stores the locus information.

【0050】ステップS5において、ベクトル抽出部1
4は、ターゲットブロック31−1,31−2=基準ブ
ロック31’−1,31’−2の中央の座標よりターゲ
ットベクトルを抽出し、比較部15に出力する。今の場
合、ベクトル抽出部14は、図2で示すターゲットベク
トル34を比較部15に出力することになる。
In step S5, the vector extraction unit 1
4 extracts a target vector from the coordinates of the center of the target blocks 31-1, 31-2 = reference blocks 31′-1, 31′-2 and outputs it to the comparison unit 15. In this case, the vector extraction unit 14 outputs the target vector 34 shown in FIG. 2 to the comparison unit 15.

【0051】ステップS6において、比較部15は、基
準ベクトル記憶部16に基準ベクトルが記憶されている
か否かを判定する。今の場合、第1フレームであるの
で、基準ベクトルは、記憶されていないことになるの
で、基準ベクトル記憶部16に基準ベクトルが記憶され
ていないと判定され、その処理は、ステップS7に進
む。
In step S6, the comparison section 15 determines whether or not the reference vector is stored in the reference vector storage section 16. In this case, since it is the first frame, the reference vector is not stored, so it is determined that the reference vector is not stored in the reference vector storage unit 16, and the process proceeds to step S7.

【0052】ステップS7において、比較部15は、ブ
ロック抽出部12に対して今現在のフレームのターゲッ
トブロックを基準ブロックとして記憶するように指令す
る(基準ブロックを更新するように指令する)。ただ
し、今の場合、既に、第1フレームの基準ブロック31
−1,31−2が、基準ブロック記憶部13に記憶され
ているので、実質的に基準ブロックは更新されないこと
になる。
In step S7, the comparison section 15 commands the block extraction section 12 to store the target block of the current frame as a reference block (commands to update the reference block). However, in this case, the reference block 31 of the first frame has already been used.
Since -1, 31-2 are stored in the reference block storage unit 13, the reference block is not substantially updated.

【0053】ステップS8において、比較部15は、タ
ーゲットベクトル34を基準ベクトル34’として基準
ベクトル記憶部16に置き換えて記憶させる。ただし、
今の場合、最初の処理で、基準ベクトル記憶部16には
何も記憶されていないので、新規にターゲットベクトル
34が基準ベクトル34’として記憶される。
In step S8, the comparison section 15 replaces the target vector 34 as the reference vector 34 'with the reference vector storage section 16 and stores it. However,
In this case, in the first process, since nothing is stored in the reference vector storage unit 16, the target vector 34 is newly stored as the reference vector 34 '.

【0054】ステップS9において、次のフレーム画像
が存在するか否かが判定され、今の場合、図3で示す第
2フレームが入力されるので、その処理は、ステップS
2に戻る。
In step S9, it is determined whether or not the next frame image exists, and in this case, the second frame shown in FIG. 3 is input.
Return to 2.

【0055】ステップS2において、画像メモリ17
は、画像入力部11より入力された画像、すなわち、今
の場合、第2フレームの画像を記憶する。
In step S2, the image memory 17
Stores the image input from the image input unit 11, that is, the image of the second frame in this case.

【0056】ステップS3において、ブロック抽出部1
2は、入力されたフレーム画像から基準ブロック記憶部
13に記憶された2箇所の基準ブロックを用いて、パタ
ーンマッチングにより2箇所のターゲットブロックを抽
出し、その中央部の座標をベクトル抽出部14に出力す
る。すなわち、第1フレームより抽出された、ドア30
のドアノブ32に対応した基準ブロック31’−1と、
窓枠33の角部に対応した基準ブロック31’−2が基
準ブロック記憶部13に記憶されているので、第2フレ
ームにおいては、この基準ブロック31’−1,31’
−2を用いて、パターンマッチングが施され、類似の部
分がターゲットブロックとして抽出される。図3の第2
フレームの場合、ドア40のドアノブ42付近のターゲ
ットブロック41−1が、ドアノブ32(図2)付近の
基準ブロック31’−1と、類似しており、また、窓枠
43の角部付近のターゲットブロック41−2が、窓枠
33(図2)の角部付近の基準ブロック31’−2と、
が類似するので、ターゲットブロック41−1,41−
2がそれぞれ抽出され、その中央の座標がそれぞれベク
トル抽出部14に出力される。
In step S3, the block extraction unit 1
2 uses the two reference blocks stored in the reference block storage unit 13 from the input frame image to extract two target blocks by pattern matching, and the coordinates of the central portion are extracted by the vector extraction unit 14. Output. That is, the door 30 extracted from the first frame
Reference block 31'-1 corresponding to the door knob 32 of
Since the reference block 31′-2 corresponding to the corner portion of the window frame 33 is stored in the reference block storage unit 13, in the second frame, the reference blocks 31′-1, 31 ′.
-2 is used to perform pattern matching, and a similar portion is extracted as a target block. Second of FIG.
In the case of a frame, the target block 41-1 near the doorknob 42 of the door 40 is similar to the reference block 31'-1 near the doorknob 32 (FIG. 2), and the target block 41-1 near the corner of the window frame 43. The block 41-2 is a reference block 31'-2 near the corner of the window frame 33 (FIG. 2),
Are similar, the target blocks 41-1, 41-
2 is extracted, and the coordinates of the center are output to the vector extraction unit 14.

【0057】ステップS4において、ブロック抽出部1
2は、ターゲットブロック41−1,41−2の中央の
座標位置を軌跡情報として軌跡記憶部18に出力し、記
憶させる。
In step S4, the block extraction unit 1
2 outputs the center coordinate position of the target blocks 41-1 and 41-2 to the locus storage unit 18 as locus information to be stored therein.

【0058】ステップS5において、ベクトル抽出部1
4は、図3で示すように、ターゲットブロック41−
1,41−2の中央部の座標より、ターゲットベクトル
44を求めて、比較部15に出力する。
In step S5, the vector extraction unit 1
4 is the target block 41-, as shown in FIG.
The target vector 44 is obtained from the coordinates of the center of 1, 41-2, and is output to the comparison unit 15.

【0059】ステップS6において、比較部15は、基
準ベクトルが基準ベクトル記憶部16に記憶されている
か否かを判定し、今の場合、基準ベクトル34’が記憶
されているので、その処理は、ステップS10に進む。
In step S6, the comparison section 15 determines whether or not the reference vector is stored in the reference vector storage section 16. In this case, the reference vector 34 'is stored. Go to step S10.

【0060】ステップS10において、比較部15は、
基準ベクトルとターゲットベクトルの差分dn(nは、
今現在入力されているフレーム番号を示す)を求める。
より詳細には、比較部15は、基準ベクトルとターゲッ
トベクトルの差分ベクトルVdn(nは、今現在入力さ
れているフレーム番号を示す)を求め、さらに、差分ベ
クトルVdnの絶対値を基準ベクトルの絶対値で割るこ
とにより差分dnを求める。すなわち、図3で示す第2
フレームの場合、図5で示すように、比較部15は、基
準ベクトル34’とターゲットベクトル44の差分ベク
トルVd2を求め、差分ベクトルVd2の絶対値S2’
を基準ベクトル34’の絶対値S1で割った値を差分d
2(=S2’/S1)として求める。尚、図5において
は、基準ベクトル34’が黒く表示されている。また、
ここでは、第nフレームの差分ベクトルをVdn、第n
フレームの差分ベクトルVdnの絶対値をSn’、基準
ベクトル34’の絶対値をS1でそれぞれ表すものと
し、以下においても同様とする。
In step S10, the comparison section 15
Difference between the reference vector and the target vector dn (n is
(Indicates the frame number currently input).
More specifically, the comparison unit 15 obtains a difference vector Vdn between the reference vector and the target vector (n indicates a frame number currently input), and further, an absolute value of the difference vector Vdn is an absolute value of the reference vector. The difference dn is obtained by dividing by the value. That is, the second shown in FIG.
In the case of a frame, as shown in FIG. 5, the comparison unit 15 obtains the difference vector Vd2 between the reference vector 34 ′ and the target vector 44, and the absolute value S2 ′ of the difference vector Vd2.
Is divided by the absolute value S1 of the reference vector 34 'to obtain the difference d.
2 (= S2 ′ / S1). The reference vector 34 'is displayed in black in FIG. Also,
Here, the difference vector of the nth frame is Vdn,
The absolute value of the frame difference vector Vdn is represented by Sn ′, and the absolute value of the reference vector 34 ′ is represented by S1, respectively, and the same applies below.

【0061】ステップS11において、比較部15は、
差分d2(n=2)と閾値Dを比較し、差分d2>閾値
Dであるか否かを判定する。尚、以下の説明において
は、説明の便宜上、閾値Dを1/2と設定する場合(差
分d2が1/2とは、差分ベクトルVdnが基準ベクト
ルの絶対値S1の1/2である場合である)について、
話を進めるが、これに限るものではない。
In step S11, the comparison section 15
The difference d2 (n = 2) is compared with the threshold D to determine whether the difference d2> threshold D. In the following description, for convenience of description, when the threshold D is set to 1/2 (the difference d2 is 1/2, the difference vector Vdn is 1/2 of the absolute value S1 of the reference vector). About)
Proceed with the story, but it's not limited to this.

【0062】ステップS11において、図5で示すよう
に、差分d2>閾値Dではないので、その処理は、ステ
ップS9に進み、次のフレームが入力されることになる
ので、その処理は、ステップS2に戻る。
In step S11, as shown in FIG. 5, since the difference d2> threshold value D is not satisfied, the process proceeds to step S9, and the next frame is input. Therefore, the process is step S2. Return to.

【0063】ここで、ステップS2において、画像メモ
リ17は、画像入力部11より入力された図6で示すよ
うな第3フレームの画像を記憶する。
Here, in step S2, the image memory 17 stores the image of the third frame input from the image input unit 11 as shown in FIG.

【0064】ステップS3において、ブロック抽出部1
2は、基準ブロック記憶部13に記憶されている基準ブ
ロック31’−1,31’−2を用いて、パターンマッ
チングを行い、基準ブロック31’−1に類似するドア
50のドアノブ52付近のターゲットブロック51−1
と、基準ブロック31’−2に類似する窓枠53の角部
付近のターゲットブロック51−2を抽出して、その中
央部分の座標をベクトル抽出部14に出力する。
In step S3, the block extraction unit 1
2 performs pattern matching using the reference blocks 31′-1 and 31′-2 stored in the reference block storage unit 13, and targets near the door knob 52 of the door 50 similar to the reference block 31′-1. Block 51-1
Then, the target block 51-2 near the corner of the window frame 53 similar to the reference block 31′-2 is extracted, and the coordinates of the central portion thereof are output to the vector extraction unit 14.

【0065】ステップS4において、ブロック抽出部1
2は、ターゲットブロック51−1,51−2の中央の
座標位置を軌跡情報として軌跡記憶部18に出力し、記
憶させる。
In step S4, the block extraction unit 1
2 outputs the center coordinate position of the target blocks 51-1 and 51-2 to the locus storage unit 18 as locus information to be stored therein.

【0066】ステップS5において、ベクトル抽出部1
4は、入力されたターゲットブロック51−1,51−
2の中央部の座標から、図6で示すように、ターゲット
ベクトル54を求め、比較部15に出力する。
In step S5, the vector extraction unit 1
4 is the input target blocks 51-1, 51-
As shown in FIG. 6, the target vector 54 is obtained from the coordinates of the center of 2 and is output to the comparison unit 15.

【0067】ステップS6においては、既に、基準ベク
トル34’が基準ベクトル記憶部16に記憶されている
ので、基準ベクトルが記憶されていると判定され、その
処理は、ステップS10に進み、比較部15は、図7で
示すように、図5で示した方法と同様の方法で、差分ベ
クトルVd3を演算して差分d3を求める。すなわち、
図7で示すように、比較部15は、ターゲットベクトル
54と基準ベクトル34’の差分ベクトルVd3を求
め、さらに、差分ベクトルVd3の絶対値S3’を基準
ベクトル34’の絶対値S1で割って、差分d3(=S
3’/S1)を求める。
In step S6, since the reference vector 34 'is already stored in the reference vector storage unit 16, it is determined that the reference vector is stored. The process proceeds to step S10 and the comparison unit 15 As shown in FIG. 7, the difference vector Vd3 is calculated by the same method as the method shown in FIG. 5 to obtain the difference d3. That is,
As shown in FIG. 7, the comparison unit 15 obtains the difference vector Vd3 between the target vector 54 and the reference vector 34 ′, and further divides the absolute value S3 ′ of the difference vector Vd3 by the absolute value S1 of the reference vector 34 ′, Difference d3 (= S
3 '/ S1) is calculated.

【0068】ステップS11において、比較部17は、
差分d3と閾値Dとを比較する。今の場合、図7で示す
ように差分d3>閾値Dではないので、その処理は、ス
テップS9に進み、第4フレームが入力されるので、そ
の処理は、ステップS2に戻る。
In step S11, the comparison section 17
The difference d3 and the threshold D are compared. In this case, the difference d3> threshold value D is not satisfied as shown in FIG. 7, so the process proceeds to step S9, and the fourth frame is input, so the process returns to step S2.

【0069】ここで、ステップS2において、画像メモ
リ17は、画像入力部11より入力された図8で示すよ
うな第4フレームの画像を記憶する。
Here, in step S2, the image memory 17 stores the image of the fourth frame as shown in FIG. 8 input from the image input unit 11.

【0070】ステップS3において、図8で示すように
第4フレームが入力された場合、ブロック抽出部12
は、上述と同様に、基準ブロック記憶部13に記憶され
ている基準ブロック31’−1,31’−2を用いて、
パターンマッチングを行い、基準ブロック31’−1に
類似するドア60のドアノブ62付近のターゲットブロ
ック61−1と、基準ブロック31’−2に類似する窓
枠63の角部付近のターゲットブロック61−2を抽出
して、その中央部分の座標をベクトル抽出部14に出力
する。
In step S3, when the fourth frame is input as shown in FIG. 8, the block extraction unit 12
Using the reference blocks 31′-1, 31′-2 stored in the reference block storage unit 13, as described above,
Pattern matching is performed, and the target block 61-1 near the door knob 62 of the door 60 similar to the reference block 31′-1 and the target block 61-2 near the corner of the window frame 63 similar to the reference block 31′-2. Is extracted and the coordinates of the central portion thereof are output to the vector extraction unit 14.

【0071】ステップS4において、ブロック抽出部1
2は、ターゲットブロック61−1,61−2の中央の
座標位置を軌跡情報として軌跡記憶部18に出力し、記
憶させる。
In step S4, the block extraction unit 1
2 outputs the center coordinate position of the target blocks 61-1 and 61-2 to the locus storage unit 18 as locus information for storage.

【0072】ステップS5において、ベクトル抽出部1
4は、入力されたターゲットブロック61−1,61−
2の中央部の座標から、図8で示すように、ターゲット
ベクトル64を求め、比較部15に出力する。
In step S5, the vector extraction unit 1
4 is the input target blocks 61-1 and 61-
As shown in FIG. 8, the target vector 64 is obtained from the coordinates of the center of 2 and is output to the comparison unit 15.

【0073】ステップS6においては、既に、基準ベク
トル34’が基準ベクトル記憶部16に記憶されている
ので、基準ベクトルが記憶されていると判定され、ステ
ップS10において、比較部15は、図9で示すよう
に、差分ベクトルVd4を演算して差分d4を求める。
すなわち、図9で示すように、比較部15は、ターゲッ
トベクトル64と基準ベクトル34’の差分ベクトルV
d4を求め、さらに、差分ベクトルVd4の絶対値S
4’を基準ベクトル34’の絶対値S1で割って、差分
d4(=S4’/S1)を求める。
In step S6, since the reference vector 34 'is already stored in the reference vector storage unit 16, it is determined that the reference vector is stored. As shown, the difference vector Vd4 is calculated to obtain the difference d4.
That is, as shown in FIG. 9, the comparison unit 15 determines the difference vector V between the target vector 64 and the reference vector 34 ′.
d4 is obtained, and the absolute value S of the difference vector Vd4 is calculated.
4'is divided by the absolute value S1 of the reference vector 34 'to obtain the difference d4 (= S4' / S1).

【0074】ステップS11において、比較部15は、
差分d4>閾値Dであるか否かを判定する。第4フレー
ムの場合、図9で示すように、差分ベクトルVd4は、
基準ベクトル34’の絶対値S1の1/2よりも大き
く、差分d4>閾値Dであるので、その処理は、ステッ
プS7に進む。
In step S11, the comparison section 15
It is determined whether or not the difference d4> threshold value D. In the case of the fourth frame, as shown in FIG. 9, the difference vector Vd4 is
Since the difference d4> threshold value D is larger than 1/2 of the absolute value S1 of the reference vector 34 ′, the process proceeds to step S7.

【0075】ステップS7において、比較部15は、ブ
ロック抽出部12に対して、基準ブロック31’を今現
在のターゲットブロック61に置き換えるように指令す
る。このとき、ブロック抽出部12は、基準ブロック3
1’−1,31’−2を、今現在のフレーム4より求め
たターゲットブロック61−1,61−2に置き換えて
基準ブロック61’−1,61’−2として基準ブロッ
ク記憶部13に記憶させる。
In step S7, the comparison section 15 commands the block extraction section 12 to replace the reference block 31 'with the current target block 61. At this time, the block extracting unit 12 determines that the reference block 3
1'-1, 31'-2 are replaced with target blocks 61-1, 61-2 obtained from the current frame 4 and stored in the reference block storage unit 13 as reference blocks 61'-1, 61'-2. Let

【0076】ステップS8において、比較部15は、今
現在求めたターゲットベクトル64を、基準ベクトル6
4’として基準ベクトル記憶部16に記憶させ(それま
で記憶されていた基準ベクトル34’から更新させ)、
その処理は、ステップS9に進む。
In step S8, the comparing section 15 compares the target vector 64 currently obtained with the reference vector 6
4 ′ is stored in the reference vector storage unit 16 (updated from the reference vector 34 ′ stored until then),
The process proceeds to step S9.

【0077】すなわち、第4フレームが入力された時点
で、差分d4が閾値を超えたため、今現在の基準ブロッ
クを用いたパターンマッチングでは今後(すなわち、第
5フレーム以降)の画像に対して十分な検索が不可能で
あると判断し、新たに求めたターゲットブロックを、そ
れまで記憶していた基準ブロックとして記憶させる。結
果として、基準ブロック記憶部13では、基準ブロック
31’−1,31’−2がドアノブ62に対応する基準
ブロック61’−1(=ターゲットブロック61−1)
と、窓枠63の角部に対応する基準ブロック61’−2
(=ターゲットブロック61−2)に更新される。ま
た、同時に、基準ベクトル記憶部16では、基準ベクト
ル34’が、基準ベクトル64’に更新される。
That is, since the difference d4 exceeds the threshold value at the time when the fourth frame is input, the pattern matching using the current reference block is sufficient for the images of the future (that is, the fifth frame and thereafter). It is determined that the search is impossible, and the newly obtained target block is stored as the reference block stored until then. As a result, in the reference block storage unit 13, the reference blocks 31′-1, 31′-2 correspond to the door knob 62, and the reference block 61′-1 (= target block 61-1).
And a reference block 61′-2 corresponding to the corner of the window frame 63
(= Target block 61-2) is updated. At the same time, the reference vector storage unit 16 updates the reference vector 34 'to the reference vector 64'.

【0078】ステップS9において、続く第5フレーム
が入力されるので、その処理は、ステップS2に戻る。
At step S9, since the subsequent fifth frame is input, the processing returns to step S2.

【0079】ここで、ステップS2において、画像メモ
リ17は、画像入力部11より入力された図10で示す
ような第5フレームの画像を記憶する。
Here, in step S2, the image memory 17 stores the image of the fifth frame as shown in FIG.

【0080】ステップS3において、図10で示すよう
な第5フレーム画像が入力されると、ブロック抽出部1
2は、基準ブロック記憶部13に記憶された基準ブロッ
ク61’−1,61’−2を用いて、パターンマッチン
グを施し、類似の部分をターゲットブロックとして抽出
する。図10の第5フレームの場合、ドア70のドアノ
ブ72付近のターゲットブロック71−1とドアノブ6
2(図8)付近の基準ブロック61’−1が類似してお
り、また、窓枠73の角部付近のターゲットブロック7
1−2と、窓枠63(図8)の角部付近の基準ブロック
61−2が類似するので、ターゲットブロック71−
1,71−2がそれぞれ抽出され、その中央の座標がそ
れぞれベクトル抽出部14に出力される。
In step S3, when the fifth frame image as shown in FIG. 10 is input, the block extraction unit 1
2 performs pattern matching using the reference blocks 61′-1 and 61′-2 stored in the reference block storage unit 13 and extracts similar portions as target blocks. In the case of the fifth frame in FIG. 10, the target block 71-1 near the door knob 72 of the door 70 and the door knob 6
2 (FIG. 8) near the reference block 61′-1 and the target block 7 near the corner of the window frame 73.
1-2 is similar to the reference block 61-2 near the corner of the window frame 63 (FIG. 8), the target block 71-
1, 71-2 are respectively extracted, and the coordinates of the center thereof are output to the vector extraction unit 14.

【0081】尚、もし、第4フレームにおける基準ブロ
ックの更新が無ければ、古い基準ブロック31’−1,
31’−2を用いて、パターンマッチングが行われるこ
とになる。第1フレームに比べて第5フレームは、拡大
と回転の量が大きすぎるため、基準ブロック31’−
1,31’−2と類似する部分を探すことが不可能とな
ることが予想される。しかしながら、実際には、基準ブ
ロックが第4フレームの61’−1,61’−2に、更
新されることにより、第5フレームにおける拡大と回転
の量が小さくなるため類似する部分を検索することが可
能となる。
If the reference block in the fourth frame is not updated, the old reference block 31'-1,
31'-2 is used to perform the pattern matching. Since the amount of expansion and rotation of the fifth frame is too large compared to the first frame, the reference block 31′-
It is expected that it will be impossible to search for a part similar to 1,31′-2. However, in practice, the reference block is updated to 61′-1, 61′-2 of the fourth frame, and the amount of enlargement and rotation in the fifth frame is reduced, so that similar portions are searched for. Is possible.

【0082】ステップS4において、ブロック抽出部1
2は、ターゲットブロック71−1,71−2の中央の
座標位置を軌跡情報として軌跡記憶部18に出力し、記
憶させる。
In step S4, the block extraction unit 1
2 outputs the center coordinate position of the target blocks 71-1 and 71-2 to the locus storage unit 18 as locus information and stores the locus information.

【0083】ステップS5において、ベクトル抽出部1
4は、図10で示すように、ターゲットブロック71−
1,71−2の中央部の座標より、ターゲットベクトル
74を求めて、比較部15に出力する。
In step S5, the vector extraction unit 1
4 is the target block 71-, as shown in FIG.
The target vector 74 is obtained from the coordinates of the center of 1, 71-2, and is output to the comparison unit 15.

【0084】ステップS6において、比較部15は、基
準ベクトルが基準ベクトル記憶部16に記憶されている
か否かを判定し、今の場合、基準ベクトル64’が記憶
されているので、その処理は、ステップS10に進む。
In step S6, the comparison section 15 determines whether or not the reference vector is stored in the reference vector storage section 16. In this case, the reference vector 64 'is stored. Go to step S10.

【0085】ステップS10において、比較部15は、
基準ベクトル64’とターゲットベクトル74の差分d
5を求める。より詳細には、比較部15は、図11で示
すように、基準ベクトル64’とターゲットベクトル7
4の差分ベクトルVd5を求め、さらに、差分ベクトル
Vd5の絶対値S5’を基準ベクトル64’の絶対値S
2で割ることにより差分d5(S5’/S2)を求め
る。
In step S10, the comparison section 15
Difference d between the reference vector 64 'and the target vector 74
Ask for 5. More specifically, as shown in FIG. 11, the comparison unit 15 sets the reference vector 64 ′ and the target vector 7
4 is obtained, and the absolute value S5 ′ of the difference vector Vd5 is converted to the absolute value S of the reference vector 64 ′.
The difference d5 (S5 ′ / S2) is obtained by dividing by 2.

【0086】ステップS11において、比較部15は、
差分d5>閾値Dであるか否かを判定する。今の場合、
図11で示すように、差分ベクトルVd5の絶対値S
5’は、基準ベクトル64’の1/2ではないので、差
分d5>閾値Dではないことになり、その処理は、ステ
ップS9に進む。
In step S11, the comparison section 15
It is determined whether or not the difference d5> threshold value D. In the present case,
As shown in FIG. 11, the absolute value S of the difference vector Vd5
Since 5 ′ is not ½ of the reference vector 64 ′, the difference d5> threshold D is not satisfied, and the process proceeds to step S9.

【0087】ステップS9において、第6フレームが入
力されるので、処理は、ステップS2に戻る。ここで、
ステップS2において、画像メモリ17は、画像入力部
11より入力された図12で示すような第6フレームの
画像を記憶する。
In step S9, since the sixth frame is input, the process returns to step S2. here,
In step S2, the image memory 17 stores the image of the sixth frame input from the image input unit 11 as shown in FIG.

【0088】ステップS3において、図12で示すよう
な第6フレームが入力されると、ブロック抽出部12
は、基準ブロック記憶部13に記憶されている基準ブロ
ック61’−1,61’−2を用いて、パターンマッチ
ングを行い、基準ブロック61’−1に類似するドアノ
ブ82付近のターゲットブロック81−1と、基準ブロ
ック61’−2に類似する窓枠83の角部付近のターゲ
ットブロック81−2をそれぞれ抽出して、その中央部
分の座標をそれぞれベクトル抽出部14に出力する。
In step S3, when the sixth frame as shown in FIG. 12 is input, the block extraction unit 12
Performs pattern matching using the reference blocks 61′-1 and 61′-2 stored in the reference block storage unit 13 to target the target block 81-1 near the door knob 82 similar to the reference block 61′-1. And the target blocks 81-2 near the corners of the window frame 83 similar to the reference block 61′-2 are extracted, and the coordinates of the central portion are output to the vector extraction unit 14, respectively.

【0089】ステップS4において、ブロック抽出部1
2は、ターゲットブロック81−1,81−2の中央の
座標位置を軌跡情報として軌跡記憶部18に出力し、記
憶させる。
In step S4, the block extraction unit 1
2 outputs the center coordinate position of the target blocks 81-1 and 81-2 to the locus storage unit 18 as locus information to be stored therein.

【0090】ステップS5において、ベクトル抽出部1
4は、入力されたターゲットブロック81−1,81−
2の中央部の座標から、図12で示すように、ターゲッ
トベクトル84を求め、比較部15に出力する。
In step S5, the vector extraction unit 1
4 is the input target blocks 81-1 and 81-
As shown in FIG. 12, a target vector 84 is obtained from the coordinates of the center of 2 and is output to the comparison unit 15.

【0091】ステップS6においては、既に、基準ベク
トルが基準ベクトル記憶部16に記憶されているので、
基準ベクトルが記憶されていると判定され、ステップS
10において、比較部15は、図13で示すように、図
11で示した方法と同様の方法で、差分ベクトルVd6
を演算して差分d6を求める。より詳細には、比較部1
5は、図13で示すように、基準ベクトル64’とター
ゲットベクトル84の差分ベクトルVd6を求め、さら
に、差分ベクトルVd6の絶対値S6’を基準ベクトル
の絶対値S2で割ることにより差分d5(S6’/S
2)を求める。
In step S6, since the reference vector is already stored in the reference vector storage unit 16,
When it is determined that the reference vector is stored, step S
10, the comparing unit 15 uses the method similar to the method illustrated in FIG. 11 to calculate the difference vector Vd6 as illustrated in FIG.
Is calculated to obtain the difference d6. More specifically, the comparison unit 1
13, the difference vector Vd6 between the reference vector 64 'and the target vector 84 is obtained, and the absolute value S6' of the difference vector Vd6 is divided by the absolute value S2 of the reference vector to obtain the difference d5 (S6 '/ S
2) is asked.

【0092】ステップS11において、比較部17は、
差分d6>閾値Dであるか否かを判定する。今の場合、
図13で示すように、差分ベクトルVd6の絶対値S
6’は、基準ベクトル64’の1/2ではないので、差
分d6>閾値Dではないことになり、その処理は、ステ
ップS9に進み、次のフレームは、入力されないのでそ
の処理は、ステップS12に進む。
In step S11, the comparison section 17
It is determined whether or not the difference d6> threshold value D. In the present case,
As shown in FIG. 13, the absolute value S of the difference vector Vd6
Since 6 ′ is not ½ of the reference vector 64 ′, the difference d6> threshold D is not satisfied, and the process proceeds to step S9. Since the next frame is not input, the process is step S12. Proceed to.

【0093】ステップS12において、手ぶれ補正部1
9は、画像メモリ17に蓄積された画像を読出し、軌跡
記憶部18に記憶された軌跡情報に基づいて手ぶれを補
正して、画像出力部20から手ぶれが補正された画像を
出力させる。すなわち、軌跡記憶部18には、ターゲッ
トブロック31乃至81の中央部の座標が記憶されてい
る。この座標の軌跡は、画像上のドアノブ32乃至82
および窓枠33乃至83の角部の軌跡となるので、手ぶ
れ補正部19は、この軌跡に従ってフレーム画像をずら
すこことにより手ぶれを補正して、画像出力部20から
手ぶれが補正された画像を出力する。
In step S12, the image stabilization unit 1
Reference numeral 9 reads the image stored in the image memory 17, corrects the camera shake based on the trajectory information stored in the trajectory storage unit 18, and outputs the image with the camera shake corrected from the image output unit 20. That is, the locus storage unit 18 stores the coordinates of the central portions of the target blocks 31 to 81. The locus of this coordinate is the door knobs 32 to 82 on the image.
And the loci of the corners of the window frames 33 to 83, the image blur correction unit 19 shifts the frame image according to the locus to correct the image blur, and the image output unit 20 outputs the image with the image blur corrected. To do.

【0094】以上のように、基準ベクトルの絶対値と差
分ベクトルVdnの絶対値から求められる差分dnが、
閾値Dよりも大きくなった場合(上述における、第4フ
レームが入力された場合)、基準ブロックと、その基準
ブロック間の位置関係を示す情報としての基準ベクトル
を、その時点で求められたターゲットブロックと、その
ターゲットブロック間の位置関係を示す情報としてのタ
ーゲットベクトルに置き換えることにより、動きに合わ
せて、基準ブロックと基準ベクトルを更新させることが
できるので、適正な手ぶれ補正が可能となる。その結
果、例えば、手ぶれが激しい場合や、動きの激しい画像
の場合には、毎フレーム画像毎に、基準ブロックと基準
ベクトルを更新させ、手ぶれがほとんど無いような場合
や、動きの少ない画像の場合には、基準ブロックを更新
させないようにすることができ、手ぶれの程度や画像の
動きに合わせた手ぶれ補正処理が可能となる。
As described above, the difference dn obtained from the absolute value of the reference vector and the absolute value of the difference vector Vdn is
When it becomes larger than the threshold value D (when the fourth frame is input in the above description), the reference block and the reference vector as information indicating the positional relationship between the reference blocks are the target blocks obtained at that time. By replacing the target block with the target vector as the information indicating the positional relationship between the target blocks, the reference block and the reference vector can be updated in accordance with the motion, and thus proper image stabilization can be performed. As a result, for example, in the case of severe camera shake or in the case of an image with a lot of motion, the reference block and the reference vector are updated for each frame image, and there is almost no camera shake or an image with little motion. In addition, it is possible to prevent the reference block from being updated, and it is possible to perform the camera shake correction process according to the degree of camera shake and the movement of the image.

【0095】さらに、この移動の軌跡を用いることによ
り、動画像の合成などを行うことも可能であり、動画像
にCG(コンピューターグラフィックス)により作られ
た仮想物体の投影像を合成する場合、動画像に写ってい
る物体の投影像の軌跡を求めることができるので、例え
ば、動画像に写っている実際の人に対して、CGにより
作られた仮想のヘルメットをかぶせるといった処理にお
いても、動画像に写っている人の頭の軌跡を求め、その
位置にヘルメットの投影像を合成させることができる。
Furthermore, it is also possible to synthesize a moving image by using this movement locus, and when synthesizing a projected image of a virtual object created by CG (computer graphics) with the moving image, Since the trajectory of the projected image of the object shown in the moving image can be obtained, for example, even in the process of putting a virtual helmet made of CG on an actual person shown in the moving image, a moving image can be obtained. It is possible to find the trajectory of the person's head in the image and synthesize the projected image of the helmet at that position.

【0096】以上の例においては、基準ブロックとター
ゲットブロックからそれぞれ求められる基準ベクトルと
ターゲットベクトルから差分ベクトルを求めて、その差
分ベクトルに基づいた差分と、閾値との比較により、基
準ベクトルを更新していくことで、手ぶれ補正を適正に
処理する例について説明してきたが、ターゲットブロッ
クに対する基準ブロックの拡大率(または、縮小率)と
回転角度からも手ぶれ補正における基準ブロックの更新
をさせることができる。
In the above example, the difference vector is obtained from the reference vector and the target vector obtained from the reference block and the target block, respectively, and the reference vector is updated by comparing the difference based on the difference vector with the threshold value. By the way, an example in which the image stabilization is appropriately processed has been described, but the reference block in the image stabilization can be updated also from the enlargement ratio (or reduction ratio) and the rotation angle of the reference block with respect to the target block. .

【0097】そこで、次に、図14のブロック図を参照
して、ターゲットブロックに対する基準ブロックの拡大
率(または、縮小率)と回転角度から手ぶれ補正処理を
行う画像処理装置の構成について説明する。尚、図中、
図1における場合と対応する部分については、同一の符
号を付してあり、以下では、その説明は、適宜省略す
る。
Therefore, the configuration of an image processing apparatus for performing camera shake correction processing from the enlargement ratio (or reduction ratio) of the reference block with respect to the target block and the rotation angle will be described next with reference to the block diagram of FIG. In the figure,
Portions corresponding to those in FIG. 1 are denoted by the same reference numerals, and description thereof will be omitted below as appropriate.

【0098】ブロック抽出部91は、入力されたフレー
ム画像のうち、基準ブロック記憶部94に基準ブロック
が記憶されていない場合、撮像の開始と同時に入力され
るフレーム画像のうち、交流の部分を基準ブロックとし
て抽出し、基準ブロック記憶部94に記憶させる。例え
ば、図15で示すような、ドア110と窓枠113が撮
像されたフレーム画像が撮像開始と同時に入力された場
合、このうちドア110のドアノブ112が、交流部分
の画像であったとき、ブロック抽出部91は、図中のド
アノブ112に対応する部分を基準ブロック111’と
して抽出して、基準ブロック記憶部94に記憶させる。
When the reference block storage unit 94 does not store a reference block among the input frame images, the block extraction unit 91 uses the AC portion of the input frame image as a reference. It is extracted as a block and stored in the reference block storage unit 94. For example, when a frame image in which the door 110 and the window frame 113 are captured as shown in FIG. 15 is input at the same time as the image capturing is started, when the door knob 112 of the door 110 is the image of the AC portion, the block is displayed. The extraction unit 91 extracts a portion corresponding to the door knob 112 in the drawing as a reference block 111 ′ and stores it in the reference block storage unit 94.

【0099】また、ブロック抽出部91は、基準ブロッ
ク記憶部94に基準ブロックが記憶されている場合(一
度基準ブロックが記憶された場合)、順次入力されるフ
レーム画像に、基準ブロック記憶部94に記憶された基
準ブロックに類似するブロックをパターンマッチングに
より検索し、これをターゲットブロックとして抽出して
変形パラメータ抽出部92に出力する。すなわち、例え
ば、図15で示すように、基準ブロック111’が、基
準ブロック記憶部94に記憶された状態で、例えば、図
16で示すようなドア120と窓枠123が撮像された
フレーム画像が入力されると、ブロック抽出部91は、
基準ブロック記憶部94に記憶されたドアノブ112付
近の基準ブロック111’を用いてパターンマッチング
を行うことによりドア120のドアノブ122付近のタ
ーゲットブロック121が検索されるので、これを抽出
して、変形パラメータ抽出部92に出力する。
Further, when the reference block is stored in the reference block storage unit 94 (when the reference block is stored once), the block extraction unit 91 stores the sequentially input frame images in the reference block storage unit 94. A block similar to the stored reference block is searched by pattern matching, and this block is extracted as a target block and output to the transformation parameter extraction unit 92. That is, for example, as shown in FIG. 15, in a state where the reference block 111 ′ is stored in the reference block storage unit 94, for example, a frame image in which the door 120 and the window frame 123 are imaged as shown in FIG. When input, the block extraction unit 91
The target block 121 near the door knob 122 of the door 120 is searched by performing pattern matching using the reference block 111 ′ near the door knob 112 stored in the reference block storage unit 94. Output to the extraction unit 92.

【0100】さらに、ブロック抽出部91は、次のフレ
ームの処理が開始されるまで、抽出したターゲットブロ
ックを一時的に記憶し、比較部93からの比較結果の通
知を受けて、そのタイミングで抽出した(その時点で記
憶している)フレーム画像のターゲットブロックを、基
準ブロック記憶部94のデータに上書きさせ、基準ブロ
ックを更新させる。
Further, the block extraction unit 91 temporarily stores the extracted target block until the processing of the next frame is started, receives the notification of the comparison result from the comparison unit 93, and extracts at that timing. Then, the target block of the frame image (stored at that time) is overwritten on the data of the reference block storage unit 94, and the reference block is updated.

【0101】また、ブロック抽出部91は、抽出したタ
ーゲットブロックの中央の座標を軌跡情報として軌跡記
憶部18に出力する。
The block extraction unit 91 also outputs the coordinates of the center of the extracted target block to the locus storage unit 18 as locus information.

【0102】変形パラメータ抽出部92は、ブロック抽
出部91より入力されたターゲットブロックに対する、
基準ブロック94に記憶されている基準ブロックの拡大
率Lと回転角度θを変形パラメータ(L,θ)として求
め、比較部93に出力する。尚、ここでいう拡大率と
は、基準ブロックのテクスチャの大きさを基準としたと
き、ターゲットブロックのテクスチャの大きさを表す比
率(拡大率)であり、図15の基準ブロック111’に
対して、図16のターゲットブロック121は、図17
で示すように、拡大率LがL2/L1であり、回転角
は、θ2である。例えば、図17で示すようにL1,L
2は、ドアノブ112,113の大きさであり、ドアノ
ブの回転角がθ2である。尚、以下においても同様とす
る。
The transformation parameter extraction unit 92, with respect to the target block input from the block extraction unit 91,
The expansion rate L and the rotation angle θ of the reference block stored in the reference block 94 are obtained as the deformation parameter (L, θ) and output to the comparison unit 93. The enlargement ratio here is a ratio (enlargement ratio) that represents the size of the texture of the target block when the size of the texture of the reference block is used as a reference, and is larger than that of the reference block 111 ′ in FIG. 16, the target block 121 of FIG.
As shown by, the enlargement ratio L is L2 / L1 and the rotation angle is θ2. For example, as shown in FIG. 17, L1, L
2 is the size of the door knobs 112 and 113, and the rotation angle of the door knob is θ2. The same applies below.

【0103】また、実際には、基準ブロックとターゲッ
トブロックは、異なる時間に撮影されたため微妙に形状
が異なるものであり、また、ノイズも含まれるので、拡
大縮小(L倍)、および、回転(θ)により変形して
も、一致することはないので、ここでは、基準ブロック
を拡大縮小、および、回転することにより、ターゲット
ブロックとの差が最も小さくなる値が、変形パラメータ
(L,θ)として求められる。すなわち、変形パラメー
タ(L,θ)の値を様々に変化させることにより、基準
ブロックとターゲットブロックが最も類似するときの変
形パラメータ(L,θ)が求められる。尚、ここでいう
変形パラメータ(L,θ)は、基準ブロックをアフィン
変換(回転と、拡大縮小のパラメータからなるの行列式
による変換)して、ターゲットブロックに変形する際の
変換パラメータであるともいえる。
Further, in practice, the reference block and the target block have slightly different shapes because they were photographed at different times, and since noise is also included, scaling (L times) and rotation ( Even if they are deformed by θ), they do not match. Therefore, here, the value that minimizes the difference from the target block by scaling and rotating the reference block is the deformation parameter (L, θ). Is required as. That is, the deformation parameter (L, θ) when the reference block and the target block are most similar to each other is obtained by variously changing the values of the deformation parameter (L, θ). It should be noted that the transformation parameter (L, θ) here is also a transformation parameter for transforming the reference block into an target block by affine transformation (conversion using a determinant of rotation and scaling parameters). I can say.

【0104】比較部93は、変形パラメータ抽出部92
より入力された変形パラメータ(L,θ)に基づいて、
差分gを求めて、これを閾値Gと比較し、比較結果に応じ
て、ブロック抽出部91に対して、今現在のターゲット
ブロックを基準ブロックとして、基準ブロック記憶部9
4に更新させるように指令する。ここで、差分gとは、
例えば、図18の場合のgを示し、変形パラメータ
(L,θ)に対して、差分g(=√(L2+1−2×L×c
osθ))と定義される。この差分gは、ターゲットブロ
ックに対して基準ブロックが回転、または、拡大される
ことにより生じる変化量を示すものである。
The comparison unit 93 includes a transformation parameter extraction unit 92.
Based on the deformation parameters (L, θ) input by
The difference g is calculated and compared with the threshold value G, and according to the comparison result, the reference block storage unit 9 sets the current target block as the reference block to the block extraction unit 91.
4 to update. Here, the difference g is
For example, g in the case of FIG. 18 is shown and the difference g (= √ (L 2 + 1-2 × L × c) with respect to the deformation parameter (L, θ).
osθ)) is defined. This difference g indicates the amount of change caused by rotating or enlarging the reference block with respect to the target block.

【0105】次に、図19のフローチャートを参照し
て、第1フレームから第6フレームまでのフレーム画像
が入力される場合の図14の画像処理装置による手ぶれ
補正処理について説明する。
Next, with reference to the flow chart of FIG. 19, the camera shake correction processing by the image processing apparatus of FIG. 14 when the frame images from the first frame to the sixth frame are input will be described.

【0106】ステップS31において、ブロック抽出部
91は、画像入力部11より入力される図15で示すよ
うな最初のフレーム、すなわち第1フレームのうち、交
流の部分を基準ブロックとして抽出し、基準ブロック記
憶部94に記憶させる。すなわち、ドア110と窓枠1
13が撮像された第1フレーム画像が撮像開始と同時に
入力された場合、ドアノブ112が、交流画像であった
とき、ブロック抽出部91は、図中のドアノブ112に
対応する基準ブロック111’を抽出して、基準ブロッ
ク記憶部94に記憶させ、変形パラメータ抽出部92に
出力する。
In step S31, the block extraction unit 91 extracts the AC portion of the first frame, ie, the first frame, input from the image input unit 11 as shown in FIG. It is stored in the storage unit 94. That is, the door 110 and the window frame 1
When the first frame image of 13 is input at the same time as the start of image capturing, and the door knob 112 is an AC image, the block extracting unit 91 extracts the reference block 111 ′ corresponding to the door knob 112 in the figure. Then, it is stored in the reference block storage unit 94 and output to the transformation parameter extraction unit 92.

【0107】ステップS32において、画像メモリ17
は、画像入力部11より入力されたフレーム画像、すな
わち、今の場合、第1フレームの画像を記憶する。
In step S32, the image memory 17
Stores the frame image input from the image input unit 11, that is, the image of the first frame in this case.

【0108】ステップS33において、ブロック抽出部
91は、入力された第1フレームより基準ブロック記憶
部94に記憶された基準ブロック111’を用いてター
ゲットブロックを抽出する。図15の場合、ブロック抽
出部91は、パターンマッチングによりターゲットブロ
ック111を抽出する。最初の処理では、基準ブロック
111’とターゲットブロック111は、同じ物である
ので、基準ブロック111’が変形パラメータ抽出部9
2に出力されることになる。
In step S33, the block extraction unit 91 extracts the target block from the input first frame by using the reference block 111 'stored in the reference block storage unit 94. In the case of FIG. 15, the block extraction unit 91 extracts the target block 111 by pattern matching. In the first process, since the reference block 111 ′ and the target block 111 are the same object, the reference block 111 ′ is the deformation parameter extraction unit 9
2 will be output.

【0109】ステップS34において、ブロック抽出部
91は、ターゲットブロック111の中央の座標位置を
軌跡情報として軌跡記憶部18に出力し、記憶させる。
In step S34, the block extraction unit 91 outputs the center coordinate position of the target block 111 to the locus storage unit 18 as locus information and stores it therein.

【0110】ステップS35において、変形パラメータ
抽出部92は、入力されたターゲットブロック111
と、基準ブロック記憶部94に記憶された基準ブロック
111’を比較し、変形パラメータ(L,θ)を求めて
比較部93に出力する。今の場合、第1フレームである
ので、基準ブロック111’とターゲットブロック11
1は、図15で示すように同一であるので、変形パラメ
ータ(1,0)が抽出され、比較部93に出力されるこ
とになる。
In step S35, the transformation parameter extraction unit 92 inputs the target block 111 that has been input.
And the reference block 111 ′ stored in the reference block storage unit 94 are compared with each other to obtain the deformation parameter (L, θ) and output to the comparison unit 93. In this case, since it is the first frame, the reference block 111 ′ and the target block 11
Since 1 is the same as shown in FIG. 15, the transformation parameter (1, 0) is extracted and output to the comparison unit 93.

【0111】ステップS36において、比較部93は、
ターゲットブロックと基準ブロックの差分g1を求め
る。今の場合、差分g1は、変形パラメータが(1,
0)なので、0として演算される。尚、以下において、
第nフレーム目の差分を差分gnと称する。
In step S36, the comparison section 93
The difference g1 between the target block and the reference block is calculated. In this case, the difference g1 has a deformation parameter of (1,
Since it is 0), it is calculated as 0. In the following,
The difference of the nth frame is called a difference gn.

【0112】ステップS37において、比較部93は、
差分g1を所定の閾値Gと比較し、差分gn>閾値Gで
あるか否かを判定する。今の場合、差分g1は0であ
り、差分g1>閾値Gではないので、その処理は、ステ
ップS38に進む。
In step S37, the comparison section 93
The difference g1 is compared with a predetermined threshold G to determine whether the difference gn> the threshold G. In this case, the difference g1 is 0 and the difference g1> threshold value G is not satisfied, and therefore the process proceeds to step S38.

【0113】ステップS38において、次のフレーム画
像が存在するか否かが判定され、今の場合、図16で示
す第2フレームが入力されるので、その処理は、ステッ
プS32に戻る。
In step S38, it is determined whether or not the next frame image exists. In this case, the second frame shown in FIG. 16 is input, so the process returns to step S32.

【0114】ステップS32において、画像メモリ17
は、画像入力部11より入力されたフレーム画像、すな
わち、今の場合、第2フレームの画像を記憶する。
In step S32, the image memory 17
Stores the frame image input from the image input unit 11, that is, the image of the second frame in this case.

【0115】ステップS33において、ブロック抽出部
91は、入力されたフレーム画像から基準ブロック記憶
部94に記憶された基準ブロック111’を用いて、パ
ターンマッチングによりターゲットブロックを抽出す
る。すなわち、第1フレームより抽出された、ドアノブ
112に対応した基準ブロック111’が基準ブロック
記憶部94に記憶されているので、ドア120と窓枠1
23が撮像された第2フレームにおいては、この基準ブ
ロック111’を用いて、パターンマッチングを施し、
類似の部分をターゲットブロックとして抽出する。図1
6の第2フレームの場合、ドア120のドアノブ122
付近のターゲットブロック121とドアノブ112(図
15)付近の基準ブロック111’が類似しているの
で、ターゲットブロック121が抽出され、変形パラメ
ータ抽出部92に出力される。
In step S33, the block extracting section 91 extracts a target block from the input frame image by pattern matching using the reference block 111 'stored in the reference block storage section 94. That is, since the reference block 111 ′ corresponding to the door knob 112 extracted from the first frame is stored in the reference block storage unit 94, the door 120 and the window frame 1
In the second frame in which 23 is imaged, pattern matching is performed using this reference block 111 ′,
A similar part is extracted as a target block. Figure 1
In the case of the second frame of No. 6, the door knob 122 of the door 120
Since the target block 121 in the vicinity and the reference block 111 ′ in the vicinity of the door knob 112 (FIG. 15) are similar, the target block 121 is extracted and output to the deformation parameter extraction unit 92.

【0116】ステップS34において、ここでは、ブロ
ック抽出部91が、ターゲットブロック121の中央の
座標位置を軌跡情報として軌跡記憶部18に出力し、記
憶させる。
In step S34, the block extracting unit 91 outputs the center coordinate position of the target block 121 to the locus storage unit 18 as locus information and stores it therein.

【0117】ステップS35において、変形パラメータ
抽出部92は、入力されたターゲットブロック121
と、基準ブロック記憶部94に記憶された基準ブロック
111’を比較し、変形パラメータ(L,θ)を求めて
比較部93に出力する。今の場合、基準ブロック11
1’とターゲットブロック121は、例えば、図17の
ように示すことができる。従って、図16で示す第2フ
レームが入力された場合、変形パラメータ抽出部92
は、変形パラメータ(L2/L1,θ2)を比較部93
に出力する。
In step S35, the transformation parameter extraction unit 92 inputs the input target block 121.
And the reference block 111 ′ stored in the reference block storage unit 94 are compared with each other to obtain the deformation parameter (L, θ) and output to the comparison unit 93. In this case, the reference block 11
1'and the target block 121 can be shown as shown in FIG. 17, for example. Therefore, when the second frame shown in FIG. 16 is input, the transformation parameter extraction unit 92
Compares the deformation parameter (L2 / L1, θ2) with the comparison unit 93.
Output to.

【0118】ステップS36において、比較部93は、
ターゲットブロック121と基準ブロック111’の差
分g2を求める。今の場合、差分g2は、変形パラメー
タが(L2/L1,θ2)なので、差分g2(=√
((L2/L1)2+1−2×(L2/L1)×cosθ
2))として演算される。
In step S36, the comparison section 93
A difference g2 between the target block 121 and the reference block 111 ′ is calculated. In this case, since the deformation parameter of the difference g2 is (L2 / L1, θ2), the difference g2 (= √)
((L2 / L1) 2 + 1-2 × (L2 / L1) × cos θ
2)) is calculated.

【0119】ステップS37において、比較部93は、
差分g2を所定の閾値Gと比較し、差分g2>閾値Gで
あるか否かを判定する。例えば、差分g2>閾値Gでは
ない場合、すなわち、第2フレームでは、第1フレーム
に比べて大きな変化が無かった場合、その処理は、ステ
ップS38に進む。
In step S37, the comparison section 93
The difference g2 is compared with a predetermined threshold G to determine whether the difference g2> threshold G. For example, if the difference g2> threshold value G is not satisfied, that is, if there is no significant change in the second frame compared to the first frame, the process proceeds to step S38.

【0120】ステップS38において、次のフレーム画
像が存在するか否かが判定され、今の場合、図20で示
す第3フレームが入力されるので、その処理は、ステッ
プS32に戻る。
In step S38, it is determined whether or not the next frame image is present. In this case, the third frame shown in FIG. 20 is input, so the process returns to step S32.

【0121】ステップS32において、画像メモリ17
は、画像入力部11より入力されたフレーム画像、すな
わち、今の場合、第3フレームの画像を記憶する。
In step S32, the image memory 17
Stores the frame image input from the image input unit 11, that is, the image of the third frame in this case.

【0122】ステップS33において、ブロック抽出部
91は、入力されたフレーム画像から基準ブロック記憶
部94に記憶された基準ブロック111’を用いて、パ
ターンマッチングによりターゲットブロックを抽出す
る。すなわち、ドア130と窓枠133が撮像された第
3フレームにおいては、この基準ブロック111’を用
いて、パターンマッチングを施し、類似の部分をターゲ
ットブロックとして抽出する。図20の第3フレームの
場合、ドア130のドアノブ132付近のターゲットブ
ロック131とドアノブ112(図15)付近の基準ブ
ロック111’が、類似しているので、ターゲットブロ
ック131が抽出され、変形パラメータ抽出部92に出
力される。
In step S33, the block extracting unit 91 extracts a target block from the input frame image by pattern matching using the reference block 111 'stored in the reference block storage unit 94. That is, in the third frame in which the door 130 and the window frame 133 are imaged, pattern matching is performed using this reference block 111 ′, and a similar portion is extracted as a target block. In the case of the third frame of FIG. 20, since the target block 131 near the door knob 132 of the door 130 and the reference block 111 ′ near the door knob 112 (FIG. 15) are similar, the target block 131 is extracted and the deformation parameter extraction is performed. It is output to the section 92.

【0123】ステップS34において、ここでは、ブロ
ック抽出部91が、ターゲットブロック131の中央の
座標位置を軌跡情報として軌跡記憶部18に出力し、記
憶させる。
In step S34, the block extracting unit 91 outputs the center coordinate position of the target block 131 to the locus storage unit 18 as locus information and stores it therein.

【0124】ステップS35において、変形パラメータ
抽出部92は、入力されたターゲットブロック131
と、基準ブロック記憶部94に記憶された基準ブロック
111’を比較し、変形パラメータ(L,θ)を求めて
比較部93に出力する。今の場合、基準ブロック11
1’とターゲットブロック131は、例えば、図21の
ように示すことができる。従って、図20で示す第3フ
レームが入力された場合、変形パラメータ抽出部92
は、変形パラメータ(L3/L1,θ3)を比較部93
に出力する。
In step S35, the transformation parameter extraction unit 92 receives the input target block 131.
And the reference block 111 ′ stored in the reference block storage unit 94 are compared with each other to obtain the deformation parameter (L, θ) and output to the comparison unit 93. In this case, the reference block 11
1'and the target block 131 can be shown as shown in FIG. 21, for example. Therefore, when the third frame shown in FIG. 20 is input, the transformation parameter extraction unit 92
Compares the deformation parameter (L3 / L1, θ3) with the comparison unit 93.
Output to.

【0125】ステップS36において、比較部93は、
ターゲットブロック131と基準ブロック111’の差
分g3を求める。今の場合、差分g3は、変形パラメー
タが(L3/L1,θ3)なので、差分g3(=√
((L3/L1)2+1−2×(L3/L1)×cosθ
3))として演算される。
In step S36, the comparison section 93
A difference g3 between the target block 131 and the reference block 111 ′ is calculated. In this case, since the deformation parameter of the difference g3 is (L3 / L1, θ3), the difference g3 (= √)
((L3 / L1) 2 + 1-2 × (L3 / L1) × cos θ
3)) is calculated.

【0126】ステップS37において、比較部93は、
差分g3を所定の閾値Gと比較し、差分g3>閾値Gで
あるか否かを判定する。例えば、差分g3>閾値Gでは
ない場合、すなわち、第2フレームに引き続き、第3フ
レームでも、第1フレームに比べて大きな変化が無いと
判定された場合、その処理は、ステップS38に進む。
In step S37, the comparison section 93
The difference g3 is compared with a predetermined threshold G to determine whether the difference g3> threshold G. For example, when the difference g3> threshold value G is not satisfied, that is, when it is determined that there is no significant change in the third frame after the second frame as compared with the first frame, the process proceeds to step S38.

【0127】ステップS38において、次のフレーム画
像が存在するか否かを判定し、今の場合、図22で示す
第4フレームが入力されるので、その処理は、ステップ
S32に戻る。
In step S38, it is determined whether or not the next frame image is present. In this case, the fourth frame shown in FIG. 22 is input, so the process returns to step S32.

【0128】ステップS32において、画像メモリ17
は、画像入力部11より入力されたフレーム画像、すな
わち、今の場合、第4フレームの画像を記憶する。
In step S32, the image memory 17
Stores the frame image input from the image input unit 11, that is, the image of the fourth frame in this case.

【0129】ステップS33において、ブロック抽出部
91は、入力されたドア140と窓枠143が撮像され
た第4フレームに対して、基準ブロック111’を用い
て、パターンマッチングを施し、類似の部分をターゲッ
トブロックとして抽出する。図22の第4フレームの場
合、ドア140のドアノブ142付近のターゲットブロ
ック141とドアノブ112(図15)付近の基準ブロ
ック111’が、類似しているので、ターゲットブロッ
ク141が抽出され、変形パラメータ抽出部92に出力
される。
In step S33, the block extraction unit 91 performs pattern matching on the input fourth frame in which the door 140 and the window frame 143 are imaged by using the reference block 111 ', and a similar portion is obtained. Extract as a target block. In the case of the fourth frame of FIG. 22, since the target block 141 near the door knob 142 of the door 140 and the reference block 111 ′ near the door knob 112 (FIG. 15) are similar, the target block 141 is extracted and the deformation parameter is extracted. It is output to the section 92.

【0130】ステップS34において、ここでは、ブロ
ック抽出部91が、ターゲットブロック141の中央の
座標位置を軌跡情報として軌跡記憶部18に出力し、記
憶させる。
In step S34, the block extracting unit 91 outputs the center coordinate position of the target block 141 to the locus storage unit 18 as locus information and stores it therein.

【0131】ステップS35において、変形パラメータ
抽出部92は、入力されたターゲットブロック141
と、基準ブロック記憶部94に記憶された基準ブロック
111’を比較し、変形パラメータ(L,θ)を求めて
比較部93に出力する。今の場合、基準ブロック11
1’とターゲットブロック141は、例えば、図23の
ように示すことができる。従って、図22で示す第4フ
レームが入力された場合、変形パラメータ抽出部92
は、変形パラメータ(L4/L1,θ4)を比較部93
に出力する。
In step S35, the transformation parameter extraction unit 92 receives the input target block 141.
And the reference block 111 ′ stored in the reference block storage unit 94 are compared with each other to obtain the deformation parameter (L, θ) and output to the comparison unit 93. In this case, the reference block 11
1'and the target block 141 can be shown as shown in FIG. 23, for example. Therefore, when the fourth frame shown in FIG. 22 is input, the transformation parameter extraction unit 92
Compares the deformation parameter (L4 / L1, θ4) with the comparison unit 93.
Output to.

【0132】ステップS36において、比較部93は、
ターゲットブロック141と基準ブロック111’の差
分g4を求める。今の場合、差分g4は、変形パラメー
タが(L4/L1,θ4)なので、差分g4(=√
((L4/L1)2+1−2×(L4/L1)×cosθ
4))として演算される。
In step S36, the comparison section 93
The difference g4 between the target block 141 and the reference block 111 ′ is calculated. In this case, since the deformation parameter of the difference g4 is (L4 / L1, θ4), the difference g4 (= √)
((L4 / L1) 2 + 1-2 × (L4 / L1) × cos θ
4)) is calculated.

【0133】ステップS37において、比較部93は、
差分g4を所定の閾値Gと比較し、差分g4>閾値Gで
あるか否かを判定する。例えば、差分g4>閾値Gであ
ると判定された場合、すなわち、第4フレームにおいて
は、第1フレームに比べて大きな変化があると判定され
た場合、その処理は、ステップS39に進む。
In step S37, the comparison section 93
The difference g4 is compared with a predetermined threshold G to determine whether the difference g4> threshold G. For example, when it is determined that the difference g4> threshold value G, that is, when it is determined that there is a large change in the fourth frame as compared with the first frame, the process proceeds to step S39.

【0134】ステップS39において、比較部93は、
ブロック抽出部91に対して、今現在のターゲットブロ
ックを基準ブロックとして置き換えさせる。このとき、
ブロック抽出部91は、基準ブロック111’を、今現
在の第4フレームより求めたターゲットブロック141
に置き換えて、基準ブロック141’として基準ブロッ
ク記憶部94に記憶させ、その処理は、ステップS38
に進む。
In step S39, the comparing section 93
The block extraction unit 91 is caused to replace the current target block as the reference block. At this time,
The block extracting unit 91 determines the reference block 111 ′ as the target block 141 obtained from the current fourth frame.
Is stored in the reference block storage unit 94 as the reference block 141 ′, and the process is performed in step S38.
Proceed to.

【0135】ステップS38において、次に、図24で
示すドア150と窓枠153が撮像された第5フレーム
が入力されるので、その処理は、ステップS32に戻
る。
In step S38, the fifth frame in which the door 150 and the window frame 153 shown in FIG. 24 are picked up is input, and the process returns to step S32.

【0136】ステップS32において、画像メモリ17
は、画像入力部11より入力されたフレーム画像、すな
わち、今の場合、第5フレームの画像を記憶する。
In step S32, the image memory 17
Stores the frame image input from the image input unit 11, that is, the image of the fifth frame in this case.

【0137】ステップS33において、ブロック抽出部
12は、図24の第5フレームの場合、ドア150のド
アノブ152付近のターゲットブロック151とドアノ
ブ142(図22)付近の基準ブロック141’が類似
しているので、ターゲットブロック151が抽出され、
変形パラメータ抽出部92に出力される。
In the step S33, in the case of the fifth frame in FIG. 24, the block extracting unit 12 makes the target block 151 near the door knob 152 of the door 150 and the reference block 141 'near the door knob 142 (FIG. 22) similar to each other. Therefore, the target block 151 is extracted,
It is output to the transformation parameter extraction unit 92.

【0138】尚、もし、第4フレームにおける基準ブロ
ックの更新が無ければ、古い基準ブロック111’を用
いて、パターンマッチングが行われることになる。第1
フレームに比べて第5フレームは、拡大と回転の量が大
きすぎるため、基準ブロック111’と類似する部分を
探すことが不可能となることが予想される。しかしなが
ら、実際には、基準ブロックが第4フレームの基準ブロ
ック141’に、更新されることにより、第5フレーム
における拡大と回転の量が小さくなるため類似する部分
を検索することが可能となる。
If the reference block in the fourth frame is not updated, pattern matching will be performed using the old reference block 111 '. First
It is expected that it will be impossible to find a part similar to the reference block 111 ′ in the fifth frame because the amount of expansion and rotation in the fifth frame is too large. However, in reality, since the reference block is updated to the reference block 141 ′ of the fourth frame, the amount of enlargement and rotation in the fifth frame becomes small, so that it is possible to search for a similar portion.

【0139】ステップS34において、ここでは、ブロ
ック抽出部91が、ターゲットブロック151の中央の
座標位置を軌跡情報として軌跡記憶部18に出力し、記
憶させる。
In step S34, the block extraction unit 91 outputs the center coordinate position of the target block 151 to the locus storage unit 18 as locus information and stores it therein.

【0140】ステップS35において、変形パラメータ
抽出部92は、入力されたターゲットブロック151
と、基準ブロック記憶部94に記憶された基準ブロック
141’を比較し、変形パラメータ(L,θ)を求めて
比較部93に出力する。今の場合、基準ブロック14
1’とターゲットブロック151は、例えば、図25の
ように示すことができる。従って、図24で示す第5フ
レームが入力された場合、変形パラメータ抽出部92
は、変形パラメータ(L5/L4,θ5)を比較部93
に出力する。
In step S 35, the transformation parameter extraction unit 92 inputs the target block 151 that has been input.
And the reference block 141 ′ stored in the reference block storage unit 94 are compared with each other to obtain the deformation parameter (L, θ) and output to the comparison unit 93. In this case, the reference block 14
1 ′ and the target block 151 can be shown as shown in FIG. 25, for example. Therefore, when the fifth frame shown in FIG. 24 is input, the transformation parameter extraction unit 92
Compares the deformation parameter (L5 / L4, θ5) with the comparison unit 93.
Output to.

【0141】ステップS36において、比較部93は、
ターゲットブロック151と基準ブロック141’の差
分g5を求める。今の場合、差分g5は、変形パラメー
タが(L5/L4,θ5)なので、差分g5(=√
((L5/L4)2+1−2×(L5/L4)×cosθ
5))として演算される。
In step S36, the comparison section 93
The difference g5 between the target block 151 and the reference block 141 ′ is calculated. In this case, since the deformation parameter of the difference g5 is (L5 / L4, θ5), the difference g5 (= √)
((L5 / L4) 2 + 1-2 × (L5 / L4) × cos θ
5)) is calculated.

【0142】ステップS37において、比較部93は、
差分g5を所定の閾値Gと比較し、差分g5>閾値Gで
あるか否かを判定する。例えば、差分g5>閾値Gでは
ないと判定された場合、すなわち、例えば、第5フレー
ムでは、基準ブロックが更新された第4フレームに比べ
て大きな変化が無かったと判定された場合、その処理
は、ステップS38に進む。
In step S37, the comparison section 93
The difference g5 is compared with a predetermined threshold G to determine whether the difference g5> threshold G. For example, when it is determined that the difference g5> threshold G is not satisfied, that is, when it is determined that there is no large change in the fifth frame compared to the updated fourth frame, the process is It proceeds to step S38.

【0143】ステップS38において、次のフレーム画
像が存在するか否かを判定し、今の場合、図26で示す
第6フレームが入力されるので、その処理は、ステップ
S32に戻る。
In step S38, it is determined whether or not there is a next frame image. In this case, the sixth frame shown in FIG. 26 is input, so the process returns to step S32.

【0144】ステップS32において、画像メモリ17
は、画像入力部11より入力されたフレーム画像、すな
わち、今の場合、第6フレームの画像を記憶する。
In step S32, the image memory 17
Stores the frame image input from the image input unit 11, that is, the image of the sixth frame in this case.

【0145】ステップS33において、ブロック抽出部
91は、入力されたドア160と窓枠163が撮像され
た第6フレームに対して、基準ブロック141’を用い
て、パターンマッチングを施し、類似の部分をターゲッ
トブロックとして抽出する。図26の第6フレームの場
合、ドア160のドアノブ162付近のターゲットブロ
ック161とドアノブ142(図22)付近の基準ブロ
ック141’が、類似しているので、ターゲットブロッ
ク161が抽出され、変形パラメータ抽出部92に出力
される。
In step S33, the block extraction unit 91 performs pattern matching on the input sixth frame in which the door 160 and the window frame 163 are picked up by using the reference block 141 ', and a similar portion is obtained. Extract as a target block. In the case of the sixth frame in FIG. 26, since the target block 161 near the door knob 162 of the door 160 and the reference block 141 ′ near the door knob 142 (FIG. 22) are similar, the target block 161 is extracted and the deformation parameter extraction is performed. It is output to the section 92.

【0146】ステップS34において、ここでは、ブロ
ック抽出部91が、ターゲットブロック161の中央の
座標位置を軌跡情報として軌跡記憶部18に出力し、記
憶させる。
In step S34, the block extracting unit 91 outputs the center coordinate position of the target block 161 to the locus storage unit 18 as locus information and stores it therein.

【0147】ステップS35において、変形パラメータ
抽出部92は、入力されたターゲットブロック161
と、基準ブロック記憶部94に記憶された基準ブロック
141’を比較し、変形パラメータ(L,θ)を求めて
比較部93に出力する。今の場合、基準ブロック14
1’とターゲットブロック161は、例えば、図27の
ように示すことができる。従って、図26で示す第6フ
レームが入力された場合、変形パラメータ抽出部92
は、変形パラメータ(L6/L4,θ6)を比較部93
に出力する。
In step S35, the transformation parameter extraction unit 92 inputs the input target block 161.
And the reference block 141 ′ stored in the reference block storage unit 94 are compared with each other to obtain the deformation parameter (L, θ) and output to the comparison unit 93. In this case, the reference block 14
1'and the target block 161 can be shown as shown in FIG. 27, for example. Therefore, when the sixth frame shown in FIG. 26 is input, the transformation parameter extraction unit 92
Compares the deformation parameter (L6 / L4, θ6) with the comparison unit 93.
Output to.

【0148】ステップS36において、比較部93は、
ターゲットブロック161と基準ブロック141’の差
分g6を求める。今の場合、差分g6は、変形パラメー
タが(L6/L4,θ6)なので、差分g6(=√
((L6/L4)2+1−2×(L6/L4)×cosθ
6))として演算される。
In step S36, the comparison section 93
The difference g6 between the target block 161 and the reference block 141 ′ is calculated. In this case, since the deformation parameter of the difference g6 is (L6 / L4, θ6), the difference g6 (= √)
((L6 / L4) 2 + 1-2 × (L6 / L4) × cos θ
6)) is calculated.

【0149】ステップS37において、比較部93は、
差分g6を所定の閾値Gと比較し、差分g6>閾値Gで
あるか否かを判定する。例えば、差分g6>閾値Gでは
ないと判定された場合、すなわち、第6フレームにおい
ては、第4フレームに比べて大きな変化がないと判定さ
れた場合、その処理は、ステップS38に進む。
In step S37, the comparison section 93
The difference g6 is compared with a predetermined threshold G to determine whether the difference g6> threshold G. For example, when it is determined that the difference g6> threshold value G is not satisfied, that is, when it is determined that there is no significant change in the sixth frame as compared with the fourth frame, the process proceeds to step S38.

【0150】ステップS38において、次のフレーム画
像が存在するか否かが判定され、今の場合、第6フレー
ムまでの処理であるので、その処理は、ステップS40
に進む。
In step S38, it is determined whether or not the next frame image is present. In this case, the processing is up to the sixth frame, so the processing is step S40.
Proceed to.

【0151】ステップS40において、手ぶれ補正部1
9は、画像メモリ17に蓄積されたフレーム画像を読出
し、軌跡記憶部18に記憶された軌跡情報に基づいて手
ぶれを補正して、画像出力部20から手ぶれが補正され
た画像を出力させる。すなわち、軌跡記憶部18には、
ターゲットブロック111乃至161の中央部の座標が
記憶されている。この座標の軌跡は、画像上のドアノブ
112乃至162の軌跡となるので、手ぶれ補正部19
は、この軌跡に従って手ぶれを補正して、画像出力部2
0から手ぶれが補正された画像を出力する。
In step S40, the camera shake correction unit 1
Reference numeral 9 reads the frame image stored in the image memory 17, corrects the camera shake based on the trajectory information stored in the trajectory storage unit 18, and causes the image output unit 20 to output the image with the camera shake corrected. That is, in the locus storage unit 18,
The coordinates of the center of the target blocks 111 to 161 are stored. Since the locus of this coordinate is the locus of the door knobs 112 to 162 on the image, the image stabilization unit 19
Corrects the camera shake in accordance with this locus, and the image output unit 2
An image in which camera shake is corrected is output from 0.

【0152】尚、ステップS40の処理における手ぶれ
補正を行う際に、別の物体の軌跡も必要である場合に
は、その物体に対しても、上述と同様にして、ステップ
S31乃至S39の処理を行った後、ステップS40の
処理を実行する。
If the trajectory of another object is also required when performing the camera shake correction in the processing of step S40, the processing of steps S31 to S39 is performed for that object in the same manner as described above. After that, the process of step S40 is executed.

【0153】以上のように、フレーム画像毎に基準ブロ
ックに基づいたターゲットブロックの変形パラメータを
基準ブロックとターゲットブロックの差分に基づいて、
基準ブロックを、その時点で求められたターゲットブロ
ックに置き換えることにより、動きに合わせて、基準ブ
ロックを更新させることができるので、適正な手ぶれ補
正が可能となる。その結果、例えば、手ぶれが激しい場
合や、動きの激しい画像の場合には、毎フレーム画像毎
に、基準ブロックを更新させ、手ぶれがほとんど無いよ
うな場合や、動きの少ない画像の場合には、基準ブロッ
クを更新させないようにすることができ、手ぶれの程度
や画像の動きに合わせた手ぶれ補正処理が可能になる。
As described above, the deformation parameter of the target block based on the reference block for each frame image is calculated based on the difference between the reference block and the target block.
By replacing the reference block with the target block obtained at that time, it is possible to update the reference block in accordance with the movement, so that proper image stabilization can be performed. As a result, for example, when the camera shake is severe, or when the image has a lot of movement, the reference block is updated for each frame image, and when there is almost no camera shake or when the image has little movement, It is possible to prevent the reference block from being updated, and it is possible to perform image stabilization processing according to the degree of image stabilization and image movement.

【0154】また、図27で示すように、ターゲットブ
ロックの変位は、注目画像の移動の軌跡であるとみるこ
とができるので、同様の手法により、基準ブロックを変
化させながら、フレーム画像上の注目画像(ここでは、
ドアノブ)の軌跡を求めることも可能である。
Further, as shown in FIG. 27, the displacement of the target block can be regarded as a locus of movement of the image of interest. Therefore, while changing the reference block by the same method, the displacement of the image of interest is noted on the frame image. Image (here
It is also possible to find the trajectory of the doorknob).

【0155】そのため、図1の画像処理装置の場合と同
様に、動画像にCG(コンピューターグラフィックス)
により作られた仮想物体の投影像を合成する場合、動画
像に写っている物体の投影像の軌跡を求めることができ
るので、例えば、動画像に写っている実際の人に対し
て、CGにより作られた仮想のヘルメットをかぶせると
いった処理においても、動画像に写っている人の頭の軌
跡を求め、その位置にヘルメットの投影像を合成させる
ことができる。
Therefore, as in the case of the image processing apparatus of FIG. 1, CG (computer graphics) is added to the moving image.
When synthesizing the projection image of the virtual object created by, the trajectory of the projection image of the object shown in the moving image can be obtained. Therefore, for example, by using CG for the actual person shown in the moving image, Even in the process of covering the virtual helmet created, the trajectory of the head of the person shown in the moving image can be obtained and the projected image of the helmet can be synthesized at that position.

【0156】また、図14の画像処理装置においては、
変形パラメータ(L,θ)が求められているので、それ
までの基準ブロックを変換パラメータでL倍に拡大し
(または、縮小し)、回転角θだけ回転させて、基準ブ
ロックを更新させるようにしても良い。
In addition, in the image processing apparatus of FIG.
Since the deformation parameter (L, θ) is obtained, the reference block up to that point is enlarged (or reduced) L times by the conversion parameter, rotated by the rotation angle θ, and the reference block is updated. May be.

【0157】図28は、このような変形パラメータ
(L,θ)を用いて、基準ブロックを更新させる画像処
理装置の構成例を示している。尚、図中、図14におけ
る場合と対応する部分については、同一の符号を付して
あり、以下では、その説明は、適宜省略する。
FIG. 28 shows an example of the structure of an image processing apparatus for updating a reference block using such deformation parameters (L, θ). In the figure, parts corresponding to those in FIG. 14 are denoted by the same reference numerals, and description thereof will be omitted below as appropriate.

【0158】ブロック抽出部201の基本的な機能は、
ブロック抽出部91と同様であるが、基準ブロックの更
新方法が異なる。ブロック抽出部201は、比較部20
2からの比較結果の通知と共に、変形パラメータ(L,
θ)を受信し、その時点で基準ブロック記憶部94に記
憶されている基準ブロックを、変形部201aにより変
形パラメータ(L,θ)に基づいて、拡大率Lで、拡大
し、回転角θで回転させたのち(アフィン変換させた
後)、基準ブロック記憶部94のデータに上書きさせ、
基準ブロックを更新させる。
The basic function of the block extraction unit 201 is as follows.
Similar to the block extraction unit 91, but the reference block update method is different. The block extraction unit 201 includes a comparison unit 20.
The deformation parameter (L,
θ) is received and the reference block stored in the reference block storage unit 94 at that time is enlarged by the transformation unit 201a at the enlargement ratio L based on the transformation parameter (L, θ), and the rotation angle θ is obtained. After rotating (after affine transformation), the data in the reference block storage unit 94 is overwritten,
Update the reference block.

【0159】次に、図29のフローチャートを参照し
て、図28の画像処理装置による手ぶれ補正処理につい
て説明する。尚、図29のフローチャートにおけるステ
ップS61乃至S68,S71の処理は、図19のフロ
ーチャートを参照して説明したステップS31乃至S3
8,S40の処理と同様であるので、その説明は省略す
る。
Next, with reference to the flow chart of FIG. 29, the camera shake correction processing by the image processing apparatus of FIG. 28 will be described. The processes of steps S61 to S68 and S71 in the flowchart of FIG. 29 are the same as steps S31 to S3 described with reference to the flowchart of FIG.
Since it is the same as the process of S8 and S40, the description thereof will be omitted.

【0160】ステップS69において、比較部202
は、変形パラメータ(L,θ)をブロック抽出部201
に出力すると共に、この変形パラメータ(L,θ)によ
り、今現在基準ブロック記憶部94に記憶されている基
準ブロックを、拡大率Lで拡大させ、回転角θだけ回転
させるように指令する。ステップS70において、ブロ
ック抽出部201は、変形部201aを制御して、変形
パラメータ(L,θ)に基づいて、基準ブロック記憶部
94に記憶されている基準ブロックを拡大率Lで、拡大
し、回転角θで回転させたのち(アフィン変換させた
後)、基準ブロック記憶部94のデータに上書きさせ、
基準ブロックを更新させる。
In step S69, the comparison unit 202
Is the transformation parameter (L, θ) for the block extraction unit 201.
And the deformation parameter (L, θ) is used to instruct the reference block currently stored in the reference block storage unit 94 to be enlarged at the enlargement ratio L and rotated by the rotation angle θ. In step S70, the block extraction unit 201 controls the transformation unit 201a to enlarge the reference block stored in the reference block storage unit 94 at the enlargement ratio L based on the transformation parameter (L, θ). After rotating at the rotation angle θ (after affine transformation), the data in the reference block storage unit 94 is overwritten,
Update the reference block.

【0161】以上によれば、手ぶれ補正の際に、参照す
る基準ブロックが、撮像されたフレーム中の画像に応じ
て更新されるので、撮像の際に生じる手ぶれを安定的に
補正することが可能になる。
According to the above, since the reference block to be referred to is updated according to the image in the imaged frame during camera shake correction, it is possible to stably correct the camera shake that occurs during image pickup. become.

【0162】上述した一連の処理は、ハードウェアによ
り実行させることもできるが、ソフトウェアにより実行
させることもできる。一連の処理をソフトウェアにより
実行させる場合には、そのソフトウェアを構成するプロ
グラムが、専用のハードウェアに組み込まれているコン
ピュータ、または、各種のプログラムをインストールす
ることで、各種の機能を実行させることが可能な、例え
ば汎用のパーソナルコンピュータなどに記録媒体からイ
ンストールされる。
The series of processes described above can be executed by hardware or software. When a series of processes is executed by software, various functions can be executed by installing a computer in which a program configuring the software is incorporated in dedicated hardware or various programs. It is installed from a recording medium into a possible general-purpose personal computer or the like.

【0163】図30は、画像処理装置をソフトウェアに
より実現する場合のパーソナルコンピュータの一実施の
形態の構成を示している。パーソナルコンピュータのCP
U1001は、パーソナルコンピュータの動作の全体を
制御する。また、CPU1001は、バス1004および
入出力インタフェース1005を介してユーザからキー
ボードやマウスなどからなる入力部1006から指令が
入力されると、それに対応してROM(Read Only Memory)
1002に格納されているプログラムを実行する。ある
いはまた、CPU1001は、ドライブ1010に接続さ
れた磁気ディスク1021、光ディスク1022、光磁
気ディスク1023、または半導体メモリ1024から
読み出され、記憶部1008にインストールされたプロ
グラムを、RAM(Random Access Memory)1023にロー
ドして実行し、出力部1007が実行結果を出力する。
さらに、CPU1001は、通信部1009を制御して、
外部と通信し、データの授受を実行する。
FIG. 30 shows the configuration of an embodiment of a personal computer when the image processing apparatus is realized by software. CP of personal computer
The U1001 controls the entire operation of the personal computer. Further, the CPU 1001 is responsive to a command input from a user via the bus 1004 and the input / output interface 1005 from an input unit 1006 including a keyboard, a mouse, etc.
The program stored in 1002 is executed. Alternatively, the CPU 1001 loads a program read from the magnetic disk 1021, optical disk 1022, magneto-optical disk 1023, or semiconductor memory 1024 connected to the drive 1010 and installed in the storage unit 1008 to a RAM (Random Access Memory) 1023. And executes the program, and the output unit 1007 outputs the execution result.
Further, the CPU 1001 controls the communication unit 1009,
Communicates with the outside and exchanges data.

【0164】プログラムが記録されている記録媒体は、
図30に示すように、コンピュータとは別に、ユーザに
プログラムを提供するために配布される、プログラムが
記録されている磁気ディスク1021(フレキシブルデ
ィスクを含む)、光ディスク1022(CD-ROM(Compact
Disc-Read Only Memory),DVD(Digital VersatileDis
c)を含む)、光磁気ディスク1023(MD(Mini-Dis
c)を含む)、もしくは半導体メモリ1024などより
なるパッケージメディアにより構成されるだけでなく、
コンピュータに予め組み込まれた状態でユーザに提供さ
れる、プログラムが記録されているROM1002や、記
憶部1008に含まれるハードディスクなどで構成され
る。
The recording medium on which the program is recorded is
As shown in FIG. 30, a magnetic disk 1021 (including a flexible disk) on which a program is recorded and an optical disk 1022 (CD-ROM (Compact
Disc-Read Only Memory), DVD (Digital VersatileDis
c)), magneto-optical disk 1023 (MD (Mini-Dis
(including c)), or a package medium including a semiconductor memory 1024, etc.
It is configured by a ROM 1002 in which a program is recorded, which is provided to the user in a state where the computer is installed in advance, a hard disk included in the storage unit 1008, and the like.

【0165】尚、本明細書において、記録媒体に記録さ
れるプログラムを記述するステップは、記載された順序
に沿って時系列的に行われる処理は、もちろん、必ずし
も時系列的に処理されなくとも、並列的あるいは個別に
実行される処理を含むものである。
In the present specification, the steps for writing the program recorded on the recording medium are not limited to the processing performed in time series according to the order described and not necessarily the processing performed in time series. , Which include processes executed in parallel or individually.

【0166】[0166]

【発明の効果】本発明によれば、撮像時に発生する手ぶ
れを、より安定的に補正することが可能になる。
According to the present invention, it is possible to more stably correct camera shake that occurs during image pickup.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明を適用した画像処理装置のブロック図で
ある。
FIG. 1 is a block diagram of an image processing apparatus to which the present invention has been applied.

【図2】図1の画像処理装置に入力されるフレーム画像
を示す図である。
FIG. 2 is a diagram showing a frame image input to the image processing apparatus of FIG.

【図3】図1の画像処理装置に入力されるフレーム画像
を示す図である。
FIG. 3 is a diagram showing a frame image input to the image processing apparatus of FIG.

【図4】手ぶれ補正の処理を説明するフローチャートで
ある。
FIG. 4 is a flowchart illustrating a camera shake correction process.

【図5】差分ベクトルを説明する図である。FIG. 5 is a diagram illustrating a difference vector.

【図6】図1の画像処理装置に入力されるフレーム画像
を示す図である。
6 is a diagram showing a frame image input to the image processing apparatus of FIG.

【図7】差分ベクトルを説明する図である。FIG. 7 is a diagram illustrating a difference vector.

【図8】図1の画像処理装置に入力されるフレーム画像
を示す図である。
FIG. 8 is a diagram showing a frame image input to the image processing apparatus of FIG.

【図9】差分ベクトルを説明する図である。FIG. 9 is a diagram illustrating a difference vector.

【図10】図1の画像処理装置に入力されるフレーム画
像を示す図である。
FIG. 10 is a diagram showing a frame image input to the image processing apparatus of FIG.

【図11】差分ベクトルを説明する図である。FIG. 11 is a diagram illustrating a difference vector.

【図12】図1の画像処理装置に入力されるフレーム画
像を示す図である。
12 is a diagram showing a frame image input to the image processing apparatus of FIG.

【図13】差分ベクトルを説明する図である。FIG. 13 is a diagram illustrating a difference vector.

【図14】本発明を適用した画像処理装置のブロック図
である。
FIG. 14 is a block diagram of an image processing apparatus to which the present invention has been applied.

【図15】図14の画像処理装置に入力されるフレーム
画像を示す図である。
FIG. 15 is a diagram showing a frame image input to the image processing apparatus of FIG.

【図16】図14の画像処理装置に入力されるフレーム
画像を示す図である。
16 is a diagram showing a frame image input to the image processing apparatus of FIG.

【図17】差分を説明する図である。FIG. 17 is a diagram illustrating a difference.

【図18】差分を説明する図である。FIG. 18 is a diagram illustrating a difference.

【図19】手ぶれ補正の処理を説明するフローチャート
である。
FIG. 19 is a flowchart illustrating a camera shake correction process.

【図20】図14の画像処理装置に入力されるフレーム
画像を示す図である。
20 is a diagram showing a frame image input to the image processing apparatus of FIG.

【図21】差分を説明する図である。FIG. 21 is a diagram illustrating a difference.

【図22】図14の画像処理装置に入力されるフレーム
画像を示す図である。
22 is a diagram showing a frame image input to the image processing apparatus of FIG.

【図23】差分を説明する図である。FIG. 23 is a diagram illustrating a difference.

【図24】図14の画像処理装置に入力されるフレーム
画像を示す図である。
24 is a diagram showing a frame image input to the image processing apparatus of FIG.

【図25】差分を説明する図である。FIG. 25 is a diagram illustrating a difference.

【図26】図14の画像処理装置に入力されるフレーム
画像を示す図である。
FIG. 26 is a diagram showing a frame image input to the image processing apparatus of FIG.

【図27】差分を説明する図である。FIG. 27 is a diagram illustrating a difference.

【図28】図14の画像処理装置に入力されるフレーム
画像を示す図である。
28 is a diagram showing a frame image input to the image processing apparatus of FIG.

【図29】手ぶれ補正の処理を説明するフローチャート
である。
FIG. 29 is a flowchart illustrating a process of camera shake correction.

【図30】媒体を説明する図である。FIG. 30 is a diagram illustrating a medium.

【符号の説明】[Explanation of symbols]

11 画像入力部, 12 ブロック抽出部, 13
基準ブロック記憶部,14 ベクトル抽出部, 15
比較部, 16 基準ベクトル記憶部, 17 画像記
憶部, 18 軌跡記憶部, 19 手ぶれ補正部,
20 画像出力部, 31,31−1,31−2 ター
ゲットブロック, 31’,31’−1,31’−2
基準ブロック, 32 ドアノブ, 33 窓枠, 3
4 ターゲットベクトル, 34’ 基準ベクトル,
41,41−1,41−2 ターゲットブロック, 4
2 ドアノブ, 43 窓枠, 44 ターゲットベク
トル, 51,51−1,51−2 ターゲットブロッ
ク, 52 ドアノブ,53 窓枠, 54 ターゲッ
トベクトル, 61,61−1,61−2 ターゲット
ブロック, 61’,61’−1,61’−2 基準ブ
ロック, 62ドアノブ, 63 窓枠, 64 ター
ゲットベクトル, 64’ 基準ベクトル, 71,7
1−1,71−2 ターゲットブロック, 72 ドア
ノブ,73 窓枠, 74 ターゲットベクトル, 8
1,81−1,81−2 ターゲットブロック, 82
ドアノブ, 83 窓枠, 84 ターゲットベクト
ル, 91 ブロック抽出部, 92 変形パラメータ
抽出部, 93 比較部, 94 基準ブロック記憶
部, 95 手ぶれ補正部, 111 ターゲットブロ
ック, 111’ 基準ブロック, 112 ドアノ
ブ, 121 ターゲットブロック, 122 ドアノ
ブ, 131 ターゲットブロック, 132 ドアノ
ブ, 141 ターゲットブロック, 141’ 基準
ブロック,142 ドアノブ, 151 ターゲットブ
ロック, 152 ドアノブ, 161 ターゲットブ
ロック, 162 ドアノブ, 201 ブロック抽出
部,201a 変形部, 202 比較部
11 image input unit, 12 block extraction unit, 13
Reference block storage unit, 14 vector extraction unit, 15
Comparison unit, 16 reference vector storage unit, 17 image storage unit, 18 trajectory storage unit, 19 camera shake correction unit,
20 image output unit, 31, 31-1, 31-2 target block, 31 ', 31'-1, 31'-2
Reference block, 32 door knob, 33 window frame, 3
4 target vector, 34 'reference vector,
41, 41-1 and 41-2 target block, 4
2 doorknob, 43 window frame, 44 target vector, 51,51-1, 51-2 target block, 52 doorknob, 53 window frame, 54 target vector, 61,61-1, 61-2 target block, 61 ', 61 '-1,61'-2 reference block, 62 door knob, 63 window frame, 64 target vector, 64' reference vector, 71,7
1-1, 71-2 target block, 72 door knob, 73 window frame, 74 target vector, 8
1, 81-1, 81-2 Target block, 82
Door knob, 83 window frame, 84 target vector, 91 block extraction unit, 92 deformation parameter extraction unit, 93 comparison unit, 94 reference block storage unit, 95 image stabilization unit, 111 target block, 111 'reference block, 112 door knob, 121 target Block, 122 Door Knob, 131 Target Block, 132 Door Knob, 141 Target Block, 141 'Reference Block, 142 Door Knob, 151 Target Block, 152 Door Knob, 161 Target Block, 162 Door Knob, 201 Block Extraction Section, 201a Deformation Section, 202 Comparison Section

─────────────────────────────────────────────────────
─────────────────────────────────────────────────── ───

【手続補正書】[Procedure amendment]

【提出日】平成14年6月5日(2002.6.5)[Submission date] June 5, 2002 (2002.6.5)

【手続補正1】[Procedure Amendment 1]

【補正対象書類名】図面[Document name to be corrected] Drawing

【補正対象項目名】図19[Name of item to be corrected] Fig. 19

【補正方法】変更[Correction method] Change

【補正内容】[Correction content]

【図19】 FIG. 19

Claims (20)

【特許請求の範囲】[Claims] 【請求項1】 所定の時刻のフレームより複数の基準ブ
ロックを抽出する基準ブロック抽出手段と、 前記複数の基準ブロックを記憶する記憶手段と、 前記記憶手段により記憶された前記複数の基準ブロック
間の位置関係を表す基準位置関係情報を生成する基準位
置関係情報生成手段と、 前記所定の時刻以降のフレームより、前記記憶手段に記
憶された複数の前記基準ブロックに類似した複数の類似
ブロックを抽出する類似ブロック抽出手段と、 前記複数の類似ブロック間の位置関係を表す類似位置関
係情報を生成する類似位置関係情報生成手段と、 前記類似位置関係情報と前記基準位置関係情報との差分
を生成する差分生成手段と、 前記差分を所定の閾値と比較する比較手段と、 前記比較結果に対応して、前記記憶手段に記憶されてい
る前記複数の基準ブロックを、前記複数の類似ブロック
に置き換える置換手段と、 前記複数の基準ブロックのうちの所定の基準ブロックの
位置情報と、前記複数の類似ブロックのうちの所定の類
似ブロックの位置情報に基づいて、前記所定の時刻以降
のフレームに所定の処理を施す処理手段とを備えること
を特徴とする画像処理装置。
1. A reference block extraction means for extracting a plurality of reference blocks from a frame at a predetermined time, a storage means for storing the plurality of reference blocks, and a plurality of reference blocks stored by the storage means. Reference positional relationship information generating means for generating reference positional relationship information indicating the positional relationship, and a plurality of similar blocks similar to the plurality of reference blocks stored in the storage means, from the frame after the predetermined time. Similar block extracting means, similar positional relationship information generating means for generating similar positional relationship information indicating the positional relationship between the plurality of similar blocks, and difference for generating a difference between the similar positional relationship information and the reference positional relationship information. Generating means, comparing means for comparing the difference with a predetermined threshold value, and stored in the storing means in correspondence with the comparison result. A replacement unit that replaces the plurality of reference blocks with the plurality of similar blocks, position information of a predetermined reference block of the plurality of reference blocks, and position information of a predetermined similar block of the plurality of similar blocks. And a processing unit that performs a predetermined process on the frame after the predetermined time based on the above.
【請求項2】 前記基準位置関係情報は、2つの基準ブ
ロックの中心間のベクトルとしての基準ベクトルであ
り、 前記類似位置関係情報は、2つの類似ブロックの中心間
のベクトルとしての類似ベクトルであることを特徴とす
る請求項1に記載の画像処理装置。
2. The reference positional relationship information is a reference vector as a vector between the centers of two reference blocks, and the similar positional relationship information is a similarity vector as a vector between the centers of two similar blocks. The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
【請求項3】 前記差分は、前記基準ベクトルと前記類
似ベクトルの差分であることを特徴とする請求項2に記
載の画像処理装置。
3. The image processing apparatus according to claim 2, wherein the difference is a difference between the reference vector and the similar vector.
【請求項4】 前記処理手段は、前記複数の基準ブロッ
クのうちの所定の基準ブロックの位置情報と、前記複数
の類似ブロックのうちの所定の類似ブロックの位置情報
に基づいて、前記所定の時刻以降のフレームに所定の処
理として、手ぶれ補正処理、または、画像合成処理を施
すことを特徴とする請求項1に記載の画像処理装置。
4. The processing means, based on position information of a predetermined reference block of the plurality of reference blocks and position information of a predetermined similar block of the plurality of similar blocks, the predetermined time. The image processing apparatus according to claim 1, wherein the subsequent frame is subjected to a camera shake correction process or an image combining process as a predetermined process.
【請求項5】 所定の時刻のフレームより複数の基準ブ
ロックを抽出する基準ブロック抽出ステップと、 前記複数の基準ブロックを記憶する記憶ステップと、 前記記憶ステップの処理で記憶された前記複数の基準ブ
ロック間の位置関係を表す基準位置関係情報を生成する
基準位置関係情報生成ステップと、 前記所定の時刻以降のフレームより、前記記憶ステップ
の処理で記憶された複数の前記基準ブロックに類似した
複数の類似ブロックを抽出する類似ブロック抽出ステッ
プと、 前記複数の類似ブロック間の位置関係を表す類似位置関
係情報を生成する類似位置関係情報生成ステップと、 前記類似位置関係情報と前記基準位置関係情報との差分
を生成する差分生成ステップと、 前記差分を所定の閾値と比較する比較ステップと、 前記比較結果に対応して、前記記憶ステップの処理で記
憶されている前記複数の基準ブロックを、前記複数の類
似ブロックに置き換える置換ステップと、 前記複数の基準ブロックのうちの所定の基準ブロックの
位置情報と、前記複数の類似ブロックのうちの所定の類
似ブロックの位置情報に基づいて、前記所定の時刻以降
のフレームに所定の処理を施す処理ステップとを含むこ
とを特徴とする画像処理方法。
5. A reference block extracting step of extracting a plurality of reference blocks from a frame at a predetermined time, a storing step of storing the plurality of reference blocks, and the plurality of reference blocks stored in the processing of the storing step. A reference positional relationship information generating step of generating reference positional relationship information indicating a positional relationship between the plurality of similarities similar to the plurality of reference blocks stored in the processing of the storing step from the frame after the predetermined time. A similar block extracting step of extracting a block, a similar positional relationship information generating step of generating similar positional relationship information indicating a positional relationship between the plurality of similar blocks, and a difference between the similar positional relationship information and the reference positional relationship information A difference generation step of generating a difference, a comparison step of comparing the difference with a predetermined threshold, and the comparison Corresponding to the result, the replacement step of replacing the plurality of reference blocks stored in the processing of the storage step with the plurality of similar blocks, and position information of a predetermined reference block among the plurality of reference blocks, And a processing step of performing a predetermined process on a frame after the predetermined time based on position information of a predetermined similar block of the plurality of similar blocks.
【請求項6】 所定の時刻のフレームより複数の基準ブ
ロックの抽出を制御する基準ブロック抽出制御ステップ
と、 前記複数の基準ブロックの記憶を制御する記憶制御ステ
ップと、 前記記憶制御ステップの処理で記憶が制御された前記複
数の基準ブロック間の位置関係を表す基準位置関係情報
の生成を制御する基準位置関係情報生成制御ステップ
と、 前記所定の時刻以降のフレームより、前記記憶制御ステ
ップの処理で記憶が制御された複数の前記基準ブロック
に類似した複数の類似ブロックの抽出を制御する類似ブ
ロック抽出制御ステップと、 前記複数の類似ブロック間の位置関係を表す類似位置関
係情報の生成を制御する類似位置関係情報生成制御ステ
ップと、 前記類似位置関係情報と前記基準位置関係情報との差分
の生成を制御する差分生成制御ステップと、 前記差分の所定の閾値との比較を制御する比較制御ステ
ップと、 前記比較結果に対応して、前記記憶制御ステップの処理
で記憶が制御されている前記複数の基準ブロックの、前
記複数の類似ブロックへの置き換えを制御する置換制御
ステップと、 前記複数の基準ブロックのうちの所定の基準ブロックの
位置情報と、前記複数の類似ブロックのうちの所定の類
似ブロックの位置情報に基づいて、前記所定の時刻以降
のフレームに施す所定の処理を制御する処理制御ステッ
プとを含むことを特徴とするコンピュータが読み取り可
能なプログラムが記録されている記録媒体。
6. A reference block extraction control step for controlling extraction of a plurality of reference blocks from a frame at a predetermined time, a storage control step for controlling storage of the plurality of reference blocks, and storage by processing of the storage control step. A reference positional relationship information generation control step for controlling the generation of the reference positional relationship information representing the positional relationship between the plurality of controlled reference blocks, and a frame after the predetermined time is stored in the processing of the storage control step. A similar block extraction control step of controlling extraction of a plurality of similar blocks similar to the plurality of reference blocks, and a similar position controlling generation of similar positional relationship information indicating a positional relationship between the plurality of similar blocks. A relationship information generation control step, controlling generation of a difference between the similar positional relationship information and the reference positional relationship information A minute generation control step, a comparison control step for controlling comparison with a predetermined threshold value of the difference, and a plurality of reference blocks whose storage is controlled in the processing of the storage control step, corresponding to the comparison result. A replacement control step of controlling replacement with the plurality of similar blocks, position information of a predetermined reference block of the plurality of reference blocks, and position information of a predetermined similar block of the plurality of similar blocks. A recording medium having a computer-readable program recorded thereon, the processing medium including a processing control step of controlling a predetermined processing performed on the frame after the predetermined time.
【請求項7】 所定の時刻のフレームより複数の基準ブ
ロックの抽出を制御する基準ブロック抽出制御ステップ
と、 前記複数の基準ブロックの記憶を制御する記憶制御ステ
ップと、 前記記憶制御ステップの処理で記憶が制御された前記複
数の基準ブロック間の位置関係を表す基準位置関係情報
の生成を制御する基準位置関係情報生成制御ステップ
と、 前記所定の時刻以降のフレームより、前記記憶制御ステ
ップの処理で記憶が制御された複数の前記基準ブロック
に類似した複数の類似ブロックの抽出を制御する類似ブ
ロック抽出制御ステップと、 前記複数の類似ブロック間の位置関係を表す類似位置関
係情報の生成を制御する類似位置関係情報生成制御ステ
ップと、 前記類似位置関係情報と前記基準位置関係情報との差分
の生成を制御する差分生成制御ステップと、 前記差分の所定の閾値との比較を制御する比較制御ステ
ップと、 前記比較結果に対応して、前記記憶制御ステップの処理
で記憶が制御されている前記複数の基準ブロックの、前
記複数の類似ブロックへの置き換えを制御する置換制御
ステップと、 前記複数の基準ブロックのうちの所定の基準ブロックの
位置情報と、前記複数の類似ブロックのうちの所定の類
似ブロックの位置情報に基づいて、前記所定の時刻以降
のフレームに施す所定の処理を制御する処理制御ステッ
プとをコンピュータに実行させるプログラム。
7. A reference block extraction control step for controlling extraction of a plurality of reference blocks from a frame at a predetermined time, a storage control step for controlling storage of the plurality of reference blocks, and storage by processing of the storage control step. A reference positional relationship information generation control step for controlling the generation of the reference positional relationship information representing the positional relationship between the plurality of controlled reference blocks, and a frame after the predetermined time is stored in the processing of the storage control step. A similar block extraction control step of controlling extraction of a plurality of similar blocks similar to the plurality of reference blocks, and a similar position controlling generation of similar positional relationship information indicating a positional relationship between the plurality of similar blocks. A relationship information generation control step, controlling generation of a difference between the similar positional relationship information and the reference positional relationship information A minute generation control step, a comparison control step for controlling comparison with a predetermined threshold value of the difference, and a plurality of reference blocks whose storage is controlled in the processing of the storage control step, corresponding to the comparison result. A replacement control step of controlling replacement with the plurality of similar blocks, position information of a predetermined reference block of the plurality of reference blocks, and position information of a predetermined similar block of the plurality of similar blocks. A program that causes a computer to execute a process control step for controlling a predetermined process performed on a frame after the predetermined time based on the program.
【請求項8】 所定の時刻のフレームより基準ブロック
を抽出する基準ブロック抽出手段と、 前記基準ブロックを記憶する記憶手段と、 前記所定の時刻以降のフレームより前記基準ブロックに
類似した類似ブロックを抽出する類似ブロック抽出手段
と、 前記基準ブロックと前記類似ブロックとの差分を生成す
る差分生成手段と、 前記差分を所定の閾値と比較する比較手段と、 前記比較結果に対応して、前記記憶手段に記憶されてい
る前記基準ブロックを前記類似ブロックに置き換える置
換手段と、 前記基準ブロックの位置情報と、前記類似ブロックの位
置情報に基づいて、前記所定の時刻以降のフレームに所
定の処理を施す処理手段とを備えることを特徴とする画
像処理装置。
8. A reference block extracting means for extracting a reference block from a frame at a predetermined time, a storage means for storing the reference block, and a similar block similar to the reference block from a frame after the predetermined time. A similar block extracting unit, a difference generating unit that generates a difference between the reference block and the similar block, a comparing unit that compares the difference with a predetermined threshold, and a storage unit that corresponds to the comparison result. A replacement unit that replaces the stored reference block with the similar block, a processing unit that performs a predetermined process on a frame after the predetermined time based on the position information of the reference block and the position information of the similar block. An image processing apparatus comprising:
【請求項9】 前記差分は、前記基準ブロックと類似ブ
ロックにアフィン変換する際の変換パラメータに基づく
ものであることを特徴とする請求項8に記載の画像処理
装置。
9. The image processing apparatus according to claim 8, wherein the difference is based on a conversion parameter when affine-transforming the reference block and the similar block.
【請求項10】 前記アフィン変換する際の変換パラメ
ータは、前記基準ブロックを前記類似ブロックにアフィ
ン変換する際の拡大率、または、縮小率、並びに回転角
を含むことを特徴とする請求項9に記載の画像処理装
置。
10. The conversion parameter for the affine transformation includes an enlargement ratio or a reduction ratio and a rotation angle when the reference block is affine-transformed into the similar block. The image processing device described.
【請求項11】 前記処理手段は、前記基準ブロックの
位置情報と、前記類似ブロックの位置情報に基づいて、
前記所定の時刻以降のフレームに所定の処理として、手
ぶれ補正処理、または、画像合成処理を施すことを特徴
とする請求項8に記載の画像処理装置。
11. The processing means, based on position information of the reference block and position information of the similar block,
9. The image processing apparatus according to claim 8, wherein a camera shake correction process or an image synthesizing process is performed as a predetermined process on a frame after the predetermined time.
【請求項12】 所定の時刻のフレームより基準ブロッ
クを抽出する基準ブロック抽出ステップと、 前記基準ブロックを記憶する記憶ステップと、 前記所定の時刻以降のフレームより前記基準ブロックに
類似した類似ブロックを抽出する類似ブロック抽出ステ
ップと、 前記基準ブロックと前記類似ブロックとの差分を生成す
る差分生成ステップと、 前記差分を所定の閾値と比較する比較ステップと、 前記比較結果に対応して、前記記憶ステップの処理によ
り記憶されている前記基準ブロックを前記類似ブロック
に置き換える置換ステップと、 前記基準ブロックの位置情報と、前記類似ブロックの位
置情報に基づいて、前記所定の時刻以降のフレームに所
定の処理を施す処理ステップとを含むことを特徴とする
画像処理方法。
12. A reference block extracting step of extracting a reference block from a frame at a predetermined time, a storing step of storing the reference block, and a similar block similar to the reference block from frames after the predetermined time. A similar block extracting step, a difference generating step of generating a difference between the reference block and the similar block, a comparing step of comparing the difference with a predetermined threshold, and a storing step of the storing step corresponding to the comparison result. A replacing step of replacing the reference block stored by the process with the similar block, a predetermined process is performed on the frame after the predetermined time based on the position information of the reference block and the position information of the similar block. An image processing method comprising: a processing step.
【請求項13】 所定の時刻のフレームより基準ブロッ
クの抽出を制御する基準ブロック抽出制御ステップと、 前記基準ブロックの記憶を制御する記憶制御ステップ
と、 前記所定の時刻以降のフレームより前記基準ブロックに
類似した類似ブロックの抽出を制御する類似ブロック抽
出制御ステップと、 前記基準ブロックと前記類似ブロックとの差分の生成を
制御する差分生成制御ステップと、 前記差分の所定の閾値との比較を制御する比較制御ステ
ップと、 前記比較結果に対応した、前記記憶ステップの処理によ
り記憶が制御されている前記基準ブロックの前記類似ブ
ロックへの置き換えを制御する置換制御ステップと、 前記基準ブロックの位置情報と、前記類似ブロックの位
置情報に基づいて、前記所定の時刻以降のフレームに施
す所定の処理を制御する処理制御ステップとを含むこと
を特徴とするコンピュータが読み取り可能なプログラム
が記録されている記録媒体。
13. A reference block extraction control step of controlling extraction of a reference block from a frame at a predetermined time, a storage control step of controlling storage of the reference block, and a reference block from the frame after the predetermined time to the reference block. A similar block extraction control step for controlling extraction of similar similar blocks, a difference generation control step for controlling generation of a difference between the reference block and the similar block, and a comparison for controlling comparison with a predetermined threshold of the difference A control step, a replacement control step corresponding to the comparison result, which controls replacement of the reference block whose storage is controlled by the processing of the storage step with the similar block, position information of the reference block, and Based on the position information of similar blocks, a predetermined value to be applied to frames after the predetermined time And a processing control step for controlling the processing of step 1. The recording medium having a computer-readable program recorded thereon.
【請求項14】 所定の時刻のフレームより基準ブロッ
クの抽出を制御する基準ブロック抽出制御ステップと、 前記基準ブロックの記憶を制御する記憶制御ステップ
と、 前記所定の時刻以降のフレームより前記基準ブロックに
類似した類似ブロックの抽出を制御する類似ブロック抽
出制御ステップと、 前記基準ブロックと前記類似ブロックとの差分の生成を
制御する差分生成制御ステップと、 前記差分の所定の閾値との比較を制御する比較制御ステ
ップと、 前記比較結果に対応した、前記記憶ステップの処理によ
り記憶が制御されている前記基準ブロックの前記類似ブ
ロックへの置き換えを制御する置換制御ステップと、 前記基準ブロックの位置情報と、前記類似ブロックの位
置情報に基づいて、前記所定の時刻以降のフレームに施
す所定の処理を制御する処理制御ステップとをコンピュ
ータに実行させるプログラム。
14. A reference block extraction control step of controlling extraction of a reference block from a frame at a predetermined time, a storage control step of controlling storage of the reference block, and a reference block from the frame after the predetermined time to the reference block. A similar block extraction control step for controlling extraction of similar similar blocks, a difference generation control step for controlling generation of a difference between the reference block and the similar block, and a comparison for controlling comparison with a predetermined threshold of the difference A control step, a replacement control step corresponding to the comparison result, which controls replacement of the reference block whose storage is controlled by the processing of the storage step with the similar block, position information of the reference block, and Based on the position information of similar blocks, a predetermined value to be applied to frames after the predetermined time And a program for causing a computer to execute a process control step for controlling the process of.
【請求項15】 所定の時刻のフレームより基準ブロッ
クを抽出する基準ブロック抽出手段と、 前記基準ブロックを記憶する記憶手段と、 前記所定の時刻以降のフレームより前記基準ブロックに
類似した類似ブロックを抽出する類似ブロック抽出手段
と、 前記基準ブロックを類似ブロックにアフィン変換する際
の変換パラメータを、前記基準ブロックと前記類似ブロ
ックとの差分として生成する差分生成手段と、 前記差分により前記基準ブロックをアフィン変換する変
換手段と、 前記差分を所定の閾値と比較する比較手段と、 前記比較結果に応じて、前記記憶手段に記憶されている
前記基準ブロックを、前記変換手段によりアフィン変換
された前記基準ブロックに置き換えて記憶させる置換手
段と、 前記基準ブロックの位置情報と、前記類似ブロックの位
置情報に基づいて、前記所定の時刻以降のフレームに所
定の処理を施す処理手段とを備えることを特徴とする画
像処理装置。
15. A reference block extraction means for extracting a reference block from a frame at a predetermined time, a storage means for storing the reference block, and a similar block similar to the reference block from a frame after the predetermined time. Similar block extraction means, a difference generation means for generating a conversion parameter when affine-transforming the reference block into a similar block as a difference between the reference block and the similar block, and an affine transformation of the reference block by the difference. Conversion means for comparing, the comparison means for comparing the difference with a predetermined threshold value, the reference block stored in the storage means according to the comparison result, to the reference block affine-transformed by the conversion means. Replacement means for replacing and storing the position information of the reference block; Similar based on the position information of the block, the image processing apparatus characterized by comprising a processing unit for performing predetermined processing on the predetermined time after the frame.
【請求項16】 前記差分としての前記アフィン変換す
る際の変換パラメータは、前記類似ブロックに対する前
記基準ブロックの拡大率、または、縮小率、並びに回転
角を含むことを特徴とする請求項15に記載の画像処理
装置。
16. The conversion parameter at the time of performing the affine transformation as the difference includes an enlargement ratio or a reduction ratio of the reference block with respect to the similar block, and a rotation angle. Image processing device.
【請求項17】 前記処理手段は、前記基準ブロックの
位置情報と、前記類似ブロックの位置情報に基づいて、
前記所定の時刻以降のフレームに所定の処理として、手
ぶれ補正処理、または、画像合成処理を施すことを特徴
とする請求項15に記載の画像処理装置。
17. The processing means, based on position information of the reference block and position information of the similar block,
The image processing apparatus according to claim 15, wherein a camera shake correction process or an image synthesizing process is performed as a predetermined process on a frame after the predetermined time.
【請求項18】 所定の時刻のフレームより基準ブロッ
クを抽出する基準ブロック抽出ステップと、 前記基準ブロックを記憶する記憶ステップと、 前記所定の時刻以降のフレームより前記基準ブロックに
類似した類似ブロックを抽出する類似ブロック抽出ステ
ップと、 前記基準ブロックを類似ブロックにアフィン変換する際
の変換パラメータを、前記基準ブロックと前記類似ブロ
ックとの差分として生成する差分生成ステップと、 前記差分により前記基準ブロックをアフィン変換する変
換ステップと、 前記差分を所定の閾値と比較する比較ステップと、 前記比較結果に応じて、前記記憶ステップの処理により
記憶されている前記基準ブロックを、前記変換ステップ
の処理でアフィン変換された前記基準ブロックに置き換
えて記憶させる置換ステップと、 前記基準ブロックの位置情報と、前記類似ブロックの位
置情報に基づいて、前記所定の時刻以降のフレームに所
定の処理を施す処理ステップとを含むことを特徴とする
画像処理方法。
18. A reference block extraction step of extracting a reference block from a frame at a predetermined time, a storage step of storing the reference block, and a similar block similar to the reference block from frames after the predetermined time. A similar block extraction step, a difference generation step of generating a conversion parameter when affine-transforming the reference block into a similar block as a difference between the reference block and the similar block, and an affine transformation of the reference block by the difference. And a comparison step of comparing the difference with a predetermined threshold value, and the reference block stored by the processing of the storage step is affine-transformed by the processing of the conversion step according to the comparison result. Replacement for replacing and storing with the reference block An image processing method comprising: a step, position information of the reference block, and a processing step of performing a predetermined process on a frame after the predetermined time based on the position information of the similar block.
【請求項19】 所定の時刻のフレームより基準ブロッ
クの抽出を制御する基準ブロック抽出制御ステップと、 前記基準ブロックの記憶を制御する記憶制御ステップ
と、 前記所定の時刻以降のフレームより前記基準ブロックに
類似した類似ブロックの抽出を制御する類似ブロック抽
出制御ステップと、 前記基準ブロックを類似ブロックにアフィン変換する際
の変換パラメータの、前記基準ブロックと前記類似ブロ
ックとの差分としての生成を制御する差分生成制御ステ
ップと、 前記差分により前記基準ブロックのアフィン変換を制御
する変換制御ステップと、 前記差分の所定の閾値との比較を制御する比較制御ステ
ップと、 前記比較結果に応じて、前記記憶制御ステップの処理に
より記憶が制御されている前記基準ブロックの、前記変
換ステップの処理でアフィン変換された前記基準ブロッ
クとの置き換えと記憶を制御する置換制御ステップと、 前記基準ブロックの位置情報と、前記類似ブロックの位
置情報に基づいた、前記所定の時刻以降のフレームへの
所定の処理を制御する処理制御ステップとを含むことを
特徴とするコンピュータが読み取り可能なプログラムが
記録されている記録媒体。
19. A reference block extraction control step of controlling extraction of a reference block from a frame at a predetermined time, a storage control step of controlling storage of the reference block, and a reference block from the frame after the predetermined time to the reference block. A similar block extraction control step for controlling the extraction of similar similar blocks; and a difference generation for controlling generation of a conversion parameter when the reference block is affine-transformed into a similar block as a difference between the reference block and the similar block. A control step, a conversion control step of controlling the affine transformation of the reference block by the difference, a comparison control step of controlling comparison with a predetermined threshold value of the difference, and a storage control step of the storage control step according to the comparison result. The conversion block of the reference block whose storage is controlled by processing. A replacement control step for controlling replacement and storage with the reference block affine-transformed by the processing of step, position information of the reference block, and position information of the similar block, based on the frame after the predetermined time And a process control step of controlling a predetermined process of 1. A recording medium having a computer-readable program recorded thereon.
【請求項20】 所定の時刻のフレームより基準ブロッ
クの抽出を制御する基準ブロック抽出制御ステップと、 前記基準ブロックの記憶を制御する記憶制御ステップ
と、 前記所定の時刻以降のフレームより前記基準ブロックに
類似した類似ブロックの抽出を制御する類似ブロック抽
出制御ステップと、 前記基準ブロックを類似ブロックにアフィン変換する際
の変換パラメータの、前記基準ブロックと前記類似ブロ
ックとの差分としての生成を制御する差分生成制御ステ
ップと、 前記差分により前記基準ブロックのアフィン変換を制御
する変換制御ステップと、 前記差分の所定の閾値との比較を制御する比較制御ステ
ップと、 前記比較結果に応じて、前記記憶制御ステップの処理に
より記憶が制御されている前記基準ブロックの、前記変
換ステップの処理でアフィン変換された前記基準ブロッ
クへの置き換えと記憶を制御する置換制御ステップと、 前記基準ブロックの位置情報と、前記類似ブロックの位
置情報に基づいた、前記所定の時刻以降のフレームへの
所定の処理を制御する処理制御ステップとをコンピュー
タに実行させるプログラム。
20. A reference block extraction control step of controlling extraction of a reference block from a frame at a predetermined time, a storage control step of controlling storage of the reference block, and a reference block from the frame after the predetermined time to the reference block. A similar block extraction control step for controlling the extraction of similar similar blocks; and a difference generation for controlling generation of a conversion parameter when the reference block is affine-transformed into a similar block as a difference between the reference block and the similar block. A control step, a conversion control step of controlling the affine transformation of the reference block by the difference, a comparison control step of controlling comparison with a predetermined threshold value of the difference, and a storage control step of the storage control step according to the comparison result. The conversion block of the reference block whose storage is controlled by processing. A replacement control step of controlling replacement and storage of the reference block affine-transformed by the processing of the step, position information of the reference block, and position information of the similar block, to the frame after the predetermined time. And a program for causing a computer to execute a process control step of controlling a predetermined process of.
JP2002133806A 2002-05-09 2002-05-09 Image processor and method for processing image, recording medium, and program Withdrawn JP2003331292A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002133806A JP2003331292A (en) 2002-05-09 2002-05-09 Image processor and method for processing image, recording medium, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002133806A JP2003331292A (en) 2002-05-09 2002-05-09 Image processor and method for processing image, recording medium, and program

Publications (1)

Publication Number Publication Date
JP2003331292A true JP2003331292A (en) 2003-11-21

Family

ID=29696654

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002133806A Withdrawn JP2003331292A (en) 2002-05-09 2002-05-09 Image processor and method for processing image, recording medium, and program

Country Status (1)

Country Link
JP (1) JP2003331292A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012138905A (en) * 2010-12-23 2012-07-19 Samsung Electronics Co Ltd Digital image stabilizer and stabilization method
JP2015500580A (en) * 2011-11-28 2015-01-05 エーティーアイ・テクノロジーズ・ユーエルシーAti Technologies Ulc Method and apparatus for correcting video frame rotation

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012138905A (en) * 2010-12-23 2012-07-19 Samsung Electronics Co Ltd Digital image stabilizer and stabilization method
JP2015500580A (en) * 2011-11-28 2015-01-05 エーティーアイ・テクノロジーズ・ユーエルシーAti Technologies Ulc Method and apparatus for correcting video frame rotation

Similar Documents

Publication Publication Date Title
JP4534172B2 (en) Image processing apparatus, image processing method, and program
US7634143B2 (en) Image processing apparatus and method, recording medium, and program
JP4120677B2 (en) Generation of still images from multiple frame images
US7773819B2 (en) Image processing apparatus
JP4377932B2 (en) Panorama image generating apparatus and program
JP4513871B2 (en) Image processing method, image processing program, and image processing apparatus
TWI483615B (en) An object picture detecting device, a controlling method thereof, a control programme, a recording media to record the programme and an electronic machine comprising the object picture detecting device
US20050190986A1 (en) Image processing device, image projection apparatus, image processing method, recording medium, and computer data signal
JP2002305647A (en) Device for combining image
US6784927B1 (en) Image processing apparatus and image processing method, and storage medium
JP2007087345A (en) Information processing device, control method therefor, computer program, and memory medium
JP2007087346A (en) Information processing device, control method therefor, computer program, and memory medium
WO2007072678A1 (en) Image combining method, image combining program, image combining device, template extracting method, and template extracting program
JPWO2005079061A1 (en) Image processing apparatus, image processing method, and program
JP5251410B2 (en) Camera work calculation program, imaging apparatus, and camera work calculation method
JP2000152073A (en) Distortion correction method
JP2006243518A (en) Information processing device and method, recording medium, and program
JP4843787B2 (en) Subject tracking method and apparatus
JP2011097217A (en) Motion correction device and method therefor
JP4128123B2 (en) Camera shake correction device, camera shake correction method, and computer-readable recording medium recording camera shake correction program
JP2003331292A (en) Image processor and method for processing image, recording medium, and program
JPH08237536A (en) Device and method for tracking object
CN110692235B (en) Image processing apparatus, image processing program, and image processing method
JP2011041041A (en) Imaging apparatus, imaging method and program
WO2020235400A1 (en) Image processing device, image processing method, and program

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20050802