JPH05257196A - Motion vector detection device - Google Patents

Motion vector detection device

Info

Publication number
JPH05257196A
JPH05257196A JP4088337A JP8833792A JPH05257196A JP H05257196 A JPH05257196 A JP H05257196A JP 4088337 A JP4088337 A JP 4088337A JP 8833792 A JP8833792 A JP 8833792A JP H05257196 A JPH05257196 A JP H05257196A
Authority
JP
Japan
Prior art keywords
motion vector
block
signal
image
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP4088337A
Other languages
Japanese (ja)
Other versions
JP3209785B2 (en
Inventor
Toshiaki Kondo
俊明 近藤
Masayoshi Sekine
正慶 関根
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP08833792A priority Critical patent/JP3209785B2/en
Priority to US08/029,550 priority patent/US5731849A/en
Priority to DE69322423T priority patent/DE69322423T2/en
Priority to EP93301869A priority patent/EP0560610B1/en
Publication of JPH05257196A publication Critical patent/JPH05257196A/en
Application granted granted Critical
Publication of JP3209785B2 publication Critical patent/JP3209785B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PURPOSE:To improve the detection precision of a motion vector by calculating a motion vector value by performing a weighting process corresponding to the extent of the spatial or time contiguity of each block. CONSTITUTION:A signal which is sent to a brightness signal processing part is inputted to a low-pass filter(LPF) 100 first and the LPF 100 removes a carrier component from a color difference sequential signal to separate a brightness signal. A following enhancer 110 emphasizes a high frequency component such as the edge of a subject for picture quality improvement and a gamma corrector 120 prevents saturation at a highlight part to widen the dynamic range. Then a microcomputer 140 extracts a block which outputs a motion vector based upon a hand shake to be corrected from the distribution (optical flow) of motion vectors detected by a motion vector detecting circuit 130, and further weights the output signal from the block corresponding to how much the block is surrounded to calculate the momentary motion quantity of the image.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、動画像信号の符合化装
置や画像振れ補正装置に配置される動きベクトル検出装
置の改良に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an improvement of a motion vector detecting device arranged in a moving image signal coding device or an image blur correcting device.

【0002】[0002]

【従来の技術】従来、画像の符合化装置や画像振れ補正
装置に必要な動きベクトル検出方法としては、米国特許
第3890462号や特公昭60−46878号等に開
示されている時空間勾配法、或は、相関演算に基づく相
関法やブロックマッチング法が知られている。時空間勾
配法については、B.K.P,Hornらにより、Artificial Int
elligence 17,p.185〜203(1981) で詳しく論じられてお
り、また、マッチング演算については、尾上守夫らによ
り、情報処理Vol.17,No.7,p634〜640 July 1976で詳し
く論じられている。
2. Description of the Related Art Conventionally, as a motion vector detecting method required for an image encoding device and an image shake correcting device, a spatiotemporal gradient method disclosed in US Pat. No. 3,890,462, Japanese Patent Publication No. 60-46878, and the like, Alternatively, a correlation method and a block matching method based on a correlation calculation are known. For the spatiotemporal gradient method, see BKP, Horn et al., Artificial Int.
elligence 17, p.185-203 (1981), and the matching operation is discussed in detail by Morio Onoue et al. in Information Processing Vol.17, No.7, p634-640 July 1976. There is.

【0003】時空間勾配法は、フレ−ム(或はフィ−ル
ド)間の輝度差dと画面内の画素間の輝度差Δから、画
像の動き量を「d/Δ」で表す方法である。これは、カ
メラから得られる信号がフィ−ルド周期の時間平均であ
り、画像の動き量が大きいほどエッジが鈍り、画素間の
輝度差Δが小さくなる性質を利用し、フレ−ム(或はフ
ィ−ルド)間の輝度差dを信号Δで正規化したものであ
る。
The spatio-temporal gradient method is a method in which the amount of motion of an image is expressed by "d / Δ" from the difference d in brightness between frames (or fields) and the difference Δ in brightness between pixels in the screen. is there. This is because the signal obtained from the camera is the time average of the field period, and the edge becomes dull as the amount of movement of the image becomes larger, and the brightness difference Δ between pixels becomes smaller. The brightness difference d between fields is normalized by the signal Δ.

【0004】一方、ブロックマッチング法(テンプレ−
トマッチング法とも呼ばれる)は入力画像信号を適当な
大きさのブロック(例えば、8画素×8ライン)に分割
し、ブロック単位に前のフレ−ム(或はフィ−ルド)の
一定範囲の画素との差を計算し、この差の絶対値の和が
最小となる前のフレ−ム(或はフィ−ルド)のブロック
を探索する。当該ブロックの相対的なずれがそのブロッ
クの動きベクトルを表している。
On the other hand, the block matching method (template
The input image signal is divided into blocks of an appropriate size (for example, 8 pixels × 8 lines), and the pixels of a predetermined range of the previous frame (or field) are divided into blocks. And the block of the frame (or field) before the sum of the absolute values of the differences is minimized is searched. The relative shift of the block represents the motion vector of the block.

【0005】[0005]

【発明が解決しようとする課題】しかしながら、上記の
従来例では、画面内に複数の異なる動きがあった場合
に、この異なる動きの境界にまたがるブロックからは、
被写体の出現、隠蔽に起因する対応点のミスマッチン
グ、或は他の被写体の異なる動きの影響から信頼性の低
い動きベクトルしか検出できず、当該ブロックから検出
される誤った動きベクトルにより、符合化装置の符合化
精度や画像振れ補正装置の補正精度が著しく劣化すると
いう問題がある。
However, in the above-mentioned conventional example, when there are a plurality of different movements in the screen, the blocks extending over the boundaries of the different movements are
Only the unreliable motion vector can be detected due to the mismatching of corresponding points due to the appearance of the object, the concealment, or the effect of different motion of other objects, and the coding is performed by the incorrect motion vector detected from the block. There is a problem that the coding accuracy of the apparatus and the correction accuracy of the image blur correction apparatus are significantly deteriorated.

【0006】本発明の目的は、上記の点に鑑み、動きベ
クトルの検出精度を向上させることのできる動きベクト
ル検出装置を提供することである。
In view of the above points, it is an object of the present invention to provide a motion vector detecting device capable of improving the motion vector detection accuracy.

【0007】[0007]

【課題を解決するための手段】本発明は、入力画像を複
数のブロックに分割し、該ブロック毎に動きベクトルを
検出する動きベクトル検出手段と、該動きベクトル検出
手段からの動きベクトルから同じ動きをしている領域を
抽出し、該領域内の動きベクトル値を、前記ブロックそ
れぞれの前記領域内に占める位置情報に応じた重み付け
平均を行って算出する動きベクトル算出手段、或は、該
動きベクトル検出手段からの動きベクトルから同じ動き
をしている領域を抽出し、該領域内の動きベクトル値
を、前記ブロックそれぞれの前記入力画像中に占める位
置情報に応じた重み付け平均を行って算出する動きベク
トル算出手段とを備えている。
According to the present invention, an input image is divided into a plurality of blocks, and a motion vector detecting means for detecting a motion vector for each block, and the same motion from the motion vector from the motion vector detecting means. Motion vector calculating means for extracting a region in which the motion vector value is calculated and performing a weighted average in accordance with the position information of each of the blocks in the region, or the motion vector A motion in which a region having the same motion is extracted from the motion vector from the detection means, and a motion vector value in the region is calculated by performing weighted averaging according to position information of each of the blocks in the input image. And vector calculation means.

【0008】[0008]

【作用】動きベクトル算出手段は、ブロックそれぞれ
の、同じく動きをしている領域内に占める位置情報、或
は、ブロックそれぞれの入力画像中に占める位置情報、
つまり各ブロックの空間的或は時間的な隣接度に応じた
重み付け処理を施して動きベクトル値を算出している。
The motion vector calculation means is the position information of each block in the same moving area, or the position information of each block in the input image,
That is, the motion vector value is calculated by performing weighting processing according to the spatial or temporal adjacency of each block.

【0009】[0009]

【実施例】以下、本発明を図示の実施例に基づいて詳細
に説明する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS The present invention will be described in detail below based on the illustrated embodiments.

【0010】図1は本発明の第1の実施例を適用した画
像振れ補正装置を組み込んだビデオカメラの構成を示す
ブロック図である。
FIG. 1 is a block diagram showing the structure of a video camera incorporating an image shake correction apparatus to which the first embodiment of the present invention is applied.

【0011】図1において、10は被写体、20は撮影
レンズ、30は例えば二次元CCDから成る撮像素子、
40は例えば二次元CCDの様な撮像素子30からの出
力信号を保持するサンプルホ−ルド(S/H)回路、5
0はオ−トゲインコントロ−ル(AGC)回路、60は
アナログ−ディジタル(A/D)変換器、70は例えば
二次元CCDの様な撮像素子30からの色差線順次信号
を2水平走査期間だけ遅延させる遅延回路、80は色信
号処理回路、90は色信号のディジタル−アナログ(D
/A)変換器、95は色信号出力端子である。
In FIG. 1, 10 is a subject, 20 is a taking lens, 30 is an image pickup device composed of a two-dimensional CCD, for example.
Numeral 40 is a sample-hold (S / H) circuit for holding an output signal from the image pickup device 30 such as a two-dimensional CCD, 5
0 is an auto gain control (AGC) circuit, 60 is an analog-digital (A / D) converter, and 70 is a color difference line sequential signal from the image pickup device 30 such as a two-dimensional CCD for two horizontal scanning periods. A delay circuit for delaying only the color signal, a color signal processing circuit 80, and a digital-analog (D
/ A) converter, and 95 is a color signal output terminal.

【0012】100は輝度信号に混入する色信号を除去
するためのロ−パスフィルタ(LPF)、110は輝度
信号の高周波成分を強調するエンハンサ、120はガン
マ補正器、130は動きベクトル検出回路、140は各
ブロックの信頼性の判断を行うマイクロコンピュ−タ、
150はメモリ読み出し制御回路、160はフィ−ルド
或はフレ−ムを記憶するメモリ、170は輝度信号のD
/A変換器、180は輝度信号出力端子である。
Reference numeral 100 is a low-pass filter (LPF) for removing color signals mixed in the luminance signal, 110 is an enhancer for emphasizing high frequency components of the luminance signal, 120 is a gamma corrector, 130 is a motion vector detection circuit, 140 is a microcomputer for judging the reliability of each block,
Reference numeral 150 is a memory read control circuit, 160 is a memory for storing a field or frame, and 170 is a luminance signal D.
A / A converter, 180 is a luminance signal output terminal.

【0013】次に、上記構成におけるビデオカメラの動
作について説明する。
Next, the operation of the video camera having the above configuration will be described.

【0014】被写体10は撮影レンズ20により撮像素
子30上に投影され、ここで光電変換される。サンプル
ホ−ルド40は撮像素子30の出力信号を保持し、引き
続くAGC回路50は自動的に信号の利得を制御する。
A/D変換器60は、AGC回路50の出力信号をA/
D変換する。2水平走査期間遅延回路70は、撮像素子
30からの色差線順次信号を「1H」遅延信号と「0H
+2H」遅延信号に分離し、それぞれ輝度信号処理部
(LPF100以降の回路)と色信号処理回路80に送
る。
The subject 10 is projected onto the image pickup device 30 by the taking lens 20 and photoelectrically converted there. The sample hold 40 holds the output signal of the image sensor 30, and the subsequent AGC circuit 50 automatically controls the gain of the signal.
The A / D converter 60 converts the output signal of the AGC circuit 50 to A / D.
D-convert. The 2-horizontal scanning period delay circuit 70 outputs the color difference line sequential signal from the image sensor 30 to the “1H” delay signal and the “0H” signal.
The signals are separated into + 2H ”delayed signals and sent to the luminance signal processing unit (circuits after LPF 100) and the color signal processing circuit 80, respectively.

【0015】色信号処理回路80では色信号が生成さ
れ、この色信号は引き続くD/A変換器90でアナログ
信号に変換されて色信号出力端子95から出力される。
A color signal is generated in the color signal processing circuit 80, and this color signal is converted into an analog signal in the subsequent D / A converter 90 and output from the color signal output terminal 95.

【0016】一方、輝度信号処理部に送られた信号は、
先ずLPF100に入力される。このLPF100は、
色差順次信号からキャリア成分を除去し、輝度信号分離
を行う。次のエンハンサ110は、画質向上のために被
写体のエッジなど高周波成分を強調する処理を施す。通
常は、映像信号の二次微分を原信号に付加する。ガンマ
補正器120は、ハイライト部分での飽和を防ぎ、ダイ
ナミックレンジを広げる。動きベクトル検出回路130
は、前記時空勾配法に基づく回路で構成しても良いし、
同じく前記マッチング演算に基づく回路で構成しても良
いが、本実施例では実時間処理できる検出方法である必
要がある。メモリ160は、輝度信号を所定時間(本実
施例では、1フィ−ルド時間)遅延する遅延回路であ
り、1フィ−ルド前の輝度信号を記憶し現フィ−ルドと
の時空勾配法の演算、或は相関演算を可能にする。マイ
クロコンピュ−タ140は、動きベクトル検出回路13
0で検出される動きベクトルの分布(オプティカルフロ
−)から、先ず補正対象となる手振れによる動きベクト
ルを出力しているブロックを抽出し、更に当該ブロック
からの出力信号に当該ブロックの囲まれ具合に応じた重
み付けを実行し、その瞬間の画像の動き量を計算する。
メモリ読み出し制御回路150は、マイクロコンピュ−
タ140で計算された最終の動きベクトルを相殺(又は
補正)するようにメモリ160の読み出し位置を制御す
る。メモリ160より読み出された輝度信号は、D/A
変換器170によってアナログ信号に変換され、輝度信
号出力端子180から出力される。
On the other hand, the signal sent to the luminance signal processing section is
First, it is input to the LPF 100. This LPF100 is
The luminance signal is separated by removing the carrier component from the color difference sequential signal. The next enhancer 110 performs processing for emphasizing high-frequency components such as edges of the subject in order to improve image quality. Usually, the second derivative of the video signal is added to the original signal. The gamma corrector 120 prevents saturation in the highlight part and widens the dynamic range. Motion vector detection circuit 130
May be composed of a circuit based on the space-time gradient method,
Similarly, a circuit based on the matching calculation may be used, but in the present embodiment, a detection method capable of real-time processing is required. The memory 160 is a delay circuit that delays the luminance signal by a predetermined time (one field time in this embodiment), stores the luminance signal one field before and calculates the space-time gradient method with the current field. , Or enables correlation calculation. The microcomputer 140 includes a motion vector detection circuit 13
From the distribution of the motion vector detected at 0 (optical flow), first, the block outputting the motion vector due to the camera shake to be corrected is extracted, and the output signal from the block further indicates how the block is surrounded. According to the weighting, the amount of motion of the image at that moment is calculated.
The memory read control circuit 150 is a microcomputer.
The read position of the memory 160 is controlled so as to cancel (or correct) the final motion vector calculated by the controller 140. The luminance signal read from the memory 160 is D / A
It is converted into an analog signal by the converter 170 and output from the luminance signal output terminal 180.

【0017】次に、マイクロコンピュ−タ140内で行
われる動きベクトルの信頼性評価の仕方を図2乃至図6
を用いて説明する。
Next, a method of evaluating the reliability of a motion vector performed in the microcomputer 140 will be described with reference to FIGS.
Will be explained.

【0018】図2は画像信号の入力からその瞬間に防振
すべき領域(以下、防振領域と記す)判断までの流れを
示す図である。
FIG. 2 is a diagram showing the flow from the input of an image signal to the determination of an area to be shake-stabilized (hereinafter referred to as a shake-proof area) at that moment.

【0019】図2(a)は入力画像であり、「8×6」
個のブロックに分割されている。図2(b)は各ブロッ
ク毎に動きベクトルを検出した結果を示している。この
ような動きベクトルの分布図を一般にオプティカルフロ
−図と呼ぶ。図2(b)では、画面中央部と周辺部に大
きく2つの異なる動きをしている領域が存在しているこ
とが分かる。図2(c)はオプティカルフロ−図から防
振領域を抽出した結果である。
FIG. 2A shows an input image, "8 × 6".
It is divided into blocks. FIG. 2B shows the result of detecting the motion vector for each block. Such a motion vector distribution diagram is generally called an optical flow diagram. In FIG. 2 (b), it can be seen that there are two largely different regions in the central part and the peripheral part of the screen. FIG. 2C shows the result of extracting the image stabilization area from the optical flow diagram.

【0020】動きベクトルから防振領域を抽出する手法
としては、既に出願済みの特願昭63−269554号
等に記載の各ブロック毎の動きベクトルの時間方向加算
法がある。
As a method for extracting the image stabilization area from the motion vector, there is a time direction addition method of motion vectors for each block described in Japanese Patent Application No. 63-269554 already filed.

【0021】図3は、抽出された領域に「1値」、対象
外とされた領域に「0値」を割り当てた2値の防振領域
マップ(有効領域)である。
FIG. 3 is a binary image stabilization area map (effective area) in which "1 value" is assigned to the extracted area and "0 value" is assigned to the excluded area.

【0022】通常は、当該防振領域マップを、検出され
た動きベクトルに乗算して、有効領域を抽出し、当該有
効領域内の動きベクトルを均一な重みで単純平均するこ
とにより、画像の動き量を求める。
Usually, the motion vector of the image is multiplied by the detected motion vector to extract the effective region, and the motion vectors in the effective region are simply averaged with a uniform weight to obtain the motion of the image. Find the amount.

【0023】図4は、図3に示されるような防振領域マ
ップにかけるコンボル−ションマスクの一例である。
FIG. 4 shows an example of a convolution mask applied to the image stabilization area map as shown in FIG.

【0024】図4のマスクの意味するところは、今注目
しているブロックの上下、左右方向に隣接するブロック
が存在する場合には、当該注目しているブロックにそれ
ぞれポイント1を与え、斜め方向に接するブロックが存
在する場合には、ポイント0.5 を与えて、当該注目して
いるブロックが他のブロックに囲まれている程ポイント
を高くしていくというものである。斜め方向のポイント
が低いのは、一般に画像信号には斜め成分が少ないとい
う特性に基づいている。なお、コンボル−ションは有効
ブロック(値「1」が挿入されているブロック)のみを
対象として行うか、画面全域にコンボル−ションした結
果に防振領域マップをAND演算(論理積演算)し、非
防振領域(無効領域)の値は「0」のままにする。
The meaning of the mask in FIG. 4 is that if there is a block adjacent to the block of interest now in the vertical and horizontal directions, point 1 is given to each of the blocks of interest and the diagonal direction If there is a block in contact with, a point of 0.5 is given, and the point is increased as the block of interest is surrounded by other blocks. The point in the diagonal direction is low because the image signal generally has few diagonal components. Note that the convolution is performed only on the effective block (the block in which the value "1" is inserted), or the result of convolution over the entire screen is ANDed with the image stabilization area map (AND operation), The value of the non-shake area (invalid area) is left as "0".

【0025】図5は、コンボル−ションマスクを図4に
示す「3×3」から「5×5」に拡張したときの例であ
る。
FIG. 5 shows an example in which the convolution mask is expanded from “3 × 3” shown in FIG. 4 to “5 × 5”.

【0026】コンボル−ションマスクのサイズやマスク
内の重み係数(即ち、ポイントの与え方)は撮影条件に
応じて切り換えても良い。
The size of the convolution mask and the weighting coefficient in the mask (that is, how to give points) may be switched according to the photographing conditions.

【0027】図6は、図3の防振領域マップの有効領域
に図4のマスクをコンボル−ション結果を示している。
FIG. 6 shows the result of convolution of the mask of FIG. 4 in the effective area of the image stabilization area map of FIG.

【0028】図6に示されている係数値がその該当する
ブロックから検出される動きベクトルの信頼性を表して
おり、この重みに従って動きベクトルの平均処理すれば
良い。
The coefficient values shown in FIG. 6 represent the reliability of the motion vector detected from the corresponding block, and the motion vector averaging may be performed according to this weight.

【0029】以上の処理により求められた動きベクトル
を用いてメモリからの画像の読み出し位置を決定し、不
快な手振れ成分を補正した画像を輝度信号出力端子18
0より出力する。
The position where the image is read from the memory is determined by using the motion vector obtained by the above processing, and the image in which the unpleasant camera shake component is corrected is output to the luminance signal output terminal 18
Output from 0.

【0030】(第2の実施例)前記の第1の実施例で
は、防振領域マップの有効領域に対して、あるマスクを
コンボル−ションした結果にしたがって動きベクトルの
重み付け平均処理を行っているが、この実施例では、前
記第1の実施例で求まった動きベクトルそのものの信頼
性を、マスクをコンボル−ションした結果得られた重み
係数の総和、すなわち前記ポイントの総和を用いて改め
て評価するもので、前記第1の実施例と併用することが
できる。
(Second Embodiment) In the first embodiment, the motion vector weighted average processing is performed on the effective area of the image stabilization area map according to the result of convolution of a certain mask. However, in this embodiment, the reliability of the motion vector itself obtained in the first embodiment is re-evaluated using the sum of the weighting factors obtained as a result of convolving the mask, that is, the sum of the points. However, it can be used in combination with the first embodiment.

【0031】図7は、画面内の「8×6」個の全てのブ
ロックが有効だと判断された場合に図4のコンボル−シ
ョンマスクをかけた結果である。
FIG. 7 shows the result of applying the convolution mask of FIG. 4 when it is determined that all “8 × 6” blocks in the screen are valid.

【0032】図7の全ての重み係数の総和はこの場合
「282」で、重み係数の総和の上限である。防振領域
の面積は大きいほど当該領域から検出される動きベクト
ルの信頼性は高いため、前記重み係数の総和の大小から
改めて動きベクトルの信頼性を評価することができる。
In this case, the sum of all the weighting factors in FIG. 7 is "282", which is the upper limit of the sum of the weighting factors. The larger the area of the image stabilization area is, the higher the reliability of the motion vector detected from the area is. Therefore, the reliability of the motion vector can be evaluated again from the magnitude of the sum of the weighting factors.

【0033】図8は、前記重み係数の総和に応じた信頼
性評価関数を表している。
FIG. 8 shows a reliability evaluation function according to the sum of the weighting factors.

【0034】ポイント総数が小さい場合は、抽出された
領域が小さいか、或は、バラバラに散在する場合で、い
ずれも動きベクトルが誤検出された可能性が高いため、
「1」未満の小さな係数を乗算して以後の処理への影響
を抑える。なお、画面内のブロックの数を「M×N」個
だとすると、ポイントの分布は 0≦(ポイント総数)≦7MN−4M−4N+2 で表される。
If the total number of points is small, the extracted regions are small or scattered, and it is highly possible that the motion vector is erroneously detected.
A small coefficient less than “1” is multiplied to suppress the influence on subsequent processing. When the number of blocks in the screen is “M × N”, the distribution of points is represented by 0 ≦ (total number of points) ≦ 7MN-4M-4N + 2.

【0035】以上の処理は、図1のマイクロコンピュ−
タ140で行われる。
The above processing is carried out by the micro computer of FIG.
Data 140.

【0036】(第3の実施例)前記第1及び第2の実施
例では、注目しているブロックの空間的な配置の情報を
手掛かりとして信頼性の評価を行っているが、この第3
の実施例では、この概念を時間軸方向へ拡張する。
(Third Embodiment) In the first and second embodiments, the reliability is evaluated by using the information on the spatial arrangement of the block of interest as a clue.
In this embodiment, this concept is extended in the time axis direction.

【0037】一般に、動画像の時間方向の相関は高く、
例えば被写体を追尾して撮影している時では、当該被写
体の画面中に占める位置は前画面(前フィ−ルド)にあ
った位置に強く拘束されており、毎フィ−ルド毎に無相
関に出現することは極めて少ない。つまり、前画面で有
効領域と見なされた領域付近に、現画面での有効領域が
現われる可能性が高いということになる。そこで、現画
面で有効領域と判断された領域をピ−ク中心として、な
だらかな重み係数分布を持つマップを形成し、次画面で
得られる防振領域マップと論理積(AND)を取ること
により、ある領域の画面中の位置の時間方向の相関性を
生かした信頼性の評価をすることができる。
Generally, the correlation of moving images in the time direction is high,
For example, when a subject is being tracked and photographed, the position occupied by the subject on the screen is strongly restricted to the position on the previous screen (front field), and there is no correlation for each field. It rarely appears. That is, it is highly possible that the effective area on the current screen appears near the area considered to be the effective area on the previous screen. Therefore, a map having a gentle weighting coefficient distribution is formed with the area determined as the effective area on the current screen as the center of the peak, and the logical product (AND) is taken with the image stabilization area map obtained on the next screen. , It is possible to evaluate the reliability by making use of the correlation in the time direction of the position on the screen of a certain area.

【0038】実施手順を図9及び図10を用いて説明す
る。
The implementation procedure will be described with reference to FIGS. 9 and 10.

【0039】図9は、現画面で得られた防振領域マップ
にかけるコンボル−ションマスクである。被写体の位置
の画像間のずれは360度あらゆる方向に同じ確率で生
じると考えられるため、マスクの重み係数分布も等方的
なものである。
FIG. 9 shows a convolution mask applied to the image stabilization area map obtained on the current screen. Since it is considered that the displacement of the position of the subject between the images occurs in all directions of 360 degrees with the same probability, the weighting coefficient distribution of the mask is also isotropic.

【0040】図10は、図9で示したマスクを、図3に
示した防振領域マップにコンボル−ションした結果であ
る。
FIG. 10 shows the result of convolving the mask shown in FIG. 9 with the image stabilization area map shown in FIG.

【0041】図10で示される重み係数分布と次画面で
得られる防振領域マップをAND演算(論理積演算)す
ることにより、容易に各ブロックの信頼性を評価するこ
とができる。
The reliability of each block can be easily evaluated by ANDing (weighting) the weighting coefficient distribution shown in FIG. 10 and the image stabilization area map obtained on the next screen.

【0042】以上の処理は図1のマイクロコンピュ−タ
140で行われる。
The above processing is performed by the microcomputer 140 shown in FIG.

【0043】前述した各実施例によれば、各ブロックの
空間的或は時間的な隣接度(近接度)により、検出され
る動きベクトルの信頼性を評価し、これに応じた重み付
け処理を動きベクトルに施すようにしている為、本来異
なる動きが存在する境界部を含むブロックから検出され
る信頼性の低い動きベクトルにより著しい精度劣化を受
けていた動画像符合化装置や画像振れ補正装置の精度を
向上させることができる。
According to each of the above-described embodiments, the reliability of the detected motion vector is evaluated based on the spatial or temporal adjacency (proximity) of each block, and the weighting process is performed accordingly. Since it is applied to the vector, the accuracy of the moving picture coding device and the image blur correction device that had been significantly deteriorated by the unreliable motion vector detected from the block including the boundary where originally different motion exists Can be improved.

【0044】[0044]

【発明の効果】以上説明したように、本発明によれば、
入力画像を複数のブロックに分割し、該ブロック毎に動
きベクトルを検出する動きベクトル検出手段と、該動き
ベクトル検出手段からの動きベクトルから同じ動きをし
ている領域を抽出し、該領域内の動きベクトル値を、前
記ブロックそれぞれの前記領域内に占める位置情報に応
じた重み付け平均を行って算出する動きベクトル算出手
段、或は、該動きベクトル検出手段からの動きベクトル
から同じ動きをしている領域を抽出し、該領域内の動き
ベクトル値を、前記ブロックそれぞれの前記入力画像中
に占める位置情報に応じた重み付け平均を行って算出す
る動きベクトル算出手段とを備え、ブロックそれぞれ
の、同じく動きをしている領域内に占める位置情報、或
は、ブロックそれぞれの入力画像中に占める位置情報、
つまり各ブロックの空間的或は時間的な隣接度に応じた
重み付け処理を施して動きベクトル値を算出している。
As described above, according to the present invention,
The input image is divided into a plurality of blocks, a motion vector detecting means for detecting a motion vector for each block, and an area having the same motion are extracted from the motion vector from the motion vector detecting means, Motion vector calculation means for calculating a motion vector value by performing weighted averaging according to position information occupying each area of each of the blocks, or the same motion from the motion vector from the motion vector detection means. A motion vector calculating unit that extracts a region and calculates a motion vector value in the region by performing weighted averaging according to position information of each of the blocks in the input image; Position information in the area that is displayed, or position information in the input image of each block,
That is, the motion vector value is calculated by performing weighting processing according to the spatial or temporal adjacency of each block.

【0045】よって、動きベクトルの検出精度を向上さ
せることが可能となる。
Therefore, it is possible to improve the detection accuracy of the motion vector.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の第1の実施例を適用した画像振れ補正
装置を組み込んだビデオカメラの構成を示すブロック図
である。
FIG. 1 is a block diagram showing a configuration of a video camera incorporating an image blur correction device to which a first embodiment of the present invention is applied.

【図2】画像信号の入力から防振領域判断までの流れを
示す図である。
FIG. 2 is a diagram showing a flow from image signal input to image stabilization area determination.

【図3】本発明の第1の実施例における防振領域を示す
2値マップを示す図である。
FIG. 3 is a diagram showing a binary map showing an image stabilization area in the first embodiment of the present invention.

【図4】図3の防振領域にかけるコンボル−ションマス
クの一例を示す図である。
FIG. 4 is a diagram showing an example of a convolution mask applied to the image stabilization area of FIG.

【図5】図3の防振領域にかけるコンボル−ションマス
クの他の例を示す図である。
5 is a diagram showing another example of a convolution mask applied to the image stabilization area in FIG.

【図6】本発明の第1の実施例における防振領域内の信
頼性を表す重み係数分布図である。
FIG. 6 is a weight coefficient distribution diagram showing reliability in the image stabilization area according to the first exemplary embodiment of the present invention.

【図7】本発明の第2の実施例における画面全体が防振
領域となった時の重み係数分布図である。
FIG. 7 is a weight coefficient distribution diagram when the entire screen in the second embodiment of the present invention is the image stabilization area.

【図8】本発明の第2の実施例における重み係数の総和
による信頼性評価関数を示す図である。
FIG. 8 is a diagram showing a reliability evaluation function based on a sum of weighting factors according to the second embodiment of the present invention.

【図9】本発明の第3の実施例における防振領域にかけ
るコンボル−ションマスクの一例を示す図である。
FIG. 9 is a diagram showing an example of a convolution mask applied to an image stabilization area in a third embodiment of the present invention.

【図10】図3の防振領域マップに図9のマスクをコン
ポル−ションした時の重み係数分布図である。
10 is a distribution diagram of weighting factors when the mask of FIG. 9 is incorporated into the image stabilization area map of FIG.

【符合の説明】[Explanation of sign]

30 撮像素子 100 LPF 110 エンハンサ 120 ガンマ補正器 130 動きベクトル検出回路 140 マイクロコンピュ−タ 150 メモリ読み出し制御回路 160 メモリ 30 Image sensor 100 LPF 110 Enhancer 120 Gamma corrector 130 Motion vector detection circuit 140 Microcomputer 150 Memory read control circuit 160 Memory

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 入力画像を複数のブロックに分割し、該
ブロック毎に動きベクトルを検出する動きベクトル検出
手段と、該動きベクトル検出手段からの動きベクトルか
ら同じ動きをしている領域を抽出し、該領域内の動きベ
クトル値を、前記ブロックそれぞれの前記領域内に占め
る位置情報に応じた重み付け平均を行って算出する動き
ベクトル算出手段とを備えた動きベクトル検出装置。
1. An input image is divided into a plurality of blocks, and a motion vector detecting means for detecting a motion vector for each block and an area having the same motion are extracted from the motion vector from the motion vector detecting means. , A motion vector calculating device for calculating a motion vector value in the area by performing weighted averaging according to position information of each of the blocks in the area.
【請求項2】 入力画像を複数のブロックに分割し、該
ブロック毎に動きベクトルを検出する動きベクトル検出
手段と、該動きベクトル検出手段からの動きベクトルか
ら同じ動きをしている領域を抽出し、該領域内の動きベ
クトル値を、前記ブロックそれぞれの前記入力画像中に
占める位置情報に応じた重み付け平均を行って算出する
動きベクトル算出手段とを備えた動きベクトル検出装
置。
2. An input image is divided into a plurality of blocks, a motion vector detecting means for detecting a motion vector for each block, and a region having the same motion are extracted from the motion vector from the motion vector detecting means. , A motion vector calculating device for calculating a motion vector value in the area by performing weighted averaging according to position information of each of the blocks in the input image.
JP08833792A 1992-03-13 1992-03-13 Motion vector detection device Expired - Fee Related JP3209785B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP08833792A JP3209785B2 (en) 1992-03-13 1992-03-13 Motion vector detection device
US08/029,550 US5731849A (en) 1992-03-13 1993-03-11 Movement vector detecting apparatus
DE69322423T DE69322423T2 (en) 1992-03-13 1993-03-11 Device for the detection of motion vectors
EP93301869A EP0560610B1 (en) 1992-03-13 1993-03-11 Movement vector detecting apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP08833792A JP3209785B2 (en) 1992-03-13 1992-03-13 Motion vector detection device

Publications (2)

Publication Number Publication Date
JPH05257196A true JPH05257196A (en) 1993-10-08
JP3209785B2 JP3209785B2 (en) 2001-09-17

Family

ID=13940058

Family Applications (1)

Application Number Title Priority Date Filing Date
JP08833792A Expired - Fee Related JP3209785B2 (en) 1992-03-13 1992-03-13 Motion vector detection device

Country Status (1)

Country Link
JP (1) JP3209785B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5606376A (en) * 1994-06-08 1997-02-25 Matsushita Electric Industrial Co., Ltd. Differential motion detection method using background image
JP2012257157A (en) * 2011-06-10 2012-12-27 Canon Inc Image synthesizer

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006067345A (en) * 2004-08-27 2006-03-09 Sony Corp Image signal processing apparatus, control method thereof, and image signal processing system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5606376A (en) * 1994-06-08 1997-02-25 Matsushita Electric Industrial Co., Ltd. Differential motion detection method using background image
JP2012257157A (en) * 2011-06-10 2012-12-27 Canon Inc Image synthesizer

Also Published As

Publication number Publication date
JP3209785B2 (en) 2001-09-17

Similar Documents

Publication Publication Date Title
JP4703710B2 (en) Apparatus and method for correcting image blur of digital image using object tracking
US8532420B2 (en) Image processing apparatus, image processing method and storage medium storing image processing program
US7609293B2 (en) Image stabilisation system and method
US8559751B2 (en) Method and device for removing motion blur effects
US8233062B2 (en) Image processing apparatus, image processing method, and imaging apparatus
US20030090593A1 (en) Video stabilizer
JP2902966B2 (en) Camera shake correction device and video camera using the same
JP3164121B2 (en) Motion vector detection device
JP4210954B2 (en) Image processing method, image processing method program, recording medium storing image processing method program, and image processing apparatus
KR101424923B1 (en) Image synthesis device and computer program for image synthesis
JP3866957B2 (en) Image synthesizer
JPH09163217A (en) Apparatus and method for detecting movement vector in cameraimage
JP2010114752A (en) Device and method of imaging and program
JPH05257196A (en) Motion vector detection device
JPH06133298A (en) Motion vector detector
JP4052348B2 (en) Image processing apparatus and image processing method
JPH07107368A (en) Image processor
JPH06217188A (en) Picture moving vector detectr and video camera
JP3257035B2 (en) Apparatus and method for correcting image vibration
JP3200089B2 (en) Motion vector detection device and shake correction device
US20220408022A1 (en) Image processing apparatus, image processing method, and storage medium
JP3639640B2 (en) Motion vector detection device
JP3239051B2 (en) Video camera with image stabilization device
US20230276127A1 (en) Image processing apparatus and image processing method
JP6873815B2 (en) Image processing equipment, imaging equipment, image processing methods, programs, and storage media

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080713

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080713

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090713

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090713

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100713

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100713

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110713

Year of fee payment: 10

LAPS Cancellation because of no payment of annual fees