JPH06133298A - Motion vector detector - Google Patents

Motion vector detector

Info

Publication number
JPH06133298A
JPH06133298A JP27631892A JP27631892A JPH06133298A JP H06133298 A JPH06133298 A JP H06133298A JP 27631892 A JP27631892 A JP 27631892A JP 27631892 A JP27631892 A JP 27631892A JP H06133298 A JPH06133298 A JP H06133298A
Authority
JP
Japan
Prior art keywords
motion vector
area
region
screen
specifying means
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP27631892A
Other languages
Japanese (ja)
Inventor
Toshiaki Kondo
俊明 近藤
Masayoshi Sekine
正慶 関根
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP27631892A priority Critical patent/JPH06133298A/en
Publication of JPH06133298A publication Critical patent/JPH06133298A/en
Pending legal-status Critical Current

Links

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE:To enhance the detection accuracy of a motion vector. CONSTITUTION:A motion vector detection circuit 13 detects the distribution of motion vectors. A microcomputer 14 divides areas of a picture based on the distribution of the motion vectors detected by the motion vector detection circuit 13. Then the appearance area is discriminated based on the result of area division and the direction of the motion vector at the moment and the motion vector detected from the appearance area is eliminated. Then the motion quantity of the picture to be corrected is calculated. A memory read control circuit 15 controls a read position of the memory 16 so as to correct the final motion vector calculated by the microcomputer 14. A read luminance signal and a read chrominance signal are converted into an analog signal by a D/A converter 17 and the signal is outputted from a video signal output terminal 18.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、動画像信号の符号化装
置や画像触れ補正装置等に用いられる動きベクトル検出
装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a motion vector detecting device used for a moving image signal coding device, an image touch correcting device, and the like.

【0002】[0002]

【従来の技術】従来、画像の符号化装置や画像触れ補正
装置に必要な動きベクトル検出方法としては、米国特許
3890462号明細書や特公昭60−46878号公
報等記載の時空間勾配法、あるいは相関演算に基づく相
関法やブロックマッチング法(テンプレートマッチング
法)がある。時空間勾配法については、B.K.P. Horn ら
により、Artificial Intelligence 17, p.185 〜203 (1
981)で詳しく論じられており、また、ブロックマッチン
グ法については、尾上守夫らにより、情報処理Vol. 17,
No.7, p.634 〜 640 July 1976 で詳しく論じられてい
る。
2. Description of the Related Art Conventionally, as a motion vector detecting method required for an image coding apparatus and an image touch correction apparatus, a spatiotemporal gradient method described in US Pat. No. 3,890,462, Japanese Patent Publication No. 60-46878, or the like, or There are a correlation method and a block matching method (template matching method) based on a correlation calculation. For the spatiotemporal gradient method, see BKP Horn et al., Artificial Intelligence 17, p. 185-203 (1.
981), and regarding the block matching method, Morio Onoue et al., Information Processing Vol. 17,
No. 7, p. 634-640 July 1976, discussed in detail.

【0003】時空間勾配法は、フレーム(あるいはフィ
ールド)間の輝度差dと画面内の画素間の輝度差Δか
ら、画像の動き量をd/Δで表す方法である。これは、
カメラから得られる信号がフィールド周期の時間平均で
あり、画像の動き量が大きいほどエッジが鈍り、画素間
の輝度差Δが小さくなる性質を利用し、フレーム(ある
いはフィールド)間の輝度差dを信号Δで正規化したも
のである。
The spatio-temporal gradient method is a method in which the amount of motion of an image is represented by d / Δ based on a brightness difference d between frames (or fields) and a brightness difference Δ between pixels in a screen. this is,
The signal obtained from the camera is the time average of the field cycle, and the larger the motion amount of the image is, the more the edge becomes dull and the brightness difference Δ between pixels becomes smaller. It is normalized by the signal Δ.

【0004】一方、ブロックマッチング法は入力画像信
号を適当な大きさのブロック(例えば8画素×8ライ
ン)に分割し、ブロック単位に前のフレーム(あるいは
フィールド)の一定範囲の画素との差を計算し、この差
の絶対値の和が最小となる前のフレーム(あるいはフィ
ールド)のブロックを探査する。当該ブロックの相対的
なずれがそのブロックの動きベクトルを表している。
On the other hand, in the block matching method, an input image signal is divided into blocks of an appropriate size (for example, 8 pixels × 8 lines), and the difference from the pixels in a certain range of the previous frame (or field) is divided in block units. The block of the previous frame (or field) is calculated and the sum of the absolute values of the differences is minimized. The relative shift of the block represents the motion vector of the block.

【0005】いずれの手法においても、画像の動きを検
出する画像間での対応点の存在を前提としている。
Both methods are premised on the existence of corresponding points between images for detecting image movement.

【0006】[0006]

【発明が解決しようとする課題】しかしながら、上述し
た従来の動きベクトル検出方法では、ある瞬間の画面内
に直前の画面内に存在しない領域が新規に出現した場合
に、時系列に連続する画像間に対応点が存在しないた
め、原理的に正しい動きベクトルを検出することができ
ず、当該新規出現領域から検出される誤った動きベクト
ルにより、符号化装置の符号化精度や画像振れ補正装置
の補正精度が劣化するという問題点がある。
However, in the above-described conventional motion vector detecting method, when a region that does not exist in the immediately preceding screen newly appears in the screen at a certain moment, the time-series consecutive images are interleaved. In principle, since there is no corresponding point, it is not possible to detect a correct motion vector in principle, and an incorrect motion vector detected from the newly appearing area causes the encoding accuracy of the encoding device or the correction of the image blur correction device to be corrected. There is a problem that the accuracy deteriorates.

【0007】本発明は、対応点が無いことに起因する動
きベクトルの検出誤差の影響を低減し、動きベクトルの
検出精度を高めることを目的とする。
It is an object of the present invention to reduce the influence of a motion vector detection error due to the absence of corresponding points and to improve the motion vector detection accuracy.

【0008】[0008]

【課題を解決するための手段】本発明の動きベクトル検
出装置は、画像を複数個からなる小領域に分割し、前記
小領域ごとに動きベクトルを求める動きベクトル検出装
置において、現画面より1画面前の画面には存在せず、
現画面に新たに出現した領域を特定する特定手段と、該
特定手段に特定された領域から検出される動きベクトル
を無効ベクトルとして排除または軽く評価する評価手段
とを有することを特徴とする。
A motion vector detecting apparatus according to the present invention divides an image into a plurality of small areas and obtains a motion vector for each of the small areas. It doesn't exist on the previous screen,
The present invention is characterized by having a specifying means for specifying a newly appearing area on the current screen and an evaluating means for excluding or lightly evaluating a motion vector detected from the area specified by the specifying means as an invalid vector.

【0009】前記特定手段には、新たに出現した領域を
特定するために動きベクトルの空間的分布情報を用いる
ものがある。これは、動きベクトルの空間的分布情報と
して、画面内から同方向でかつ同程度の大きさを持つ動
きベクトルの集合領域を抽出し、抽出した集合領域の移
動方向に対して後方の領域を新たに出現した領域として
特定するものである。この場合、同方向でかつ同程度の
大きさを持つ動きベクトルの集合領域の移動方向に対し
て後方の領域を、当該動きベクトルの大きさにより決定
するもの、画像の濃度を用いて決定するもの、画像を入
力する装置に取り付けられたセンサからの信号により検
出するものがある。
Some of the specifying means use spatial distribution information of motion vectors to specify a newly appearing area. As the spatial distribution information of motion vectors, a set area of motion vectors having the same size and size in the same direction is extracted from the screen, and the area behind the extracted set area is newly created. It is specified as a region that appears in. In this case, the area behind the moving direction of the motion vector aggregate area in the same direction and of the same size is determined by the size of the motion vector, or is determined by using the image density. , Some are detected by a signal from a sensor attached to an image input device.

【0010】また、本発明の動きベクトル検出装置は、
画像を複数個からなる小領域に分割し、前記小領域ごと
に動きベクトルを求める動きベクトル検出装置におい
て、現画面より1画面前の画面には存在せず、現画面に
新たに出現した領域を特定する特定手段と、該特定手段
に特定された領域の対応点を過去2画面以上に遡って探
索し、近似的な動きベクトルを検出する検出手段とを有
することを特徴とする。
Further, the motion vector detecting device of the present invention is
In a motion vector detection device that divides an image into a plurality of small areas and obtains a motion vector for each of the small areas, a new area that does not exist on the screen that is one screen before the current screen and newly appears on the current screen. The present invention is characterized by having a specifying unit for specifying and a detecting unit for searching a corresponding point of the area specified by the specifying unit by tracing back two or more screens in the past and detecting an approximate motion vector.

【0011】前記特定手段には、新たに出現した領域を
特定するために動きベクトルの空間的分布情報を用いる
ものがある。これは、動きベクトルの空間的分布情報と
して、画面内から同方向でかつ同程度の大きさを持つ動
きベクトルの集合領域を抽出し、抽出した集合領域の移
動方向に対して後方の領域を新たに出現した領域として
特定するものである。この場合、同方向でかつ同程度の
大きさを持つ動きベクトルの集合領域の移動方向に対し
て後方の領域を、当該動きベクトルの大きさにより決定
するもの、画像の濃度を用いて決定するもの、画像を入
力する装置に取り付けられたセンサからの信号により検
出するものがある。前記検出手段は、新たに出現する領
域の対応点を探索する過去の画面を特定するのに、前記
新たに出現する領域を陰蔽していた物体の大きさおよび
前記物体の動きベクトルの大きさを用いるものである。
Some of the specifying means use spatial distribution information of motion vectors to specify a newly appearing area. As the spatial distribution information of motion vectors, a set area of motion vectors having the same size and size in the same direction is extracted from the screen, and the area behind the extracted set area is newly created. It is specified as a region that appears in. In this case, the area behind the moving direction of the motion vector aggregate area in the same direction and of the same size is determined by the size of the motion vector, or is determined by using the image density. , Some are detected by a signal from a sensor attached to an image input device. The detection means specifies the size of the object that has hidden the newly appearing area and the size of the motion vector of the object in order to specify a past screen for searching for a corresponding point of the newly appearing area. Is used.

【0012】[0012]

【作用】現画面より1画面前の画面には存在せず、現画
面に新たに出現した領域(以下、出現領域と記す)を特
定手段が検出し、この出現領域から検出される信頼性の
低い動きベクトルを評価手段が排除するか軽く評価する
ことにより、信頼性の高い動きベクトルのみを検出する
ため、対応点が無いことに起因する動きベクトルの検出
誤差の影響を低減できる。
Operation: The specifying unit detects a region that does not exist on the screen one screen before the current screen and newly appears on the current screen (hereinafter referred to as an appearance region). By eliminating or lightly evaluating a low motion vector, only a highly reliable motion vector is detected, so that the influence of a motion vector detection error due to the absence of corresponding points can be reduced.

【0013】また、出現領域を特定手段が検出し、この
出現領域の対応点を検出手段が過去2画面以上にまで遡
って探索して近似的な動きベクトルを検出し、出現領域
から検出される信頼性の低い動きベクトルを近代的な動
きにベクトルに置き換えることにより、動きベクトルの
検出精度を高めることができるため、対応点化が無いこ
とに起因する動きのベクトルの検出誤差の影響を低減で
きる。
Further, the appearance means is detected by the specifying means, and the corresponding means of the appearance area is searched back by the detection means to the past two screens or more to detect an approximate motion vector and detected from the appearance area. Since the motion vector detection accuracy can be improved by replacing the motion vector with low reliability with a modern motion vector, it is possible to reduce the influence of the motion vector detection error due to the lack of corresponding points. .

【0014】[0014]

【実施例】以下、図面を参照して本発明の実施例を説明
する。
Embodiments of the present invention will be described below with reference to the drawings.

【0015】図1は本発明の動きベクトル検出装置の第
1実施例を適用した画像振れ補正装置を組み込んだビデ
オカメラの構成ブロック図である。このビデオカメラ
は、被写体1を撮影する撮影レンズ2と、例えば2次元
CCDからなる撮像素子3と、撮像素子3からの出力信
号を保持するサンプルホールド(以下、S/Hと記す)
回路4と、S/H回路4の出力の利得を調整するオート
ゲインコントロール回路(以下、AGC回路と記す)5
と、AGC回路5の出力をA/D変換するA/D変換器
6と、撮像素子3からの色差線順次信号を2水平走査期
間だけ遅延させる遅延回路7と、色信号(C)生成回路
8と、輝度信号に混入する色信号を除去するためのロー
パスフィルタ(以下、LPFと記す)10と、輝度信号
の高周波成分を強調するエンハンサ11と、ガンマ補正
器12と、動きベクトル検出回路13と、特定手段およ
び評価手段として、出現領域の判断を行うマイクロコン
ピュータ14と、メモリ読み出し制御回路15と、フィ
ールドメモリ(あるいはフレームメモリ)16と、輝度
信号と色信号をD/A変換するD/A変換器17と、輝
度信号(Y)と色信号(C)の出力端子18とから構成
されている。LPF10以降の要素は輝度信号処理部を
構成する。動きベクトル検出回路13は、時空間勾配法
に基づく回路で構成してもよいし、マッチング演算に基
づく回路で構成してもよいが、本実施例では実時間処理
できる検出回路である必要がある。
FIG. 1 is a block diagram showing the construction of a video camera incorporating an image blur correction device to which the first embodiment of the motion vector detection device of the present invention is applied. This video camera includes a taking lens 2 for taking an image of a subject 1, an image sensor 3 including, for example, a two-dimensional CCD, and a sample hold (hereinafter, referred to as S / H) for holding an output signal from the image sensor 3.
The circuit 4 and an automatic gain control circuit (hereinafter, referred to as an AGC circuit) 5 for adjusting the gain of the output of the S / H circuit 4
An A / D converter 6 for A / D converting the output of the AGC circuit 5, a delay circuit 7 for delaying the color difference line sequential signal from the image sensor 3 by two horizontal scanning periods, and a color signal (C) generation circuit. 8, a low-pass filter (hereinafter, referred to as LPF) 10 for removing a color signal mixed in the luminance signal, an enhancer 11 that emphasizes a high frequency component of the luminance signal, a gamma corrector 12, and a motion vector detection circuit 13 As a specifying means and an evaluation means, a microcomputer 14 for determining an appearance area, a memory read control circuit 15, a field memory (or frame memory) 16, and a D / A converter for D / A converting a luminance signal and a color signal. It is composed of an A converter 17 and an output terminal 18 for a luminance signal (Y) and a color signal (C). Elements after the LPF 10 form a luminance signal processing unit. The motion vector detection circuit 13 may be configured by a circuit based on the spatiotemporal gradient method or a circuit based on a matching calculation, but in the present embodiment, it is necessary to be a detection circuit capable of real-time processing. .

【0016】次に図1のビデオカメラの動作を説明す
る。被写体1は、撮影レンズ2により、撮像素子3上に
結像され光電変換される。S/H回路4は撮像素子3の
出力信号を保持し、引き続きAGC回路5が自動的に信
号の利得を制御する。A/D変換器6はAGC回路5の
出力信号をA/D変換する。遅延回路7は、撮像素子3
からの色差線順次信号を1H遅延信号と(OH+2H)
遅延信号に分離し、それぞれ輝度信号処理部10〜18
と色信号生成回路8を送る。色信号生成回路8では色信
号が生成され、メモリ16に記憶される。
Next, the operation of the video camera shown in FIG. 1 will be described. The subject 1 is imaged and photoelectrically converted on the image sensor 3 by the taking lens 2. The S / H circuit 4 holds the output signal of the image sensor 3, and subsequently the AGC circuit 5 automatically controls the gain of the signal. The A / D converter 6 A / D converts the output signal of the AGC circuit 5. The delay circuit 7 includes the image sensor 3
Color difference line sequential signal from 1H delay signal and (OH + 2H)
Separated into delayed signals, the luminance signal processing units 10 to 18 respectively
And the color signal generation circuit 8 is sent. The color signal generation circuit 8 generates a color signal and stores it in the memory 16.

【0017】一方、輝度信号処理部10〜18に送られ
た信号はまずLPF10に入力される。LPF10は、
色差順次信号からキャリア成分を除去し、輝度信号分離
を行う。エンハンサ11は、LPF10の出力に対し、
画質向上のための被写体のエッジ等高周波成分を強調す
る処理を施す。通常は、映像信号の2次微分を原信号に
付加する。ガンマ補正回路12は、エンハンサ11の出
力のハイライト部分での飽和を防ぎ、ダイナミックレン
ジを広げる。動きベクトル検出回路13は、ガンマ補正
器12からの出力から動きベクトルの分布(オプティカ
ルフロー)を検出する。メモリ16は、輝度信号Yおよ
び色信号Cを所定時間(本実施例では1フィールド時
間)遅延する遅延回路であり、1フィールド前の映像信
号を記憶し現フフィールドとの時空間勾配法の演算、あ
るいは相関演算を可能にする。マイクロコンピュータ1
4は、動きベクトル検出回路13で検出されるオプティ
カルフローから、画像の領域分割を行う。そして、領域
分割の結果とその瞬間の動きベクトルの向きから、出現
領域を判断し、この出現領域から検出される動きベクト
ルを除去、あるいは軽い重み付けを行う。その後、マイ
クロコンピュータ14は、補正対象となる手振れによる
動きベクトルを出力しているブロックを抽出し、その瞬
間の補正すべき画像の動き量を演算する。メモリ読み出
し制御回路15は、マイクロコンピュータ14で計算さ
れた最終の動きベクトルを相殺、すなわち補正するよう
にメモリ16の読み出し位置を制御する。読み出された
輝度信号および色信号はD/A変換器17によってアナ
ログ信号に変換され、映像信号出力端子18から出力さ
れる。
On the other hand, the signal sent to the luminance signal processing units 10 to 18 is first input to the LPF 10. LPF10 is
The luminance component is separated by removing the carrier component from the color difference sequential signal. The enhancer 11 responds to the output of the LPF 10 by
Processing for enhancing high-frequency components such as edges of a subject for improving image quality is performed. Normally, the second derivative of the video signal is added to the original signal. The gamma correction circuit 12 prevents saturation of the output of the enhancer 11 in the highlight portion and widens the dynamic range. The motion vector detection circuit 13 detects a motion vector distribution (optical flow) from the output from the gamma corrector 12. The memory 16 is a delay circuit that delays the luminance signal Y and the chrominance signal C by a predetermined time (one field time in this embodiment), stores the video signal one field before and calculates the spatiotemporal gradient method with the current field. , Or enable correlation calculation. Microcomputer 1
Reference numeral 4 divides the area of the image from the optical flow detected by the motion vector detection circuit 13. Then, the appearance region is judged from the result of the region division and the direction of the motion vector at that moment, and the motion vector detected from the appearance region is removed or lightly weighted. After that, the microcomputer 14 extracts the block outputting the motion vector due to the camera shake to be corrected, and calculates the motion amount of the image to be corrected at that moment. The memory read control circuit 15 controls the read position of the memory 16 so as to cancel or correct the final motion vector calculated by the microcomputer 14. The read luminance signal and chrominance signal are converted into analog signals by the D / A converter 17 and output from the video signal output terminal 18.

【0018】ここで、さまざまな撮影状況時の出現領域
の様子を図2〜図4を参照して説明する。図2は図面を
四角い物体が横切っている様子を示す図である。図2
(a)に示すように、時刻Ti-2 の画面右端にある物体
21が、順に図2(b),(c),(d)に示すよう
に、時刻Ti-1 ,Ti ,Ti+1 と進むにしたがい、左方
向へ移動している。図2(b)の出現領域22が、1画
面前(図2(a))には隠れていて見えなかった領域で
ある。物体21の進行方向の長さをd、移動速度をw1
とした。出現領域の進行方向の長さW2 は動きベクトル
の長さw1 と等しい。
The appearance of the appearance area in various shooting situations will be described with reference to FIGS. FIG. 2 is a diagram showing a state in which a rectangular object crosses the drawing. Figure 2
As shown in (a), the object 21 at the right end of the screen at time T i-2 has time T i−1 , T i , and T i −1 as shown in FIGS. 2 (b), (c), and (d) in order. As it goes to T i + 1 , it is moving to the left. The appearance area 22 in FIG. 2B is an area that is hidden and invisible one screen before (FIG. 2A). The length of the object 21 in the traveling direction is d, and the moving speed is w 1
And The length W 2 of the appearance area in the traveling direction is equal to the length w 1 of the motion vector.

【0019】図3はカメラの一定方向へ同じ速度で継続
的に動かした時(いわゆるパンニングやチルティング操
作時)の画面の様子を示す図である。図3(b),
(c),(d)に示すように、画面左端には前画面(図
3(a))には存在していなかった出現領域31が現れ
る。
FIG. 3 is a diagram showing the state of the screen when the camera is continuously moved in the fixed direction at the same speed (so-called panning or tilting operation). Figure 3 (b),
As shown in (c) and (d), an appearance area 31 that does not exist in the previous screen (FIG. 3A) appears at the left end of the screen.

【0020】図4は、画面中心にある丸い物体を追尾被
写体41として追尾撮影しているときの画面の様子を示
す図である。追尾被写体41と背景42は相対的に異な
る動きとなるため、順に図4(a),(b),(c),
(d)に示すように、時刻T i-2 ,Ti-1 ,Ti ,T
i+1 と進むにしたがい、追尾被写体41の背後から出現
領域43が現れている。また、同時に画面左端からもカ
メラの振りに応じて出現領域44が現れている。
FIG. 4 shows a case where a round object in the center of the screen is tracked.
Shows the state of the screen during tracking shooting as object 41
It is a figure. The tracking subject 41 and the background 42 are relatively different.
4 (a), (b), (c),
As shown in (d), time T i-2 , Ti-1 , Ti , T
i + 1 Appear from behind the tracking subject 41 as
Area 43 has appeared. At the same time, you can
The appearance area 44 appears according to the swing of the melody.

【0021】次にマイクロコンピュータ14内で行われ
る動きベクトルの信頼性評価の仕方を図5を参照して詳
細に説明する。
Next, a method of evaluating the reliability of the motion vector performed in the microcomputer 14 will be described in detail with reference to FIG.

【0022】図5は画像信号の入力からその瞬間の出現
領域判断までの流れを示す図である。図5(a)は入力
画像を示す図であり、被写体51となる自動車を追尾撮
影しているときの1コマである。本実施例は、当該入力
画像を縦12個、横16個のブロックに分割し、各ブロ
ックごとに動きベクトルを検出する。図5(b)は各ブ
ロックごとに動きベクトルを検出した結果を示してい
る。このような動きベクトルの分布図を一般にオプティ
カルフロー図と呼ぶ。図5(b)では、同方向でかつ同
じ程度の大きさを持つ動きベクトルの集合分布から、画
面中央部と周辺部の2つの異なる動きをしている領域が
存在していることがわかる。そして、これら2つの領域
の進行方向後方で対応点ミスに起因する信頼精度の低い
動きベクトルが検出されている。本実施例では、これら
2つの領域が動きベクトルの空間的分布情報として抽出
される。図5(c)は図5(b)のオプティカルフロー
図から出現領域を抽出した結果を示す図である。マイク
ロコンピュータ14では、抽出された領域52,53か
ら検出された動きベクトルを除去するか、他と比較して
相対的に軽い重み付けを評価することにより、その後の
処理に与える悪影響を抑制する。なお、出現領域52,
53の広さは、直前の画面で出現領域52,53を隠蔽
していた物体の移動速度に直接依存している。被写体5
1がゆっくりと動いている場合には、出現領域52,5
3が小さく、ほとんど出現領域52,53による動きベ
クトルの精度劣化は問題にならないが、被写体51が高
速に動いているときには、出現領域52,53が大きく
なるため、出現領域52,53による動きベクトルの精
度劣化の影響が増大する。図5(c)の例では、連続す
る画像間での被写体51の動き量が、ちょうど動きベク
トルを検出する単位ブロックの横幅と等しいので、出現
領域52,53の幅も1ブロックの幅と決定される。出
現領域が動きベクトルを検出する単位領域であるブロッ
クにまたがる場合には、移動物体と当該出現領域の境界
が明確でない。この場合には、出現領域から検出される
動きベクトルが相対的に低く評価されるように移動体の
先頭部から後方部にかけて下降する重み付けをつけた評
価をすればよい。マイクロコンピュータ14は、さらに
出現領域を除去して残った動きベクトルの分布から、手
振れ補正したい領域(防振領域)を選択し、当該防振領
域内の動きベクトルから、補正ベクトルを演算する。動
きベクトルから防振領域を抽出する手法としては、各ブ
ロックごとの動きベクトルの時間方向加算法がある(特
開平2−117276号公報参照)。
FIG. 5 is a diagram showing the flow from the input of the image signal to the determination of the appearance area at that moment. FIG. 5A is a diagram showing an input image, which is one frame when the automobile as the subject 51 is being tracked and photographed. In this embodiment, the input image is divided into 12 vertical blocks and 16 horizontal blocks, and a motion vector is detected for each block. FIG. 5B shows the result of detecting the motion vector for each block. Such a motion vector distribution diagram is generally called an optical flow diagram. In FIG. 5B, from the set distribution of motion vectors having the same size in the same direction, it can be seen that there are two different moving regions, the central part and the peripheral part of the screen. Then, a motion vector with low reliability accuracy due to a corresponding point error is detected behind these two areas in the traveling direction. In this embodiment, these two areas are extracted as the spatial distribution information of the motion vector. FIG. 5C is a diagram showing a result of extracting appearance regions from the optical flow diagram of FIG. 5B. The microcomputer 14 removes the motion vector detected from the extracted regions 52 and 53, or evaluates a relatively light weight compared with the others, thereby suppressing the adverse effect on the subsequent processing. The appearance area 52,
The size of 53 directly depends on the moving speed of the object that has hidden the appearance regions 52 and 53 on the immediately previous screen. Subject 5
If 1 is moving slowly, appearance areas 52, 5
3 is small, the accuracy degradation of the motion vector due to the appearance regions 52 and 53 is not a problem, but when the subject 51 is moving at high speed, the appearance regions 52 and 53 become large, so the motion vectors due to the appearance regions 52 and 53 are large. The influence of the accuracy deterioration of is increased. In the example of FIG. 5C, the amount of movement of the subject 51 between consecutive images is just equal to the width of the unit block in which the motion vector is detected, so the widths of the appearance regions 52 and 53 are also determined to be the width of one block. To be done. When the appearance area extends over a block that is a unit area for detecting a motion vector, the boundary between the moving object and the appearance area is not clear. In this case, the weighting may be performed so that the motion vector detected from the appearance area is evaluated to be relatively low, and the weighting is performed so as to descend from the head part to the rear part of the moving body. The microcomputer 14 further selects a region for which image stabilization is desired (image stabilization region) from the distribution of motion vectors remaining after removing the appearance region, and calculates a correction vector from the motion vector in the image stabilization region. As a method of extracting the image stabilization area from the motion vector, there is a time direction addition method of motion vectors for each block (see Japanese Patent Laid-Open No. 2-117276).

【0023】メモり読み出し制御回路15は、マイクロ
コンピュータ14により求められた補正ベクトルデータ
を用いてメモリ16からの画像読み出し位置を決定し、
不快な手振れ成分を補正した画像を出力端子18より出
力する。
The memory read control circuit 15 determines the image read position from the memory 16 using the correction vector data obtained by the microcomputer 14,
An image in which the unpleasant camera shake component is corrected is output from the output terminal 18.

【0024】第1実施例では、出現領域の広さをその出
現領域を隠蔽していた物体の動きベクトルの大きさに応
じて決めたが、出現領域の境界判断には時系列に連続な
画像間の濃度差を使ってもよい。以下、図6を参照して
原理を説明する。
In the first embodiment, the size of the appearance area is determined according to the magnitude of the motion vector of the object that hides the appearance area. You may use the density difference between. The principle will be described below with reference to FIG.

【0025】図6(a)は物体エッジ61が右方向へ移
動しているところを示している。図中Aは1画面前のエ
ッジ61の立ち上がり点(始点)、Bは1画面前のエッ
ジ61の立ち下がり点(終了点)、Cは現画面のエッジ
61の立ち上がり点(始点)、Dは現画面のエッジ61
の立ち下がり点(終了点)である。エッジ61は画像内
の異なる物体の境界をモデル化したものである。図6
(b)は同図(a)に示された2つのエッジ61の濃度
差を表している。画像が微小量平行移動したときの濃度
差は、画像の1次微分に相当するので、エッジ61のよ
うな高周波成分の高いところでは濃度差の変化が大き
く、この濃度差から容易にエッジの検出ができる。そこ
で、動きベクトルで明らかとなった移動体の後方で、画
像間の濃度差が大きい領域を求めれば、出現領域62を
特定できる。図6(b),(d)では、AC間で斜線で
示した領域が出現領域62となっており、出現領域62
から検出された動きベクトルを無効とする。BC間はエ
ッジ61の動き量が大きくなると出現領域62となって
いく領域である。図6(b)で示すように、C点が移動
体に対してB点より後方にある場合には新たな領域の出
現はないが、図6(D)で示すように、エッジの動き量
が大きくなりC点がB点より前方にある場合には、BC
間も出現領域62となる。したがって、BC間の出現領
域62から検出された動きベクトルは軽い評価付けを行
い、動きベクトルの誤差を抑制する。なお、本実施例で
は、時系列に連続な画像間の濃度差(時間方向)を用い
て物体の境界検出を行ったが、1枚の画像内で近接する
画素の濃度差(空間方向)を求めて境界検出してもよ
い。図7(a)〜(d)は、エッジ71が右方向へ移動
しているときの画面ごとのエッジの1次微分の様子を示
しており、見方は図6と同じである。この場合、常にエ
ッジ71の立ち上がり点A、点Cの間が出現領域72と
なっている。
FIG. 6A shows that the object edge 61 is moving to the right. In the figure, A is the rising point (start point) of the edge 61 one screen before, B is the falling point (end point) of the edge 61 one screen before, C is the rising point (start point) of the edge 61 of the current screen, and D is Edge 61 of current screen
Is the falling point (end point) of. Edges 61 model the boundaries of different objects in the image. Figure 6
FIG. 6B shows the density difference between the two edges 61 shown in FIG. The density difference when the image is translated by a small amount corresponds to the first-order differentiation of the image. Therefore, the density difference greatly changes at a high frequency component such as the edge 61, and the edge can be easily detected from the density difference. You can Therefore, the appearance region 62 can be specified by obtaining a region where the density difference between the images is large behind the moving body that is revealed by the motion vector. In FIGS. 6B and 6D, the hatched area between ACs is the appearance area 62.
The motion vector detected from is invalidated. Between BCs is an area that becomes an appearance area 62 when the amount of movement of the edge 61 increases. As shown in FIG. 6B, when the point C is behind the point B with respect to the moving body, no new area appears, but as shown in FIG. Becomes larger and C point is ahead of B point, BC
The space also becomes the appearance area 62. Therefore, the motion vector detected from the appearance area 62 between BCs is lightly evaluated to suppress the error of the motion vector. In the present embodiment, the object boundary is detected using the density difference (time direction) between images that are continuous in time series, but the density difference (spatial direction) of adjacent pixels in one image is determined. The boundary may be detected and obtained. FIGS. 7A to 7D show the state of the first-order differentiation of the edge for each screen when the edge 71 is moving to the right, and the view is the same as in FIG. In this case, the appearance area 72 is always between the rising points A and C of the edge 71.

【0026】前記各実施例では、いずれも出現領域の広
さを求めるのに画像データ処理に基づく手法で求めた
が、図3で示されるようなカメラの振りに起因する出現
領域の広さは、カメラに取り付けられたセンサ(不図
示)からの信号を用いて求めてもよい。このセンサで検
出されるカメラの動き量を、撮影レンズの焦点距離に応
じて、撮像面上での動き量に変換すればよい。
In each of the above-described embodiments, the size of the appearance area is calculated by a method based on image data processing. However, the width of the appearance area due to the swing of the camera as shown in FIG. Alternatively, it may be obtained using a signal from a sensor (not shown) attached to the camera. The amount of movement of the camera detected by this sensor may be converted into the amount of movement on the imaging surface according to the focal length of the taking lens.

【0027】出現領域からは正しい動きベクトルを検出
することはできないが、新規に出現してきた領域の対応
点を過去2画面以上に遡って探索し、近似的に動きベク
トルを求めることはできる。図8を参照して原理を説明
する。
Although a correct motion vector cannot be detected from the appearance area, it is possible to approximate the motion vector by searching the corresponding points of the newly appearing area retrospectively in the past two or more screens. The principle will be described with reference to FIG.

【0028】図8は画面中を丸い被写体81が左方向へ
平行移動しているところを示している。図8(d)に示
す時刻Ti+1 の出現領域82は、図8(a)に示す3画
面遡った時刻Ti-2 の画面中に対応点83があるので、
3画面分の動き量を求めることができる。当該3画面分
の動き量を3で割れば、近似的に時刻Ti+1 の出現領域
82の動き量を求めることができる。遡る画像の枚数
は、動きベクトルから認識される移動体の移動速度と被
写体81の大きさでおおよそ決まる。被写体81の進行
方向のサイズをd、動きベクトルの大きさおよび出現領
域82の進行方向の長さをwとすれば、時刻Ti+1 の出
現領域の対応点は、下式で表される時刻に遡ればよい。
FIG. 8 shows a round object 81 moving parallel to the left in the screen. The appearance area 82 at time T i + 1 shown in FIG. 8D has a corresponding point 83 in the screen at time T i-2 , which is three screens backward shown in FIG. 8A.
The amount of movement for three screens can be calculated. By dividing the movement amount for the three screens by 3, the movement amount of the appearance area 82 at time T i + 1 can be approximately obtained. The number of images traced back is roughly determined by the moving speed of the moving body recognized from the motion vector and the size of the subject 81. If the size of the subject 81 in the traveling direction is d, and the size of the motion vector and the length of the appearance region 82 in the traveling direction are w, the corresponding points of the appearance region at time T i + 1 are expressed by the following equation. Go back in time.

【0029】T=(d+w)/w 例えば、d=2wの関係にある場合、T=3となり、3
画面遡ればよいことがわかる。ただし、本実施例は過去
の画像を複数枚記憶しておく必要がある。
T = (d + w) / w For example, in the case of the relationship of d = 2w, T = 3 and 3
You can see that you can go back to the screen. However, in this embodiment, it is necessary to store a plurality of past images.

【0030】[0030]

【発明の効果】以上説明したように本発明は、画像から
検出された動きベクトル分布から、前画面にはなく現画
面い新たに出現した領域を容易に判断し、出現領域から
検出される誤った動きベクトルを排除することができ
る。また、出現領域の対応点を過去2画面以上遡って見
つけることにより近似的に動きベクトルを求めることが
できる。これにより、従来、画像の出現・隠蔽に起因す
る信頼性の低い動きベクトルにより著しい精度劣化を受
けていた動画像符号化装置や画像振れ補正装置等の精度
を向上する効果がある。
As described above, according to the present invention, it is possible to easily determine a newly appearing region in the current screen instead of the previous screen from the motion vector distribution detected in the image, and make an error detected in the appearing region. Motion vectors can be eliminated. Further, the motion vector can be approximately calculated by finding the corresponding points of the appearance area two or more screens in the past. As a result, there is an effect of improving the accuracy of a moving picture coding apparatus, an image blur correction apparatus, etc., which has been significantly deteriorated in accuracy by a motion vector with low reliability due to appearance / concealment of an image.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の動きベクトル検出装置の一実施例を示
すブロック図である。
FIG. 1 is a block diagram showing an embodiment of a motion vector detection device of the present invention.

【図2】(a)〜(d)は出現領域が出現する様子を示
す図である。
2A to 2D are diagrams showing appearance of appearance areas.

【図3】(a)〜(d)はパンニング操作時の出現の様
子を示す図である。
FIG. 3A to FIG. 3D are diagrams showing appearances during a panning operation.

【図4】(a)〜(d)は追尾撮影動作時の出現の様子
を示す図である。
FIGS. 4A to 4D are diagrams showing appearances during a tracking shooting operation.

【図5】(a)〜(c)は入力画像から出現領域を抽出
するまでの流れを示す図である。
5A to 5C are diagrams showing a flow from extraction of an appearance area from an input image.

【図6】(a)〜(d)はエッジの動きとその濃度差
(時間方向)を表す図である。
6A to 6D are diagrams showing edge movements and their density differences (time direction).

【図7】(a)〜(d)はエッジの動きとその濃度差
(空間方向)を表す図である。
7A to 7D are diagrams showing edge movements and their density differences (spatial direction).

【図8】対応点を過去に遡って探索する方法の説明図で
ある。
FIG. 8 is an explanatory diagram of a method of retroactively searching for corresponding points.

【符号の説明】[Explanation of symbols]

1 被写体 2 撮影レンズ 3 撮像素子 4 S/H回路 5 AGC回路 6 A/D変換器 7 遅延回路 8 色信号生成回路 10 ローパスフィルタ 11 エンハンサ回路 12 ガンマ補正回路 13 動きベクトル検出回路 14 マイクロコンピュータ 15 メモリ読み出し制御回路 16 フィールドメモリ 17 A/D変換器 18 映像信号出力端子 1 subject 2 photographing lens 3 image sensor 4 S / H circuit 5 AGC circuit 6 A / D converter 7 delay circuit 8 color signal generation circuit 10 low-pass filter 11 enhancer circuit 12 gamma correction circuit 13 motion vector detection circuit 14 microcomputer 15 memory Read control circuit 16 Field memory 17 A / D converter 18 Video signal output terminal

Claims (13)

【特許請求の範囲】[Claims] 【請求項1】 画像を複数個からなる小領域に分割し、
前記小領域ごとに動きベクトルを求める動きベクトル検
出装置において、 現画面より1画面前の画面には存在せず、現画面に新た
に出現した領域を特定する特定手段と、 該特定手段に特定された領域から検出される動きベクト
ルを無効ベクトルとして排除または軽く評価する評価手
段とを有することを特徴とする動きベクトル検出装置。
1. An image is divided into a plurality of small areas,
In the motion vector detecting device for obtaining the motion vector for each small area, a specifying means for specifying a newly appearing area on the current screen that does not exist on the screen one screen before the current screen, and is specified by the specifying means. And a motion vector detected from the region, which is excluded or lightly evaluated as an invalid vector, and a motion vector detecting device.
【請求項2】 前記特定手段は、新たに出現した領域を
特定するために動きベクトルの空間的分布情報を用いる
ものである請求項1記載の動きベクトル検出装置。
2. The motion vector detecting device according to claim 1, wherein the specifying means uses spatial distribution information of the motion vector to specify a newly appearing area.
【請求項3】 前記特定手段は、動きベクトルの空間的
分布情報として、画面内から同方向でかつ同程度の大き
さを持つ動きベクトルの集合領域を抽出し、抽出した集
合領域の移動方向に対して後方の領域を新たに出現した
領域として特定するものである請求項2記載の動きベク
トル検出装置。
3. The specifying means extracts, as the spatial distribution information of the motion vector, a set area of motion vectors in the same direction and having a similar size from the screen, and sets in the moving direction of the extracted set area. The motion vector detecting device according to claim 2, wherein a region behind the region is specified as a newly appearing region.
【請求項4】 前記特定手段は、同方向でかつ同程度の
大きさを持つ動きベクトルの集合領域の移動方向に対し
て後方の領域を、当該動きベクトルの大きさにより決定
するものである請求項3記載の動きベクトル検出装置。
4. The specifying means determines a region behind the movement direction of a motion vector aggregation region in the same direction and having a similar size according to the size of the motion vector. Item 5. The motion vector detection device according to item 3.
【請求項5】 前記特定手段は、同方向でかつ同程度の
大きさを持つ動きベクトルの集合領域の移動方向に対し
て後方の領域を、画像の濃度を用いて決定するものであ
る請求項3記載の動きベクトル検出装置。
5. The identifying means determines a region behind the moving direction of a set region of motion vectors having the same size and the same size by using the image density. 3. The motion vector detection device described in 3.
【請求項6】 前記特定手段は、同方向でかつ同程度の
大きさを持つ動きベクトルの集合領域の移動方向に対し
て後方の領域を、画像を入力する装置に取り付けられた
センサからの信号により検出するものである請求項3記
載の動きベクトル検出装置。
6. The signal from a sensor attached to a device for inputting an image of an area behind a moving area of a set area of motion vectors having the same size and the same size. The motion vector detecting device according to claim 3, wherein the motion vector detecting device detects the motion vector.
【請求項7】 画像を複数個からなる小領域に分割し、
前記小領域ごとに動きベクトルを求める動きベクトル検
出装置において、 現画面より1画面前の画面には存在せず、現画面に新た
に出現した領域を特定する特定手段と、 該特定手段に特定された領域の対応点を過去2画面以上
に遡って探索し、近似的な動きベクトルを検出する検出
手段とを有することを特徴とする動きベクトル検出装
置。
7. The image is divided into a plurality of small areas,
In the motion vector detecting device for obtaining the motion vector for each small area, a specifying means for specifying a newly appearing area on the current screen that does not exist on the screen one screen before the current screen, and is specified by the specifying means. A motion vector detection device, comprising: a detection unit that searches for a corresponding point in an area that is two or more screens in the past and detects an approximate motion vector.
【請求項8】 前記特定手段は、新たに出現した領域を
特定するために動きベクトルの空間的分布情報を用いる
ものである請求項1記載の動きベクトル検出装置。
8. The motion vector detecting device according to claim 1, wherein the specifying means uses spatial distribution information of the motion vector to specify a newly appearing area.
【請求項9】 前記特定手段は、動きベクトルの空間的
分布情報として、画面内から同方向でかつ同程度の大き
さを持つ動きベクトルの集合領域を抽出し、抽出した集
合領域の移動方向に対して後方の領域を新たに出現した
領域として特定するものである請求項8記載の動きベク
トル検出装置。
9. The specifying means extracts, as spatial distribution information of motion vectors, motion vector aggregate areas in the same direction and having a similar size from the screen, and sets the extracted movement directions of the extracted aggregate areas. 9. The motion vector detecting device according to claim 8, wherein the area behind the area is specified as a newly appearing area.
【請求項10】 前記特定手段は、同方向でかつ同程度
の大きさを持つ動きベクトルの集合領域の移動方向に対
して後方の領域を、当該動きベクトルの大きさにより決
定するものである請求項9記載の動きベクトル検出装
置。
10. The specifying means determines a region behind a moving direction of a motion vector aggregation region in the same direction and having a similar size according to the size of the motion vector. Item 9. The motion vector detecting device according to item 9.
【請求項11】 前記特定手段は、同方向でかつ同程度
の大きさを持つ動きベクトルの集合領域の移動方向に対
して後方の領域を、画像の濃度を用いて決定するもので
ある請求項9記載の動きベクトル検出装置。
11. The specifying means determines a region behind a moving direction of a set region of motion vectors having the same size and the same size by using the density of the image. 9. The motion vector detection device according to item 9.
【請求項12】 前記特定手段は、同方向でかつ同程度
の大きさを持つ動きベクトルの集合領域の移動方向に対
して後方の領域を、画像を入力する装置に取り付けられ
たセンサからの信号により検出するものである請求項9
記載の動きベクトル検出装置。
12. The specifying means is a signal from a sensor attached to a device for inputting an image, in an area behind the movement area of a set area of motion vectors having the same size and the same size. The detection is performed by
The motion vector detection device described.
【請求項13】 前記検出手段は、新たに出現する領域
の対応点を探索する過去の画面を特定するのに、前記新
たに出現する領域を陰蔽していた物体の大きさおよび前
記物体の動きベクトルの大きさを用いるものである請求
項7記載の動きベクトル検出装置。
13. The detection means specifies the size of an object that has concealed the newly appearing region and the size of the object in order to identify a past screen for searching for a corresponding point of the newly appearing region. The motion vector detecting device according to claim 7, wherein the size of the motion vector is used.
JP27631892A 1992-10-14 1992-10-14 Motion vector detector Pending JPH06133298A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP27631892A JPH06133298A (en) 1992-10-14 1992-10-14 Motion vector detector

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP27631892A JPH06133298A (en) 1992-10-14 1992-10-14 Motion vector detector

Publications (1)

Publication Number Publication Date
JPH06133298A true JPH06133298A (en) 1994-05-13

Family

ID=17567785

Family Applications (1)

Application Number Title Priority Date Filing Date
JP27631892A Pending JPH06133298A (en) 1992-10-14 1992-10-14 Motion vector detector

Country Status (1)

Country Link
JP (1) JPH06133298A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005160015A (en) * 2003-11-07 2005-06-16 Sony Corp Image processing unit, method, and program
US7386174B2 (en) 1996-08-26 2008-06-10 Canon Kabushiki Kaisha Image transmission apparatus and method therefor
JP2008225591A (en) * 2007-03-09 2008-09-25 Nippon Telegr & Teleph Corp <Ntt> Camera work detection method, equipment, program, and its recording medium
JP2009206953A (en) * 2008-02-28 2009-09-10 Nippon Hoso Kyokai <Nhk> Compression-coding preprocessing apparatus and program
JP2010028607A (en) * 2008-07-23 2010-02-04 Sanyo Electric Co Ltd Image processing apparatus, image capturing apparatus and image processing mehtod
EP2169945A2 (en) 2008-09-26 2010-03-31 Canon Kabushiki Kaisha Image processing apparatus and method for detection and correction of camera shake
JP2013098750A (en) * 2011-10-31 2013-05-20 Jvc Kenwood Corp Image processing apparatus, image processing method, image processing program

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7386174B2 (en) 1996-08-26 2008-06-10 Canon Kabushiki Kaisha Image transmission apparatus and method therefor
JP2005160015A (en) * 2003-11-07 2005-06-16 Sony Corp Image processing unit, method, and program
JP2008225591A (en) * 2007-03-09 2008-09-25 Nippon Telegr & Teleph Corp <Ntt> Camera work detection method, equipment, program, and its recording medium
JP2009206953A (en) * 2008-02-28 2009-09-10 Nippon Hoso Kyokai <Nhk> Compression-coding preprocessing apparatus and program
JP2010028607A (en) * 2008-07-23 2010-02-04 Sanyo Electric Co Ltd Image processing apparatus, image capturing apparatus and image processing mehtod
EP2169945A2 (en) 2008-09-26 2010-03-31 Canon Kabushiki Kaisha Image processing apparatus and method for detection and correction of camera shake
EP2293540A1 (en) 2008-09-26 2011-03-09 Canon Kabushiki Kaisha Image processing apparatus and method for detection and correction of camera shake
US8509481B2 (en) 2008-09-26 2013-08-13 Canon Kabushiki Kaisha Image processing apparatus, image processing method, imaging apparatus
JP2013098750A (en) * 2011-10-31 2013-05-20 Jvc Kenwood Corp Image processing apparatus, image processing method, image processing program

Similar Documents

Publication Publication Date Title
JP5179398B2 (en) Image processing apparatus, image processing method, and image processing program
JP3934151B2 (en) Image generating apparatus and image generating method
JP5057974B2 (en) Processing video data to correct unintentional camera movement between acquired image frames
KR101426095B1 (en) Image processing device, image picking-up device, and image processing method
JP3164121B2 (en) Motion vector detection device
US20100119171A1 (en) Method and device for removing motion blur effects
JP4210954B2 (en) Image processing method, image processing method program, recording medium storing image processing method program, and image processing apparatus
JPWO2004077820A1 (en) Image capture processing method
JPH08172566A (en) Camera-shake correction device and video camera using it
JP2010114752A (en) Device and method of imaging and program
US8194141B2 (en) Method and apparatus for producing sharp frames with less blur
JP2003134385A (en) Image synthesizing device
JP5211589B2 (en) Image processing apparatus, electronic camera, and image processing program
JPH06133298A (en) Motion vector detector
JP2020108119A (en) Notification device, imaging apparatus, notification method, imaging method, and program
JP2003078808A (en) Device and method for detecting motion vector, device and method for correcting camera shake and imaging apparatus
JP3209785B2 (en) Motion vector detection device
JP6808446B2 (en) Image processing equipment, image processing methods and programs
JP3116422B2 (en) Camera control device
JP2825863B2 (en) Moving object detection device
JPH07107369A (en) Image processor
JP3639640B2 (en) Motion vector detection device
JP2014186634A (en) Image processing apparatus, image processing method, and image processing program
JP2023125905A (en) Image processing device, image processing method, and program
JPH07107367A (en) Image processor