JPH09297850A - Device and method for analyzing dynamic picture - Google Patents

Device and method for analyzing dynamic picture

Info

Publication number
JPH09297850A
JPH09297850A JP8109060A JP10906096A JPH09297850A JP H09297850 A JPH09297850 A JP H09297850A JP 8109060 A JP8109060 A JP 8109060A JP 10906096 A JP10906096 A JP 10906096A JP H09297850 A JPH09297850 A JP H09297850A
Authority
JP
Japan
Prior art keywords
motion vector
block
detection unit
area
key frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP8109060A
Other languages
Japanese (ja)
Other versions
JP2940469B2 (en
Inventor
Takeyuki Saeki
剛幸 佐伯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP8109060A priority Critical patent/JP2940469B2/en
Publication of JPH09297850A publication Critical patent/JPH09297850A/en
Application granted granted Critical
Publication of JP2940469B2 publication Critical patent/JP2940469B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To perform processing fast without using any special image processing hardware by tracking a body over frame images applicable to dynamic picture editing from one to another, and specifying the application to dynamic picture editing. SOLUTION: A key frame detection part 13 takes out a frame image containing a scenes change or a largely moving body on a screen as a key frame image. An area detection part 14 generates an area divided image from the key frame image on the basis of color and edge information. A moving vector detection part 15 acquires two key frame images which succeed with time, detects moving vectors in block units by using a block matching method, and also detects a moving vector in an area on the basis of the area divided image. An area correspondence part 16 makes an area which is considered to indicate the same body to correspond between frames according to the moving vector in the area and the area divided image.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は動画像解析装置及び
動画像解析方法に係り、特に動画編集などのために用い
る動画像解析装置及び動画像解析方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a moving image analyzing apparatus and a moving image analyzing method, and more particularly to a moving image analyzing apparatus and a moving image analyzing method used for editing moving images.

【0002】[0002]

【従来の技術】従来の動画像解析装置及び動画像解析方
法は、主に監視システムなどでの人物や車などの自動認
織を行うために使用されている。これらの例として、動
画像から歩行者を検出のための解析方法が文献(塩
他,“動画像からの歩行者の検出”,情報処理研究会報
告書,CV75-5,1991.参照)に開示されている。この
文献に記載された動画像解析装置及び動画像解析方法で
は、フレーム画像に対して背景画像を生成することによ
り物体領域を抽出し、更にブロックマッチング法を用い
て動きベクトルを検出し、同じ動きを示す領域は同じ物
体である可能性が高いという推測のもとに領域分割を行
う。
2. Description of the Related Art A conventional moving image analyzing apparatus and a conventional moving image analyzing method are mainly used to automatically recognize a person or a vehicle in a surveillance system. As an example of these, an analysis method for detecting a pedestrian from a moving image is disclosed in a document (Salt
Others, "Detection of pedestrians from moving images", Information Processing Research Group Report, CV75-5, 1991. ). In the moving image analysis device and the moving image analysis method described in this document, an object area is extracted by generating a background image for a frame image, and a motion vector is detected by using a block matching method, and the same motion is detected. Regions are divided based on the assumption that the regions that indicate are likely to be the same object.

【0003】また、近年、動画像解析を動画の編集に使
用する動きが盛んである。この例として、同一被写体間
リンク手法による動画像解析装置及び動画像解析方法が
知られている(上田,長坂,宮武、“ビデオ解析結果に
基づくオブジェクト間の自動リンクとその応用”、電気
通信学会全国大会,1993.参照)。この論文に記載され
た動画像解析装置及び動画像解析方法は、利用者が物体
を指定すると残りのフレームの中から同じ色の組合せを
持つ物体を自動検出し、それらの間にハイパーリンクを
生成する。
Further, in recent years, there has been a great movement to use moving image analysis for editing moving images. As an example of this, a moving image analysis device and a moving image analysis method based on the link method between same subjects are known (Ueda, Nagasaka, Miyatake, “Automatic link between objects based on video analysis result and its application”, The Institute of Electrical Communication National Convention, 1993.). When the user specifies an object, the moving image analysis device and the moving image analysis method described in this paper automatically detect objects having the same color combination from the remaining frames and generate hyperlinks between them. To do.

【0004】[0004]

【発明が解決しようとする課題】上述した従来の動画像
解析装置及び動画像解析方法のうち、前者の自動認識の
分野に適用されている動画像解析装置及び動画像解析方
法では、物体領域の正確な検出、細かい追跡を目的とし
ている。このため、物体領域の検出と、同じ物体を表し
ていると推定される領域のフレーム画像をまたがった関
連付けによる追跡を、動画像のフレーム画像を間隔を空
けずに細かく処理することにより行う。このため、処理
に時間がかかり、高速化のためには特殊な画像処理ハー
ドウェアが必要になる場合が多い。
Among the conventional moving image analyzing apparatus and moving image analyzing method described above, in the moving image analyzing apparatus and moving image analyzing method applied to the former field of automatic recognition, the object area It is intended for accurate detection and fine tracking. Therefore, the detection of the object region and the tracking by associating the frame images of the regions estimated to represent the same object across the frame images are performed by finely processing the frame images of the moving image without spacing. For this reason, the processing takes time, and special image processing hardware is often required for speeding up.

【0005】一方、後者の動画編集に適用されている動
画像解析装置及び動画像解析方法では、処理は簡単であ
るものの同一物体を検出する際にフレーム画像間の関連
を考慮しておらず、フレーム画像を時間的に連続に調べ
て物体の対応付けを行っていないために誤差が発生し易
く、精度の点で問題がある。
On the other hand, in the latter moving image analyzing apparatus and moving image analyzing method applied to the moving image editing, although the processing is simple, the relation between the frame images is not considered when detecting the same object, Since the frame images are not continuously examined temporally and the objects are not associated with each other, an error is likely to occur and there is a problem in accuracy.

【0006】本発明は以上の点に鑑みなされたもので、
動画編集に適用可能な、フレーム画像間にまたがって物
体の追跡を行い、かつ、動画編集への適用に特化するこ
とにより、特殊な画像処理ハードウェアを使用せずに高
速に処理を行える動画像解析装置及び動画像解析方法を
提供することを目的とする。
[0006] The present invention has been made in view of the above points,
Video that can be applied to video editing, can track objects across frame images, and specializes in video editing to perform high-speed processing without using special image processing hardware. An object is to provide an image analysis device and a moving image analysis method.

【0007】[0007]

【課題を解決するための手段】上記の目的を達成するた
め、本発明の動画像解析装置は、動画像データから動画
像内容を的確に表すキーフレームとなるキーフレーム画
像を取り出すキーフレーム検出部と、キーフレーム画像
から領域分割画像を生成する領域検出部と、キーフレー
ム検出部から取得したキーフレーム画像と領域検出部か
ら取得した領域分割画像とから領域の動きベクトルを検
出する動きベクトル検出部と、領域検出部から取得した
領域分割画像と動きベクトル検出部から取得した領域の
動きベクトルとから物体の動きを導出し、同じ物体を指
していると推定される領域のフレーム間での対応付けを
行う領域対応付け部と、キーフレーム画像、領域分割画
像、動きベクトルを少なくとも記憶する記憶装置とを有
する構成としたものである。
In order to achieve the above-mentioned object, a moving image analysis apparatus of the present invention is a key frame detecting section for extracting a key frame image which is a key frame accurately representing moving image contents from moving image data. An area detection unit that generates an area-divided image from the key frame image, and a motion vector detection unit that detects a motion vector of the area from the key frame image acquired from the key frame detection unit and the area divided image acquired from the area detection unit. And the motion of the object is derived from the region-divided image acquired from the region detection unit and the motion vector of the region acquired from the motion vector detection unit, and the correspondence between the frames of the regions estimated to point to the same object And a storage device that stores at least a key frame image, a region division image, and a motion vector. It is.

【0008】また、本発明の動画像解析方法は、動画像
データから動画像内容を的確に表すキーフレームとなる
キーフレーム画像を取り出し、このキーフレーム画像か
ら領域分割画像を生成した後、キーフレーム画像と領域
分割画像とから領域の動きベクトルを検出し、更にこの
領域の動きベクトルと領域分割画像とから物体の動きを
導出し、同じ物体を指していると推定される領域のフレ
ーム間での対応付けを行う。
Further, according to the moving image analysis method of the present invention, a key frame image that is a key frame that accurately represents the moving image content is extracted from the moving image data, an area division image is generated from this key frame image, and then the key frame image is generated. The motion vector of the area is detected from the image and the area-divided image, and the motion of the object is further derived from the motion vector of this area and the area-divided image, and between the frames of the area estimated to point to the same object. Correspond.

【0009】本発明の動画像解析装置及び動画像解析方
法では、物体追跡のための領域検出、動きベクトル検出
をキーフレーム画像のみを利用して行うため、処理対称
のフレーム数を低減することができる。また、処理対象
となるフレーム画像は画像内容を的確に表すキーフレー
ム画像に特定できる。
In the moving image analysis apparatus and the moving image analysis method of the present invention, since the area detection and the motion vector detection for object tracking are performed by using only the key frame image, the number of processing symmetric frames can be reduced. it can. Further, the frame image to be processed can be specified as a key frame image that accurately represents the image content.

【0010】また、本発明の動画像解析装置では、時間
的に連続した2枚のキーフレーム画像の一方を複数のブ
ロックに分割するブロック分割部と、分割されたブロッ
ク毎にコントラスト値を算出し、その算出コントラスト
値としきい値と比較してしきい値よりも低いコントラス
ト値のブロックの動きベクトルは不定とするコントラス
ト検査部と、しきい値よりも高いコントラスト値のすべ
てのブロックについて他方のキーフレーム画像の近傍の
ブロックとの色の違いを検査し、色の違いが最小となる
点を対応点としてその位置の変化を動きベクトルとする
ブロックマッチング部とを含む構成のブロックの動きベ
クトル検出部を有するようにしているため、特徴が少な
いために対応点に誤差が入りやすいブロックの動きベク
トルを除くことができる。
Further, the moving image analysis apparatus of the present invention calculates a contrast value for each of the divided blocks, and a block dividing unit for dividing one of two time-continuous key frame images into a plurality of blocks. , The calculated contrast value is compared with the threshold value and the motion vector of the block whose contrast value is lower than the threshold value is indefinite, and the other key for all the blocks whose contrast value is higher than the threshold value. A motion vector detection unit for a block configured to inspect a color difference from a block in the vicinity of a frame image, and a block matching unit that uses a point having the smallest color difference as a corresponding point and a change in the position as a motion vector Since there are few features, it is possible to exclude the motion vector of the block where the corresponding points are prone to errors due to the small number of features. Kill.

【0011】また、本発明の動画像解析装置では、時間
的に連続した2枚のキーフレーム画像の一方を複数のブ
ロックに分割するブロック分割部と、分割されたブロッ
クのすべてについて他方のキーフレーム画像の近傍のブ
ロックとの色の違いを検査し、色の違いが最小となる点
を対応点としてその位置の変化を動きベクトルとするブ
ロックマッチング部と、ブロックマッチング部により算
出されたブロックの動きベクトルの色誤差をしきい値と
比較してしきい値よりも大きな色誤差のブロックの動き
ベクトルを不定とする色誤差比較部とを含む構成のブロ
ックの動きベクトル検出部を有するようにしたため、キ
ーフレームのみを処理するためにフレームの間隔が空い
てしまい対応点が消えてしまう場合に発生する不正なベ
クトルの影響を除去することができる。
Further, in the moving image analysis apparatus of the present invention, a block division unit for dividing one of two temporally consecutive key frame images into a plurality of blocks, and the other key frame for all the divided blocks. A block matching unit that inspects a color difference with a block in the vicinity of an image and uses a point where the color difference is the minimum as a corresponding point as a motion vector, and a block motion calculated by the block matching unit. Since the color error of the vector is compared with the threshold value, the motion vector detecting section for the block is configured to include the color error comparing section that makes the motion vector of the block with the color error larger than the threshold value indeterminate. Eliminates the influence of illegal vectors that occur when the corresponding points disappear because the frames are spaced apart because only keyframes are processed. It can be.

【0012】更に、本発明の動画像解析装置では、前記
ブロックマッチング部により算出されたブロックの動き
ベクトルの色誤差分布の最小値付近での偏りを算出し、
偏りがしきい値よりも大きな色誤差分布のブロックの動
きベクトルを不定とする色誤差分布検査部を含むブロッ
クの動きベクトル検出部を有する構成としたため、色が
類似したブロックが多数あって、その中の一つにたまた
ま一致したような場合に発生する不正な動きベクトルを
除去することができる。
Further, in the moving image analysis apparatus of the present invention, the bias near the minimum value of the color error distribution of the motion vector of the block calculated by the block matching unit is calculated,
Since the configuration has the motion vector detection unit of the block including the color error distribution inspection unit that makes the motion vector of the block of the color error distribution in which the bias is larger than the threshold value indefinite, there are many blocks with similar colors, It is possible to remove an incorrect motion vector that occurs when one of the two happens to match.

【0013】また、本発明の動画像解析装置では、領域
検出部から領域分割画像を取得すると共にブロックの動
きベクトル検出部から動きベクトルを取得し、領域分割
画像に存在するブロックの動きベクトル数がしきい値以
下のときはその領域の動きベクトルを不定とする動きベ
クトル数検査部と、動きベクトル数検査部により領域分
割画像に存在するブロックの動きベクトル数がしきい値
よりも多いときは、領域検出部から取得した領域分割画
像とブロックの動きベクトル検出部から取得したブロッ
クの動きベクトルとに基づいて領域分割画像に存在する
動きベクトルのヒストグラムを作成するヒストグラム作
成部と、作成されたヒストグラム中の出現頻度が最大の
動きベクトルをその領域の動きベクトルとして検出する
ピーク検出部とを含む領域の動きベクトル検出部を有す
る構成としたため、領域に存在するブロックの数が少な
かった場合に生じる精度の低い領域の動きベクトルを除
去することができる。
Further, in the moving image analysis apparatus of the present invention, the area division image is obtained from the area detection unit, the motion vector is obtained from the motion vector detection unit of the block, and the number of motion vectors of the blocks existing in the area division image is calculated. When the number is less than the threshold, the motion vector number inspecting unit that makes the motion vector of the region indefinite, and when the motion vector number inspecting the region divided image by the motion vector number inspecting unit is greater than the threshold value, A histogram creation unit that creates a histogram of motion vectors existing in the area-division image based on the area-division image acquired from the area detection unit and the motion vector of the block acquired from the block motion vector detection unit. And a peak detection unit that detects the motion vector with the highest appearance frequency as the motion vector of that region. Due to a configuration in which a motion vector detecting portion of the free region, it is possible to remove the motion vector of the less accurate area caused when the number of blocks present in the area was small.

【0014】更にまた、本発明の動画像解析装置では、
上記ヒストグラム作成部及びピーク検出部と、ピーク検
出部により検出された動きベクトルの頻度の全体に占め
る割合をしきい値と比較してしきい値以上の割合の動き
ベクトルを不定とする頻度検査部と含む領域の動きベク
トル検出部を有する構成としたため、領域中のブロック
の動きベクトルの値が分散している場合に生じる精度の
低い領域の動きベクトルを除去することができる。
Furthermore, in the moving image analysis apparatus of the present invention,
The histogram creation unit and the peak detection unit, and a frequency inspection unit that compares the ratio of the frequency of the motion vector detected by the peak detection unit to the whole with a threshold value and makes the motion vector of the ratio equal to or higher than the threshold value indefinite Since the configuration is provided with the motion vector detecting unit for the region including, the motion vector of the region with low accuracy that occurs when the values of the motion vectors of the blocks in the region are dispersed can be removed.

【0015】[0015]

【発明の実施の形態】次に、本発明の各実施の形態につ
いて図面を参照して詳細に説明する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Next, embodiments of the present invention will be described in detail with reference to the drawings.

【0016】図1は本発明の第1の実施の形態のブロッ
ク図であり、請求項1に記載した発明に対応する。この
実施の形態の動画像解析装置は、プログラム制御により
動作するデータ処理装置1と、情報を記憶する記憶装置
2とから構成される。
FIG. 1 is a block diagram of a first embodiment of the present invention and corresponds to the invention described in claim 1. The moving image analysis apparatus according to this embodiment includes a data processing apparatus 1 that operates under program control and a storage apparatus 2 that stores information.

【0017】データ処理装置1は、動画再生部11とフ
レーム取得部12とキーフレーム検出部13と領域検出
部14と動きベクトル検出部15と領域対応付け部16
とから構成されている。
The data processing apparatus 1 includes a moving image reproducing section 11, a frame acquiring section 12, a key frame detecting section 13, an area detecting section 14, a motion vector detecting section 15, and an area associating section 16.
It is composed of

【0018】動画再生部11は、ディジタル化された動
画像データを再生する。フレーム取得部12は、再生中
の動画データから、フレームを一枚ずつ静止画像として
取り出す。キーフレーム検出部13は、フレーム取得部
12により取得したフレーム画像の色ヒストグラム変化
やフレーム間差分を測定し、場面が変わったり、映って
いる物体が大きく動いたフレーム画像を、動画像内容を
的確に表すキーフレーム画像として取り出す。大きな画
面の切り替わりは色ヒストグラム変化で検出できるが、
フレーム間差分を併用することにより色の変化は少なく
とも動画中の物体が大きく動いた場合などの検出も行う
ことができ、さらに精度を高めることができる。
The moving image reproducing section 11 reproduces the digitized moving image data. The frame acquisition unit 12 extracts frames one by one as still images from the moving image data being reproduced. The key frame detection unit 13 measures the color histogram change and the inter-frame difference of the frame image acquired by the frame acquisition unit 12 to accurately determine the content of the moving image of the frame image in which the scene changes or the object in the image moves greatly. It is extracted as the key frame image shown in. Large screen changes can be detected by color histogram changes,
By using the difference between the frames together, the color change can be detected at least when the object in the moving image largely moves, and the accuracy can be further improved.

【0019】領域検出部14は、キーフレーム検出部1
3により検出したキーフレーム画像から色、エッジ情報
を検出し、それを基にキーフレーム画像から領域分割画
像を生成する。動きベクトル検出部15は、キーフレー
ム検出部13により検出した時間的に連続した2枚のキ
ーフレーム画像を取得し、ブロックマッチング法を使用
してブロック単位の動きベクトルを検出する。さらに、
領域検出部14で検出した領域分割画像を基に、領域の
動きベクトルを検出する。領域対応付け部16は、動き
ベクトル検出部15で検出した領域の動きベクトルと領
域検出部14で検出した領域分割画像を基に、同じ物体
を指していると推定される領域のフレーム間での対応付
けを行う。
The area detector 14 is the key frame detector 1
The color and edge information is detected from the key frame image detected in 3, and the area division image is generated from the key frame image based on the detected color and edge information. The motion vector detection unit 15 acquires two temporally consecutive key frame images detected by the key frame detection unit 13 and detects a block-based motion vector using the block matching method. further,
The motion vector of the area is detected based on the area division image detected by the area detection unit 14. Based on the motion vector of the area detected by the motion vector detecting section 15 and the area division image detected by the area detecting section 14, the area associating section 16 detects the same object between frames of the area estimated to point to the same object. Correspond.

【0020】記憶装置2は、キーフレーム記憶部21と
領域記憶部22と動きベクトル記憶部23と関連領域記
憶部24とから構成されている。キーフレーム記憶部2
1は、キーフレーム検出部13により検出したキーフレ
ーム画像を管理する。領域記憶部22は、領域検出部1
4により検出した領域分割画像を管理する。動きベクト
ル記憶部23は、動きベクトル検出部15により検出し
た領域の動きベクトルを管理する。関連領域記憶部24
は、領域対応付け部16により同じ物体を指していると
推定された領域に関する情報を格納する。
The storage device 2 is composed of a key frame storage unit 21, an area storage unit 22, a motion vector storage unit 23, and a related area storage unit 24. Key frame storage unit 2
Reference numeral 1 manages the key frame image detected by the key frame detection unit 13. The area storage unit 22 includes the area detection unit 1
The area division image detected by 4 is managed. The motion vector storage unit 23 manages the motion vector of the area detected by the motion vector detection unit 15. Related area storage 24
Stores information about the area estimated to point to the same object by the area association unit 16.

【0021】図2は本発明の第1の実施の形態の動きベ
クトル検出部15のより詳細なブロック図であり、請求
項7に記載した発明に対応する。動きベクトル検出部1
5は、ブロックの動きベクトル検出部151と領域の動
きベクトル検出部152とから構成されており、請求項
2、3及び7記載の発明に対応する。ブロックの動きベ
クトル検出部151は、さらに、ブロック分割部151
1とブロックマッチング部1512から構成され 時間
的に連続した2枚のキーフレーム画像を取得してブロッ
クマッチング法を使用して動きベクトルの検出を行う。
FIG. 2 is a more detailed block diagram of the motion vector detecting unit 15 according to the first embodiment of the present invention, which corresponds to the invention described in claim 7. Motion vector detection unit 1
5 is composed of a block motion vector detection unit 151 and a region motion vector detection unit 152, and corresponds to the invention described in claims 2, 3 and 7. The block motion vector detection unit 151 further includes a block division unit 151.
1 and the block matching unit 1512, two temporally continuous key frame images are acquired, and the motion vector is detected using the block matching method.

【0022】領域の動きベクトル検出部152は、ヒス
トグラム作成部1521とピーク検出部1522から構
成される。領域の動きベクトル検出部152は、領域検
出部14が検出した領域分割画像とブロックの動きベク
トル検出部151が検出したブロックの動きベクトルを
基に、ヒストグラム作成部1521により領域に存在す
るブロックの動きベクトルのヒストグラムを作成し、ピ
ーク検出部1522によりヒストグラム中の頻度が最大
の動きベクトルを調べることにより領域の動きベクトル
を検出する。
The area motion vector detecting section 152 is composed of a histogram creating section 1521 and a peak detecting section 1522. The motion vector detecting unit 152 of the area detects the motion of the block existing in the area by the histogram creating unit 1521 based on the area divided image detected by the area detecting unit 14 and the motion vector of the block detected by the motion vector detecting unit 151 of the block. A vector histogram is created, and the peak detection unit 1522 detects the motion vector having the maximum frequency in the histogram to detect the motion vector of the area.

【0023】図3は領域対応付け部16のより詳細なブ
ロック図を示す。図3に示すように、領域対応付け部1
6は、領域予測部161と対応領域マッチング部162
とから構成される。領域予測部161は、領域検出部1
4が検出した領域分割画像のそれぞれの領域について、
その位置を動きベクトルに基づいて移動した領域を計算
することにより領域の予測を行う。
FIG. 3 shows a more detailed block diagram of the area associating unit 16. As shown in FIG. 3, the area associating unit 1
6 is a region prediction unit 161 and a corresponding region matching unit 162.
It is composed of The area prediction unit 161 includes the area detection unit 1
For each area of the area-divided image detected by 4,
The area is predicted by calculating the area whose position is moved based on the motion vector.

【0024】対応領域マッチング部162は、領域予測
部161で予測した領域に対して、次のフレームのすべ
ての領域との面積の重なり具合を調べて、最も重なる面
積が大きいものを、同じ物体を表している対応領域とし
て扱う。対応付け記憶部では、同じ物体を表していると
推定された領域について、フレーム番号と領域IDの組
を羅列したものを管理する。
The corresponding area matching unit 162 checks the degree of overlap of the areas predicted by the area prediction unit 161 with all the areas of the next frame, and determines the area with the largest overlapping area as the same object. Treated as the corresponding area. The association storage unit manages a group of sets of frame numbers and area IDs for areas estimated to represent the same object.

【0025】次に、図1及び図4を参照して、本発明の
第1の実施の形態の動作について説明する。図4は図1
に示した本発明の第1の実施の形態の動作を説明するフ
ローチャートである。
Next, the operation of the first embodiment of the present invention will be described with reference to FIGS. 4 is shown in FIG.
6 is a flowchart illustrating the operation of the first exemplary embodiment of the present invention shown in FIG.

【0026】まず、動画再生部11は、ディジタル化さ
れた動画像データを再生する(ステップST1)。フレ
ーム取得部12は、再生中の動画像データから、フレー
ムを一枚ずつ静止画像として取り出す(ステップST
2)。キーフレーム検出部13は、フレーム取得部12
により取得されたフレーム画像(静止画像)の色ヒスト
グラム変化やフレーム間差分を測定し(ステップST
3)、それぞれがあらかじめ設定されているしきい値以
上であるかどうかによりキーフレームであるか否かを判
断する(ステップST4)。ここで、フレーム間差分値
などがしきい値未満の場合には、取得されたフレームは
キーフレームではないと判断し、しきい値以上の場合に
は、取得したフレームはキーフレームであるとして検出
する。
First, the moving image reproducing section 11 reproduces the digitized moving image data (step ST1). The frame acquisition unit 12 takes out frames one by one as still images from the moving image data being reproduced (step ST
2). The key frame detection unit 13 uses the frame acquisition unit 12
The color histogram change and the inter-frame difference of the frame image (still image) acquired by are measured (step ST
3) Then, it is determined whether the frame is a key frame or not depending on whether each is a preset threshold value or more (step ST4). Here, if the inter-frame difference value is less than the threshold value, it is determined that the acquired frame is not a key frame, and if it is greater than or equal to the threshold value, the acquired frame is detected as a key frame. To do.

【0027】領域検出部14は、キーフレーム検出部1
3で検出されたキーフレームのフレーム画像(以下、キ
ーフレーム画像という)から色、エッジ情報を検出し、
それを基にキーフレーム画像に対応する領域分割画像を
生成する(ステップST5)。動きベクトル検出部15
は、キーフレーム検出部13で検出された、時間的に連
続した2枚のキーフレーム画像から動きベクトルを検出
すると共に、領域検出部14で生成された領域分割画像
を基に、領域の動きベクトルを導出する(ステップST
6)。
The area detector 14 is the key frame detector 1
The color and edge information is detected from the frame image of the key frame detected in 3 (hereinafter referred to as the key frame image),
Based on this, an area division image corresponding to the key frame image is generated (step ST5). Motion vector detection unit 15
Detects a motion vector from two temporally consecutive key frame images detected by the key frame detection unit 13, and detects the motion vector of the area based on the area division image generated by the area detection unit 14. Is derived (step ST
6).

【0028】続いて、動画像ファイルに存在するすべて
のフレームに対して処理したかを調べ(ステップST
7)、すべてのフレームを処理していない場合には、ス
テップST2に戻りフレーム取得部12が次のフレーム
を取得し、以後上記のステップST3〜ST6の処理を
再び実行する。すべてのフレームを処理しているとステ
ップST7で判定された場合には、領域対応付け部16
は動きベクトル検出部15で検出された領域の動きベク
トルと、領域検出部14で生成された領域分割画像を基
に、同じ物体を指していると推定される領域のフレーム
間での対応付けを行う(ステップST8)。
Then, it is checked whether all the frames existing in the moving image file have been processed (step ST
7) If all the frames have not been processed, the process returns to step ST2, the frame acquisition unit 12 acquires the next frame, and then the processes of steps ST3 to ST6 are executed again. When it is determined in step ST7 that all the frames are processed, the area matching unit 16
Is based on the motion vector of the region detected by the motion vector detection unit 15 and the region-divided image generated by the region detection unit 14 and associates the regions estimated to point to the same object between frames. Perform (step ST8).

【0029】次に、ステップST6の動きベクトル検出
部15による動きベクトル検出処埋の詳細について、図
5及び図6のフローチャートと共に説明する。まず、図
2に示したブロックの動きベクトル検出部151の処理
について図5のフローチャートと共に説明するに、ブロ
ック分割部1511は、キーフレーム検出部13により
検出された時間的に連続した2枚のキーフレーム画像を
取得し(ステップST11)、そのうち1枚目のキーフ
レーム画像の方をブロックに分割する(ステップST1
2)。
Next, details of the motion vector detection processing by the motion vector detection unit 15 in step ST6 will be described with reference to the flowcharts of FIGS. 5 and 6. First, the processing of the block motion vector detecting unit 151 shown in FIG. 2 will be described with reference to the flowchart of FIG. 5. The block dividing unit 1511 detects that two time-sequential keys detected by the key frame detecting unit 13 are consecutive. Frame images are acquired (step ST11), and the first key frame image is divided into blocks (step ST1).
2).

【0030】続いて、図2に示したブロックの動きベク
トル検出部151内のブロックマッチング部1512が
1枚目のキーフレーム画像のあるブロックについて2枚
目のキーフレーム画像のすべての近傍のブロックとの色
の違いを比較検査し(ステップST13、ST14)、
その中で色の違いが最小となるブロックへの位置ベクト
ルを動きベクトルとして導出する(ステップST1
5)。この動きベクトルの導出が1枚目のキーフレーム
画像のすべてのブロックについて行われたかどうか判断
し(ステップST16)、1枚目のキーフレーム画像の
すべてのブロックについて動きベクトルの導出がされる
までステップST13〜ST16の処理が繰り返され
る。
Then, the block matching unit 1512 in the motion vector detecting unit 151 of the block shown in FIG. 2 determines that the block having the first key frame image is all blocks in the vicinity of the second key frame image. And inspect the difference in the colors of (steps ST13, ST14),
A position vector to a block in which the color difference is the smallest is derived as a motion vector (step ST1).
5). It is determined whether or not this motion vector has been derived for all blocks of the first key frame image (step ST16), and steps are performed until motion vectors have been derived for all blocks of the first key frame image. The processing of ST13 to ST16 is repeated.

【0031】次に、動きベクトル検出部15の図2に示
した領域の動きベクトル検出部152の処理について、
図6のフローチャートと共に説明する。領域の動きベク
トル検出部152は、ブロックの動きベクトル検出部1
51からブロックの動きベクトルを取得し(ステップS
T21)、更に領域検出部14から領域分割画像を取得
する(ステップST22)。
Next, regarding the processing of the motion vector detection unit 152 of the area shown in FIG.
Description will be made with reference to the flowchart of FIG. The area motion vector detection unit 152 is a block motion vector detection unit 1.
The motion vector of the block is acquired from 51 (step S
(T21), and further acquires a region division image from the region detection unit 14 (step ST22).

【0032】ヒストグラム作成部1521は、これらに
基づいてある領域に存在するブロックの動きベクトルの
ヒストグラムを作成する(ステップST23)。続い
て、ピーク検出部1522は作成された上記のヒストグ
ラムの中から頻度が最大の動きベクトルを、その領域の
動きベクトルとして検出して蓄積する(ステップST2
4)。そして、上記のステップST23とST24の処
理がすべての領域について実行される(ステップST2
5)。
The histogram creating unit 1521 creates a histogram of motion vectors of blocks existing in a certain area based on these (step ST23). Then, the peak detection unit 1522 detects the motion vector having the maximum frequency from the created histogram as the motion vector of the region and accumulates it (step ST2).
4). Then, the processes of steps ST23 and ST24 described above are executed for all the regions (step ST2).
5).

【0033】次に、図1の実施の形態における領域対応
付け部16の処理の詳細を、図7のフローチャートと共
に説明する。図1及び図3に示した領域対応付け部16
は領域記憶部22から読み出した領域情報を取得し(ス
テップST31)、更に動きベクトル記憶部23から読
み出した動きベクトルを取得した後(ステップST3
2)、これらの取得した情報に基づいて個々の領域の位
置とその動きベクトルを取得する(ステップST3
3)。
Next, details of the processing of the area associating unit 16 in the embodiment of FIG. 1 will be described with reference to the flowchart of FIG. Area mapping unit 16 shown in FIGS. 1 and 3
Acquires the area information read from the area storage unit 22 (step ST31), and further acquires the motion vector read from the motion vector storage unit 23 (step ST3).
2) The position of each area and its motion vector are acquired based on the acquired information (step ST3).
3).

【0034】続いて、取得した一つの領域の動きベクト
ルが不定であるかどうか判定し(ステップST34)、
動きベクトルが不定である場合は次の領域の位置と動き
ベクトルを取得してその領域の動きベクトルが不定であ
るかどうか判定する(ステップST33、ST34)。
動きベクトルが不定でないときは、領域予測部161で
領域の位置を動きベクトルに基づき移動した領域を計算
により予測し(ステップST35)、続いて対応領域マ
ッチング部162により上記予測領域と次のフレームの
すべての領域との面積の重なり具合を調べて(ステップ
ST36)、最も重なる面積が大きいものを同じ物体を
表している対応領域として関連領域記憶部24に登録す
る(ステップST37)。
Then, it is judged whether or not the obtained motion vector of one area is indefinite (step ST34),
When the motion vector is indefinite, the position and motion vector of the next area are acquired and it is determined whether or not the motion vector of the area is indefinite (steps ST33, ST34).
When the motion vector is not indefinite, the region predicting unit 161 predicts a region in which the position of the region is moved based on the motion vector by calculation (step ST35), and then the corresponding region matching unit 162 predicts the predicted region and the next frame. The degree of area overlap with all areas is checked (step ST36), and the area with the largest area overlap is registered in the related area storage unit 24 as a corresponding area representing the same object (step ST37).

【0035】上記のステップST31〜ST37までの
処理をすべての領域について繰り返し(ステップST3
8)、更に上記ステップST31〜ST38の処理がす
べてのフレームにつて繰り返される(ステップST3
9)。
The above steps ST31 to ST37 are repeated for all areas (step ST3
8), and the processing of steps ST31 to ST38 is repeated for all frames (step ST3).
9).

【0036】このように、この実施の形態では、物体追
跡のための領域検出、動きベクトル検出をキーフレーム
に対してのみ行うので、処理対象のフレーム数を下げる
ことができ速度を高速化することができる。しかも、処
理するフレーム数を減らしているが、内容を的確に表現
するフレームは処理しているので、精度の低下を妥当な
範囲に抑えることが可能である。
As described above, in this embodiment, since the area detection and the motion vector detection for object tracking are performed only for the key frame, the number of frames to be processed can be reduced and the speed can be increased. You can Moreover, although the number of frames to be processed is reduced, the frames that accurately express the contents are processed, so that it is possible to suppress the decrease in accuracy within a reasonable range.

【0037】次に、本発明の第2の実施の形態について
説明する。図8は本発明の第2の実施の形態の動きベク
トル検出部の詳細ブロック図であり、請求項4に記載の
発明に対応する。図8中、図2と同一構成部分には同一
符号を付してある。本発明の第2の実施の形態では、動
きベクトル検出部15内のブロックの動きベクトル検出
部153に特徴があり、領域の動きベクトル検出部15
2は第1の実施の形態と全く同じ構成である。
Next, a second embodiment of the present invention will be described. FIG. 8 is a detailed block diagram of the motion vector detecting unit according to the second embodiment of the present invention, and corresponds to the invention described in claim 4. 8, those parts that are the same as those corresponding parts in FIG. 2 are designated by the same reference numerals. The second embodiment of the present invention is characterized by the motion vector detection unit 153 of the block in the motion vector detection unit 15 and the motion vector detection unit 15 of the area.
2 has exactly the same configuration as that of the first embodiment.

【0038】ブロックの動きベクトル検出部153は、
ブロック分割部1511とブロックマッチング部151
2とコントラスト検査部1513とを含む。コントラス
ト検査部1513は、1枚目のキーフレーム画像のすべ
てのブロックのコントラスト値を算出し、その算出値を
予め定めたしきい値と比較し、しきい値より低い算出値
が得られたキーフレーム画像を信頼度が低いものとして
動きベクトルが不定であるとして扱う。
The block motion vector detector 153
Block division unit 1511 and block matching unit 151
2 and a contrast inspection unit 1513. The contrast inspection unit 1513 calculates the contrast value of all the blocks of the first key frame image, compares the calculated value with a predetermined threshold value, and obtains a calculated value lower than the threshold value. The frame image is treated as having low reliability and the motion vector is indefinite.

【0039】次に、図8及び図9を参照して、本発明の
第2の実施の形態の動作について説明する。図9は本発
明の第2の実施の形態の動作を示すフローチャートを示
す。図9において、図8のブロック分割部1511は、
キーフレーム検出部13により検出された時間的に連続
した2枚のキーフレーム画像を取得し(ステップST4
1)、そのうち1枚目のキーフレーム画像の方をブロッ
クに分割する(ステップST42)。
Next, the operation of the second embodiment of the present invention will be described with reference to FIGS. FIG. 9 shows a flowchart showing the operation of the second embodiment of the present invention. In FIG. 9, the block division unit 1511 of FIG.
Two temporally consecutive key frame images detected by the key frame detection unit 13 are acquired (step ST4
1) Among them, the first key frame image is divided into blocks (step ST42).

【0040】続いて、図8に示したコントラスト検査部
1513は、1枚目のキーフレーム画像の各ブロックの
コントラスト値を算出した後(ステップST43)、そ
のコントラスト値を予め定めたしきい値と比較する(ス
テップST44)。この比較の結果、しきい値以下のコ
ントラスト値のブロックを信頼度が低いものとし、その
ブロックの動きベクトルが不定であるとして扱う(ステ
ップST45)。
Subsequently, the contrast inspection unit 1513 shown in FIG. 8 calculates the contrast value of each block of the first key frame image (step ST43), and sets the contrast value as a predetermined threshold value. The comparison is made (step ST44). As a result of this comparison, a block having a contrast value equal to or lower than the threshold value is regarded as having low reliability, and the motion vector of the block is treated as indefinite (step ST45).

【0041】一方、上記の比較によりしきい値以上のコ
ントラスト値の1枚目のキーフレーム画像のブロックに
ついては、ブロックマッチング部1512が2枚目のキ
ーフレーム画像のすべての近傍のブロックとの色の違い
を比較検査し(ステップST46、ST47)、その中
で色の違いが最小となるブロックへの位置ベクトルを動
きベクトルとして導出し(ステップST48)、この動
きベクトルを信頼度が高いブロックの動きベクトルとし
て動きベクトル記憶部23に蓄積する(ステップST4
9)。
On the other hand, as for the block of the first key frame image having the contrast value equal to or higher than the threshold value by the above comparison, the block matching unit 1512 colors the blocks of all the neighboring blocks of the second key frame image. Are compared and inspected (steps ST46 and ST47), and a position vector to a block in which the color difference is the smallest is derived as a motion vector (step ST48), and this motion vector is used for the motion of the block with high reliability. It is stored in the motion vector storage unit 23 as a vector (step ST4).
9).

【0042】続いて、この動きベクトルの導出が1枚目
のキーフレーム画像のすべてのブロックについて行われ
たかどうか判断し(ステップST50)、1枚目のキー
フレーム画像のすべてのブロックについて動きベクトル
の導出がされるまでステップST43〜ST50の処理
が繰り返される。
Then, it is judged whether or not this motion vector has been derived for all blocks of the first key frame image (step ST50), and motion vectors of all blocks of the first key frame image have been calculated. The processes of steps ST43 to ST50 are repeated until the derivation.

【0043】この第2の実施の形態によれば、特徴が少
ないために対応点に誤差が入りやすく動きベクトルの精
度が低いと予想されるブロックを除くようにしているた
め、精度の低下を防ぐ効果がある。また、ブロックマッ
チングはしきい値以上のコントラスト値のブロックにつ
いてのみ行っているので、計算コストのかかるブロック
マッチングの処理回数を減らすことができ、よって処理
の高速化をはかることができる。
According to the second embodiment, a block which is likely to have an error at a corresponding point due to a small number of features and which is expected to have a low motion vector accuracy is excluded. Therefore, a decrease in accuracy is prevented. effective. Further, since the block matching is performed only on the blocks having the contrast value equal to or more than the threshold value, the number of times of the block matching processing which requires a calculation cost can be reduced, and thus the processing speed can be increased.

【0044】次に、本発明の第3の実施の形態について
説明する。図10は、本発明の第3の実施の形態の動き
ベクトル検出部の詳細ブロック図であり、請求項5に記
載の発明に対応する。図10中、図2と同一構成部分に
は同一符号を付してある。本発明の第3の実施の形態で
は、動きベクトル検出部15内のブロックの動きベクト
ル検出部154に特徴があり、領域の動きベクトル検出
部152は第1及び第2の実施の形態と全く同じ構成で
ある。
Next, a third embodiment of the present invention will be described. FIG. 10 is a detailed block diagram of the motion vector detecting unit according to the third embodiment of the present invention, and corresponds to the invention described in claim 5. 10, those parts that are the same as those corresponding parts in FIG. 2 are designated by the same reference numerals. The third embodiment of the present invention is characterized by the block motion vector detection unit 154 in the motion vector detection unit 15, and the region motion vector detection unit 152 is exactly the same as in the first and second embodiments. It is a composition.

【0045】ブロックの動きベクトル検出部154は、
ブロック分割部1511とブロックマッチング部151
2と色誤差比較部1514とを含む。色誤差比較部15
14は、ブロック分割部1511と、ブロックマッチン
グ部1512においてブロックマッチング法で動きベク
トルを算出したときの色誤差をあらかじめ指定された値
と比較して、誤差がしきい値より大きいブロックの動き
ベクトルは不定とする。
The block motion vector detector 154
Block division unit 1511 and block matching unit 151
2 and a color error comparison unit 1514. Color error comparison unit 15
Reference numeral 14 compares the color error when the motion vector is calculated by the block matching method in the block division unit 1511 and the block matching unit 1512 with a predetermined value, and the motion vector of the block whose error is larger than the threshold value is Indefinite

【0046】次に、図10及び図11を参照して、本発
明の第3の実施の形態の動作について説明する。図11
は本発明の第3の実施の形態の動作説明用フローチャー
トを示す。図11中、図5と同一処理ステップは同一番
号を付し、その説明は省略する。
Next, the operation of the third embodiment of the present invention will be described with reference to FIGS. FIG.
Shows a flowchart for explaining the operation of the third embodiment of the present invention. 11, the same processing steps as those in FIG. 5 are designated by the same reference numerals, and the description thereof will be omitted.

【0047】図11において、ステップST15で色の
違いが最小となるブロックへの位置ベクトルを動きベク
トルとして導出されると、続いて図10に示した色誤差
比較部1514が、ブロック分割部1511とブロック
マッチング部1512においてブロックマッチング法で
動きベクトルを算出したときの色誤差の最小値を、あら
かじめ指定された値と比較して、色誤差の最小値がしき
い値より小さいか否か判断する(ステップST55)。
In FIG. 11, when the position vector to the block having the smallest color difference is derived as the motion vector in step ST15, the color error comparison unit 1514 shown in FIG. The minimum value of the color error when the motion vector is calculated by the block matching unit 1512 by the block matching method is compared with a predetermined value, and it is determined whether or not the minimum value of the color error is smaller than the threshold value ( Step ST55).

【0048】色誤差の最小値がしきい値以上のときに
は、動きベクトルの信頼度が低いと判断してブロックの
動きベクトルは不定とする(ステップST56)。一
方、色誤差の最小値がしきい値より小さいときには、こ
の動きベクトルを信頼度が高いブロックの動きベクトル
として動きベクトル記憶部23に蓄積する(ステップS
T57)。
When the minimum value of the color error is equal to or more than the threshold value, it is determined that the reliability of the motion vector is low, and the motion vector of the block is indefinite (step ST56). On the other hand, when the minimum value of the color error is smaller than the threshold value, this motion vector is stored in the motion vector storage unit 23 as the motion vector of the block with high reliability (step S).
T57).

【0049】続いて、この動きベクトルの導出が1枚目
のキーフレーム画像のすべてのブロックについて行われ
たかどうか判断し(ステップST58)、1枚目のキー
フレーム画像のすべてのブロックについて動きベクトル
の導出がされるまでステップST13〜ST15、ST
55〜ST58の処理が繰り返される。
Then, it is judged whether or not this motion vector has been derived for all blocks of the first key frame image (step ST58). Steps ST13 to ST15, ST until derivation
The processes of 55 to ST58 are repeated.

【0050】この第3の実施の形態によれば、2枚のキ
ーフレームの間隔が空いてしまい、2枚目のキーフレー
ム画像の対応点が消えてしまう場合は、その対応点の色
誤差の最小値がしきい値以上となるから、その動きベク
トルを不定、つまり動きベクトルとして判断しないよう
にするため、キーフレームのみを処理するために発生す
る不正なベクトルの影響を除去することができる。
According to the third embodiment, when the interval between two key frames is widened and the corresponding points of the second key frame image disappear, the color error of the corresponding points is reduced. Since the minimum value is greater than or equal to the threshold value, the motion vector is not fixed, that is, the motion vector is not judged, and thus the influence of the illegal vector generated for processing only the key frame can be removed.

【0051】次に、本発明の第4の実施の形態について
説明する。図12は本発明の第4の実施の形態の動きベ
クトル検出部の構成を示すブロック図であり、請求項6
に記載の発明に対応する。図12中、図2と同一構成部
分には同一符号を付してある。本発明の第4の実施の形
態では、動きベクトル検出部15内のブロックの動きベ
クトル検出部155に特徴があり、領域の動きベクトル
検出部152は第1乃至第3の実施の形態と全く同じ構
成である。
Next, a fourth embodiment of the present invention will be described. 12 is a block diagram showing a configuration of a motion vector detecting unit according to a fourth embodiment of the present invention.
Corresponds to the invention described in (1). 12, those parts that are the same as those corresponding parts in FIG. 2 are designated by the same reference numerals. The fourth embodiment of the present invention is characterized by the block motion vector detection unit 155 in the motion vector detection unit 15, and the region motion vector detection unit 152 is exactly the same as in the first to third embodiments. It is a composition.

【0052】ブロックの動きベクトル検出部155は、
ブロック分割部1511とブロックマッチング部151
2と色誤差分布検査部1515とを含む。色誤差分布検
査部1515は、ブロック分割部1511と、ブロック
マッチング部1512においてブロックマッチング法で
動きベクトルを算出したときの色誤差分布が最小値付近
に偏っているブロックの動きベクトルを不定とする。
The block motion vector detection unit 155
Block division unit 1511 and block matching unit 151
2 and a color error distribution inspection unit 1515. The color error distribution inspection unit 1515 makes the motion vector of the block, in which the color error distribution when the motion vector is calculated by the block matching method in the block division unit 1511 and the block matching unit 1512 is biased near the minimum value, to be indefinite.

【0053】次に、図12及び図13を参照して、本発
明の第4の実施の形態の動作について説明する。図13
は本発明の第4の実施の形態の動作説明用フローチャー
トを示す。図13中、図5と同一処理ステップは同一番
号を付し、その説明は省略する。
Next, the operation of the fourth embodiment of the present invention will be described with reference to FIGS. FIG.
Shows a flowchart for explaining the operation of the fourth embodiment of the present invention. In FIG. 13, the same processing steps as those in FIG. 5 are designated by the same reference numerals, and the description thereof will be omitted.

【0054】図13において、ステップST15で色の
違いが最小となるブロックへの位置ベクトルを動きベク
トルとして導出されると、続いて図12に示した色誤差
分布検査部1515は、ブロック分割部1511とブロ
ックマッチング部1512においてブロックマッチング
法で動きベクトルを算出したときの色誤差分布の最小値
付近への偏りを調べ(ステップST61)、その算出し
た偏りがしきい値より小さいかどうか比較する(ステッ
プST62)。
In FIG. 13, when the position vector to the block having the smallest color difference is derived as the motion vector in step ST15, the color error distribution inspection unit 1515 shown in FIG. And the block matching unit 1512 checks the bias of the color error distribution near the minimum value when the motion vector is calculated by the block matching method (step ST61), and compares whether the calculated bias is smaller than the threshold value (step ST61). ST62).

【0055】比較の結果、算出した偏りがしきい値以上
のときには、そのブロックの動きベクトルの信頼度が低
いと判断し、そのブロックの動きベクトルを不定とする
(ステップST63)。一方、算出した偏りがしきい値
より小さいときには、動きベクトルの信頼度が高いと判
断してブロックの動きベクトルとして蓄積する(ステッ
プST64)。
As a result of the comparison, when the calculated bias is equal to or more than the threshold value, it is determined that the reliability of the motion vector of the block is low, and the motion vector of the block is undefined (step ST63). On the other hand, when the calculated bias is smaller than the threshold value, it is determined that the reliability of the motion vector is high, and the motion vector is accumulated as the motion vector of the block (step ST64).

【0056】続いて、この動きベクトルの導出が1枚目
のキーフレーム画像のすべてのブロックについて行われ
たかどうか判断し(ステップST65)、1枚目のキー
フレーム画像のすべてのブロックについて動きベクトル
の導出がされるまでステップST13〜ST15、ST
61〜ST65の処理が繰り返される。
Subsequently, it is judged whether or not this motion vector has been derived for all blocks of the first key frame image (step ST65). Steps ST13 to ST15, ST until derivation
The processing from 61 to ST65 is repeated.

【0057】この第4の実施の形態によれば、色が類似
したブロックが多数あってその中の一つにたまたま一致
したような場合に発生する不正な動きベクトルを除去す
ることができる。
According to the fourth embodiment, it is possible to eliminate an illegal motion vector which occurs when there are a large number of blocks having similar colors and it happens that one of them coincides.

【0058】次に、本発明の第5の実施の形態について
説明する。図14は本発明の第5の実施の形態の動きベ
クトル検出部の構成を示すブロック図であり、請求項8
に記載の発明に対応する。図14中、図2と同一構成部
分には同一符号を付してある。本発明の第5の実施の形
態では、動きベクトル検出部15内の領域の動きベクト
ル検出部156に特徴があり、ブロックの動きベクトル
検出部151は第1の実施の形態と全く同じ構成であ
る。
Next explained is the fifth embodiment of the invention. 14 is a block diagram showing a configuration of a motion vector detecting unit according to a fifth embodiment of the present invention.
Corresponds to the invention described in (1). 14, those parts that are the same as those corresponding parts in FIG. 2 are designated by the same reference numerals. The fifth embodiment of the present invention is characterized by the motion vector detection unit 156 of the area within the motion vector detection unit 15, and the block motion vector detection unit 151 has exactly the same configuration as that of the first embodiment. .

【0059】領域の動きベクトル検出部156は、ヒス
トグラム作成部1521とピーク検出部1522と動き
ベクトル数検査部1523とを含む。動きベクトル数検
査部1523は、領域に属する動きベクトルが検出され
たブロックの数が少ない場合は、その領域の動きベクト
ルを不定にする。そうでない場合には、領域検出部14
から取得した領域情報とブロックの動きベクトル検出部
151から取得したブロックの動きベクトルを基に、ヒ
ストグラム作成部1521により領域の動きベクトルの
分布を示すヒストグラムを作成し、ピーク検出部152
2によりそのピークを調べることにより領域としての動
きベクトルを導出する。
The area motion vector detection unit 156 includes a histogram creation unit 1521, a peak detection unit 1522, and a motion vector number inspection unit 1523. When the number of blocks in which a motion vector belonging to an area is detected is small, the motion vector number inspection unit 1523 makes the motion vector of the area indefinite. If not, the area detection unit 14
Based on the region information acquired from the block and the block motion vector detection unit 151, the histogram creation unit 1521 creates a histogram indicating the distribution of the motion vector of the block, and the peak detection unit 152.
The motion vector as a region is derived by examining the peak according to 2.

【0060】次に、図14及び図15を参照して、本発
明の第5の実施の形態の動作について説明する。図15
は本発明の第5の実施の形態の動作説明用フローチャー
トを示す。図15中、図6と同一処理ステップは同一番
号を付し、その説明は省略する。
Next, the operation of the fifth embodiment of the present invention will be described with reference to FIGS. FIG.
Shows a flowchart for explaining the operation of the fifth embodiment of the present invention. In FIG. 15, the same processing steps as those in FIG. 6 are designated by the same reference numerals, and the description thereof will be omitted.

【0061】図15において、ステップST22で領域
検出部14から領域分割画像を取得すると、続いて図1
4に示した動きベクトル数検査部1525は、領域に属
する信頼度の高い動きベクトルが検出されたブロックを
取り出し(ステップST71)、そのブロックの数がし
きい値より多いかどうかを調べる(ステップST7
2)。
In FIG. 15, when the area-divided image is acquired from the area detection unit 14 in step ST22, the process shown in FIG.
The motion vector number inspection unit 1525 shown in FIG. 4 takes out a block in which a highly reliable motion vector belonging to the area is detected (step ST71) and checks whether the number of blocks is larger than a threshold value (step ST7).
2).

【0062】上記のブロックの数がしきい値以下の場合
はその領域の動きベクトルを不定にする(ステップST
73)。一方、上記のブロックの数がしきい値より多い
ときには、第1の実施の形態と同様に、ヒストグラム作
成部1521による領域に存在するブロックの動きベク
トルのヒストグラムの作成(ステップST23)、ピー
ク検出部1522によるヒストグラムの中から頻度が最
大の動きベクトルの蓄積(ステップST24)とが順次
に行われる。そして、上記のステップST72と、ST
73又はST23及びST24の処理がすべての領域に
ついて実行される(ステップST74)。
When the number of blocks is equal to or less than the threshold value, the motion vector of the area is undefined (step ST
73). On the other hand, when the number of blocks is larger than the threshold value, the histogram creation unit 1521 creates a histogram of motion vectors of the blocks existing in the area (step ST23) and the peak detection unit, as in the first embodiment. Accumulation of the motion vector having the highest frequency from the histogram of 1522 (step ST24) is sequentially performed. Then, the above-mentioned steps ST72 and ST
The processing of 73 or ST23 and ST24 is executed for all areas (step ST74).

【0063】この第5の実施の形態によれば、領域に存
在するブロックの動きベクトルが少なかった場合に生じ
る精度の低い領域の動きベクトルを除去する効果があ
る。
According to the fifth embodiment, there is an effect of removing the motion vector of the region having low accuracy which occurs when the motion vector of the block existing in the region is small.

【0064】次に、本発明の第6の実施の形態について
説明する。図16は本発明の第6の実施の形態の動きベ
クトル検出部の構成を示すブロック図であり、請求項9
に記載の発明に対応する。図16中、図2と同一構成部
分には同一符号を付してある。本発明の第6の実施の形
態では、動きベクトル検出部15内の領域の動きベクト
ル検出部157に特徴があり、ブロックの動きベクトル
検出部151は第1及び第5の実施の形態と全く同じ構
成である。
Next, a sixth embodiment of the present invention will be described. 16 is a block diagram showing the configuration of a motion vector detection unit according to the sixth embodiment of the present invention.
Corresponds to the invention described in (1). 16, those parts that are the same as those corresponding parts in FIG. 2 are designated by the same reference numerals. The sixth embodiment of the present invention is characterized by the motion vector detection unit 157 of the area within the motion vector detection unit 15, and the block motion vector detection unit 151 is exactly the same as in the first and fifth embodiments. It is a composition.

【0065】領域の動きベクトル検出部157は、ヒス
トグラム作成部1521とピーク検出部1522と頻度
検査部1524とを含む。頻度検査部1524は、ピー
ク検出部1522により検出したヒストグラムにおける
頻度が最大の動きベクトルの頻度の全体に占める割合が
しきい値よりも低いものについては、その領域の動きベ
クトルを不定にする。
The area motion vector detecting unit 157 includes a histogram creating unit 1521, a peak detecting unit 1522, and a frequency checking unit 1524. The frequency inspection unit 1524 makes the motion vector of the region undefined when the ratio of the frequency of the maximum motion vector in the histogram detected by the peak detection unit 1522 is lower than the threshold value.

【0066】次に、図16及び図17を参照して、本発
明の第6の実施の形態の動作について説明する。図17
は本発明の第6の実施の形態の動作説明用フローチャー
トである。図17中、図6と同一処理ステップは同一番
号を付し、その説明は省略する。
Next, the operation of the sixth embodiment of the present invention will be described with reference to FIGS. FIG.
9 is a flowchart for explaining the operation of the sixth embodiment of the present invention. In FIG. 17, the same processing steps as those in FIG. 6 are designated by the same reference numerals, and the description thereof will be omitted.

【0067】図17において、ステップST23でピー
ク検出部1522によるヒストグラムの中から頻度が最
大の動きベクトルの導出がされると、続いて図16に示
した頻度検査部1524は、ピーク検出部1522によ
り検出したヒストグラムにおける頻度が最大の動きベク
トルの頻度の全体に占める割合を計算し(ステップST
81)、その割合が予め定めたしきい値と大小比較する
(ステップST82)。
In FIG. 17, when the motion vector with the highest frequency is derived from the histogram by the peak detection unit 1522 in step ST23, the frequency detection unit 1524 shown in FIG. The ratio of the frequency of the maximum motion vector in the detected histogram to the entire frequency is calculated (step ST
81) and compares the ratio with a predetermined threshold value (step ST82).

【0068】上記の比較の結果、上記の割合がしきい値
以上のときにはその領域の動きベクトルを不定にする
(ステップST83)。一方、上記の割合がしきい値よ
り小さいときは、第1の実施の形態と同様に、領域の動
きベクトルとして蓄積する(ステップST24)。そし
て、上記のステップST23、ST81、ST82と、
ST83又はST24の処理がすべての領域について実
行される(ステップST84)。
As a result of the above comparison, when the above ratio is equal to or more than the threshold value, the motion vector of the area is made indefinite (step ST83). On the other hand, when the above ratio is smaller than the threshold value, it is stored as the motion vector of the area as in the first embodiment (step ST24). Then, with the above steps ST23, ST81, ST82,
The processing of ST83 or ST24 is executed for all areas (step ST84).

【0069】この第6の実施の形態によれば、領域中の
ブロックの動きベクトルの値が分散している場合に生じ
る精度の低い領域の動きベクトルを除去する効果があ
る。
According to the sixth embodiment, there is an effect of removing a motion vector of a region with low precision which occurs when the motion vector values of blocks in the region are dispersed.

【0070】次に、本発明の第7の実施の形態について
説明する。図18は本発明の第7の実施の形態の動きベ
クトル検出部の構成を示すブロック図である。図18
中、図2、図8、図10、図12、図14及び図16と
同一構成部分には同一符号を付してある。この第7の実
施の形態は、第1乃至第6の実施の形態の動きベクトル
検出部15内の構成をすべて組み合わせたものである。
Next, a seventh embodiment of the present invention will be described. FIG. 18 is a block diagram showing the configuration of the motion vector detection unit according to the seventh embodiment of this invention. FIG.
The same components as those in FIGS. 2, 8, 10, 12, 14 and 16 are designated by the same reference numerals. The seventh embodiment is a combination of all the configurations in the motion vector detection unit 15 of the first to sixth embodiments.

【0071】すなわち、図18に示すように、 動きベ
クトル検出部15は、ブロックの動きベクトル検出部1
58と、領域の動きベクトル検出部159とを含む。ブ
ロックの動きベクトル検出部158は、ブロック分割部
1511、コントラスト検査部1513、ブロックマッ
チング部1512、色誤差比較部1514及び色誤差分
布検査部1515を含む。領域の動きベクトル検出部1
59は、動きベクトル数検査部1523、ヒストグラム
作成部1521、ピーク検出部1522、及び頻度検査
部1524を含む。
That is, as shown in FIG. 18, the motion vector detecting section 15 includes a block motion vector detecting section 1
58 and an area motion vector detection unit 159. The block motion vector detection unit 158 includes a block division unit 1511, a contrast inspection unit 1513, a block matching unit 1512, a color error comparison unit 1514, and a color error distribution inspection unit 1515. Region motion vector detection unit 1
59 includes a motion vector number inspection unit 1523, a histogram creation unit 1521, a peak detection unit 1522, and a frequency inspection unit 1524.

【0072】次に、図18、図19及び図20を参照し
て、本発明の第7の実施の形態の動作について説明す
る。図19は本発明の第7の実施の形態のブロックの動
きベクトル検出部158の動作説明用フローチャート、
図20は第7の実施の形態の領域の動きベクトル検出部
159の動作説明用フローチャートである。図19中、
図5、図9、図11及び図13と同一処理ステップは同
一番号を付し、また、図20中、図6、図15及び図1
7と同一処理ステップは同一番号を付し、それぞれその
説明を適宜省略する。
Next, the operation of the seventh embodiment of the present invention will be described with reference to FIGS. 18, 19 and 20. FIG. 19 is a flowchart for explaining the operation of the block motion vector detection unit 158 according to the seventh embodiment of the present invention.
FIG. 20 is a flowchart for explaining the operation of the area motion vector detection unit 159 according to the seventh embodiment. In FIG.
The same processing steps as those in FIG. 5, FIG. 9, FIG. 11 and FIG. 13 are given the same reference numerals, and in FIG.
The same processing steps as those in No. 7 are denoted by the same reference numerals, and the description thereof will be appropriately omitted.

【0073】この第7の実施の形態では、ブロックの動
きベクトル検出部158がブロック分割部1511で取
得したキーフレーム画像をブロック分割した後(ステッ
プST11、ST12)、コントラスト検査部1513
が1枚目のキーフレーム画像についてブロック毎にコン
トラストを検査し(ステップST43、ST44)、ブ
ロックマッチング部1512が1枚目のキーフレーム画
像のブロックについて2枚目のキーフレーム画像のすべ
ての近傍のブロックとの色の違いを比較検査し(ステッ
プST13、ST14)、その中で色の違いが最小とな
るブロックへの位置ベクトルを動きベクトルとして導出
する(ステップST15)。
In the seventh embodiment, the block motion vector detection unit 158 divides the key frame image acquired by the block division unit 1511 into blocks (steps ST11 and ST12), and then the contrast inspection unit 1513.
Checks the contrast of each block for the first key frame image (steps ST43 and ST44), and the block matching unit 1512 detects all the neighborhoods of the second key frame image for the block of the first key frame image. The color difference from the block is compared and inspected (steps ST13 and ST14), and the position vector to the block having the smallest color difference is derived as a motion vector (step ST15).

【0074】そして、色誤差比較部1514が動きベク
トルを算出したときの色誤差をあらかじめ指定された値
と比較して、色誤差がしきい値より大きいブロックの動
きベクトルは不定とし(ステップST55、ST6
3)、色誤差分布検査部1515が色誤差がしきい値よ
り小さな動きベクトルの色誤差分布が最小値付近に偏っ
ているブロックの動きベクトルを不定とする(ステップ
ST61〜ST63)。
Then, the color error when the color error comparing section 1514 calculates the motion vector is compared with a predetermined value, and the motion vector of the block having the color error larger than the threshold value is undefined (step ST55, ST6
3) The color error distribution inspection unit 1515 makes the motion vector of the block in which the color error distribution of the motion vector whose color error is smaller than the threshold value is biased near the minimum value is indefinite (steps ST61 to ST63).

【0075】また、領域の動きベクトル検出部159は
図20のフローチャートに示すように、動きベクトル数
検査部1523が、領域に属する動きベクトルが検出さ
れたブロックの数がしきい値以下の場合は、その領域の
動きベクトルを不定にし(ステップST71、ST7
2、ST83)、そうでない場合には、領域検出部14
から取得した領域情報とブロックの動きベクトル検出部
158から取得したブロックの動きベクトルを基に、ヒ
ストグラム作成部1521により領域の動きベクトルの
分布を示すヒストグラムを作成し、ピーク検出部152
2によりそのピークを調べることにより領域としての動
きベクトルを導出する(ステップST23)。
Further, as shown in the flowchart of FIG. 20, the motion vector detecting unit 159 of the area determines that the motion vector number inspecting unit 1523 determines that the number of blocks in which the motion vector belonging to the area is detected is less than or equal to the threshold value. , Make the motion vector of the area indefinite (steps ST71, ST7
2, ST83), otherwise, the area detection unit 14
Based on the area information acquired from the block and the motion vector of the block acquired from the block motion vector detection unit 158, the histogram creation unit 1521 creates a histogram showing the distribution of the motion vector of the area, and the peak detection unit 152
The motion vector as a region is derived by examining the peak in step 2 (step ST23).

【0076】そして、頻度検査部1524は、ピーク検
出部1522により検出したヒストグラムにおける頻度
が最大の動きベクトルの頻度の全体に占める割合がしき
い値よりも低いものについては、その領域の動きベクト
ルを不定にする(ステップST81〜ST83)。上記
の割合がしきい値より小さいときは、第1の実施の形態
と同様に、領域の動きベクトルとして蓄積する(ステッ
プST24)。そして、上記のステップST71、ST
72、ST23、ST81、ST82と、ST83又は
ST24の処理がすべての領域について実行される(ス
テップST84)。
Then, the frequency checking unit 1524 determines the motion vector of the region in the histogram detected by the peak detecting unit 1522 when the ratio of the frequency of the maximum motion vector to the whole is lower than the threshold value. Indefinite (steps ST81 to ST83). When the ratio is smaller than the threshold value, the motion vector of the area is stored (step ST24), as in the first embodiment. Then, the above steps ST71, ST
The processing of 72, ST23, ST81, ST82 and ST83 or ST24 is executed for all the areas (step ST84).

【0077】この第7の実施の形態によれば、第1乃至
第6の実施の形態で説明したように、ブロック単位及び
領域単位での不正な動きベクトル除去を行うことができ
るため、キーフレームのみを処理することによる精度の
低下を軽減することが可能である。
According to the seventh embodiment, as described in the first to sixth embodiments, illegal motion vector removal can be performed in block units and region units, so that keyframes can be removed. It is possible to reduce the decrease in accuracy due to processing only the data.

【0078】[0078]

【実施例】次に、本発明の第1の実施形態の一実施例の
動作を詳細に説明する。処理対象の動画像として魚の画
像を例として使用する。
Next, the operation of one example of the first embodiment of the present invention will be described in detail. A fish image is used as an example of the moving image to be processed.

【0079】図4のフローチャートと共に既に説明した
ように、図1に示したデータ処理装置1は、動画再生部
11により再生したディジタル化された動画像データの
各フレームを一枚ずつフレーム取得部12により取り出
し、このフレーム画像の色ヒストグラム変化やフレーム
間差分をキーフレーム検出部13で測定し、それぞれが
あらかじめ設定されているしきい値以上であるかどうか
を検査する。
As already described with reference to the flowchart of FIG. 4, the data processing device 1 shown in FIG. 1 has the frame acquisition unit 12 for each frame of the digitized moving image data reproduced by the moving image reproduction unit 11. The key frame detection unit 13 measures the color histogram change and the inter-frame difference of the frame image, and inspects whether each is greater than or equal to a preset threshold value.

【0080】ここで、上記の再生動画像データが図21
に示すような、魚のフレーム画像を時間的に並べて表現
できる画像データであるものとする。図21の例では、
全面黒画像31から魚のフレーム画像32に画面が切り
換わり、更に魚のフレーム画像が33、34及び35で
示すように変化し、その後全面黒画像36に画面が切り
換わっている。ここでは、色のヒストグラム変化で画面
が切り換わったところを検出するものとすると、キーフ
レーム検出部13は画像31から32で画面が切り換わ
っていることを検出し、魚のフレーム画像32を1枚目
のキーフレーム画像32’として検出し、更にフレーム
間差分を調べることにより、フレーム画像32に対して
魚の移動量が大きいフレーム画像34を検出し、これを
2枚目のキーフレーム画像34’として検出する。検出
したキーフレーム画像32’及び34’は、96×96
画素でサンプリングされる。
Here, the above-mentioned reproduced moving image data is shown in FIG.
It is assumed that the image data is such that the frame images of the fish can be temporally arranged and expressed. In the example of FIG. 21,
The screen is switched from the full black image 31 to the fish frame image 32, the fish frame images are changed as indicated by 33, 34 and 35, and then the screen is switched to the full black image 36. Here, if it is assumed that the screen is switched due to the color histogram change, the key frame detection unit 13 detects that the screen is switched from the images 31 to 32, and one frame image 32 of the fish is detected. By detecting the key frame image 32 ′ of the eye and further examining the inter-frame difference, the frame image 34 in which the amount of movement of the fish is large with respect to the frame image 32 is detected, and this is used as the second key frame image 34 ′. To detect. The detected key frame images 32 ′ and 34 ′ are 96 × 96.
It is sampled in pixels.

【0081】領域検出部14は、上記の96×96画素
のキーフレーム画像から色、エッジ情報を検出し、それ
を基にキーフレーム画像に対応する領域分割画像を生成
する。すなわち、領域検出部14は、図22(a)に示
す96×96画素のキーフレーム画像から、同図(b)
に示す24×24画素の領域分割画像を生成する。
The area detection unit 14 detects color and edge information from the above 96 × 96 pixel key frame image, and generates an area division image corresponding to the key frame image based on the information. That is, the area detection unit 14 uses the 96 × 96 pixel key frame image shown in FIG.
The region-divided image of 24 × 24 pixels shown in is generated.

【0082】動きベクトル検出部15は、時間的に連続
した2枚の96×96画素のキーフレーム画像をキーフ
レーム検出部13から受け取り、24×24画素の動き
ベクトルの配列を検出する。さらに、領域検出部14か
ら取得した24×24画素の領域分割画像を基に、領域
としての動きベクトルを導出する。動きベクトル検出部
15は動画像ファイルに存在するすべてのフレームに対
して処理を順次に行う。
The motion vector detection unit 15 receives two temporally consecutive key frame images of 96 × 96 pixels from the key frame detection unit 13 and detects the array of 24 × 24 pixel motion vectors. Furthermore, a motion vector as a region is derived based on the 24 × 24 pixel region division image acquired from the region detection unit 14. The motion vector detection unit 15 sequentially processes all frames existing in the moving image file.

【0083】この動きベクトル検出部15での動きベク
トル検出処理の詳細を図23と共に説明する。図23
(a)はブロックの動きベクトル検出処理を、同図
(b)は領域の動きベクトル検出処理を示す。図2に示
したブロック分割部1511は、キーフレーム検出部1
3により取得した96×96画素のキーフレーム画像の
一枚目を、縦方向24ブロック、横方向24ブロック
(すなわち、24×24ブロックで、1ブロックは4×
4画素)に分割する。
Details of the motion vector detecting process in the motion vector detecting unit 15 will be described with reference to FIG. FIG.
(A) shows a block motion vector detection process, and (b) shows a region motion vector detection process. The block division unit 1511 shown in FIG.
The first piece of the 96 × 96 pixel key frame image acquired in step 3 is 24 blocks in the vertical direction and 24 blocks in the horizontal direction (that is, 24 × 24 blocks, one block is 4 ×).
4 pixels).

【0084】すなわち、図23では図示の便宜上、実際
は24×24ブロックのところ8×8ブロックで示して
いるが、ブロック分割部1511は、図23(a)に示
すように、キーフレーム検出部13により取得したキー
フレーム画像の一枚目(図23(a)の左側のキーフレ
ーム画像)の方をブロック分割する。
That is, in FIG. 23, for convenience of illustration, the 24 × 24 blocks are actually shown as 8 × 8 blocks, but the block division unit 1511, as shown in FIG. The first key frame image (the key frame image on the left side in FIG. 23A) acquired by (3) is divided into blocks.

【0085】ブロックマッチング部1512はこの一枚
目のキーフレーム画像のすべてのブロックについて二枚
目の近傍のブロックとの色の違いを検査し、色の違いが
最小となる点を対応点としてその位置の変化を動きベク
トルとする。図23(a)では、一枚目のキーフレーム
画像の魚の目のブロックについて示しており、このブロ
ックに対して二枚目のキーフレーム画像の色の違いが最
小となる対応点は、x軸では負方向3ブロック、y軸で
は負方向に2ブロックそれぞれ移動した位置にあるか
ら、ブロックの動きベクトルは(−3,−2)として導
出される。
The block matching unit 1512 inspects all the blocks of the first key frame image for color differences from the blocks in the vicinity of the second key frame image, and determines the point where the color difference is the minimum as the corresponding point. The change in position is the motion vector. FIG. 23A shows the fish-eye block of the first keyframe image, and the corresponding point at which the color difference of the second keyframe image is the smallest with respect to this block is Since there are 3 blocks in the negative direction and 2 blocks are moved in the negative direction on the y-axis, the motion vector of the block is derived as (-3, -2).

【0086】また、領域の動きベクトル検出部152
は、前記したように、ブロックの動きベクトル検出部1
51からブロックの動きベクトルの配列(24×24)
を取得し、次に、領域検出部14が検出した領域分割画
像(24×24)を取得する。ここでは、図23(b)
の左側に示すように、矢印でブロックの動きベクトルが
示されている。なお、図23(b)の左側の図において
網かけの部分のうち動きベクトルが図示されていないブ
ロックは動きベクトルが不定であるとされて動きベクト
ルが削除された部分を示す。
Further, the area motion vector detecting unit 152
As described above, the block motion vector detection unit 1
Sequence of motion vector of block from 51 (24 × 24)
Then, the area division image (24 × 24) detected by the area detection unit 14 is acquired. Here, FIG. 23 (b)
As shown on the left side of, the arrow indicates the motion vector of the block. Note that, in the left-hand diagram of FIG. 23B, among the shaded portions, the blocks for which motion vectors are not shown indicate the portions in which the motion vectors have been deleted because the motion vectors are undefined.

【0087】ヒストグラム作成部1521は、図23
(b)の左側の図において領域に存在するブロックの動
きベクトルのヒストグラムを作成する。ピーク検出部1
522はこの作成されたヒストグラム中の頻度が最大の
動きベクトルが左斜め上方向の動きベクトルであると検
出し、図23(b)の右側の図に模式的に示すように、
網かけで示した領域における動きベクトルは左斜め上方
向であると検出する。領域対応付け部16は、動きベク
トル検出部15から取得した上記の領域の動きベクトル
と、領域検出部14から取得した領域情報を基に、同じ
物体を指していると推定される領域の対応付けを行う。
The histogram creating section 1521 is shown in FIG.
In the diagram on the left side of (b), a histogram of motion vectors of blocks existing in the area is created. Peak detector 1
522 detects that the motion vector with the maximum frequency in the created histogram is the motion vector in the diagonally left upper direction, and as shown schematically in the diagram on the right side of FIG.
The motion vector in the shaded area is detected as diagonally upward to the left. The area associating unit 16 associates the motion vector of the area acquired from the motion vector detecting unit 15 with the area estimated to point to the same object based on the area information acquired from the area detecting unit 14. I do.

【0088】なお、本発明は以上の実施の形態に限定さ
れるものではなく、ブロックの動きベクトル検出部15
1、153〜155のいずれかと、領域の動きベクトル
検出部152、156、157のいずれかとを組み合わ
せることもできる。
The present invention is not limited to the above embodiment, but the block motion vector detecting unit 15
It is also possible to combine any one of 1, 153 to 155 and any one of the area motion vector detecting units 152, 156, 157.

【0089】[0089]

【発明の効果】以上説明したように、本発明によれば、
物体追跡のための領域検出、動きベクトル検出をキーフ
レームに対してのみ行うことにより、処理対象のフレー
ム数を低減するようにしたため、物体抽出処理を高速化
することができ、しかも処埋するフレーム数を減らして
いるが、内容を的確に表現するキーフレームは処理して
いるため、精度の低下を妥当な範囲に抑えることができ
る。
As described above, according to the present invention,
Since the number of frames to be processed is reduced by performing area detection and motion vector detection for object tracking only on key frames, the object extraction processing can be sped up and the frames to be processed are processed. Although the number is reduced, keyframes that accurately express the content are processed, so the reduction in accuracy can be suppressed within a reasonable range.

【0090】また、本発明によれば、ブロックのコント
ラスト値を算出してその値がしきい値より低いブロック
の動きベクトルを不定とすることにより、特徴が少ない
ために対応点に誤差が入りやすいブロックの動きベクト
ルを除くようにしたため、精度の低下を軽減でき、これ
によりキーフレームのみを処理していることによる物体
抽出の精度の低下を軽減できる。
Further, according to the present invention, the contrast value of the block is calculated and the motion vector of the block whose value is lower than the threshold value is made indefinite, so that the corresponding points are likely to have an error due to the small number of features. Since the motion vector of the block is excluded, it is possible to reduce the decrease in accuracy, and thus it is possible to reduce the decrease in the accuracy of object extraction due to processing only the key frame.

【0091】また、本発明によれば、ブロックマッチン
グ法で動きベクトルを算出したときの色誤差をあらかじ
め指定された値と比較して誤差がしきい値より大きいブ
ロックの動きベクトルは不定とすることにより、キーフ
レームのみを処理するためにフレームの間隔が空いてし
まい対応点が消えてしまう場合に発生する不正なベクト
ルの影響を除去するようにしたため、精度の低下を軽減
でき、これによりキーフレームのみを処理していること
による物体抽出の精度の低下を軽減できる。
Further, according to the present invention, the color error when the motion vector is calculated by the block matching method is compared with a predetermined value, and the motion vector of the block whose error is larger than the threshold value is indefinite. This eliminates the influence of the incorrect vector that occurs when the corresponding points disappear because the intervals between the frames become empty because only the keyframes are processed. It is possible to reduce a decrease in the accuracy of object extraction due to processing only the object.

【0092】また、本発明によれば、ブロックマッチン
グ法で動きベクトルを算出したときの色誤差分布が最小
値付近に偏っているブロックの動きベクトルを不定とす
ることにより、色が類似したブロックが多数あってその
中の一つにたまたま一致したような場合に発生する不正
な動きベクトルを除去するようにしたため、精度の低下
を軽減でき、これによりキーフレームのみを処理してい
ることによる物体抽出の精度の低下を軽減できる。
Further, according to the present invention, by making the motion vector of the block in which the color error distribution when the motion vector is calculated by the block matching method is biased near the minimum value is indefinite, blocks having similar colors can be determined. Illegal motion vectors that occur when there are a lot of them that happen to match one of them are eliminated, so the reduction in accuracy can be reduced, and by doing this, object extraction by processing only key frames It is possible to reduce the decrease in the accuracy of.

【0093】また、本発明によれば、領域に属する動き
ベクトルが検出されたブロックの数が少ない場合はその
領域の動きベクトルを不定にすることにより、領域に存
在するブロックの動きベクトルが少なかった場合に生じ
る精度の低い領域の動きベクトルを除去するようにした
ため、精度の低下を軽減でき、これによりキーフレーム
のみを処理していることによる物体抽出の精度の低下を
軽減できる。
Further, according to the present invention, when the number of blocks in which a motion vector belonging to a region is detected is small, the motion vector of that region is made indefinite, so that the motion vector of the block existing in the region is small. In this case, since the motion vector of the low precision region is removed, it is possible to reduce the reduction in precision, and thus it is possible to reduce the reduction in the precision of object extraction due to processing only the key frame.

【0094】更にまた、本発明によれば、ヒストグラム
における頻度が最大の動きベクトルの頻度の全体に占め
る割合がしきい値よりも低いものについてはその領域の
動きベクトルを不定にすることにより、領域中のブロッ
クの動きベクトルの値が分散している場合に生じる精度
の低い領域の動きベクトルを除去するようにしたため、
精度の低下を軽減でき、これによりキーフレームのみを
処理していることによる物体抽出の精度の低下を軽減で
きる。
Furthermore, according to the present invention, when the ratio of the frequency of the motion vector having the maximum frequency in the histogram to the whole is lower than the threshold value, the motion vector of the region is made indefinite, and Since the motion vector of the low precision area that occurs when the motion vector values of the inside blocks are dispersed is removed,
The reduction in accuracy can be reduced, and thus the reduction in the accuracy of object extraction due to processing only the key frame can be reduced.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の第1の実施形態の構成を示すブロック
図である。
FIG. 1 is a block diagram illustrating a configuration of a first exemplary embodiment of the present invention.

【図2】本発明の第1の実施形態の動きベクトル検出部
の詳細ブロック図である。
FIG. 2 is a detailed block diagram of a motion vector detection unit according to the first embodiment of the present invention.

【図3】図1の領域対応付け部の詳細ブロック図であ
る。
FIG. 3 is a detailed block diagram of an area associating unit in FIG.

【図4】図1の動作説明用フローチャートである。FIG. 4 is a flowchart for explaining the operation of FIG.

【図5】図2のブロックの動きベクトル検出部の動作説
明用フローチャートである。
5 is a flowchart for explaining the operation of the motion vector detection unit of the block of FIG.

【図6】図2の領域の動きベクトル検出部の動作説明用
フローチャートである。
FIG. 6 is a flowchart for explaining the operation of the motion vector detection unit in the area of FIG.

【図7】本発明の第1の実施形態の領域対応付け部の動
作説明用フローチャートである。
FIG. 7 is a flowchart for explaining the operation of the area associating unit according to the first embodiment of this invention.

【図8】本発明の第2の実施形態の動きベクトル検出部
の詳細ブロック図である。
FIG. 8 is a detailed block diagram of a motion vector detection unit according to the second embodiment of the present invention.

【図9】図8の動作説明用フローチャートである。FIG. 9 is a flowchart for explaining the operation of FIG. 8;

【図10】本発明の第3の実施形態の動きベクトル検出
部の詳細ブロック図である。
FIG. 10 is a detailed block diagram of a motion vector detection unit according to the third embodiment of the present invention.

【図11】図10の動作説明用フローチャートである。11 is a flowchart for explaining the operation of FIG.

【図12】本発明の第4の実施形態の動きベクトル検出
部の詳細ブロック図である。
FIG. 12 is a detailed block diagram of a motion vector detection unit according to the fourth embodiment of the present invention.

【図13】図12の動作説明用フローチャートである。13 is a flowchart for explaining the operation of FIG.

【図14】本発明の第5の実施形態の動きベクトル検出
部の詳細ブロック図である。
FIG. 14 is a detailed block diagram of a motion vector detection unit according to a fifth embodiment of the present invention.

【図15】図14の動作説明用フローチャートである。15 is a flowchart for explaining the operation of FIG.

【図16】本発明の第6の実施形態の動きベクトル検出
部の詳細ブロック図である。
FIG. 16 is a detailed block diagram of a motion vector detection unit according to the sixth embodiment of the present invention.

【図17】図16の動作説明用フローチャートである。17 is a flowchart for explaining the operation of FIG.

【図18】本発明の第7の実施形態の動きベクトル検出
部の詳細ブロック図である。
FIG. 18 is a detailed block diagram of a motion vector detecting unit according to a seventh embodiment of the present invention.

【図19】図18中の領域の動きベクトル検出部の詳細
ブロック図である。
FIG. 19 is a detailed block diagram of a motion vector detection unit of the area in FIG.

【図20】図18中の領域の動きベクトル検出部の詳細
ブロック図である。
20 is a detailed block diagram of a motion vector detection unit for the area in FIG.

【図21】本発明の実施例説明図である。FIG. 21 is an explanatory diagram of an example of the present invention.

【図22】領域検出部の動作説明図である。FIG. 22 is an operation explanatory diagram of the area detection unit.

【図23】本発明の実施例説明図である。FIG. 23 is an explanatory diagram of an embodiment of the present invention.

【符号の説明】[Explanation of symbols]

1 データ処理装置 2 記憶装置 11 動画再生部 12 フレーム取得部 13 キーフレーム検出部 14 領域検出部 15 動きベクトル検出部 16 領域対応付け部 21 キーフレーム記憶部 22 領域記憶部 23 動きベクトル記憶部 24 関連領域記憶部 151、153〜155、158 ブロックの動きベク
トル検出部 152、156、157、159 領域の動きベクトル
検出部 161 領域予測部 162 対応領域マッチング部 1511 ブロック分割部 1512 ブロックマッチング部 1513 コントラスト検査部 1514 色誤差比較部 1515 色誤差分布検査部 1521 ヒストグラム作成部 1522 ピーク検出部 1523 動きベクトル数検査部 1524 頻度検査部
DESCRIPTION OF SYMBOLS 1 Data processing device 2 Storage device 11 Video reproduction part 12 Frame acquisition part 13 Key frame detection part 14 Area detection part 15 Motion vector detection part 16 Area association part 21 Key frame storage part 22 Area storage part 23 Motion vector storage part 24 Related Region storage unit 151, 153-155, 158 Block motion vector detection unit 152, 156, 157, 159 Region motion vector detection unit 161 Region prediction unit 162 Corresponding region matching unit 1511 Block division unit 1512 Block matching unit 1513 Contrast inspection unit 1514 Color error comparison unit 1515 Color error distribution inspection unit 1521 Histogram creation unit 1522 Peak detection unit 1523 Motion vector number inspection unit 1524 Frequency inspection unit

Claims (12)

【特許請求の範囲】[Claims] 【請求項1】 動画像データから動画像内容を的確に表
すキーフレームとなるキーフレーム画像を取り出すキー
フレーム検出部と、 前記キーフレーム画像から領域分割画像を生成する領域
検出部と、 前記キーフレーム検出部から取得したキーフレーム画像
と前記領域検出部から取得した領域分割画像とから領域
の動きベクトルを検出する動きベクトル検出部と、 前記領域検出部から取得した前記領域分割画像と前記動
きベクトル検出部から取得した前記領域の動きベクトル
とから物体の動きを導出し、同じ物体を指していると推
定される領域のフレーム間での対応付けを行う領域対応
付け部と、 前記キーフレーム画像、領域分割画像、動きベクトルを
少なくとも記憶する記憶装置とを有することを特徴とす
る動画像解析装置。
1. A key frame detection unit that extracts a key frame image that is a key frame that accurately represents moving image content from moving image data, an area detection unit that generates an area divided image from the key frame image, and the key frame. A motion vector detection unit that detects a motion vector of a region from a key frame image acquired from a detection unit and a region division image acquired from the region detection unit, and the region division image and the motion vector detection obtained from the region detection unit Area mapping unit that derives the motion of the object from the motion vector of the area acquired from the part, and associates the areas estimated to point to the same object between frames, the key frame image, the area A moving image analysis apparatus comprising: a divided image and a storage device that stores at least a motion vector.
【請求項2】 前記動きベクトル検出部は、前記キーフ
レーム検出部から取得した時間的に連続した2枚のキー
フレーム画像からブロックマッチング法を使用してブロ
ック単位の動きベクトルを検出するブロックの動きベク
トル検出部と、前記領域検出部から取得した前記領域分
割画像と前記ブロックの動きベクトルで検出されたブロ
ックの動きベクトルとに基づいて、前記領域の動きベク
トルを検出する領域の動きベクトル検出部とを有するこ
とを特徴とする請求項1記載の動画像解析装置。
2. The motion vector detecting unit detects a motion vector of a block unit using a block matching method from two temporally consecutive key frame images acquired from the key frame detecting unit. A vector detection unit, a motion vector detection unit for a region that detects a motion vector of the region based on a motion vector of the block detected by the motion vector of the block and the region division image acquired from the region detection unit, The moving image analysis apparatus according to claim 1, further comprising:
【請求項3】 前記ブロックの動きベクトル検出部は、 前記時間的に連続した2枚のキーフレーム画像の一方を
複数のブロックに分割するブロック分割部と、分割され
た該ブロックのすべてについて他方のキーフレーム画像
の近傍のブロックとの色の違いを検査し、色の違いが最
小となる点を対応点としてその位置の変化を動きベクト
ルとするブロックマッチング部とを含むことを特徴とす
る請求項2記載の動画像解析装置。
3. The motion vector detection unit of the block divides one of the two temporally consecutive key frame images into a plurality of blocks, and the other of all of the divided blocks. A block matching unit that inspects a color difference with a block in the vicinity of a key frame image, and uses a point having a minimum color difference as a corresponding point and a change in the position as a motion vector. 2. The moving image analysis device described in 2.
【請求項4】 前記ブロックの動きベクトル検出部は、 前記時間的に連続した2枚のキーフレーム画像の一方を
複数のブロックに分割するブロック分割部と、分割され
た該ブロック毎にコントラスト値を算出し、その算出コ
ントラスト値としきい値と比較して該しきい値よりも低
いコントラスト値のブロックの動きベクトルは不定とす
るコントラスト検査部と、前記しきい値よりも高いコン
トラスト値のすべてのブロックについて他方のキーフレ
ーム画像の近傍のブロックとの色の違いを検査し、色の
違いが最小となる点を対応点としてその位置の変化を動
きベクトルとするブロックマッチング部とを含むことを
特徴とする請求項2記載の動画像解析装置。
4. The block motion vector detection unit divides one of the two temporally consecutive key frame images into a plurality of blocks, and a contrast value for each of the divided blocks. A contrast inspection unit that calculates and compares the calculated contrast value with a threshold value to make the motion vector of a block having a contrast value lower than the threshold value indefinite, and all blocks having a contrast value higher than the threshold value. With respect to the other key frame image, the difference in color from a nearby block is inspected, and a block matching unit that uses a point having the minimum color difference as a corresponding point and a change in the position as a motion vector is included. The moving image analysis apparatus according to claim 2.
【請求項5】 前記ブロックの動きベクトル検出部は、 前記時間的に連続した2枚のキーフレーム画像の一方を
複数のブロックに分割するブロック分割部と、分割され
た該ブロックのすべてについて他方のキーフレーム画像
の近傍のブロックとの色の違いを検査し、色の違いが最
小となる点を対応点としてその位置の変化を動きベクト
ルとするブロックマッチング部と、該ブロックマッチン
グ部により算出されたブロックの動きベクトルの色誤差
をしきい値と比較して該しきい値よりも大きな色誤差の
ブロックの動きベクトルを不定とする色誤差比較部とを
含むことを特徴とする請求項2記載の動画像解析装置。
5. The motion vector detection unit of the block divides one of the two temporally consecutive key frame images into a plurality of blocks, and the other of all the divided blocks. The color difference with the block in the vicinity of the key frame image is inspected, and the point where the color difference is minimized is used as the corresponding point, and the change in the position is used as the motion vector, and the block matching section calculates the difference. 3. A color error comparison unit that compares a color error of a motion vector of a block with a threshold value and makes a motion vector of a block having a color error larger than the threshold value indefinite. Video analysis device.
【請求項6】 前記ブロックの動きベクトル検出部は、 前記時間的に連続した2枚のキーフレーム画像の一方を
複数のブロックに分割するブロック分割部と、分割され
た該ブロックのすべてについて他方のキーフレーム画像
の近傍のブロックとの色の違いを検査し、色の違いが最
小となる点を対応点としてその位置の変化を動きベクト
ルとするブロックマッチング部と、該ブロックマッチン
グ部により算出されたブロックの動きベクトルの色誤差
分布の最小値付近での偏りを算出し、該偏りがしきい値
よりも大きな色誤差分布のブロックの動きベクトルを不
定とする色誤差分布検査部とを含むことを特徴とする請
求項2記載の動画像解析装置。
6. The motion vector detection unit of the block divides one of the two temporally consecutive key frame images into a plurality of blocks, and the other of all the divided blocks. The color difference with the block in the vicinity of the key frame image is inspected, and the point where the color difference is minimized is used as the corresponding point, and the change in the position is used as the motion vector, and the block matching section calculates the difference. A color error distribution inspecting unit that calculates a bias near the minimum value of the color error distribution of the motion vector of the block, and makes the motion vector of the block of the color error distribution in which the bias is larger than a threshold value indefinite. The moving image analysis apparatus according to claim 2, which is characterized in that.
【請求項7】 前記領域の動きベクトル検出部は、 前記領域検出部から領域分割画像を取得すると共に前記
ブロックの動きベクトル検出部から動きベクトルを取得
し、前記領域分割画像に存在する前記動きベクトルのヒ
ストグラムを作成するヒストグラム作成部と、作成され
た前記ヒストグラム中の出現頻度が最大の動きベクトル
をその領域の動きベクトルとして検出するピーク検出部
とを含むことを特徴とする請求項2乃至6のうちいずれ
か一項記載の動画像解析装置。
7. The motion vector detection unit of the area acquires the area division image from the area detection unit and the motion vector from the motion vector detection unit of the block, and the motion vector existing in the area division image. 7. The method according to claim 2, further comprising: a histogram creating unit that creates the histogram, and a peak detecting unit that detects a motion vector having a maximum appearance frequency in the created histogram as a motion vector of the region. The moving image analysis apparatus according to any one of the above.
【請求項8】 前記領域の動きベクトル検出部は、 前記領域検出部から領域分割画像を取得すると共に前記
ブロックの動きベクトル検出部から動きベクトルを取得
し、該領域分割画像に存在する前記ブロックの動きベク
トル数がしきい値以下のときはその領域の動きベクトル
を不定とする動きベクトル数検査部と、該動きベクトル
数検査部により前記領域分割画像に存在する前記ブロッ
クの動きベクトル数が前記しきい値よりも多いときは、
前記領域検出部から取得した前記領域分割画像と前記ブ
ロックの動きベクトル検出部から取得した前記ブロック
の動きベクトルとに基づいて前記領域分割画像に存在す
る前記動きベクトルのヒストグラムを作成するヒストグ
ラム作成部と、作成された前記ヒストグラム中の出現頻
度が最大の動きベクトルをその領域の動きベクトルとし
て検出するピーク検出部とを含むことを特徴とする請求
項2乃至6のうちいずれか一項記載の動画像解析装置。
8. The area motion vector detection unit acquires the area division image from the area detection unit, acquires the motion vector from the motion vector detection unit of the block, and acquires the motion vector of the block existing in the area division image. When the number of motion vectors is less than or equal to the threshold value, the motion vector number inspection unit that makes the motion vector of the region indefinite, and the number of motion vectors of the block existing in the region divided image by the motion vector number inspection unit is as described above. If there are more than the threshold,
A histogram creation unit that creates a histogram of the motion vectors existing in the region division image based on the region division image obtained from the region detection unit and the motion vector of the block obtained from the motion vector detection unit of the block; 7. The moving image according to any one of claims 2 to 6, further comprising: a peak detection unit that detects a motion vector having a maximum appearance frequency in the created histogram as a motion vector of the region. Analyzer.
【請求項9】 前記領域の動きベクトル検出部は、 前記領域検出部から領域分割画像を取得すると共に前記
ブロックの動きベクトル検出部から動きベクトルを取得
し、前記領域分割画像に存在する前記動きベクトルのヒ
ストグラムを作成するヒストグラム作成部と、作成され
た前記ヒストグラム中の出現頻度が最大の動きベクトル
を検出するピーク検出部と、該ピーク検出部により検出
された動きベクトルの頻度の全体に占める割合をしきい
値と比較して該しきい値以上の割合の動きベクトルを不
定とする頻度検査部と含むことを特徴とする請求項2乃
至6のうちいずれか一項記載の動画像解析装置。
9. The motion vector detection unit of the area acquires the area division image from the area detection unit and the motion vector from the motion vector detection unit of the block, and the motion vector existing in the area division image. Of the motion vector detected by the peak detection unit, and a peak generation unit that detects a motion vector with the highest appearance frequency in the created histogram, 7. The moving image analysis apparatus according to claim 2, further comprising a frequency inspection unit that makes a motion vector having a ratio equal to or higher than the threshold value indeterminate.
【請求項10】 前記キーフレーム検出部は、前記フレ
ーム取得部により取得したフレーム画像の色ヒストグラ
ム変化とフレーム間差分をそれぞれ測定し、該色ヒスト
グラム変化及び該フレーム間差分の少なくとも一方がし
きい値よりも大きなフレーム画像を、前記キーフレーム
画像として取り出すことを特徴とする請求項1記載の動
画像解析装置。
10. The key frame detection unit respectively measures a color histogram change and an inter-frame difference of the frame image acquired by the frame acquisition unit, and at least one of the color histogram change and the inter-frame difference is a threshold value. The moving image analysis apparatus according to claim 1, wherein a frame image larger than the frame image is extracted as the key frame image.
【請求項11】 動画像データから動画像内容を的確に
表すキーフレームとなるキーフレーム画像を取り出し、
このキーフレーム画像から領域分割画像を生成した後、
前記キーフレーム画像と領域分割画像とから領域の動き
ベクトルを検出し、更にこの領域の動きベクトルと前記
領域分割画像とから物体の動きを導出し、同じ物体を指
していると推定される領域のフレーム間での対応付けを
行うようにしたことを特徴とする動画像解析方法。
11. A key frame image that is a key frame that accurately represents the content of the moving image is extracted from the moving image data,
After generating a region segmented image from this keyframe image,
A motion vector of a region is detected from the key frame image and the region-divided image, and the motion of the object is derived from the motion vector of the region and the region-divided image, and the motion of the region estimated to point to the same object is detected. A moving image analysis method characterized in that correspondence is made between frames.
【請求項12】 前記領域の動きベクトルの検出は、時
間的に連続した2枚の前記キーフレーム画像からブロッ
クマッチング法を使用してブロック単位の動きベクトル
を検出し、このブロック単位の動きベクトルと前記領域
分割画像とに基づいて、前記領域の動きベクトルを検出
することを特徴とする請求項11記載の動画像解析方
法。
12. The motion vector of the area is detected by detecting a block-by-block motion vector from the two temporally consecutive key frame images by using a block matching method. The moving image analysis method according to claim 11, wherein a motion vector of the region is detected based on the region divided image.
JP8109060A 1996-04-30 1996-04-30 Moving image analyzing apparatus and moving image analyzing method Expired - Fee Related JP2940469B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8109060A JP2940469B2 (en) 1996-04-30 1996-04-30 Moving image analyzing apparatus and moving image analyzing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8109060A JP2940469B2 (en) 1996-04-30 1996-04-30 Moving image analyzing apparatus and moving image analyzing method

Publications (2)

Publication Number Publication Date
JPH09297850A true JPH09297850A (en) 1997-11-18
JP2940469B2 JP2940469B2 (en) 1999-08-25

Family

ID=14500590

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8109060A Expired - Fee Related JP2940469B2 (en) 1996-04-30 1996-04-30 Moving image analyzing apparatus and moving image analyzing method

Country Status (1)

Country Link
JP (1) JP2940469B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010057810A (en) * 1999-12-23 2001-07-05 오길록 Apparatus and method for model-based object tracking
WO2006129442A1 (en) * 2005-05-30 2006-12-07 Olympus Corporation Image processing device and object region tracking program
US7248286B2 (en) 2001-10-29 2007-07-24 Samsung Electronics Co., Ltd. Apparatus and method for controlling a camera using a video compression algorithm
JP2009537096A (en) * 2006-05-12 2009-10-22 ヒューレット−パッカード デベロップメント カンパニー エル.ピー. Keyframe extraction from video
JP2011008809A (en) * 1999-06-01 2011-01-13 Fujitsu Semiconductor Ltd Mobile object recognition method and device
JP2012128745A (en) * 2010-12-16 2012-07-05 Canon Inc Motion vector detection device, motion vector detection method, correction device and program

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011008809A (en) * 1999-06-01 2011-01-13 Fujitsu Semiconductor Ltd Mobile object recognition method and device
KR20010057810A (en) * 1999-12-23 2001-07-05 오길록 Apparatus and method for model-based object tracking
US7248286B2 (en) 2001-10-29 2007-07-24 Samsung Electronics Co., Ltd. Apparatus and method for controlling a camera using a video compression algorithm
WO2006129442A1 (en) * 2005-05-30 2006-12-07 Olympus Corporation Image processing device and object region tracking program
JP2006331347A (en) * 2005-05-30 2006-12-07 Olympus Corp Image processor and object domain tracking program
JP4515332B2 (en) * 2005-05-30 2010-07-28 オリンパス株式会社 Image processing apparatus and target area tracking program
US8019143B2 (en) 2005-05-30 2011-09-13 Olympus Corporation Image processing apparatus and computer program product
JP2009537096A (en) * 2006-05-12 2009-10-22 ヒューレット−パッカード デベロップメント カンパニー エル.ピー. Keyframe extraction from video
JP2012128745A (en) * 2010-12-16 2012-07-05 Canon Inc Motion vector detection device, motion vector detection method, correction device and program

Also Published As

Publication number Publication date
JP2940469B2 (en) 1999-08-25

Similar Documents

Publication Publication Date Title
US5767922A (en) Apparatus and process for detecting scene breaks in a sequence of video frames
Gunsel et al. Temporal video segmentation using unsupervised clustering and semantic object tracking
Zabih et al. A feature-based algorithm for detecting and classifying production effects
Kim et al. Efficient camera motion characterization for MPEG video indexing
Zabih et al. A feature-based algorithm for detecting and classifying scene breaks
US7184100B1 (en) Method of selecting key-frames from a video sequence
Cernekova et al. Information theory-based shot cut/fade detection and video summarization
Koprinska et al. Temporal video segmentation: A survey
US6493042B1 (en) Feature based hierarchical video segmentation
JP4666706B2 (en) Moving image real-time conversion method, key frame selection method, and moving image conversion system
US7783118B2 (en) Method and apparatus for determining motion in images
Lefèvre et al. A review of real-time segmentation of uncompressed video sequences for content-based search and retrieval
US20070286499A1 (en) Method for Classifying Digital Image Data
Sowmya et al. A survey on video forgery detection
Yu et al. A hierarchical multiresolution video shot transition detection scheme
JP5360979B2 (en) Important information extraction method and apparatus
JP5503507B2 (en) Character area detection apparatus and program thereof
Lan et al. A novel motion-based representation for video mining
JPH09297850A (en) Device and method for analyzing dynamic picture
Shen et al. HDH based compressed video cut detection
JPH0759108A (en) Cut pattern detection method for motion picture
KR101822443B1 (en) Video Abstraction Method and Apparatus using Shot Boundary and caption
JP4036321B2 (en) Video search device and search program
US9135509B2 (en) Determining representative images for a video
JP3379453B2 (en) Caption region detection method and device, and moving image search method and device

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080618

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090618

Year of fee payment: 10

LAPS Cancellation because of no payment of annual fees