JP2003256849A - Object extracting system and method and its program - Google Patents

Object extracting system and method and its program

Info

Publication number
JP2003256849A
JP2003256849A JP2002050275A JP2002050275A JP2003256849A JP 2003256849 A JP2003256849 A JP 2003256849A JP 2002050275 A JP2002050275 A JP 2002050275A JP 2002050275 A JP2002050275 A JP 2002050275A JP 2003256849 A JP2003256849 A JP 2003256849A
Authority
JP
Japan
Prior art keywords
area
similarity
motion vector
image
divided
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002050275A
Other languages
Japanese (ja)
Other versions
JP3763279B2 (en
Inventor
Akihiko Iketani
彰彦 池谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2002050275A priority Critical patent/JP3763279B2/en
Publication of JP2003256849A publication Critical patent/JP2003256849A/en
Application granted granted Critical
Publication of JP3763279B2 publication Critical patent/JP3763279B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an object extracting system and method and its program capable of further improving the reliability of the extraction of an object. <P>SOLUTION: An object extracting device 101 configuring an object extracting system 100 divides an area by an area dividing part 111 by using colors, luminance or textures or the like as references, and calculates the moving vector of each area by a movement calculating part 112, and calculates the similarity of the movement of each area by a similarity calculating part 113. A similarity storing part 114 stores the results across a plurality of frames so that even when any temporarily similar movement is detected, an integral validity/invalidity judging part 115 can correctly judge the integral validity/ invalidity of the areas. Thus, it is possible to increase the reliability of the extraction of the object. The position of the area in the next frame can be predicted from the calculation result of the movement as the reference of the area division in the next frame. <P>COPYRIGHT: (C)2003,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は物体の抽出を行う物
体抽出システム、物体抽出方法および物体抽出プログラ
ムに係わり、特に動きベクトルを検出して物体を抽出す
るための物体抽出システム、物体抽出方法および物体抽
出プログラムに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an object extraction system, an object extraction method and an object extraction program for extracting an object, and more particularly to an object extraction system, an object extraction method and an object extraction method for detecting an object by detecting a motion vector. It relates to an object extraction program.

【0002】[0002]

【従来の技術】映像の中の各要素が、どの方向へどのく
らい動いているかという情報は動きベクトルと呼ばれて
いる。映像の中から特定の物体を抽出するためには、画
面をブロック型等の複数の領域に分割しておき、その中
で類似した動きを持った動きベクトルを有する領域同士
で連続したものを統合するという手法が採られることが
多い。
2. Description of the Related Art Information indicating how much each element in a video is moving in which direction is called a motion vector. In order to extract a specific object from the video, the screen is divided into multiple areas, such as block-type areas, and areas that have motion vectors with similar motion are integrated into a continuous area. The method of doing is often adopted.

【0003】このような物体抽出に関する技術を使用し
た物体抽出システムが従来から各種提案されている。例
えば特開平2−118884号公報、特開平3−246
75号公報あるいは特開平4−148283号公報等に
そのような技術が開示されている。
Various object extraction systems using such a technique related to object extraction have been conventionally proposed. For example, JP-A-2-118884 and JP-A-3-246
Such a technique is disclosed in Japanese Patent Laid-Open No. 75-75, Japanese Patent Laid-Open No. 4-148283, or the like.

【0004】しかしながら、実際にテレビカメラ等で撮
影した画像を基にして物体を抽出しようとすると、画面
を分割したそれぞれの領域には単純に物体の濃度だけで
なく輝度の影響が現われている。たとえば物体が回転を
伴っていたり光源が移動しているような状態では、分割
されたそれぞれの領域の動きベクトルを正しく求めるこ
とができない場合がある。このため、それぞれの領域に
ついて得られた動きベクトルを用いて単純に領域同士の
統合処理を行うと、本来統合すべき領域同士を統合しな
かったり、反対に統合すべきでない領域同士を統合する
といった誤統合が発生する。これによって、物体領域を
正しく抽出することができなくなる。
However, when an object is to be extracted based on an image actually taken by a television camera or the like, not only the density of the object but also the effect of the brightness appears in each of the divided areas of the screen. For example, when the object is rotating or the light source is moving, the motion vector of each divided area may not be correctly obtained. Therefore, if the regions are simply integrated by using the motion vector obtained for each region, the regions that should originally be integrated may not be integrated, or the regions that should not be integrated may be integrated. Incorrect integration occurs. This makes it impossible to correctly extract the object region.

【0005】そこで、動きベクトルの類似度を考慮する
だけでなく、各領域における動きベクトルの信頼度も考
慮することが提案されている。これは特開平7−129
777号公報等に開示されている手法であり、動きベク
トルの信頼性の高い領域同士から弛緩的に領域を統合す
るようにしている。
Therefore, it has been proposed to consider not only the similarity of motion vectors but also the reliability of motion vectors in each region. This is disclosed in JP-A-7-129.
This method is disclosed in Japanese Patent Publication No. 777, etc., and the regions are relaxedly integrated from the regions having high motion vector reliability.

【0006】図9はこの公報に開示された物体抽出シス
テムの概要を表わしたものである。物体抽出システム
は、所定時刻の画像11とこの所定時刻より単位時間前
の画像12とをそれぞれ第1あるいは第2のフレームメ
モリ13、14に入力し、相関値検出装置15で両者の
相関値を算出する。そしてその結果を動きベクトル検出
装置16と信頼度検出装置17に入力して、動きベクト
ルと信頼度を検出する。これらの結果は、高信頼度動き
ベクトル判定装置18と低信頼度動きベクトル判定装置
19に入力される。高信頼度動きベクトル判定装置18
は、信頼度の分布に基づいて予め設定した第1のしきい
値より信頼度が高い動きベクトルを初期動きベクトルと
して抽出する。低信頼度動きベクトル判定装置19は第
1のしきい値よりも低い第2のしきい値よりも信頼度が
低い動きベクトルを除去して信頼度が第2のしきい値以
上の動きベクトルを出力する。領域統合装置20は、初
期動きベクトルを備えた位置の周辺の領域を検索するこ
とにより、初期動きベクトルと同一または類似した動き
ベクトルを、出力された動きベクトルの中から抽出し、
抽出した動きベクトルを備えた位置を統合して領域を求
める。
FIG. 9 shows an outline of the object extraction system disclosed in this publication. The object extraction system inputs an image 11 at a predetermined time and an image 12 at a unit time before the predetermined time into the first or second frame memories 13 and 14, respectively, and the correlation value detection device 15 calculates the correlation values of the both. calculate. Then, the result is input to the motion vector detecting device 16 and the reliability detecting device 17 to detect the motion vector and the reliability. These results are input to the high reliability motion vector determination device 18 and the low reliability motion vector determination device 19. High reliability motion vector determination device 18
Extracts a motion vector whose reliability is higher than a first threshold value set in advance based on the distribution of reliability as an initial motion vector. The low-reliability motion vector determination device 19 removes a motion vector whose reliability is lower than the second threshold value lower than the first threshold value to determine a motion vector whose reliability is equal to or higher than the second threshold value. Output. The area integration device 20 extracts a motion vector, which is the same as or similar to the initial motion vector, from the output motion vectors by searching the area around the position having the initial motion vector,
The area having the extracted motion vector is integrated to obtain the area.

【0007】[0007]

【発明が解決しようとする課題】ところが、この特開平
7−129777号公報等に開示された手法でも、依然
として物体を抽出する際に誤統合が発生し、その信頼性
を十分高めることができない。
However, even with the method disclosed in Japanese Patent Laid-Open No. 7-129777, erroneous integration still occurs when extracting objects, and the reliability cannot be sufficiently improved.

【0008】図10は物体を抽出しようとする入力画像
の一例を示したものである。この図に示すように画面3
1内に人物32と自動車33が撮影されていたとする。
これら人物32と自動車33が類似した動きベクトル3
4、35を有しており、かつそれらの信頼度が共に高か
ったとする。例えば、この図10に示した画面31より
も所定の単位時間前にも同じような動きベクトルが得ら
れていたとすれば、人物32と自動車33の動きベクト
ルの信頼性は共に高くなる。
FIG. 10 shows an example of an input image from which an object is to be extracted. Screen 3 as shown in this figure
It is assumed that a person 32 and a car 33 are photographed in 1.
Motion vector 3 where these person 32 and car 33 are similar
4 and 35, and their reliability is high. For example, if similar motion vectors were obtained before a predetermined unit time from the screen 31 shown in FIG. 10, the reliability of the motion vectors of the person 32 and the automobile 33 is both high.

【0009】図11は、従来の手法による物体統合の様
子を表わしたものである。図10の2つの動きベクトル
34、35が類似し、それぞれの信頼度が高いことによ
り、物体抽出システムはこれらが同一の物体と判別す
る。その結果、これらが統合され、物体36として間違
った形で抽出されてしまう。
FIG. 11 shows a state of object integration by a conventional method. Since the two motion vectors 34 and 35 in FIG. 10 are similar and have high reliability, the object extraction system determines that they are the same object. As a result, these are integrated and are extracted in the wrong form as the object 36.

【0010】そこで本発明の目的は、物体の抽出の信頼
性を更に高めることのできる物体抽出システム、物体抽
出方法および物体抽出プログラムを提供することにあ
る。
Therefore, an object of the present invention is to provide an object extraction system, an object extraction method, and an object extraction program which can further improve the reliability of object extraction.

【0011】[0011]

【課題を解決するための手段】請求項1記載の発明で
は、(イ)入力された1フレームごとの画像を特徴が一
様な部位同士の複数の領域に分割する領域分割手段と、
(ロ)この領域分割手段によって分割したそれぞれの領
域ごとにそれらの動きの変化を表わした動きベクトルを
算出する動きベクトル算出手段と、(ハ)この動きベク
トル算出手段で算出したそれぞれの領域の動きベクトル
を同一フレーム内で参照することによって、領域分割手
段で分割した領域同士の動きの類似度を算出する類似度
算出手段と、(ニ)この類似度算出手段によって算出し
た類似度を入力時点のそれぞれ異なる複数フレームにわ
たって蓄積する類似度蓄積手段と、(ホ)この類似度蓄
積手段に蓄積された類似度を参照して隣接する領域同士
を統合するか否かを判定する統合可否判定手段と、
(へ)この統合可否判定手段による判定結果を領域分割
手段によって分割された複数の領域に適用することで物
体ごとの領域画像を生成する物体領域画像生成手段とを
物体抽出システムに具備させる。
According to a first aspect of the present invention, (a) an area dividing means for dividing an input image for each frame into a plurality of areas having uniform features,
(B) a motion vector calculating means for calculating a motion vector representing a change in the motion of each area divided by the area dividing means; and (c) a motion of each area calculated by the motion vector calculating means. By referring to the vector in the same frame, the similarity calculation means for calculating the similarity of movement between the areas divided by the area division means, and (d) the similarity calculated by the similarity calculation means at the time of input. Similarity degree accumulation means for accumulating over a plurality of different frames, and (e) integration possibility determination means for determining whether or not adjacent areas are integrated with reference to the similarity degree accumulated in the similarity degree accumulation means,
(H) The object extraction system is provided with an object region image generation unit that generates a region image for each object by applying the determination result of the integration possibility determination unit to the plurality of regions divided by the region division unit.

【0012】すなわち請求項1記載の発明では、領域分
割手段によって入力された1フレームごとの画像を、特
徴が一様な部位同士の複数の領域に分割し、これら分割
された領域ごとに動きベクトルを動きベクトル算出手段
によって算出するようにしている。そして、類似度算出
手段がこの動きベクトル算出手段で算出したそれぞれの
領域の動きベクトルを同一フレーム内で参照することに
よって、領域分割手段で分割した領域同士の動きの類似
度を算出し、類似度蓄積手段によって類似度算出手段に
よって算出した類似度を入力時点のそれぞれ異なる複数
フレームにわたって蓄積するようにしている。統合可否
判定手段は、類似度蓄積手段に蓄積された類似度を参照
して隣接する領域同士を統合するか否かを判定するの
で、物体領域画像生成手段はこの判定結果を用いて領域
の統合を行ったり行わないことで物体ごとの領域画像を
信頼性を高めた状態で生成することができる。すなわ
ち、物体が異なればある時点で互いに同じような動きを
していても他の時点では異なった動きを行う可能性があ
る。類似度蓄積手段が複数フレームにわたって類似度を
蓄積するので、統合可否判定手段の統合可否の判定がよ
り正確に行えるようになるからである。
That is, according to the first aspect of the invention, the image for each frame input by the region dividing means is divided into a plurality of regions having regions having uniform features, and the motion vector is divided for each of the divided regions. Is calculated by the motion vector calculation means. Then, the similarity calculating means refers to the motion vectors of the respective areas calculated by the motion vector calculating means in the same frame, thereby calculating the similarity of the movements of the areas divided by the area dividing means, and calculating the similarity. The accumulating unit accumulates the similarity calculated by the similarity calculating unit over a plurality of frames at different input times. The integration possibility determination unit determines whether or not adjacent regions are integrated with reference to the similarity accumulated in the similarity accumulation unit, and the object region image generation unit uses the determination result to integrate the regions. By performing or not performing, it is possible to generate a region image for each object with high reliability. That is, if the objects are different, the same movement may occur at a certain point in time, but different movements may occur at other points in time. This is because the similarity accumulating unit accumulates the similarities over a plurality of frames, so that the integration availability determining unit can more accurately determine the integration availability.

【0013】請求項2記載の発明では、請求項1記載の
物体抽出システムで、動きベクトル算出手段の算出した
それぞれの領域の動きベクトルを用いて次フレームのそ
れぞれの領域の位置を予測する領域予測手段を更に具備
することを特徴としている。
According to a second aspect of the invention, in the object extraction system according to the first aspect, the region prediction for predicting the position of each region of the next frame using the motion vector of each region calculated by the motion vector calculating means. It is characterized by further comprising means.

【0014】すなわち請求項2記載の発明では、隣接す
るフレームでも各領域の動きベクトルが近似する場合が
多いことを前提として、動きベクトル算出手段の算出し
たそれぞれの領域の動きベクトルを用いて次フレームの
それぞれの領域の位置を予測し、領域の分割処理をより
信頼性の高いものとしている。
That is, according to the second aspect of the invention, assuming that the motion vectors of the respective areas are often similar even in the adjacent frames, the next frame is calculated by using the motion vectors of the respective areas calculated by the motion vector calculating means. The position of each area is predicted to make the area division processing more reliable.

【0015】請求項3記載の発明では、請求項1記載の
物体抽出システムで、領域分割手段の分割の基準となる
特徴が一様な部位は、入力画像の色、輝度、テクスチャ
のうちの一部または全部であることを特徴としている。
According to a third aspect of the present invention, in the object extraction system according to the first aspect, the part having a uniform feature serving as a reference for division by the area dividing means is one of the color, luminance, and texture of the input image. It is characterized by being part or whole.

【0016】すなわち請求項3記載の発明では、同一の
領域であるかどうかを入力画像の色、輝度、テクスチャ
のうちの一部または全部を参考にして行うことにしてい
る。同一部分であれば色やテクスチャが近似する場合が
多いこと、同様の面を構成していれば照明による影響が
同等であること等による。ここに挙げた参考にする特徴
は例示であり、これに限るものではない。
That is, according to the third aspect of the present invention, whether or not the areas are the same area is determined with reference to a part or all of the color, brightness and texture of the input image. This is because the colors and textures are often similar to each other in the same portion, and the effects of illumination are the same when the same surface is formed. The features to be referred to here are examples, and the present invention is not limited to these.

【0017】請求項4記載の発明では、(イ)入力され
た1フレームごとの画像を特徴が一様な部位同士の複数
の領域に分割する領域分割ステップと、(ロ)この領域
分割ステップによって分割したそれぞれの領域ごとにそ
れらの動きの変化を表わした動きベクトルを算出する動
きベクトル算出ステップと、(ハ)この動きベクトル算
出ステップで算出したそれぞれの領域の動きベクトルを
同一フレーム内で参照することによって、領域分割ステ
ップで分割した領域同士の動きの類似度を算出する類似
度算出ステップと、(ニ)この類似度算出ステップによ
って算出した類似度を入力時点のそれぞれ異なる複数フ
レームにわたって蓄積する類似度蓄積ステップと、
(ホ)この類似度蓄積ステップで蓄積された類似度を参
照して隣接する領域同士を統合するか否かを判定する統
合可否判定ステップと、(へ)この統合可否判定ステッ
プによる判定結果を領域分割ステップによって分割され
た複数の領域に適用することで物体ごとの領域画像を生
成する物体領域画像生成ステップとを物体抽出方法に具
備させる。
According to the fourth aspect of the present invention, (a) an area dividing step of dividing the input image for each frame into a plurality of areas having uniform features, and (b) the area dividing step. A motion vector calculation step of calculating a motion vector representing the change of the motion for each divided area, and (c) a motion vector of each area calculated in this motion vector calculation step is referred to in the same frame. Accordingly, the similarity calculation step of calculating the similarity of the movements of the regions divided in the region division step, and (d) the similarity calculation of the similarity calculated in the similarity calculation step over a plurality of different frames at each input time point. Degree accumulation step,
(E) an integration availability determination step of determining whether or not adjacent areas are integrated with reference to the similarity stored in the similarity storage step, and (e) a determination result obtained by the integration availability determination step The object extracting method includes an object region image generating step of generating a region image for each object by applying the plurality of regions divided by the dividing step.

【0018】すなわち請求項4記載の発明では、領域分
割ステップによって入力された1フレームごとの画像
を、特徴が一様な部位同士の複数の領域に分割し、これ
ら分割された領域ごとに動きベクトルを動きベクトル算
出ステップによって算出するようにしている。そして、
類似度算出ステップで、動きベクトル算出ステップにお
いて算出したそれぞれの領域の動きベクトルを同一フレ
ーム内で参照することによって、領域分割ステップで分
割した領域同士の動きの類似度を算出し、類似度蓄積ス
テップによって類似度算出ステップにおいて算出した類
似度を入力時点のそれぞれ異なる複数フレームにわたっ
て蓄積するようにしている。統合可否判定ステップで
は、類似度蓄積ステップにおいて蓄積された類似度を参
照して隣接する領域同士を統合するか否かを判定するの
で、物体領域画像生成ステップではこの判定結果を用い
て領域の統合を行ったり行わないことで物体ごとの領域
画像を信頼性を高めた状態で生成することができる。す
なわち、物体が異なればある時点で互いに同じような動
きをしていても他の時点では異なった動きを行う可能性
がある。類似度蓄積ステップで複数フレームにわたって
類似度を蓄積するので、統合可否判定ステップでの統合
可否の判定がより正確に行えるようになるからである。
That is, in the fourth aspect of the present invention, the image for each frame input in the region dividing step is divided into a plurality of regions having regions having uniform features, and the motion vector is divided for each of the divided regions. Is calculated in the motion vector calculation step. And
In the similarity calculation step, the motion vector of each area calculated in the motion vector calculation step is referred to in the same frame to calculate the motion similarity between the areas divided in the area division step, and the similarity accumulation step. The similarity calculated in the similarity calculating step is accumulated over a plurality of frames at different input times. In the integration possibility determination step, it is determined whether or not adjacent areas are integrated with reference to the similarity accumulated in the similarity accumulation step. Therefore, in the object area image generation step, the area integration is performed using this determination result. By performing or not performing, it is possible to generate a region image for each object with high reliability. That is, if the objects are different, the same movement may occur at a certain point in time, but different movements may occur at other points in time. This is because the similarity is accumulated in a plurality of frames in the similarity accumulating step, so that the integration propriety can be determined more accurately in the integration propriety determining step.

【0019】請求項5記載の発明では、請求項4記載の
物体抽出方法が、動きベクトル算出ステップで算出した
それぞれの領域の動きベクトルを用いて次フレームのそ
れぞれの領域の位置を予測する領域予測ステップを更に
具備することを特徴としている。
According to a fifth aspect of the present invention, the object extraction method according to the fourth aspect uses the motion vector of each area calculated in the motion vector calculating step to predict the position of each area of the next frame. It is characterized by further comprising steps.

【0020】すなわち請求項5記載の発明では、隣接す
るフレームでも各領域の動きベクトルが近似する場合が
多いことを前提として、動きベクトル算出ステップで算
出したそれぞれの領域の動きベクトルを用いて次フレー
ムのそれぞれの領域の位置を予測し、領域の分割処理を
より信頼性の高いものとしている。
That is, according to the fifth aspect of the invention, assuming that the motion vectors of the respective regions are often similar even in adjacent frames, the next frame is calculated using the motion vectors of the respective regions calculated in the motion vector calculating step. The position of each area is predicted to make the area division processing more reliable.

【0021】請求項6記載の発明では、請求項4記載の
物体抽出方法で、領域分割ステップで分割する際の基準
となる特徴が一様な部位は、入力画像の色、輝度、テク
スチャのうちの一部または全部であることを特徴として
いる。
According to the sixth aspect of the present invention, in the object extracting method according to the fourth aspect, a part having uniform features as a reference when dividing in the region dividing step is one of the colors, luminances and textures of the input image. It is characterized by being a part or all of.

【0022】すなわち請求項6記載の発明では、同一の
領域であるかどうかを入力画像の色、輝度、テクスチャ
のうちの一部または全部を参考にして行うことにしてい
る。同一部分であれば色やテクスチャが近似する場合が
多いこと、同様の面を構成していれば照明による影響が
同等であること等による。ここに挙げた参考にする特徴
は例示であり、これに限るものではない。
That is, according to the sixth aspect of the invention, whether or not the areas are the same area is determined with reference to a part or all of the color, brightness, and texture of the input image. This is because the colors and textures are often similar to each other in the same portion, and the effects of illumination are the same when the same surface is formed. The features to be referred to here are examples, and the present invention is not limited to these.

【0023】請求項7記載の発明の物体抽出プログラム
では、コンピュータに、(イ)入力された1フレームご
との画像を特徴が一様な部位同士の複数の領域に分割す
る領域分割処理と、(ロ)この領域分割処理によって分
割したそれぞれの領域ごとにそれらの動きの変化を表わ
した動きベクトルを算出する動きベクトル算出処理と、
(ハ)この動きベクトル算出処理で算出したそれぞれの
領域の動きベクトルを同一フレーム内で参照することに
よって、領域分割処理で分割した領域同士の動きの類似
度を算出する類似度算出処理と、(ニ)この類似度算出
処理によって算出した類似度を入力時点のそれぞれ異な
る複数フレームにわたって蓄積する類似度蓄積処理と、
(ホ)この類似度蓄積処理で蓄積された類似度を参照し
て隣接する領域同士を統合するか否かを判定する統合可
否判定処理と、(へ)この統合可否判定処理による判定
結果を領域分割処理によって分割された複数の領域に適
用することで物体ごとの領域画像を生成する物体領域画
像生成処理を実行させることを特徴としている。
In the object extraction program according to the seventh aspect of the present invention, (a) an area division process for dividing an input image for each frame into a plurality of areas having uniform features, and B) A motion vector calculation process for calculating a motion vector representing the change in the motion of each region divided by the region division process,
(C) A similarity calculation process of calculating the motion similarity between the regions divided by the region division process by referring to the motion vectors of the respective regions calculated by the motion vector calculation process in the same frame. D) Similarity accumulation processing for accumulating the similarity calculated by this similarity calculation processing over a plurality of frames at different input times,
(E) An integration feasibility determination process for determining whether or not to integrate adjacent regions by referring to the similarity accumulated in the similarity accumulation process, and (e) a determination result obtained by the integration feasibility determination process for the region. It is characterized in that the object area image generation processing for generating the area image for each object is executed by applying the plurality of areas divided by the division processing.

【0024】すなわち請求項7記載の発明では、物体抽
出プログラムを構成する領域分割処理によって入力され
た1フレームごとの画像を、特徴が一様な部位同士の複
数の領域に分割し、これら分割された領域ごとに動きベ
クトルを動きベクトル算出処理によって算出するように
している。そして、類似度算出処理で動きベクトル算出
処理において算出したそれぞれの領域の動きベクトルを
同一フレーム内で参照することによって、領域分割処理
で分割した領域同士の動きの類似度を算出し、類似度蓄
積処理によって類似度算出処理において算出した類似度
を入力時点のそれぞれ異なる複数フレームにわたって蓄
積するようにしている。統合可否判定処理では、類似度
蓄積処理において蓄積された類似度を参照して隣接する
領域同士を統合するか否かを判定するので、物体領域画
像生成処理ではこの判定結果を用いて領域の統合を行っ
たり行わないことで物体ごとの領域画像を信頼性を高め
た状態で生成することができる。すなわち、物体が異な
ればある時点で互いに同じような動きをしていても他の
時点では異なった動きを行う可能性がある。類似度蓄積
処理で複数フレームにわたって類似度を蓄積するので、
統合可否判定処理での統合可否の判定がより正確に行え
るようになるからである。
That is, according to the seventh aspect of the present invention, the image for each frame input by the region division processing which constitutes the object extraction program is divided into a plurality of regions having uniform features, and these regions are divided. A motion vector is calculated for each region by a motion vector calculation process. Then, by referring to the motion vector of each region calculated in the motion vector calculation process in the similarity calculation process in the same frame, the similarity of motion between the regions divided in the region division process is calculated, and the similarity accumulation is performed. By the processing, the similarity calculated in the similarity calculation processing is accumulated over a plurality of frames at different input times. In the integration possibility determination process, it is determined whether or not adjacent regions are integrated by referring to the similarity accumulated in the similarity accumulation process. Therefore, in the object region image generation process, the region integration is performed using this determination result. By performing or not performing, it is possible to generate a region image for each object with high reliability. That is, if the objects are different, the same movement may occur at a certain point in time, but different movements may occur at other points in time. Since the similarity accumulation process accumulates the similarity over multiple frames,
This is because the integration availability determination in the integration availability determination processing can be performed more accurately.

【0025】請求項8記載の発明の物体抽出プログラム
では、請求項7記載の物体抽出プログラムに、動きベク
トル算出処理で算出したそれぞれの領域の動きベクトル
を用いて次フレームのそれぞれの領域の位置を予測する
領域予測処理を更に実行させることを特徴としている。
According to the object extraction program of the invention described in claim 8, the position of each area of the next frame is determined by using the motion vector of each area calculated by the motion vector calculation processing in the object extraction program of claim 7. The feature is that the region prediction process for prediction is further executed.

【0026】すなわち請求項8記載の発明では、隣接す
るフレームでも各領域の動きベクトルが近似する場合が
多いことを前提として、動きベクトル算出処理で算出し
たそれぞれの領域の動きベクトルを用いて次フレームの
それぞれの領域の位置を予測し、領域の分割処理をより
信頼性の高いものとしている。
That is, according to the invention of claim 8, on the premise that the motion vectors of the respective areas are often similar even in adjacent frames, the next frame is calculated using the motion vectors of the respective areas calculated by the motion vector calculation processing. The position of each area is predicted to make the area division processing more reliable.

【0027】[0027]

【発明の実施の形態】DETAILED DESCRIPTION OF THE INVENTION

【0028】[0028]

【実施例】以下実施例につき本発明を詳細に説明する。EXAMPLES The present invention will be described in detail below with reference to examples.

【0029】図1は本発明の一実施例における物体抽出
システムの概要を表わしたものである。この物体抽出シ
ステム100は、物体抽出装置101と、この物体抽出
装置101に対してフレームごとに画像を入力する画像
入力装置102と、物体抽出装置101の画像を出力す
る画像出力装置103から構成されている。ここで画像
入力装置102は画像データ104を物体抽出装置10
1に入力するための装置で、それ自体で画像を生成して
もよいし、図示しない通信ネットワーク等から受信ある
いは供給を受けた画像データ104を物体抽出装置10
1に送出するものであってもよい。画像出力装置103
は物体の抽出された画像データ105を外に送出するも
のであってもよいし、それ自体が画像を表示したり記録
するようなものであってもよい。
FIG. 1 shows an outline of an object extraction system according to an embodiment of the present invention. The object extraction system 100 includes an object extraction device 101, an image input device 102 that inputs an image for each frame to the object extraction device 101, and an image output device 103 that outputs an image of the object extraction device 101. ing. Here, the image input device 102 converts the image data 104 into the object extraction device 10
The device for inputting 1 may generate an image by itself, or the image data 104 received or supplied from a communication network or the like (not shown) may be used as the object extracting device 10.
It may be sent to one. Image output device 103
May send out the extracted image data 105 of the object to the outside, or may itself display or record an image.

【0030】物体抽出装置101は、フレームごとの画
像データ104を入力して領域に分割する領域分割部1
11と、分割された領域ごとに動きベクトルを算出する
動き計算部112と、この動き計算部112で計算され
た各領域の動きの類似度を計算する類似度計算部113
と、この類似度計算部113で算出された類似度を複数
のフレームにわたって蓄積する類似度蓄積部114と、
類似度蓄積部114に蓄積された類似度を参照して隣接
する領域同士を統合するか否かを判定する統合可否判定
部115と、領域分割部111で分割された領域ごとの
画像を記憶しておく領域画像記憶部116と、統合可否
判定部115で判定された領域同士の統合の可否につい
ての情報と領域画像記憶部116に記憶された領域に分
割された画像を用いて、各領域の統合を行ったり行わな
いことで物体領域についての画像を生成する物体領域画
像生成部117を備えている。また、動き計算部112
で算出された領域ごとの動きデータ118を基にして、
次のフレームにおける各領域を予測する領域予測部11
9も備えている。物体領域画像生成部117から出力さ
れる画像データ105は、画像出力装置103に供給さ
れることになる。また、領域予測部119から出力され
る領域予測データ121は領域分割部111に入力され
て、次の領域分割のためのデータとなる。
The object extracting device 101 receives the image data 104 for each frame and divides the image data 104 into regions.
11, a motion calculation unit 112 that calculates a motion vector for each of the divided regions, and a similarity calculation unit 113 that calculates the similarity of the motion of each region calculated by the motion calculation unit 112.
And a similarity accumulation unit 114 that accumulates the similarity calculated by the similarity calculation unit 113 over a plurality of frames,
An integration possibility determination unit 115 that determines whether or not adjacent regions are integrated by referring to the similarity accumulated in the similarity accumulation unit 114, and an image for each region divided by the region division unit 111 are stored. Using the area image storage unit 116 to store the information, the information about the integration availability of the areas determined by the integration availability determination unit 115, and the image divided into the areas stored in the area image storage unit 116, An object area image generation unit 117 is provided that generates an image of the object area by performing or not integrating. Also, the motion calculation unit 112
Based on the motion data 118 calculated for each area,
Area prediction unit 11 that predicts each area in the next frame
9 is also provided. The image data 105 output from the object area image generation unit 117 is supplied to the image output device 103. The area prediction data 121 output from the area prediction unit 119 is input to the area division unit 111 and becomes data for the next area division.

【0031】さて、画像入力装置102から物体抽出装
置101へは図示しないビデオカメラで撮像されたよう
なフレーム単位のカラー画像からなる画像データ104
が供給される。物体抽出装置101内の領域分割部11
1は、一様な特徴を持つ画像部分同士が隣接する場合に
はこれらを同一の領域に含め、それ以外を他の領域に区
別することで1つのフレームの画像を複数の領域に分割
する。ここで領域分割の基準となる特徴の一例として
は、色や輝度あるいはテクスチャがある。ここでテクス
チャとは、図形の表面に付けられた模様や、質感を表わ
すための描き込みをいう。
Now, from the image input device 102 to the object extraction device 101, image data 104 consisting of a color image in frame units taken by a video camera (not shown).
Is supplied. Area division unit 11 in the object extraction device 101
1 divides an image of one frame into a plurality of areas by including image parts having uniform features in the same area and distinguishing the other areas from other areas. Here, as an example of a feature that serves as a reference for area division, there is color, brightness, or texture. Here, the texture refers to a pattern attached to the surface of a figure or drawing for expressing a texture.

【0032】領域分割部111における領域分割の手法
としては、たとえば領域成長法を用いることができる。
領域成長法は特開平7−99660号公報にも開示され
ているように、注目している画素とそれに隣接している
画素とが互いに同じ特徴を持っている場合に、それらを
一つの領域に統合する処理を順次実行する手法である。
これによって、特徴が等しい領域が少しずつ成長し、最
終的に画像全体の領域分割が行われる。例えば、領域成
長法のよく知られた具体的な処理は、以下の手順で行わ
れる。
As a method of area division in the area division unit 111, for example, an area growth method can be used.
As disclosed in Japanese Unexamined Patent Publication No. 7-99660, the area growing method defines a pixel of interest and a pixel adjacent to the pixel of interest as one area when they have the same characteristics. This is a method of sequentially executing the processing of integration.
As a result, regions having the same characteristics grow little by little, and finally the entire image is divided into regions. For example, well-known concrete processing of the region growing method is performed in the following procedure.

【0033】まず、画面を走査し、まだ領域分けされ
ていない画素を探し、注目画素とする。この注目画素を
起点として新たな領域を生成する。 次に注目画素に隣接する複数の画素の中で、まだ領域
分けされていない画素との画素値間距離を計算し、その
差があるしきい値以下であれば一つの領域に統合する。 新たに統合された画素を注目画素としてで示した処
理をそれぞれ行う。 以上説明したおよびの操作をそれ以上領域が広げ
られなくなるまで繰り返す。 領域拡張ができなくなったらの処理に戻り、新たな
領域の出発点となる画素を探す。このようにしてすべて
の画素がいずれかの領域に分けられるようになれば、そ
の時点で処理を終了する。
First, the screen is scanned to find a pixel that has not yet been divided into regions and set it as a pixel of interest. A new area is generated starting from this pixel of interest. Next, among a plurality of pixels adjacent to the pixel of interest, the distance between pixel values with a pixel that has not been divided into regions is calculated, and if the difference is equal to or less than a threshold value, it is integrated into one region. The newly integrated pixel is processed as the target pixel. The above-mentioned operations and are repeated until the area cannot be expanded any more. When the region cannot be expanded, the process returns to search for a pixel which is a starting point of a new region. If all the pixels can be divided into any of the areas in this way, the process is terminated at that point.

【0034】ただし、この手法を用いると、隣接する画
素値間距離が徐々に変化している部分がある場合には、
同一領域としてみなすことが適当でないような画素値間
距離の大きい画素同士でも、一つの領域に統合してしま
うという問題がある。そこで、このような領域の過統合
を防ぐためには、で説明した画素値間距離の計算で、
すでに統合した領域内の画素の値の平均と隣接する画素
の値とを比較するようにしてもよい。
However, using this method, if there is a portion where the distance between adjacent pixel values gradually changes,
There is a problem that even pixels having a large distance between pixel values that are not appropriate to be regarded as the same area are integrated into one area. Therefore, in order to prevent such over-integration of regions, in the calculation of the distance between pixel values described in,
You may make it compare the average of the value of the pixel in the already integrated area | region with the value of the adjacent pixel.

【0035】領域分割部111は、このような領域成長
法以外の手法を使用して領域を分割することもできる。
このようなものとしては、分割法、分割統合法、クラス
タリングを使用した手法、ヒストグラムを使用した手
法、エッジ情報を使用した手法等の公知の手法が存在す
る。
The area dividing unit 111 can also divide the area using a method other than the area growing method.
As such a method, there are known methods such as a division method, a division integration method, a method using clustering, a method using a histogram, and a method using edge information.

【0036】図2は、本実施例の物体抽出装置の処理の
流れを表わしたものである。まず、すでに説明したよう
に領域分割部111による領域の分割が行われる(ステ
ップS201)。この領域分割が行われた後、画面を構
成する各画素に対してそれぞれの属する領域番号を与え
ることで、領域画像を生成する(ステップS202)。
生成された各領域ごとの領域画像は領域画像記憶部11
6に保存される(ステップS203)。
FIG. 2 shows a processing flow of the object extracting apparatus of this embodiment. First, as described above, the area dividing unit 111 divides the area (step S201). After this area division is performed, the area image is generated by giving the area number to which each pixel forming the screen belongs (step S202).
The area image storage unit 11 generates the area image for each area.
6 is stored (step S203).

【0037】これと共に、動き計算部112は領域画像
中の各領域の動きを計算する(ステップS204)。動
きの計算の手法としては、領域内部の色や濃度パターン
をテンプレートとして、次のフレーム画像に対してマッ
チングをとることで二次元の動きベクトル(u,v)を
計算するようにしたテンプレートマッチング法を採用す
ることができる。
At the same time, the motion calculator 112 calculates the motion of each area in the area image (step S204). As a motion calculation method, a template matching method is used in which a two-dimensional motion vector (u, v) is calculated by matching the next frame image with a color or density pattern inside the region as a template. Can be adopted.

【0038】このようなテンプレートマッチング法以外
でも領域画像中の各領域の動きを計算することができ
る。たとえば、予めフレーム中の全画素に対して動きベ
クトル(u,v)を求めておき、各領域に属する画素の
間で動きベクトルの平均を計算して、これをその領域の
動きベクトルとするような手法を用いることも可能であ
る。また、各領域の動きをアフィン変換モデル(a,
b,c,d,e,f)で記述する手法もある。この手法
は、たとえば特開平9−121356号公報に記載され
ている。
The motion of each area in the area image can be calculated by other than the template matching method. For example, the motion vector (u, v) is calculated in advance for all the pixels in the frame, the average of the motion vectors among the pixels belonging to each area is calculated, and this is used as the motion vector of that area. It is also possible to use various methods. In addition, the movement of each region is calculated using an affine transformation model (a,
There is also a method described by b, c, d, e, f). This method is described in, for example, Japanese Patent Application Laid-Open No. 9-121356.

【0039】動き計算部112で算出された各領域の動
きは類似度計算部113に供給される。類似度計算部1
13では、互いに隣接し合う領域すべての組i,jに対
して、動きの類似度Sijを計算する(ステップS20
5)。ここで動きの類似度Sijは、たとえば次の
(1)式で表わすことができる。ここで各領域の動き
は、二次元ベクトル(ui,vi)、(uj,vj)で
記述するものとする。
The motion of each area calculated by the motion calculation unit 112 is supplied to the similarity calculation unit 113. Similarity calculator 1
In step 13, the motion similarity Sij is calculated for all pairs i and j of mutually adjacent areas (step S20).
5). Here, the motion similarity Sij can be expressed by the following equation (1), for example. Here, the movement of each area is described by two-dimensional vectors (ui, vi) and (uj, vj).

【0040】 Sij=1/(|ui,vi|+|uj,vj|) ……(1)[0040]   Sij = 1 / (| ui, vi | + | uj, vj |) (1)

【0041】同様に、各領域の動きをアフィン変換モデ
ル(ai,bi,ci,di,ei,fi)、(aj,
bj,cj,dj,ej,fj)で記述する場合には、
次の(2)式を用いることができる。
Similarly, the movement of each area is calculated by using affine transformation models (ai, bi, ci, di, ei, fi), (aj,
bj, cj, dj, ej, fj),
The following equation (2) can be used.

【0042】 Sij=1/(|ai−aj|+|bi−bj|+|ci−cj|+|di− dj|+|ei−ej|+|fi−fj|) ……(2)[0042]   Sij = 1 / (| ai-aj | + | bi-bj | + | ci-cj | + | di- dj | + | ei-ej | + | fi-fj |) (2)

【0043】なお、互いに隣接しない領域の組について
は、動きの類似度Sijにたとえば−1等の特殊な値を
与えることで、互いに隣接していない旨を記憶するよう
にしている。
For a set of areas that are not adjacent to each other, a special value such as -1 is given to the motion similarity Sij to store the fact that they are not adjacent to each other.

【0044】類似度蓄積部114は、類似度計算部11
3で算出された類似度を複数のフレームにわたって蓄積
する(ステップS206)。この類似度蓄積部114の
蓄積の様子を次に説明する。
The similarity degree accumulating section 114 includes a similarity degree calculating section 11
The similarity calculated in 3 is accumulated over a plurality of frames (step S206). The manner of accumulation in the similarity accumulation unit 114 will be described next.

【0045】図3はある時点の入力画像のフレームを表
わしたものである。フレーム131には、人物の頭の上
の領域132と下の領域133、胴体の領域134、自
動車の車体の領域135および窓ガラスの領域136が
各構成領域として分割されている。ステップS202の
領域分割によってn(nは2以上の整数)個の領域(こ
の例では5つの領域132〜136)が得られている。
図3に示した各矢印139はそれぞれの領域132〜1
36の速度を示している。この図では分割された各領域
132〜136はほぼ同じ速度で図で右側に移動してい
る。
FIG. 3 shows a frame of an input image at a certain time. In the frame 131, an upper region 132 and a lower region 133 of a person, a body region 134, an automobile body region 135, and a window glass region 136 are divided as constituent regions. By the area division in step S202, n (n is an integer of 2 or more) areas (five areas 132 to 136 in this example) are obtained.
Each arrow 139 shown in FIG.
36 speeds are shown. In this figure, the divided areas 132 to 136 are moving to the right in the figure at almost the same speed.

【0046】図4は類似度の蓄積の様子を表わしたもの
である。初めにこの図4に示すように縦横N個ずつのN
×Nの上三角行列Mを用意する。次に、現フレームにお
ける領域分割結果に基づいて、この上三角行列Mを更新
する。具体的には図3に示した領域132と領域13
3、領域135と領域136、あるいは領域134と領
域135のように一対の領域i,j(ここではi<jと
する。)が互いに隣接する場合には、Mij(図4中の
画素141)に動きの類似度Sijを加算する。
FIG. 4 shows how the degree of similarity is accumulated. First, as shown in this FIG.
An upper triangular matrix M of × N is prepared. Next, the upper triangular matrix M is updated based on the area division result in the current frame. Specifically, the areas 132 and 13 shown in FIG.
3, when a pair of regions i and j (here, i <j) are adjacent to each other like the regions 135 and 136 or the regions 134 and 135, Mij (pixel 141 in FIG. 4). Is added to the motion similarity Sij.

【0047】一方、領域133と領域135のように領
域i,jが互いに隣接しない場合には、動きの類似度S
ijを減算する。なお、領域i,jが厳密には隣接して
いなくても、事実上隣接していると見做せる場合があ
る。たとえば領域133と領域134のように重心同士
の距離がある一定の範囲内に存在するような場合には、
領域i,jが互いに隣接しているものとして、類似度を
加算するようにしてもよい。
On the other hand, when the regions i and j are not adjacent to each other like the regions 133 and 135, the motion similarity S
ij is subtracted. Even if the regions i and j are not exactly adjacent to each other, they may be considered to be actually adjacent to each other. For example, in the case where the distance between the centers of gravity exists within a certain range, such as the regions 133 and 134,
The similarity may be added assuming that the regions i and j are adjacent to each other.

【0048】以上が1フレームごとに行われる処理であ
る。このようにして1フレーム分の処理が行われたらそ
れが最終フレームであるかどうかの判別が行われる(図
2ステップS207)。最終フレームの処理が行われた
のではない場合には(N)、次のフレームについての処
理が行われることになる。このとき、図1に示した領域
予測部119が、各領域132〜136の次フレームに
おける位置を前フレームにおける動きから予測する(ス
テップS208)。領域分割部111はこれによる予測
位置を核として領域を成長させ、次フレームの領域画像
を生成する(ステップS202)。これ以後は、前に説
明した前フレームと同様の処理を次フレームに対して行
う。以下同様である。
The above is the processing performed for each frame. When the processing for one frame is performed in this way, it is determined whether or not it is the final frame (step S207 in FIG. 2). If the processing of the last frame has not been performed (N), the processing of the next frame will be performed. At this time, the area prediction unit 119 illustrated in FIG. 1 predicts the position of each area 132 to 136 in the next frame from the motion in the previous frame (step S208). The region dividing unit 111 grows a region with the predicted position thus obtained as a nucleus, and generates a region image of the next frame (step S202). After this, the same processing as the previous frame described above is performed on the next frame. The same applies hereinafter.

【0049】一方、ステップ207で現フレームが最終
フレームであると判別された場合には(Y)、統合可否
判定部115が複数フレームにわたって蓄積された類似
度を解析して、統合すべき領域を決定する(ステップS
209)。たとえば領域i,jについて蓄積された類似
度Mi,jを全フレーム数で割り算し、その値があるし
きい値よりも大きい場合には領域i,jの統合を行うよ
うな決定方法を採ることができる。これ以外の手法もも
ちろん可能である。
On the other hand, if it is determined in step 207 that the current frame is the final frame (Y), the integration possibility determination unit 115 analyzes the similarity accumulated over a plurality of frames to determine the area to be integrated. Determine (Step S
209). For example, the similarity Mi, j accumulated for the areas i, j is divided by the total number of frames, and if the value is larger than a certain threshold value, the areas i, j are integrated. You can Other methods are of course possible.

【0050】蓄積された類似度が高く、統合すべきと判
定された領域は同一の物体に属すると考えられる。そこ
で、物体領域画像生成部117では領域画像記憶部11
6に保存された全領域画像に対して領域統合処理を行っ
て物体領域画像を生成し、画像出力装置103に出力す
ることになる(ステップS210)。
It is considered that the regions which have a high accumulated similarity and are determined to be integrated belong to the same object. Therefore, in the object area image generation unit 117, the area image storage unit 11
Area integration processing is performed on the entire area image stored in 6 to generate an object area image, which is output to the image output device 103 (step S210).

【0051】図5〜図7は、以上説明した統合可否判定
部および物体領域画像生成部の動作例を説明するための
ものである。先の図3に示したフレーム131では人物
を表わした各領域132、133、134と自動車を表
わした各領域135、136が一時的に類似した動きを
行ったものとする。この結果として、これよりも後の時
間における図5で示したフレーム151では、人物を表
わした各領域132、133、134と自動車を表わし
た各領域135、136が異なった動きを示すようにな
っている。そこで、図3に示したフレーム131と図5
に示したフレーム151とを対比すると、人物を表わし
た各領域132、133、134同士について蓄積され
た類似度は高い値を持つ。自動車を表わした各領域13
5、136同士についても同様である。しかしながら、
たとえば領域134と領域135については蓄積された
類似度が低い値のままとなる。
FIGS. 5 to 7 are for explaining an operation example of the integration feasibility determining unit and the object area image generating unit described above. In the frame 131 shown in FIG. 3, it is assumed that the regions 132, 133, and 134 representing a person and the regions 135 and 136 representing an automobile perform temporarily similar movements. As a result, in the frame 151 shown in FIG. 5 at a later time, the regions 132, 133, 134 representing the person and the regions 135, 136 representing the car show different movements. ing. Therefore, the frame 131 shown in FIG. 3 and the frame 131 shown in FIG.
When compared with the frame 151 shown in FIG. 3, the similarity accumulated for each of the regions 132, 133, and 134 representing a person has a high value. Each area representing a car 13
The same applies to 5, 136. However,
For example, with respect to the regions 134 and 135, the accumulated similarity remains low.

【0052】したがって、統合可否判定部115は人物
を表わした各領域132、133、134同士を統合す
べきと判定する。自動車を表わした各領域135、13
6同士についても統合すべきと判定する。一方、図3で
は互いに隣接していた領域134と領域135について
は類似度が低いので、結局、領域132、133、13
4のグループと領域135、136のグループは統合す
べきでないと判定する。
Therefore, the integration possibility determination unit 115 determines that the areas 132, 133, and 134 representing the person should be integrated. Areas 135 and 13 representing automobiles
It is also determined that 6 should be integrated. On the other hand, in FIG. 3, the areas 134 and 135 that were adjacent to each other have a low degree of similarity.
It is determined that the group of 4 and the groups of the regions 135 and 136 should not be integrated.

【0053】図6は、このように複数のフレームを蓄積
した結果として、図3に示したフレーム131に対する
物体領域画像生成部117による物体領域画像の生成結
果を表わしたものである。物体領域画像152は、図3
に示した人物に関する領域132、133、134を1
つの領域153として統合している。同様に、自動車に
関する領域135、136を他の1つの領域154とし
て統合している。
FIG. 6 shows the generation result of the object area image by the object area image generation unit 117 for the frame 131 shown in FIG. 3 as a result of accumulating a plurality of frames in this way. The object area image 152 is shown in FIG.
The areas 132, 133, and 134 related to the person shown in FIG.
It is integrated as one area 153. Similarly, areas 135 and 136 related to automobiles are integrated as another area 154.

【0054】図7は同様にして図5に示したフレーム1
51に対する物体領域画像生成部117による物体領域
画像の生成結果を表わしたものである。物体領域画像1
56は、図5に示した人物に関する領域132、13
3、134を1つの領域153として統合している。同
様に、自動車に関する領域135、136を他の1つの
領域154として統合している。
FIG. 7 similarly shows the frame 1 shown in FIG.
5 shows the generation result of the object region image by the object region image generation unit 117 for 51. Object area image 1
Reference numeral 56 denotes areas 132 and 13 related to the person shown in FIG.
3,134 are integrated as one area 153. Similarly, areas 135 and 136 related to automobiles are integrated as another area 154.

【0055】以上説明したように本実施例では動きの類
似度を複数フレームにわたって蓄積するようにした。こ
のため、領域i,jが定常的に類似した動きを持ち、か
つ隣接しているような場合には、類似度Mi,jが加算
されていく。したがって、一時的にのみ類似した動きが
あったり隣接したような場合に、総合的な類似度Mi,
jは相対的に低い値のままとなる。このため、正確な領
域統合を行うことができる。
As described above, in this embodiment, the motion similarity is accumulated over a plurality of frames. Therefore, in the case where the regions i and j have similar movements constantly and are adjacent to each other, the similarity Mi, j is added. Therefore, in the case where there is a similar motion only temporarily or there is an adjacent motion, the overall similarity Mi,
j remains relatively low. Therefore, accurate area integration can be performed.

【0056】変形例 Modification

【0057】図8は、本発明の変形例における物体抽出
システムの概要を表わしたものである。この図8で図1
と同一部分には同一の符号を付しており、それらの説明
を適宜省略する。
FIG. 8 shows an outline of an object extraction system in a modified example of the present invention. In FIG. 8, FIG.
The same parts as those in are denoted by the same reference numerals, and the description thereof will be appropriately omitted.

【0058】この変形例の物体抽出システム100A
は、物体抽出装置101Aと、これに接続された画像入
力装置102、画像出力装置103および記憶媒体30
1によって構成されている。ここで、物体抽出装置10
1Aは、CPU(中央処理装置)302とRAM(ラン
ダム・アクセス・メモリ)303と、図示しない入出力
用のインターフェース回路ならびに必要な場合には同じ
く図示しないキーボード、ディスプレイ等の入出力機器
によって構成されている。記憶媒体301は、磁気ディ
スク、光ディスク、半導体メモリ等の記憶媒体である。
記憶媒体301には制御プログラムが格納されており、
CPU302がこれを実行することによって、図1に示
した物体抽出装置101の各部を機能的に実現するよう
になっている。RAM303は記憶媒体301に格納さ
れた制御プログラムをロードするメモリ領域として使用
したり、作業用のデータを一時的に格納するメモリ領域
として使用する。
The object extraction system 100A of this modified example
Is an object extraction device 101A, an image input device 102, an image output device 103, and a storage medium 30 connected to the object extraction device 101A.
It is composed of 1. Here, the object extraction device 10
1A is composed of a CPU (central processing unit) 302, a RAM (random access memory) 303, an input / output interface circuit (not shown), and an input / output device such as a keyboard and a display (not shown) if necessary. ing. The storage medium 301 is a storage medium such as a magnetic disk, an optical disk, or a semiconductor memory.
The storage medium 301 stores a control program,
When the CPU 302 executes this, each unit of the object extracting apparatus 101 shown in FIG. 1 is functionally realized. The RAM 303 is used as a memory area for loading a control program stored in the storage medium 301 and as a memory area for temporarily storing work data.

【0059】もちろん、記憶媒体301はROM(リー
ド・オンリ・メモリ)という形で物体抽出装置101A
の内部に格納されていてもよいし、図示しない通信装置
を介して同じく図示しないインターネット等の記憶媒体
から必要な制御プログラムをダウンロードするものであ
ってもよい。また、物体抽出装置101Aはこの通信装
置を使用して一部または全部の処理をウェブ上で行うよ
うなものであってもよい。
Of course, the storage medium 301 is in the form of a ROM (Read Only Memory), and the object extracting apparatus 101A
May be stored inside the computer, or the necessary control program may be downloaded from a storage medium (not shown) such as the Internet via a communication device (not shown). Further, the object extracting apparatus 101A may be one that performs some or all of the processing on the web by using this communication apparatus.

【0060】更にこの変形例ではCPU302を配置す
ることにしたが、プロセッサ、データ処理装置等のよう
にその名称が特に限定されるものでないことも当然であ
る。
Further, although the CPU 302 is arranged in this modified example, it goes without saying that its name is not particularly limited, such as a processor and a data processing device.

【0061】[0061]

【発明の効果】以上説明したように請求項1記載の発明
によれば、物体が異なればある時点で互いに同じような
動きをしていても他の時点では異なった動きを行う可能
性がある点に着目し、類似度蓄積手段が複数フレームに
わたって類似度を蓄積するので、統合可否判定手段の統
合可否の判定を比較的簡単な処理でより正確に行うこと
ができるという利点がある。
As described above, according to the invention described in claim 1, even if the objects have different movements at a certain time point, different movements may occur at other time points. Paying attention to the points, the similarity accumulating unit accumulates the similarities over a plurality of frames, so that there is an advantage that the integration availability determination of the integration availability determination unit can be performed more accurately by a relatively simple process.

【0062】また、請求項2記載の発明によれば、請求
項1記載の物体抽出システムで、動きベクトル算出手段
の算出したそれぞれの領域の動きベクトルを用いて次フ
レームのそれぞれの領域の位置を予測する領域予測手段
を更に具備することにしたので、一部のフレームで画像
にノイズが生じたり画像が一時的に不鮮明となったよう
な場合にも領域の分割、強いては物体の抽出を精度良く
行うことができる。
According to the invention described in claim 2, in the object extraction system according to claim 1, the position of each area of the next frame is determined by using the motion vector of each area calculated by the motion vector calculation means. Since we decided to further equip the area prediction means to predict, even if there is noise in the image in some frames or the image becomes temporarily unclear, it is possible to accurately divide the area, or even extract the object. You can do it well.

【0063】更に請求項4記載の発明によれば、物体が
異なればある時点で互いに同じような動きをしていても
他の時点では異なった動きを行う可能性がある点に着目
し、類似度蓄積ステップで複数フレームにわたって類似
度を蓄積するので、統合可否判定ステップでの統合可否
の判定を比較的簡単な処理でより正確に行うことができ
るという利点がある。
Further, according to the invention described in claim 4, attention is paid to the fact that even if different objects have similar movements at a certain time point, different movements may occur at other time points. Since the degree of similarity is accumulated in a plurality of frames in the degree accumulating step, there is an advantage that the possibility of integrating in the possibility of integrating can be more accurately determined by a relatively simple process.

【0064】また、請求項5記載の発明によれば、請求
項4記載の物体抽出システムで、動きベクトル算出ステ
ップで算出したそれぞれの領域の動きベクトルを用いて
次フレームのそれぞれの領域の位置を予測する領域予測
ステップを更に具備することにしたので、一部のフレー
ムで画像にノイズが生じたり画像が一時的に不鮮明とな
ったような場合にも領域の分割、強いては物体の抽出を
精度良く行うことができる。
According to the invention described in claim 5, in the object extraction system according to claim 4, the position of each area of the next frame is determined by using the motion vector of each area calculated in the motion vector calculating step. Since we decided to further include a region prediction step to predict, even if there is noise in the image in some frames or the image becomes temporarily unclear, the region division, or even the extraction of the object is accurate. You can do it well.

【0065】更に請求項7記載の発明によれば、物体が
異なればある時点で互いに同じような動きをしていても
他の時点では異なった動きを行う可能性がある点に着目
し、類似度蓄積処理で複数フレームにわたって類似度を
蓄積するので、統合可否判定処理での統合可否の判定を
比較的簡単な処理でより正確に行うことができるという
利点がある。
Further, according to the invention described in claim 7, attention is paid to the fact that, if different objects have different movements at a certain time point, different movements may occur at other time points. Since the degree of similarity is accumulated in a plurality of frames in the degree accumulating process, there is an advantage that it is possible to more accurately determine the integration possibility in the integration possibility determination process with a relatively simple process.

【0066】また、請求項8記載の発明によれば、請求
項7記載の物体抽出システムで、動きベクトル算出処理
で算出したそれぞれの領域の動きベクトルを用いて次フ
レームのそれぞれの領域の位置を予測する領域予測処理
を更に実行することにしたので、一部のフレームで画像
にノイズが生じたり画像が一時的に不鮮明となったよう
な場合にも領域の分割、強いては物体の抽出を精度良く
行うことができる。
According to the invention described in claim 8, in the object extraction system according to claim 7, the position of each area of the next frame is determined by using the motion vector of each area calculated by the motion vector calculation processing. Since we decided to further execute the region prediction process to predict, even if there are noises in the image in some frames or the image becomes temporarily unclear, the region division, or even the extraction of the object is accurate. You can do it well.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例における物体抽出システムの
概要を表わしたブロック図である。
FIG. 1 is a block diagram showing an outline of an object extraction system according to an embodiment of the present invention.

【図2】本実施例の物体抽出装置の処理の流れを表わし
た流れ図である。
FIG. 2 is a flowchart showing a processing flow of the object extracting apparatus of this embodiment.

【図3】ある時点における入力画像のフレームを表わし
た説明図である。
FIG. 3 is an explanatory diagram showing a frame of an input image at a certain time.

【図4】本実施例で類似度の蓄積の様子を表わした説明
図である。
FIG. 4 is an explanatory diagram showing how the degree of similarity is accumulated in this embodiment.

【図5】図3とは異なった時点における入力画像のフレ
ームを表わした説明図である。
FIG. 5 is an explanatory diagram showing a frame of an input image at a time different from that of FIG.

【図6】図3に示したフレームに対する物体領域画像生
成部による物体領域画像の生成結果を表わした平面図で
ある。
6 is a plan view showing a generation result of an object area image by an object area image generation unit for the frame shown in FIG.

【図7】図5に示したフレームに対する物体領域画像生
成部による物体領域画像の生成結果を表わした平面図で
ある。
7 is a plan view showing a generation result of an object area image by an object area image generation unit for the frame shown in FIG.

【図8】本発明の変形例における物体抽出システムの概
要を表わしたブロック図である。
FIG. 8 is a block diagram showing an outline of an object extraction system in a modified example of the present invention.

【図9】従来提案された物体抽出システムの概要を表わ
したブロック図である。
FIG. 9 is a block diagram showing an outline of a conventionally proposed object extraction system.

【図10】物体を抽出しようとする入力画像の一例を示
した説明図である。
FIG. 10 is an explanatory diagram showing an example of an input image from which an object is to be extracted.

【図11】従来の手法による物体統合の様子を表わした
説明図である。
FIG. 11 is an explanatory diagram showing a state of object integration by a conventional method.

【符号の説明】[Explanation of symbols]

100、100A 物体抽出システム 101、101A 物体抽出装置 102 画像入力装置 103 画像出力装置 111 領域分割部 112 動き計算部 113 類似度計算部 114 類似度蓄積部 115 統合可否判定部 116 領域画像記憶部 119 領域予測部 132〜136、153、154 領域 100, 100A object extraction system 101, 101A object extraction device 102 image input device 103 image output device 111 Area Division 112 Motion calculator 113 similarity calculator 114 similarity accumulation unit 115 Integration possibility determination unit 116 area image storage unit 119 Area prediction unit 132-136, 153, 154 areas

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】 入力された1フレームごとの画像を特徴
が一様な部位同士の複数の領域に分割する領域分割手段
と、 この領域分割手段によって分割したそれぞれの領域ごと
にそれらの動きの変化を表わした動きベクトルを算出す
る動きベクトル算出手段と、 この動きベクトル算出手段で算出したそれぞれの領域の
動きベクトルを同一フレーム内で参照することによっ
て、前記領域分割手段で分割した領域同士の動きの類似
度を算出する類似度算出手段と、 この類似度算出手段によって算出した類似度を入力時点
のそれぞれ異なる複数フレームにわたって蓄積する類似
度蓄積手段と、 この類似度蓄積手段に蓄積された類似度を参照して隣接
する領域同士を統合するか否かを判定する統合可否判定
手段と、 この統合可否判定手段による判定結果を前記領域分割手
段によって分割された複数の領域に適用することで物体
ごとの領域画像を生成する物体領域画像生成手段とを具
備することを特徴とする物体抽出システム。
1. An area dividing means for dividing an inputted image for each frame into a plurality of areas having parts having uniform features, and a change in movement of each area divided by the area dividing means. By referring to the motion vector calculating means for calculating the motion vector representing the motion vector and the motion vector of each area calculated by the motion vector calculating means in the same frame. The similarity calculation means for calculating the similarity, the similarity accumulation means for accumulating the similarity calculated by the similarity calculation means over a plurality of frames at different input times, and the similarity accumulated in the similarity accumulation means An integration availability determination means for determining whether or not to integrate adjacent areas with each other, and a determination result by the integration availability determination means Object extraction system, characterized by comprising the object area image generating means for generating area image for each object by applying a plurality of regions divided by the region dividing means.
【請求項2】 前記動きベクトル算出手段の算出したそ
れぞれの領域の動きベクトルを用いて次フレームのそれ
ぞれの領域の位置を予測する領域予測手段を具備するこ
とを特徴とする請求項1記載の物体抽出システム。
2. The object according to claim 1, further comprising area prediction means for predicting a position of each area of the next frame using the motion vector of each area calculated by the motion vector calculation means. Extraction system.
【請求項3】 前記領域分割手段の分割の基準となる特
徴が一様な部位は、入力画像の色、輝度、テクスチャの
うちの一部または全部であることを特徴とする請求項1
記載の物体抽出システム。
3. The part having a uniform feature serving as a reference for division by the area dividing means is a part or all of the color, brightness, and texture of the input image.
The described object extraction system.
【請求項4】 入力された1フレームごとの画像を特徴
が一様な部位同士の複数の領域に分割する領域分割ステ
ップと、 この領域分割ステップによって分割したそれぞれの領域
ごとにそれらの動きの変化を表わした動きベクトルを算
出する動きベクトル算出ステップと、 この動きベクトル算出ステップで算出したそれぞれの領
域の動きベクトルを同一フレーム内で参照することによ
って、前記領域分割ステップで分割した領域同士の動き
の類似度を算出する類似度算出ステップと、 この類似度算出ステップによって算出した類似度を入力
時点のそれぞれ異なる複数フレームにわたって蓄積する
類似度蓄積ステップと、 この類似度蓄積ステップで蓄積された類似度を参照して
隣接する領域同士を統合するか否かを判定する統合可否
判定ステップと、 この統合可否判定ステップによる判定結果を前記領域分
割ステップによって分割された複数の領域に適用するこ
とで物体ごとの領域画像を生成する物体領域画像生成ス
テップとを具備することを特徴とする物体抽出方法。
4. An area dividing step of dividing an input image for each frame into a plurality of areas having uniform features, and a change in movement of each area divided by the area dividing step. By referring to the motion vector of each area calculated in this motion vector calculation step in the same frame, the motion vector calculation step of calculating the motion vector The similarity calculation step of calculating the similarity, the similarity accumulation step of accumulating the similarity calculated by the similarity calculation step over a plurality of frames at different input times, and the similarity accumulated in the similarity accumulation step Refer to the integration availability determination step to determine whether to integrate adjacent areas. And an object region image generating step of generating a region image for each object by applying the determination result of the integration feasibility determining step to the plurality of regions divided by the region dividing step. Extraction method.
【請求項5】 前記動きベクトル算出ステップで算出し
たそれぞれの領域の動きベクトルを用いて次フレームの
それぞれの領域の位置を予測する領域予測ステップを具
備することを特徴とする請求項4記載の物体抽出方法。
5. The object according to claim 4, further comprising an area prediction step of predicting a position of each area of the next frame using the motion vector of each area calculated in the motion vector calculating step. Extraction method.
【請求項6】 前記領域分割ステップで分割する際の基
準となる特徴が一様な部位は、入力画像の色、輝度、テ
クスチャのうちの一部または全部であることを特徴とす
る請求項4記載の物体抽出方法。
6. The part having a uniform feature as a reference when dividing in the region dividing step is a part or all of the color, brightness, and texture of the input image. The described object extraction method.
【請求項7】 コンピュータに、 入力された1フレームごとの画像を特徴が一様な部位同
士の複数の領域に分割する領域分割処理と、 この領域分割処理によって分割したそれぞれの領域ごと
にそれらの動きの変化を表わした動きベクトルを算出す
る動きベクトル算出処理と、 この動きベクトル算出処理で算出したそれぞれの領域の
動きベクトルを同一フレーム内で参照することによっ
て、前記領域分割処理で分割した領域同士の動きの類似
度を算出する類似度算出処理と、 この類似度算出処理によって算出した類似度を入力時点
のそれぞれ異なる複数フレームにわたって蓄積する類似
度蓄積処理と、 この類似度蓄積処理で蓄積された類似度を参照して隣接
する領域同士を統合するか否かを判定する統合可否判定
処理と、 この統合可否判定処理による判定結果を前記領域分割処
理によって分割された複数の領域に適用することで物体
ごとの領域画像を生成する物体領域画像生成処理を実行
させることを特徴とする物体抽出プログラム。
7. A computer is divided into a plurality of regions each having a uniform feature, and the image for each frame inputted is divided into a plurality of regions, and the divided regions are divided into regions. The motion vector calculation processing for calculating a motion vector representing a change in motion and the motion vectors of the respective areas calculated by this motion vector calculation processing are referred to in the same frame, so that the areas divided by the area division processing are Similarity calculation processing for calculating the similarity of motions of the human body, similarity accumulation processing for accumulating the similarity calculated by the similarity calculation processing for a plurality of frames at different input times, and the similarity accumulation processing for accumulation. An integration availability determination process for determining whether or not to integrate adjacent areas by referring to the similarity, and an integration availability determination process An object extraction program for executing an object region image generation process for generating a region image for each object by applying a determination result based on a theory to a plurality of regions divided by the region division process.
【請求項8】 前記動きベクトル算出処理で算出したそ
れぞれの領域の動きベクトルを用いて次フレームのそれ
ぞれの領域の位置を予測する領域予測処理を更に実行さ
せることを特徴とする請求項7記載の物体抽出プログラ
ム。
8. The area prediction process for predicting the position of each area of the next frame using the motion vector of each area calculated by the motion vector calculation processing is further executed. Object extraction program.
JP2002050275A 2002-02-26 2002-02-26 Object extraction system, object extraction method, and object extraction program Expired - Fee Related JP3763279B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002050275A JP3763279B2 (en) 2002-02-26 2002-02-26 Object extraction system, object extraction method, and object extraction program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002050275A JP3763279B2 (en) 2002-02-26 2002-02-26 Object extraction system, object extraction method, and object extraction program

Publications (2)

Publication Number Publication Date
JP2003256849A true JP2003256849A (en) 2003-09-12
JP3763279B2 JP3763279B2 (en) 2006-04-05

Family

ID=28662561

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002050275A Expired - Fee Related JP3763279B2 (en) 2002-02-26 2002-02-26 Object extraction system, object extraction method, and object extraction program

Country Status (1)

Country Link
JP (1) JP3763279B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100337249C (en) * 2004-04-23 2007-09-12 中国科学院计算技术研究所 A video motion object dividing method
JP2010034999A (en) * 2008-07-30 2010-02-12 Sony Corp Motion vector detecting apparatus, motion vector detecting method, and program
JP2010102586A (en) * 2008-10-24 2010-05-06 Hiroshima Univ Object tracking apparatus and object tracking method
EP2345997A1 (en) 2010-01-19 2011-07-20 Deutsche Thomson OHG Method and system for estimating motion in video images
JP2013120551A (en) * 2011-12-08 2013-06-17 Denso It Laboratory Inc Driving support device for vehicle

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100337249C (en) * 2004-04-23 2007-09-12 中国科学院计算技术研究所 A video motion object dividing method
JP2010034999A (en) * 2008-07-30 2010-02-12 Sony Corp Motion vector detecting apparatus, motion vector detecting method, and program
JP4697276B2 (en) * 2008-07-30 2011-06-08 ソニー株式会社 Motion vector detection apparatus, motion vector detection method, and program
US8401318B2 (en) 2008-07-30 2013-03-19 Sony Corporation Motion vector detecting apparatus, motion vector detecting method, and program
JP2010102586A (en) * 2008-10-24 2010-05-06 Hiroshima Univ Object tracking apparatus and object tracking method
EP2345997A1 (en) 2010-01-19 2011-07-20 Deutsche Thomson OHG Method and system for estimating motion in video images
JP2013120551A (en) * 2011-12-08 2013-06-17 Denso It Laboratory Inc Driving support device for vehicle

Also Published As

Publication number Publication date
JP3763279B2 (en) 2006-04-05

Similar Documents

Publication Publication Date Title
CN111027493B (en) Pedestrian detection method based on deep learning multi-network soft fusion
CN111062974B (en) Method and system for extracting foreground target by removing ghost
WO2017201751A1 (en) Hole filling method and device for virtual viewpoint video or image, and terminal
US20080112606A1 (en) Method for moving cell detection from temporal image sequence model estimation
JP2006209755A (en) Method for tracing moving object inside frame sequence acquired from scene
JP2018010621A (en) Method and device for updating background model used for background difference of image
CN112184759A (en) Moving target detection and tracking method and system based on video
CN109919053A (en) A kind of deep learning vehicle parking detection method based on monitor video
WO2019197021A1 (en) Device and method for instance-level segmentation of an image
JP5371040B2 (en) Moving object tracking device, moving object tracking method, and moving object tracking program
CN113168520A (en) Method of tracking objects in a scene
CN111652181B (en) Target tracking method and device and electronic equipment
CN110060278A (en) The detection method and device of moving target based on background subtraction
Moreno-Garcia et al. Video sequence motion tracking by fuzzification techniques
KR101690050B1 (en) Intelligent video security system
CN113379789B (en) Moving target tracking method in complex environment
JP3716455B2 (en) Region extraction method and region extraction device
JP3763279B2 (en) Object extraction system, object extraction method, and object extraction program
CN108280841A (en) A kind of foreground extracting method based on neighborhood territory pixel intensity correction
KR100566629B1 (en) System for detecting moving objects and method thereof
CN111488476B (en) Image pushing method, model training method and corresponding devices
CN110580706A (en) Method and device for extracting video background model
CN112200831B (en) Dynamic template-based dense connection twin neural network target tracking method
CN114821441A (en) Deep learning-based airport scene moving target identification method combined with ADS-B information
CN114494977A (en) Abnormal parking detection method, electronic equipment and storage medium

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050701

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050712

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050912

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20051227

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060109

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 3763279

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100127

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110127

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110127

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120127

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130127

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130127

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees