JPH09231363A - Object monitoring device - Google Patents

Object monitoring device

Info

Publication number
JPH09231363A
JPH09231363A JP4084996A JP4084996A JPH09231363A JP H09231363 A JPH09231363 A JP H09231363A JP 4084996 A JP4084996 A JP 4084996A JP 4084996 A JP4084996 A JP 4084996A JP H09231363 A JPH09231363 A JP H09231363A
Authority
JP
Japan
Prior art keywords
label
labels
distance
group
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP4084996A
Other languages
Japanese (ja)
Inventor
Akiko Konno
章子 紺野
Yoshihiro Igawa
喜裕 井川
Yukio Koga
由紀夫 古賀
Etsuo Yamada
越生 山田
Akira Shimizu
清水  晃
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fuji Electric Co Ltd
Original Assignee
Fuji Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Electric Co Ltd filed Critical Fuji Electric Co Ltd
Priority to JP4084996A priority Critical patent/JPH09231363A/en
Publication of JPH09231363A publication Critical patent/JPH09231363A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To quickly and highly accurately extract each of plural objects. SOLUTION: An changed area inter-label distance calculating means 6 calculates a distance between a changed area labels or horizontal and vertical distances between the lables based upon the gradation picture of a changed area extracted by an image pickup means 1, an A/D conversion means 2, a changed area extracting means 4, etc. A changed area label integrating means 12 integrates changed area labels in which the inter-label distance or inter-label horizontal and vertical distances are less than a fixed value as one object based upon thresholds obtained from setting means 10A, 10B, so that the object can be quickly and highly accurately extracted. There are various deformed examples capable of furthermore accelerating operation by reducing the number of label combinations.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】この発明は、テレビカメラ等
の撮像手段を介して得た撮像画像から、対象物体を抽出
し、時間経過に伴って物体を追跡することにより、特定
物体の有無を検知したり、その個数をカウントしたり、
物体の移動速度を計測したりする機能をもつ、画像処理
を利用した物体監視装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention detects the presence or absence of a specific object by extracting a target object from a picked-up image obtained through an image pickup means such as a television camera and tracking the object over time. Or count the number,
The present invention relates to an object monitoring device that uses image processing and has a function of measuring the moving speed of an object.

【0002】[0002]

【従来の技術】従来、画像処理を利用した物体追跡処理
装置として、例えば図9に示すようなものが知られてい
る(特開平4−36014号公報参照:従来方式1)。
これは、テレビカメラ等の撮像手段31、カメラから入
力したアナログ画像をディジタル画像に変換するA/D
変換部32、背景画像メモリ33、入力画像と背景画像
の変化を抽出する差分処理部34、2値化処理部35、
特徴量抽出部36、特徴量対応付け処理部37、動き量
抽出処理部38、判断処理部39、領域別特徴量設定部
40および警報出力部41などからなり、物体抽出を背
景画像と入力画像との差分2値化画像を用いて行ない、
その面積や重心を特徴量として対応付けるものである。
このため、画面内に存在する物体でも背景に近い濃度を
持つ部分は抽出されず、これによって面積等の特徴量が
変化し、対象物体を正確に抽出できない場合がある。
2. Description of the Related Art Conventionally, as an object tracking processing apparatus using image processing, for example, one shown in FIG. 9 is known (see Japanese Patent Laid-Open No. 4-36014: Conventional method 1).
This is an A / D that converts an analog image input from the image pickup means 31 such as a television camera or a camera into a digital image.
A conversion unit 32, a background image memory 33, a difference processing unit 34 for extracting changes between the input image and the background image, a binarization processing unit 35,
The feature amount extraction unit 36, the feature amount association processing unit 37, the motion amount extraction processing unit 38, the determination processing unit 39, the region-based feature amount setting unit 40, and the alarm output unit 41 are included. And the difference binarized image
The area and the center of gravity are associated as a feature amount.
Therefore, even an object existing in the screen does not have a portion having a density close to the background, and the feature amount such as an area changes due to this, so that the target object may not be accurately extracted.

【0003】そこで、1個の物体が複数のラベルに分離
されたり、複数の物体の一部が重複したりしても物体抽
出ができるような改良案として、出願人は侵入物体監視
装置(特願平5−162593号参照:従来方式2)を
提案している。これは、従来方式1に対し変化領域組み
合わせ手段または変化領域分離手段,一致度算出手段お
よび変化領域統合手段などを付加して構成され、複数ラ
ベルの組み合わせや分割を行なって、組み合わせ毎に対
象物体との一致度を計算し、一致度の最も高い組み合わ
せを選択することで、正確に対象物体を抽出し得るよう
にしたものである。
Therefore, the applicant has proposed an intruding object monitoring device (special feature) as an improvement plan for extracting an object even if one object is separated into a plurality of labels or a part of a plurality of objects overlap. See Japanese Patent Application No. 5-162593: A conventional method 2) is proposed. This is configured by adding changing area combining means or changing area separating means, matching degree calculating means, changing area integrating means, etc. to the conventional method 1. By combining or dividing a plurality of labels, a target object is obtained for each combination. By calculating the degree of coincidence with and selecting the combination with the highest degree of coincidence, the target object can be accurately extracted.

【0004】[0004]

【発明が解決しようとする課題】しかし、従来方式2で
は、n個のラベルの組み合わせ数は(2n −1)となる
ため、ラベル数が大きくなると膨大な数の組み合わせに
対して一致度を計算する必要が生じ、処理時間が長くな
り過ぎて実用的でなくなるという問題がある。また、監
視平面の奥行きは通常は考慮しておらず、このため監視
平面に奥行きがある場合は物体抽出が正確に行なえない
という問題が生じる。したがって、この発明の課題は対
象物体が複数ラベルに分かれて抽出されるような場合
に、より高速に対象物体を抽出できるようにすること、
また、監視平面に奥行きがあるような場合でも、正確に
対象物体を抽出できるようにすることにある。
However, in the conventional method 2, the number of combinations of n labels is (2 n -1). Therefore, when the number of labels is large, the degree of coincidence is increased for a huge number of combinations. There is a problem that calculation becomes necessary and the processing time becomes too long to be practical. Further, the depth of the surveillance plane is not usually taken into consideration, and therefore, there is a problem that the object extraction cannot be performed accurately when the surveillance plane has a depth. Therefore, an object of the present invention is to enable the target object to be extracted at a higher speed in the case where the target object is divided into a plurality of labels and extracted.
Another object is to enable accurate extraction of the target object even when the monitoring plane has a depth.

【0005】[0005]

【課題を解決するための手段】このような課題を解決す
べく、この発明では変化領域の各ラベルの統合方法につ
いて、下記(1)〜(6)のいずれかとする。 (1)画像上でのラベル間の距離を求め、この距離が一
定値以下のラベルの組を1つの物体として統合する。 (2)ラベル間の距離しきい値を垂直方向と水平方向で
別々に設定しておき、その少なくとも一方がしきい値以
下の距離にあるラベルの組を1つの物体として統合す
る。 (3)画像上での距離が一定以下にあるラベルの組を1
つのグループとし、その中でのみラベルの組み合わせを
行なって、物体の形状モデルと一致度の最も高いラベル
の組を物体として統合する。 (4)ラベル間の距離しきい値を垂直方向と水平方向で
別々に設定しておき、その少なくとも一方がしきい値以
下の距離にあるラベルを1つのグループとし、その中で
のみラベルの組み合わせを行なって、物体の形状モデル
と一致度の最も高いラベルの組を物体として統合する。
In order to solve such a problem, the present invention adopts any one of the following (1) to (6) as a method of integrating the labels of the change areas. (1) The distance between the labels on the image is obtained, and the set of labels whose distance is a fixed value or less is integrated as one object. (2) A distance threshold between labels is set separately in the vertical direction and the horizontal direction, and a set of labels in which at least one of them has a distance equal to or less than the threshold is integrated as one object. (3) One label set whose distance on the image is less than a certain value
Labels are combined into one group, and the set of labels having the highest degree of coincidence with the shape model of the object is integrated as an object. (4) The distance threshold between labels is set separately in the vertical direction and the horizontal direction, and labels in which at least one of them has a distance equal to or less than the threshold value are grouped into one group, and the labels are combined only in that group. Then, the set of labels having the highest degree of coincidence with the shape model of the object is integrated as the object.

【0006】(5)監視領域の平面とカメラ等の撮像手
段との位置的な関係(距離,角度)とレンズの焦点距離
と変化領域ラベル抽出位置により、対象物体が監視領域
平面に接しているという条件のもとで、対象物体が画面
上で占めるサイズ(幅,高さ)を概算しておき、変化領
域の各ラベルに対して、その水平距離が物体幅以下であ
る、垂直距離が物体高さ以下であるという2つの条件の
少なくとも一方を満足するラベルの組を1つの対象物体
として統合する。 (6)監視領域の平面とカメラ等の撮像手段との位置的
な関係(距離,角度)とレンズの焦点距離と変化領域ラ
ベル抽出位置により、対象物体が監視領域平面に接して
いるという条件のもとで、対象物体が画面上で占めるサ
イズ(幅,高さ)を概算しておき、変化領域の各ラベル
に対して、その水平距離が物体幅以下である、垂直距離
が物体高さ以下であるという2つの条件の少なくとも一
方を満足するラベルの組を1つのグルーブとし、その中
でのみラベルの組み合わせを行なって、物体の形状モデ
ルと一致度の最も高いラベルの組を物体として統合する
ようにする。
(5) The target object is in contact with the plane of the surveillance area due to the positional relationship (distance, angle) between the plane of the surveillance area and the image pickup means such as a camera, the focal length of the lens, and the change area label extraction position. Under the condition that the target object occupies the size (width, height) on the screen, the horizontal distance is less than the object width and the vertical distance is A set of labels satisfying at least one of two conditions of being less than or equal to the height is integrated as one target object. (6) Depending on the positional relationship (distance, angle) between the plane of the surveillance area and the image pickup means such as a camera, the focal length of the lens, and the change area label extraction position, the target object is in contact with the plane of the surveillance area. First, the size (width, height) that the target object occupies on the screen is roughly estimated, and for each label of the change area, the horizontal distance is less than the object width, and the vertical distance is less than the object height. The group of labels satisfying at least one of the two conditions of is defined as one groove, and the combination of labels is performed only in the group, and the group of labels having the highest degree of coincidence with the shape model of the object is integrated as the object. To do so.

【0007】[0007]

【発明の実施の形態】図1はこの発明の第1の実施の形
態を示すブロック図である。同図において、1はテレビ
カメラ等の撮像手段、2はA/D変換手段、3は現時刻
における入力画像記憶部、4は変化領域抽出手段、5は
変化領域2値化画像、6は変化領域間距離算出手段であ
る。また、12は変化領域ラベル統合手段で、手段Aで
は10Aの変化領域間距離しきい値を用い、手段Bでは
10Bの変化領域間水平距離,垂直距離しきい値をそれ
ぞれ用いて変化領域を統合する。11は物体形状モデ
ル、14は物体一致度算出手段、16は物体位置・一致
度記憶部、17は動き抽出手段、18は物体動き記憶
部、19は結果計算・出力手段、20は監視結果を示
す。
FIG. 1 is a block diagram showing a first embodiment of the present invention. In the figure, 1 is an image pickup unit such as a television camera, 2 is an A / D conversion unit, 3 is an input image storage unit at the current time, 4 is a change region extraction unit, 5 is a change region binary image, and 6 is a change. It is an inter-region distance calculation means. Further, 12 is a change area label integration means, which means A uses the change area distance threshold of 10A, and means B uses the change area horizontal distance and vertical distance threshold of 10B to integrate change areas. To do. Reference numeral 11 is an object shape model, 14 is an object coincidence degree calculation means, 16 is an object position / coincidence degree storage section, 17 is a motion extraction means, 18 is an object movement storage section, 19 is result calculation / output means, and 20 is a monitoring result. Show.

【0008】撮像手段1によって取り込まれた画像は、
A/D変換手段2によってディジタル化され、入力画像
記憶部3に格納される。変化領域抽出手段4は一定以上
の濃度変化のあった領域を、変化領域濃淡画像5として
生成する。変化領域濃淡画像5は変化領域間距離算出手
段6に入力され、ここで変化領域のラベルの全組み合わ
せについて、外接長方形間の距離を算出する。ここで
は、ラベル間の水平距離や垂直距離、さらには直線距離
を算出する。変化領域ラベル統合手段Aでは、10Aに
設定されている変化領域間距離しきい値を参照して、こ
のしきい値以下の距離のラベル群を1つの物体領域とし
て統合する。
The image captured by the image pickup means 1 is
It is digitized by the A / D conversion means 2 and stored in the input image storage section 3. The changed area extracting means 4 generates an area having a density change of a certain level or more as a changed area grayscale image 5. The changing area grayscale image 5 is input to the changing area distance calculating means 6, where the distance between the circumscribed rectangles is calculated for all combinations of labels of the changing areas. Here, the horizontal distance and the vertical distance between the labels, and further the straight line distance are calculated. The changing area label integrating means A refers to the inter-changing area threshold value set to 10A and integrates a label group having a distance equal to or less than this threshold value as one object area.

【0009】一方、ラベル統合手段Bでは、水平方向や
垂直方向の距離しきい値を別々に持っており、それらの
一方または両方がしきい値以下のラベル群を1つの物体
領域として統合する。この統合結果のラベル群につい
て、物体一致度算出手段14は物体形状モデル11を用
いて物体一致度を計算し、その結果を物体位置・一致度
記憶部16に格納する。動き抽出手段17では、物体の
時間的な対応をとって動きを抽出し、物体動き記憶部1
8に格納する。結果計算・出力手段19では、物体位置
・一致度と物体の動きから、必要な結果を計算し,出力
する。20は監視対象の有無,監視対象数または監視対
象速度などの監視結果を示す。
On the other hand, the label integrating means B has separate distance threshold values in the horizontal direction and the vertical direction, and one or both of them are integrated as a single object area with a label group equal to or less than the threshold value. With respect to the label group of this integration result, the object coincidence degree calculating means 14 calculates the object coincidence degree using the object shape model 11, and stores the result in the object position / coincidence degree storage unit 16. The motion extracting means 17 extracts the motion by temporally corresponding to the object, and the object motion storage unit 1
8 is stored. The result calculation / output means 19 calculates and outputs a necessary result from the object position / coincidence and the movement of the object. Reference numeral 20 indicates a monitoring result such as presence / absence of a monitoring target, the number of monitoring targets, or a monitoring target speed.

【0010】図2に変化領域ラベルの第1の統合例を示
す。同図(a)は監視画像の変化領域の例を示し、ここ
では1から7までの7個のラベルが存在する例である。
これらのラベル間の距離として、2つのラベルの外接長
方形のx,y各方向間の距離をそれぞれ水平方向距離d
x、垂直方向距離dyとすると、ラベル間距離dは、 d=√(dx2 +dy2 ) …(1) と表わすことができる。なお、外接長方形に部分的重複
がある場合、距離は「0」とする。つまり、ラベル統合
手段Aを用い、ラベル間距離にもとづき統合する例と言
える。なお、図2(b)は図2(a)の変化領域画像の
ラベル間距離を示し、図2(c)はラベル間距離≦20
を満足するものを「○」で囲んで示している。また、図
2(d)は結合結果を示す。
FIG. 2 shows a first example of integration of changing area labels. FIG. 10A shows an example of the change area of the monitor image, and here is an example in which seven labels 1 to 7 exist.
As the distance between these labels, the distance between the x and y directions of the circumscribed rectangle of the two labels is the horizontal distance d.
Assuming that x is the vertical distance dy, the inter-label distance d can be expressed as follows: d = √ (dx 2 + dy 2 ) ... (1) If the circumscribed rectangles partially overlap, the distance is set to "0". That is, it can be said that the label integrating means A is used to perform the integration based on the distance between the labels. Note that FIG. 2B shows the label-to-label distance of the change area image of FIG. 2A, and FIG. 2C shows the label-to-label distance ≦ 20.
Those satisfying the above are shown by enclosing with "○". Further, FIG. 2D shows the result of the combination.

【0011】また、統合の条件としては、物体の形状に
よっても異なる。すなわち、円形や正方形に近い形状の
場合であれば、ラベル間の距離によって統合を行なって
も良いが、長方形のように縦横比が「1」でない物体で
は、縦方向の距離と横方向の距離のしきい値が異なって
いる方が、良い物体抽出結果が得られる場合もある。ま
た、物体の形状や背景により、水平または垂直の一方向
にのみ統合を行なうだけで物体抽出が十分可能な場合も
ある。したがって、統合を行なう基準をラベル間の水平
方向距離,垂直方向距離とその組み合わせから決定する
ようにしても良い。図3はかかる観点にもとづく変化領
域ラベルの第2の統合例である。
Furthermore, the conditions for integration also differ depending on the shape of the object. That is, in the case of a shape close to a circle or a square, integration may be performed based on the distance between labels, but in the case of an object whose aspect ratio is not “1” such as a rectangle, the distance in the vertical direction and the distance in the horizontal direction. Different object thresholds may give better object extraction results. In addition, depending on the shape and background of the object, it may be possible to sufficiently extract the object only by integrating the image in one horizontal or vertical direction. Therefore, the criterion for integration may be determined from the horizontal distance between labels, the vertical distance, and a combination thereof. FIG. 3 is a second example of integration of changing area labels based on this viewpoint.

【0012】図2(a)に示すような変化領域画像につ
いて、各ラベル間のx方向の距離を図3(a)に、ま
た、各ラベル間のx方向の距離を図3(b)にそれぞれ
示している。図3(a)に「○」で囲んでいるものはd
x≦8を、また、図3(b)で「○」で囲んでいるもの
はdy≦18を、それぞれ満足するラベルの組を示して
いる。図3(c)にラベルの組の統合過程を示す。ここ
では、dx≦8およびdy≦18を両方とも満足するラ
ベルを統合するものとすると、ラベル1,2,3と、ラ
ベル4と5,5と6および7が条件を満足するので、こ
れらのラベルを図3(d)のように統合したものであ
る。つまり、ラベル統合手段Bを用い、ラベル間の水平
距離,垂直距離の双方にもとづき統合する例と言える。
なお、水平距離,垂直距離の一方のみにもとづき統合す
るようにしても良い。
In the change area image as shown in FIG. 2A, the distance between the labels in the x direction is shown in FIG. 3A, and the distance between the labels in the x direction is shown in FIG. 3B. Shown respectively. Those enclosed by "○" in Fig. 3 (a) are d
In FIG. 3B, a group of labels satisfying x ≦ 8 and dy ≦ 18 is shown. FIG. 3C shows the process of integrating the label sets. Here, if the labels that satisfy both dx ≦ 8 and dy ≦ 18 are integrated, the labels 1, 2, 3 and the labels 4, 5, 5, 6 and 7 satisfy these conditions. The labels are integrated as shown in FIG. That is, it can be said that the label integrating means B is used to perform the integration based on both the horizontal distance and the vertical distance between the labels.
Note that the integration may be performed based on only one of the horizontal distance and the vertical distance.

【0013】図4はこの発明の第2の実施の形態を示す
ブロック図である。これは、図1の変化領域統合手段1
2の代わりに変化領域ラベルグループ作成手段12’を
設けるとともに、グループ内ラベル組み合わせ作成手段
13およびグループ内ラベル組み合わせ選択手段15を
付加した点が特徴である。図5は図4における変化領域
ラベル統合動作、つまりラベルの中にノイズが含まれる
場合にも有効なラベル統合例を説明する説明図である。
FIG. 4 is a block diagram showing a second embodiment of the present invention. This is the changing area integrating means 1 of FIG.
It is characterized in that a changing area label group creating means 12 'is provided instead of 2, and an in-group label combination creating means 13 and an in-group label combination selecting means 15 are added. FIG. 5 is an explanatory diagram for explaining the change area label integration operation in FIG. 4, that is, an example of label integration that is effective even when the label contains noise.

【0014】いま、変化領域ラベルを変化領域ラベルグ
ループ作成手段12’により、ラベル間距離にもとづき
統合したラベルグループ1,2が図5(a)の如くであ
るとし、ラベル8をノイズとする。そして、グループ内
ラベル組み合わせ作成手段13によりグループ1および
グループ2について、図5(b)の如くラベルの組み合
わせを作成するとともに、各組み合わせについて物体モ
デルとの一致度を算出し、その中で一致度の最も高い組
み合わせをグループ内ラベル組み合わせ選択手段15に
より、1つの物体として抽出する。この例では、物体
1,2が図5(c)のように抽出され、ラベル8はノイ
ズとして排除されている。
It is now assumed that the label groups 1 and 2 obtained by integrating the changing area labels by the changing area label group creating means 12 'based on the inter-label distance are as shown in FIG. 5A, and the label 8 is noise. Then, the in-group label combination creating unit 13 creates label combinations for the groups 1 and 2 as shown in FIG. 5B, and calculates the degree of coincidence with the object model for each combination, and the degree of coincidence is calculated among them. The in-group label combination selection means 15 extracts the highest combination of the above as one object. In this example, the objects 1 and 2 are extracted as shown in FIG. 5C, and the label 8 is excluded as noise.

【0015】この場合も、上記のようにラベル間距離に
よって統合するだけでなく、ラベル間の水平,垂直方向
距離によって結合しても良いことは勿論である。また、
図4の構成では物体一致度算出手段14はラベルの統合
手段として必須の構成要件となるが、図1の物体一致度
算出手段14は補助的に用いられているに過ぎず、した
がって、場合によっては省略しても良い。
In this case as well, it is needless to say that the labels may be combined not only by the distance between the labels as described above but also by the distance between the labels in the horizontal and vertical directions. Also,
In the configuration of FIG. 4, the object coincidence degree calculating means 14 is an essential constituent element as a label integrating means, but the object coincidence degree calculating means 14 of FIG. 1 is only used as an auxiliary, and therefore, depending on the case. May be omitted.

【0016】図6はこの発明の第3の実施の形態を示す
ブロック図で、図1に示すものに対し、変化領域ラベル
代表位置7およびカメラと監視領域との関係を示すカメ
ラパラメータ8とから、画面上での物体サイズ10’を
算出する算出手段9を付加して構成される。すなわち、
これまでの例が監視領域の奥行きを無視しているのに対
し、これが無視できない場合にも対処可能な例を示して
いる。以下、図6,図7を参照して説明する。
FIG. 6 is a block diagram showing a third embodiment of the present invention, which is different from the one shown in FIG. 1 in that the representative position 7 of the changing area label and the camera parameter 8 showing the relationship between the camera and the monitoring area. , And a calculation means 9 for calculating the object size 10 'on the screen. That is,
Whereas the above example ignores the depth of the monitoring area, it shows an example that can deal with the case where this cannot be ignored. This will be described below with reference to FIGS.

【0017】つまり、この例は図7(a)に示す如く監
視領域に奥行きがあるような場合でも、例えば、物体が
監視領域に接しているという拘束条件のもとに、カメラ
パラメータ(カメラの焦点距離f,カメラと監視平面と
の距離H,カメラの監視平面に対する角度θ)8を用
い、画面上で観測される2次元座標を3次元の実空間上
の座標に透視変換して、実空間上での物体サイズや動き
を計測できる、という原理にもとづくものである(特願
平5−181267号参照)。
That is, in this example, even when the monitoring area has a depth as shown in FIG. 7A, for example, the camera parameter (camera parameter) is set under the constraint that an object is in contact with the monitoring area. Using the focal length f, the distance H between the camera and the surveillance plane, and the angle θ) 8 of the camera with respect to the surveillance plane, the two-dimensional coordinates observed on the screen are perspective-transformed into the coordinates in the three-dimensional real space, It is based on the principle that the size and movement of an object in space can be measured (see Japanese Patent Application No. 5-181267).

【0018】このように、監視領域の奥行きを無視でき
ない場合、上記と同様の方法で変化領域ラベルのグルー
プを作成すると、画像上のラベル間距離は同じでも、実
空間に変換した後のラベル間の距離は画像上のラベル位
置により変化するので、画像上の同じ距離しきい値で統
合を行なうと遠くのものは統合され易く、近くのものは
統合され難くなる。図7(b)に奥行きのある監視領域
の変化領域画像例を示す。ここでは、1〜10までの変
化領域ラベルが抽出されている。図7(c),(d)
に、上記と同様に一定のラベル間距離を基準にして統合
を行なった場合の結果を示す。(c)は大きすぎる距離
しきい値による統合結果例、(d)は小さすぎる距離し
きい値による統合結果例を示す。
As described above, when the depth of the monitoring area cannot be ignored, if a group of variable area labels is created by the same method as described above, even if the distance between labels on the image is the same, the distance between labels after conversion to the real space is increased. Since the distance of changes depending on the label position on the image, if the integration is performed with the same distance threshold on the image, the far one is easy to integrate and the near one is difficult to integrate. FIG. 7B shows an example of a change area image of a monitoring area having a depth. Here, change region labels from 1 to 10 are extracted. 7 (c), (d)
In the same manner as above, the result when the integration is performed based on a constant label distance is shown. (C) shows an example of the integration result by the distance threshold that is too large, and (d) shows an example of the integration result by the distance threshold that is too small.

【0019】すなわち、実際は、画面上にはラベル1〜
3と4〜6と7〜10の3個の物体がある場合でも、ラ
ベル間距離しきい値が大きすぎると、図7(c)のよう
にラベル1〜6と7〜10の2つの物体として抽出され
るのに対し、ラベル間距離しきい値を小さくすると、図
7(d)のようにラベル1〜3と4〜6は正しく統合さ
れるが、ラベル7〜9と10が別々の物体になってしま
う。
That is, in reality, labels 1 to 1 are displayed on the screen.
Even if there are three objects 3 and 4 to 6 and 7 to 10, if the inter-label distance threshold is too large, two objects 1 to 6 and 7 to 10 as shown in FIG. On the other hand, when the inter-label distance threshold value is reduced, the labels 1 to 3 and 4 to 6 are correctly integrated as shown in FIG. 7D, but the labels 7 to 9 and 10 are separated. It becomes an object.

【0020】そこで、この発明では、変化領域の手前の
ラベルから順に基準となるラベルを選択し、物体モデル
とカメラパラメータから、その検出位置に対象物体があ
る場合に、対象物体が画面上でどの程度のサイズになる
かを逆算し、そのサイズに応じて統合時のラベル間距離
のしきい値を変える。つまり、遠くの物体に対しては統
合しきい値を小さくし、近くの物体に対しては統合しき
い値を大きくするようにする。
Therefore, according to the present invention, a reference label is selected in order from the label in front of the change area, and when the target object is present at the detection position based on the object model and the camera parameters, the target object on the screen is determined. The size of the label is calculated backwards, and the threshold value of the label distance during integration is changed according to the size. That is, the integration threshold is set low for a distant object and is increased for a near object.

【0021】図7(e)に物体とカメラからの距離と、
統合距離しきい値との関係を示す。これは、物体モデル
の高さや幅などの単位サイズが、カメラと物体の距離に
よって画面上でどれだけ変化するかを関数に、実空間上
での距離しきい値を掛けることによって得られる。図7
(f)にこの発明による統合結果例を示す。これは、図
7(e)に示す統合距離しきい値を用いて統合を行なっ
た結果である。
FIG. 7E shows the distance between the object and the camera,
The relationship with the integrated distance threshold is shown. This can be obtained by multiplying the distance threshold in real space by a function of how much the unit size such as height and width of the object model changes on the screen depending on the distance between the camera and the object. Figure 7
(F) shows an example of the integration result according to the present invention. This is the result of integration using the integrated distance threshold shown in FIG.

【0022】図8はこの発明の第4の実施の形態を示す
ブロック図で、図6に示す変化領域統合手段12を変化
領域ラベルグループ作成手段12’に置換するととも
に、グループ内ラベル組み合わせ作成手段13およびグ
ループ内ラベル組み合わせ選択手段15を付加して構成
される。物体モデルとカメラパラメータから、対象物体
が画面上でどの程度のサイズになるかを逆算し、変化領
域ラベルグループ作成手段12’により、そのサイズに
応じて統合時のラベル間距離しきい値(幅,高さ)を変
化させてラベルグループを作成し、グループ内ラベル組
み合わせ作成手段13によりそのグループ内のみで組み
合わせを作成し、物体モデルとの一致度が最も高い組み
合わせをグループ内ラベル組み合わせ選択手段15によ
り選択するものである。つまり、図6,図7に示すもの
に対しさらにラベルグループに着目することで、奥行き
のある監視領域で画面上に複数の物体やノイズがある場
合でもラベル組み合わせ数を減らし、高速かつ高精度に
物体を抽出し得るようにするものである。
FIG. 8 is a block diagram showing a fourth embodiment of the present invention, in which the changing area integrating means 12 shown in FIG. 6 is replaced with a changing area label group creating means 12 'and an in-group label combination creating means is provided. 13 and an in-group label combination selecting means 15 are added. The size of the target object on the screen is back-calculated from the object model and the camera parameter, and the variable area label group creating means 12 'determines the inter-label distance threshold (width) at the time of integration according to the size. , Height) to create a label group, the in-group label combination creating means 13 creates a combination only within the group, and the in-group label combination selecting means 15 selects the combination having the highest degree of coincidence with the object model. It is selected by. That is, by further focusing on the label group in comparison with the ones shown in FIGS. 6 and 7, even when there are multiple objects or noises on the screen in the monitoring area with depth, the number of label combinations is reduced, and high speed and high accuracy are achieved. The object is to be extracted.

【0023】[0023]

【発明の効果】この発明によれば、下記のような効果を
期待することができる。 (1)変化領域画面上で、1つの物体が複数のラベルに
分かれて抽出されるような場合でも、ラベル間距離を計
算し、その距離が一定のしきい値以下のラベルの組を1
つの物体として抽出するようにしたので、物体抽出を高
速に行なうことができる。この場合に、ラベル間距離を
水平(x),垂直(y)方向に分け、方向毎に距離しき
い値を用いてラベルを統合することで、縦横比が「1」
でないような対象物体についても、高速かつ高精度に物
体抽出し得るようにする。 (2)変化領域画面上での複数のラベルを、ラベル間距
離がしきい値以下のラベルグループに分け、そのグルー
プ内でのみラベルの組み合わせを行ない、物体モデルと
の一致度が最も高いラベルの組み合わせを選択すること
で、画面上に複数の物体やノイズがある場合でもラベル
組み合わせ数を減らし、高速かつ高精度に物体を抽出し
得るようにすることができる。この場合も、ラベル間距
離をx,y方向に分け、方向毎の距離しきい値を用いて
ラベルを統合することもできるのは勿論である。 (3)物体モデルとカメラパラメータ,対象物体の位置
から、対象物体が画面上でどの程度のサイズになるかを
逆算し、そのサイズに応じて統合時のラベル間距離のし
きい値を変えることにより、奥行きのを持つ監視領域で
も高速かつ高精度に物体抽出ができるようにする。この
場合も、複数のラベルを、ラベル間距離がしきい値以下
のラベルグループに分け、そのグループ内でのみラベル
の組み合わせを行ない、物体モデルとの一致度が最も高
いラベルの組み合わせを選択することで、さらにラベル
組み合わせ数を減らし、高速かつ高精度に物体を抽出す
ることができる。
According to the present invention, the following effects can be expected. (1) Even when one object is divided into a plurality of labels and extracted on the change area screen, the label distance is calculated, and the label set whose distance is equal to or less than a certain threshold is set to 1
Since it is extracted as one object, the object can be extracted at high speed. In this case, the inter-label distance is divided into the horizontal (x) and vertical (y) directions, and the labels are integrated using the distance threshold for each direction, so that the aspect ratio is "1".
Even with respect to such target objects, the object can be extracted at high speed and with high accuracy. (2) A plurality of labels on the change area screen are divided into label groups in which the distance between labels is less than or equal to a threshold value, and the labels are combined only within that group, and the label with the highest degree of agreement with the object model is displayed. By selecting a combination, it is possible to reduce the number of label combinations even when there are a plurality of objects or noises on the screen, and to extract the objects at high speed and with high accuracy. In this case as well, it is of course possible to divide the inter-label distance into the x and y directions and integrate the labels using the distance threshold for each direction. (3) The size of the target object on the screen is calculated back from the object model, the camera parameters, and the position of the target object, and the threshold value of the label distance at the time of integration is changed according to the size. Thus, it is possible to extract an object at high speed and with high accuracy even in a monitoring area having a depth. Also in this case, divide multiple labels into label groups with a distance between labels equal to or less than the threshold value, perform label combinations only within that group, and select the label combination with the highest degree of agreement with the object model. Thus, the number of label combinations can be further reduced, and an object can be extracted at high speed and with high accuracy.

【図面の簡単な説明】[Brief description of drawings]

【図1】この発明による第1の実施の形態を示すブロッ
ク図である。
FIG. 1 is a block diagram showing a first embodiment according to the present invention.

【図2】図1における変化領域ラベルの第1の統合例説
明図である。
FIG. 2 is an explanatory diagram of a first integrated example of changing area labels in FIG.

【図3】図1における変化領域ラベル統合の第2の統合
例説明図である。
FIG. 3 is a diagram illustrating a second integration example of changing area label integration in FIG. 1.

【図4】この発明による第2の実施の形態を示すブロッ
ク図である。
FIG. 4 is a block diagram showing a second embodiment according to the present invention.

【図5】図2における変化領域ラベルの統合例説明図で
ある。
5 is an explanatory diagram of an example of integration of changing area labels in FIG.

【図6】この発明による第3の実施の形態を示すブロッ
ク図である。
FIG. 6 is a block diagram showing a third embodiment according to the present invention.

【図7】図6における変化領域ラベルの統合例説明図で
ある。
7 is an explanatory diagram of an example of integration of changing area labels in FIG.

【図8】この発明による第4の実施の形態を示すブロッ
ク図である。
FIG. 8 is a block diagram showing a fourth embodiment according to the present invention.

【図9】従来例を示すブロック図である。FIG. 9 is a block diagram showing a conventional example.

【符号の説明】[Explanation of symbols]

1…撮像手段(テレビカメラ)、2…A/D変換手段、
3…入力画像記憶部、4…変化領域抽出手段、5…変化
領域2値化画像、6…変化領域ラベル間距離算出手段、
7…変化領域ラベル代表位置、8…カメラパラメータ、
9…物体サイズ算出手段、10’…画面上物体サイズ、
10A…変化領域間距離しきい値、10B…変化領域間
水平距離しきい値,変化領域間垂直距離しきい値、11
…物体形状モデル、12…変化領域ラベル統合手段A,
B、12’…変化領域ラベルグループ作成手段、13…
グループ内ラベル組み合わせ作成手段、14…物体一致
度算出手段、15…グループ内ラベル組み合わせ選択手
段、16…物体位置・一致度記憶部、17…動き抽出手
段、18…物体動き記憶部、19…結果計算・出力手
段、20…監視結果。
1 ... Imaging means (TV camera), 2 ... A / D conversion means,
3 ... Input image storage unit, 4 ... Change area extracting means, 5 ... Change area binarized image, 6 ... Change area label distance calculating means,
7 ... Change region label representative position, 8 ... Camera parameter,
9 ... Object size calculation means, 10 '... Object size on screen,
10A ... Distance threshold between changing regions, 10B ... Horizontal distance threshold between changing regions, Vertical distance threshold between changing regions, 11
... object shape model, 12 ... changing area label integrating means A,
B, 12 '... Change area label group creating means, 13 ...
In-group label combination creating means, 14 ... Object coincidence degree calculating means, 15 ... In-group label combination selecting means, 16 ... Object position / coincidence degree storage section, 17 ... Motion extracting means, 18 ... Object movement storage section, 19 ... Result Calculation / output means, 20 ... Monitoring result.

───────────────────────────────────────────────────── フロントページの続き (72)発明者 山田 越生 神奈川県川崎市川崎区田辺新田1番1号 富士電機株式会社内 (72)発明者 清水 晃 東京都日野市富士町1番地 富士ファコム システム株式会社内 ─────────────────────────────────────────────────── ─── Continuation of the front page (72) Inventor Ogose Yamada 1-1 Tanabe Nitta, Kawasaki-ku, Kawasaki-shi, Kanagawa Fuji Electric Co., Ltd. Within the corporation

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 時系列画像を入力する撮像手段と、時間
変化による画像上の変化領域を抽出する変化領域抽出手
段と、画面での監視対象とする物体の形状に関する定義
データを記憶する記憶手段と、画面内の変化領域画像か
ら各ラベルの位置,特徴量を抽出する特徴抽出手段と、
変化領域から監視対象物体を認識する画像処理を用いた
物体監視装置において、 前記変化領域として抽出された各ラベルに対して、その
ラベルから画面上で一定の距離以下にあるラベルの組を
1個の物体として統合する統合手段と、その統合した領
域を物体として抽出する物体抽出手段とを設けたことを
特徴とする物体監視装置。
1. An image pickup means for inputting a time-series image, a change area extraction means for extracting a change area on an image due to a time change, and a storage means for storing definition data regarding a shape of an object to be monitored on a screen. And a feature extraction means for extracting the position and feature amount of each label from the change area image on the screen,
In an object monitoring device using image processing for recognizing an object to be monitored from a change area, for each label extracted as the change area, one set of labels that is within a certain distance from the label on the screen 2. An object monitoring apparatus, comprising: an integrating unit that integrates the object as an object and an object extracting unit that extracts the integrated region as an object.
【請求項2】 前記統合手段の代わりに、物体間の垂直
方向と水平方向の距離を別々に設定し、その少なくとも
一方の距離が一定値以下であるラベルの組を1個の物体
として統合する統合手段を設けたことを特徴とする請求
項1に記載の物体監視装置。
2. Instead of the integrating means, vertical and horizontal distances between objects are set separately, and a set of labels in which at least one of the distances is a fixed value or less is integrated as one object. The object monitoring apparatus according to claim 1, further comprising integration means.
【請求項3】 前記統合手段の代わりに、前記変化領域
として抽出された各ラベルに対して、そのラベルから画
面上で一定の距離以下にあるラベルの組を1個のグルー
プとするグループ作成手段と、そのグループ内でのみラ
ベルの組み合わせを行なって対象物体の形状モデルとの
一致度が最も高いラベルの組を統合する統合手段とを設
けたことを特徴とする請求項1に記載の物体監視装置。
3. A group creating means, instead of the integrating means, for each label extracted as the change area, a set of labels within a certain distance from the label on the screen is one group. 2. The object monitoring device according to claim 1, further comprising: an integration unit that combines labels only within the group and integrates a set of labels having the highest degree of coincidence with the shape model of the target object. apparatus.
【請求項4】 前記グループ作成手段の代わりに、前記
物体間の垂直方向と水平方向の距離を別々に設定し、そ
の少なくとも一方の距離が一定値以下であるラベルの組
を1個のグループとするグループ作成手段を設けたこと
を特徴とする請求項3に記載の物体監視装置。
4. In place of the group creating means, vertical and horizontal distances between the objects are set separately, and a label set in which at least one of the distances is a fixed value or less is defined as one group. 4. The object monitoring apparatus according to claim 3, further comprising a group creating means for controlling the group.
【請求項5】 前記統合手段の代わりに、監視領域の平
面と撮像手段との位置的な関係とレンズの焦点距離と変
化領域ラベル抽出位置により、対象物体が監視領域平面
に接しているという条件下で、対象物体が画面上で占め
るサイズ(幅,高さ)を概算する算出手段と、変化領域
として抽出された各ラベルに対して、そのラベルから画
面上の水平方向の距離が対象物体の幅以下である、また
は垂直方向の距離が対象物体の高さ以下である、という
2つの条件の少なくとも一方を満足するラベルを1個の
物体として結合する統合手段とを設けたことを特徴とす
る請求項1に記載の物体監視装置。
5. The condition that the target object is in contact with the plane of the monitoring area, instead of the integrating means, depending on the positional relationship between the plane of the monitoring area and the imaging means, the focal length of the lens, and the change area label extraction position. Below, the calculation means for roughly estimating the size (width, height) occupied by the target object on the screen and the horizontal distance on the screen from the label for each label extracted as the change area A label that satisfies at least one of the two conditions that the width is equal to or smaller than the width or the vertical distance is equal to or smaller than the height of the target object. The object monitoring device according to claim 1.
【請求項6】 前記統合手段の代わりに、監視領域の平
面と撮像手段との位置的な関係とレンズの焦点距離と変
化領域ラベル抽出位置により、対象物体が監視領域平面
に接しているという条件下で、対象物体が画面上で占め
るサイズ(幅,高さ)を概算する算出手段と、変化領域
として抽出された各ラベルに対して、そのラベルから画
面上の水平方向の距離が対象物体の幅以下である、また
は垂直方向の距離が対象物体の高さ以下である、という
2つの条件の少なくとも一方を満足するラベルを1個の
グループとするグループ作成手段と、そのグループ内で
のみラベルの組み合わせを行なって対象物体の形状モデ
ルとの一致度が最も高いラベルの組を統合する統合手段
とを設けたことを特徴とする請求項1に記載の物体監視
装置。
6. The condition that the target object is in contact with the plane of the monitoring area, instead of the integrating means, depending on the positional relationship between the plane of the monitoring area and the imaging means, the focal length of the lens, and the change area label extraction position. Below, the calculation means for roughly estimating the size (width, height) occupied by the target object on the screen and the horizontal distance on the screen from the label for each label extracted as the change area A group creating unit that makes one group a label that satisfies at least one of the two conditions that the width is less than or equal to or the vertical distance is less than or equal to the height of the target object, and the label is created only within that group. The object monitoring apparatus according to claim 1, further comprising: an unifying unit that performs a combination to unify a set of labels having a highest degree of coincidence with the shape model of the target object.
JP4084996A 1996-02-28 1996-02-28 Object monitoring device Pending JPH09231363A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4084996A JPH09231363A (en) 1996-02-28 1996-02-28 Object monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4084996A JPH09231363A (en) 1996-02-28 1996-02-28 Object monitoring device

Publications (1)

Publication Number Publication Date
JPH09231363A true JPH09231363A (en) 1997-09-05

Family

ID=12592034

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4084996A Pending JPH09231363A (en) 1996-02-28 1996-02-28 Object monitoring device

Country Status (1)

Country Link
JP (1) JPH09231363A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006101384A (en) * 2004-09-30 2006-04-13 Nissan Motor Co Ltd Human figure detecting apparatus and method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006101384A (en) * 2004-09-30 2006-04-13 Nissan Motor Co Ltd Human figure detecting apparatus and method

Similar Documents

Publication Publication Date Title
JP2915894B2 (en) Target tracking method and device
US7650015B2 (en) Image processing method
JP6525453B2 (en) Object position estimation system and program thereof
KR100544677B1 (en) Apparatus and method for the 3D object tracking using multi-view and depth cameras
US7684592B2 (en) Realtime object tracking system
US8233661B2 (en) Object tracking apparatus and object tracking method
US8805007B2 (en) Integrated background and foreground tracking
EP1862969A1 (en) Method and system for generating a representation of a dynamically changing 3D scene
EP0952552A2 (en) Method for generating 2-D images from 3-D video data
US7181047B2 (en) Methods and apparatus for identifying and localizing an area of relative movement in a scene
EP2965506A1 (en) Method of replacing objects in a video stream and computer program
US20100134632A1 (en) Apparatus for tracking an object using a moving camera and method thereof
JP4913801B2 (en) Shielding object image identification apparatus and method
JP6077425B2 (en) Video management apparatus and program
US7006706B2 (en) Imaging apparatuses, mosaic image compositing methods, video stitching methods and edgemap generation methods
CN110992393A (en) Target motion tracking method based on vision
JPH08249471A (en) Moving picture processor
JPH09231363A (en) Object monitoring device
JP2000011134A (en) Device and method for detecting moving amount
Casas et al. Image-based multi-view scene analysis using'conexels'
JP4825349B2 (en) Passing object counting device and counting method
Paul et al. A realtime object tracking system using a color camera
JP2003179930A (en) Method and apparatus for extracting dynamic object
Butt et al. Precise tracking using high resolution real-time stereo
Abidi et al. Automatic target acquisition and tracking with cooperative fixed and PTZ video cameras