JPH0737063A - Object monitoring device - Google Patents

Object monitoring device

Info

Publication number
JPH0737063A
JPH0737063A JP5181267A JP18126793A JPH0737063A JP H0737063 A JPH0737063 A JP H0737063A JP 5181267 A JP5181267 A JP 5181267A JP 18126793 A JP18126793 A JP 18126793A JP H0737063 A JPH0737063 A JP H0737063A
Authority
JP
Japan
Prior art keywords
feature amount
area
certainty factor
calculating
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP5181267A
Other languages
Japanese (ja)
Other versions
JP3630703B2 (en
Inventor
Yoshihiro Igawa
喜裕 井川
Akiko Konno
章子 紺野
Yukio Koga
由紀夫 古賀
Akira Shimizu
清水  晃
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fuji Electric Co Ltd
Original Assignee
Fuji Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Electric Co Ltd filed Critical Fuji Electric Co Ltd
Priority to JP18126793A priority Critical patent/JP3630703B2/en
Publication of JPH0737063A publication Critical patent/JPH0737063A/en
Application granted granted Critical
Publication of JP3630703B2 publication Critical patent/JP3630703B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PURPOSE:To improve accuracy and to reduce false reports by eliminating the need of measuring and setting a feature amount for respective plural areas. CONSTITUTION:This device is provided with a storage part 5 for storing a scene map in which a monitoring area is divided into one or plural planes, a parameter storage part 10 for storing the parameter of the relation of a camera installation position, the monitoring area and an input picture, a storage part 11 for storing a reference value of the feature amount on the actual coordinates of an object, a transformation part 9A for transforming the feature amount of a fluctuation area into the feature amount on actual three-dimensional space coordinates by position relation and a camera parameter and an area deciding means 9B for deciding an object area front the reference value of the feature amount on the actual coordinates of the object and the coordinate- transformed feature amount.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】この発明は、工場内の危険区域や
無人建屋内などにおいて、撮像装置としてのテレビカメ
ラ(以下、単にカメラともいう)などを介して得た入力
画像とその背景画像との変化態様から特定物体、例えば
人物などの侵入,接近といった異常発生を検知し、警報
を出力したり異常時の映像を記録するような、画像処理
技術を利用した物体監視装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an input image obtained through a television camera (hereinafter, also simply referred to as a camera) as an image pickup device and a background image thereof in a dangerous area in a factory or an unmanned building. The present invention relates to an object monitoring device using an image processing technique, which detects an abnormal occurrence such as intrusion or approach of a specific object, for example, a person or the like based on the change mode of (3) and outputs an alarm or records an image at the time of abnormal.

【0002】[0002]

【従来の技術】従来、この種の物体監視装置として、例
えば図11のようなものが知られている(特開平4−3
40718号公報)。同図において、1はカメラ、2は
このカメラ1から送られてくるアナログ映像信号を、デ
ィジタル画像データに変換するA/D変換部、20は画
像データを背景画像として記憶する背景メモリ、6はこ
の背景画像と新たに入力される画像データとの差分を計
算する差分処理部、7は差分処理部6の出力を或るしき
い値で2値化する2値化処理部である。
2. Description of the Related Art Conventionally, as this type of object monitoring apparatus, for example, one as shown in FIG. 11 is known (Japanese Patent Laid-Open No. 4-3).
No. 40718). In the figure, 1 is a camera, 2 is an A / D converter for converting an analog video signal sent from the camera 1 into digital image data, 20 is a background memory for storing the image data as a background image, and 6 is A difference processing unit that calculates the difference between this background image and newly input image data, and a binarization processing unit 7 that binarizes the output of the difference processing unit 6 with a certain threshold value.

【0003】8は2値化処理部7から出力される2値化
データに対して、その面積や重心位置などの特徴量を抽
出する特徴量抽出処理部、21は上記特徴量を時間差の
ある処理画像間で比較,対応付けする特徴量対応付処理
部、22は対応付けの結果により移動量を求める動き量
抽出処理部、15は動き量抽出処理部22からの出力に
もとづき侵入者の有無を判断する判断処理部、16は判
断の結果、侵入者があったと認められた場合に警報を発
報する警報出力部、23は判断処理部15にて侵入者が
あったかどうかを判断する際に使用する、各監視領域の
特徴量を設定しておくための領域別特徴量設定部であ
る。
Reference numeral 8 denotes a feature amount extraction processing unit for extracting feature amounts such as area and barycentric position of the binarized data output from the binarization processing unit 7. Reference numeral 21 denotes a time difference of the feature amounts. A feature amount correspondence processing unit that compares and correlates processed images, 22 is a motion amount extraction processing unit that obtains a movement amount based on the result of association, and 15 is the presence or absence of an intruder based on the output from the motion amount extraction processing unit 22. A determination processing unit 16 that determines whether the intruder is present as a result of the determination, and an alarm output unit that issues an alarm when it is recognized that an intruder is present. Reference numeral 23 indicates when the determination processing unit 15 determines whether there is an intruder. It is an area-specific feature amount setting unit for setting the feature amount of each monitoring area to be used.

【0004】動作について、図12,図13を参照して
説明する。カメラ1によって撮像された画像は、アナロ
グ映像信号としてA/D変換部2に入力され、A/D変
換部2はこの画像データをディジタル画像データに変換
する。背景メモリ20は、この画像データを背景画像デ
ータとして記憶する。差分処理部6では、この背景画像
データと順次入力されてくる画像データとの差分処理
を、画素対応に行なう。
The operation will be described with reference to FIGS. 12 and 13. The image captured by the camera 1 is input to the A / D conversion unit 2 as an analog video signal, and the A / D conversion unit 2 converts this image data into digital image data. The background memory 20 stores this image data as background image data. The difference processing unit 6 performs a difference process between the background image data and the image data that is sequentially input for each pixel.

【0005】2値化処理部7は差分処理部6の出力を、
予め設定されているしきい値で2値化する。この2値化
画像データに対して特徴量抽出処理部8により、例えば
図12(a)に示されるようなt=1における面積S1
と、重心位置X1,Y1などの特徴量を求める。面積S
1は変化領域の画素数をカウントすれば求められ、重心
位置X1,Y1は各々変化領域である画素のアドレス
(X,Y)を各々加えて行き、面積S1で割ったものと
して求めることができる。
The binarization processing unit 7 outputs the output of the difference processing unit 6 as
Binarization is performed with a preset threshold value. With respect to this binarized image data, the feature amount extraction processing unit 8 causes the area S1 at t = 1 as shown in FIG.
Then, the feature amount such as the center of gravity position X1, Y1 is obtained. Area S
1 can be obtained by counting the number of pixels in the change area, and the centroid positions X1 and Y1 can be obtained by adding the addresses (X, Y) of the pixels in the change area and dividing by the area S1. .

【0006】次に、図12(b)に示すように、時刻t
=2における面積S2と重心位置X2,Y2などの特徴
量を、上記と同様にして求める。この特徴量を特徴量対
応付処理部21にて比較し、同一のものと判断し得るも
のに対し対応付けを行なう。例えば、面積差|S1−S
2|が或る値より小さく、移動距離d(d2 =(X1−
X2)2 +(Y1−Y2)2 )も或る値より小さい時に
は、同一物体が移動したものとして対応付けを行なう。
動き量抽出処理部22では、対応付けされた変化領域の
移動速度(移動距離dを時間差で割ったもの)および方
向などを検出する。
Next, as shown in FIG. 12B, time t
The feature amounts such as the area S2 and the barycentric positions X2 and Y2 at = 2 are obtained in the same manner as above. The feature amount correspondence processing unit 21 compares the feature amounts, and associates the features that can be determined to be the same. For example, the area difference | S1-S
2 | is smaller than a certain value, and the moving distance d (d 2 = (X1-
When X2) 2 + (Y1−Y2) 2 ) is also smaller than a certain value, it is determined that the same object has moved and association is performed.
The motion amount extraction processing unit 22 detects the moving speed (moving distance d divided by the time difference) and the direction of the associated changed area.

【0007】ここで、監視領域が図13の如く、例えば
近くの通路領域A、壁やフェンス領域B、遠くの通路領
域Cであるとする。この場合、侵入者が侵入する位置
(A,B,C)により、その大きさや移動量(方向とそ
の大きさ)が異なる。つまり、近くの通路Aにいる侵入
者は遠くの通路にいる侵入者よりも大きく撮影され、変
化領域の大きさとしては大きく得られるし、また、その
移動量の大きさも大きくなる。また、侵入者の侵入方向
についても、通路AとCでは壁に向かう右から左方向で
あり、壁Bでは壁をよじ登る下から上方向である。
Here, it is assumed that the monitoring area is, for example, a nearby passage area A, a wall or fence area B, and a distant passage area C as shown in FIG. In this case, the size and amount of movement (direction and size) differ depending on the position (A, B, C) where the intruder enters. That is, the intruder in the nearby passage A is photographed larger than the intruder in the distant passage, and the size of the change area is large, and the amount of movement is also large. Also, the intruder's intrusion direction is from right to left toward the wall in the passages A and C, and from bottom to top of the wall B climbing up the wall.

【0008】そこで、監視領域をA,B,Cの3つの領
域に分割し、各領域毎に異なる特徴量81,82,83
(面積;Sa,Sb,Scや移動量(大きさと方向);
Va,Vb,Vc)を領域別特徴量設定部23に(Sa
>Sc,|Va|>|Vc|などと)設定しておく。画
像変化やその移動があった場合、画像変化の特徴量(面
積や移動量)を画像変化のあった領域に対し、領域別特
徴量設定部23にて予め設定してある特徴量と比較し、
判断処理部15にてその変化が侵入者によるものかどう
かを判断する。その結果、侵入者と判断されたときは、
警報出力部16から警報を発報することとする。
Therefore, the monitoring area is divided into three areas A, B, and C, and the characteristic quantities 81, 82, and 83 are different for each area.
(Area: Sa, Sb, Sc and movement amount (size and direction);
Va, Vb, Vc) to the area-based feature amount setting unit 23 (Sa
> Sc, | Va |> | Vc |, etc.). When there is an image change or its movement, the feature amount of the image change (area or movement amount) is compared with the feature amount set in advance by the region-specific feature amount setting unit 23 for the region having the image change. ,
The determination processing unit 15 determines whether the change is due to an intruder. As a result, when it is judged that it is an intruder,
The alarm output unit 16 issues an alarm.

【0009】[0009]

【発明が解決しようとする課題】しかしながら、上記の
如き装置では、以下のような問題がある。 (1)例えば、抽出したい物体の実際の形状が変化しな
い場合についても、各領域に合わせて面積・移動量など
の基準特徴量を測定、または計算しておく必要があり、
この基準特徴量の決定に時間が掛かる。また、監視領域
が少し変化した場合でも、基準特徴量の設定をやり直さ
なければならない。
However, the above-mentioned device has the following problems. (1) For example, even when the actual shape of the object to be extracted does not change, it is necessary to measure or calculate the reference feature amount such as the area / movement amount according to each region.
It takes time to determine the reference feature amount. Further, even if the monitoring area is slightly changed, the reference feature amount must be set again.

【0010】(2)物体が領域間を移動するような場合
には、領域の境界面で特徴量の変化が大きく、検出精度
が低下する。 (3)判断処理結果の出力が警報のオン,オフ(ON,
OFF)だけなので、検出された侵入者の特徴量がどの
程度本当の侵入者らしいのか、すなわち判断結果の信憑
性がどの程度なのか分からない。また、判断結果の信憑
性によって処理を分けるようにしていないので、侵入者
の判断を厳しくすると誤報が増え、誤報を減らそうとす
ると逆に侵入者を見逃してしまうことになる。したがっ
て、この発明の課題は、各領域に合わせた面積・移動量
などの特徴量を測定し計算しておく必要を無くすととも
に、検出精度が高くかつ誤報の少ない動体監視装置を提
供することにある。
(2) When an object moves between areas, the change in the feature amount is large at the boundary surface of the areas, and the detection accuracy decreases. (3) The output of the judgment processing result is alarm on / off (ON,
Since it is only OFF), it is impossible to know how much the detected intruder's feature amount seems to be a true intruder, that is, how credible the judgment result is. Further, since the processing is not divided according to the credibility of the judgment result, if the intruder's judgment is rigorous, false alarms will increase, and if the false alarms are reduced, the intruder will be missed. Therefore, an object of the present invention is to eliminate the need to measure and calculate the characteristic amount such as the area / movement amount according to each region, and to provide a moving object monitoring device with high detection accuracy and few false alarms. .

【0011】[0011]

【課題を解決するための手段】このような課題を解決す
るため、この発明では、テレビカメラを介する1つまた
は複数の入力画像から基準画像を作成し、この基準画像
と入力画像との差にもとづき物体の監視を行なう物体監
視装置において、監視領域を1つまたは複数の平面に分
割し情景マップを記憶する情景マップ記憶手段と、前記
入力画像,監視領域,カメラ設置位置の位置関係を示す
カメラパラメータを記憶するパラメータ記憶部と、変化
領域の特徴量をその情景マップ上での位置関係とカメラ
パラメータによって実際の3次元空間座標(実座標)上
での特徴量に変換する座標変換処理手段と、対象物体の
実座標での特徴量の基準値と座標変換された特徴量から
対象物体領域を決定する領域決定手段とを設けたことを
特徴としている。
In order to solve such a problem, in the present invention, a reference image is created from one or a plurality of input images through a television camera, and the difference between the reference image and the input image is calculated. In an object monitoring device that monitors an object, a scene map storage unit that stores a scene map by dividing a monitoring area into one or a plurality of planes, and a camera that shows the positional relationship between the input image, the monitoring area, and the camera installation position. A parameter storage unit for storing parameters, and a coordinate conversion processing unit for converting the feature amount of the changing area into the feature amount on the actual three-dimensional space coordinates (actual coordinates) according to the positional relationship on the scene map and the camera parameter. It is characterized in that a region determining means for determining the target object region from the reference value of the feature amount in the actual coordinates of the target object and the coordinate-transformed feature amount is provided.

【0012】第2の発明では、テレビカメラを介する1
つまたは複数の入力画像から基準画像を作成し、この基
準画像と入力画像との差にもとづき物体の監視を行なう
物体監視装置において、対象物体として決定された領域
の特徴量とその基準値との一致度を算出する物体確信度
算出手段と、過去の対応付け結果から予想される物体位
置と実際に得られた物体位置との一致度を算出する物体
対応付け確信度算出手段と、実際に得られた物体位置の
軌跡と物体対応付け確信度とから対象動作毎に対象動作
らしさを算出するための対象動作確信度算出手段とを設
け、物体確信度と対象動作確信度の各値にもとづき警報
のパターンを変えることを特徴としている。
According to the second aspect of the present invention, 1 through the television camera is used.
A reference image is created from one or a plurality of input images, and in an object monitoring device that monitors an object based on the difference between the reference image and the input image, the feature amount of the area determined as the target object and its reference value An object certainty factor calculating means for calculating the degree of matching, an object matching certainty factor calculating means for calculating the degree of matching between the object position predicted from the past matching result and the object position actually obtained, and A target motion certainty factor calculating means for calculating a target motion likelihood for each target motion from the obtained object position trajectory and the object correspondence certainty factor is provided, and an alarm is issued based on each value of the object certainty factor and the target motion certainty factor. It is characterized by changing the pattern of.

【0013】なお、第1の発明においては、前記対象物
体として決定された領域の特徴量とその基準値との一致
度を算出する物体確信度算出手段と、過去の対応付け結
果から予想される物体位置と実際に得られた物体位置と
の一致度を算出する物体対応付け確信度算出手段と、実
際に得られた物体幾の軌跡と物体対応付け確信度とから
対象動作毎に対象動作らしさを算出するための対象動作
確信度算出手段とを付加し、物体確信度と対象動作確信
度の各値にもとづき警報のパターンを変えることができ
る。
In the first aspect of the invention, the object certainty factor calculation means for calculating the degree of coincidence between the feature amount of the area determined as the target object and its reference value, and the prediction result from the past association result. The object association certainty factor calculating means for calculating the degree of coincidence between the object position and the actually obtained object position, and the target action likelihood for each target action from the actually obtained loci of the objects and the object association certainty factor. By adding a target motion certainty factor calculating unit for calculating the, the alarm pattern can be changed based on each value of the object certainty factor and the target motion certainty factor.

【0014】[0014]

【作用】変化領域が監視対象物体かどうかを判断するた
めに、記憶された情景マップの面上に物体が拘束される
制約条件をもとに、変化領域の画像上での特徴量を実座
標上での特徴量に変換し、これを予め設定された値と比
較することにより、領域別にいくつもの特徴量設定値を
設定しておく必要をなくし、かつ精度の良い検出を可能
とする。また、物体抽出処理部,物体対応付け処理部,
対象物体追跡処理部および対象動作認識処理部の各処理
結果とともに、その結果の確からしさを数値として求め
ることにより、この確からしさをもとに判断処理,警報
出力を行なうことができるようにし、誤報を減少させ
る。
In order to determine whether the change area is the object to be monitored, the feature amount on the image of the change area is actually coordinated based on the constraint condition that the object is constrained on the surface of the stored scene map. By converting into the above feature amount and comparing this with a preset value, it is possible to eliminate the need to set a number of feature amount set values for each region and to perform detection with high accuracy. Also, an object extraction processing unit, an object association processing unit,
By obtaining the numerical value of the probability of the results together with the processing results of the target object tracking processing unit and the target motion recognition processing unit, it becomes possible to perform judgment processing and alarm output based on this certainty To reduce.

【0015】[0015]

【実施例】図1はこの発明の実施例を示すブロック図で
ある。また、図2は図1の動作を具体的に説明するため
の説明図で、(a)は基準画像、(b)は情景マップ、
(c),(d)はそれぞれ時刻t1,t2における入力
画像を示している。2A,2Bはそれぞれ時刻t1,t
2における対象物体を示している。また、図3に示すよ
うに、撮像装置としてのカメラ1は監視領域の斜め上方
に設置してあるものとする。
1 is a block diagram showing an embodiment of the present invention. 2 is an explanatory diagram for specifically explaining the operation of FIG. 1, where (a) is a reference image, (b) is a scene map, and FIG.
(C) and (d) show input images at times t1 and t2, respectively. 2A and 2B are times t1 and t, respectively.
The target object in 2 is shown. Further, as shown in FIG. 3, it is assumed that the camera 1 as an imaging device is installed diagonally above the monitoring area.

【0016】まず、オフラインでカメラ1から画像を入
力し、A/D変換部2を通して得られたディジタル画像
データ(以下、単に画像データという)を地平面、垂直
面、監視領域外の各領域に分割して図2(b)のような
情景マップを作成し、情景マップ記憶部5に記憶してお
く。図2(b)では、例として地平面=01H、垂直面
=02H、監視領域外=00Hの値をとるものとしてい
る。また、図3のカメラパラメータを予め求め、カメラ
パラメータ記憶部10に記憶しておく。
First, an image is input from the camera 1 off-line, and digital image data (hereinafter, simply referred to as image data) obtained through the A / D conversion unit 2 is set on each of the ground plane, the vertical plane, and each area outside the monitoring area. The scene map as shown in FIG. 2B is created by division and stored in the scene map storage unit 5. In FIG. 2B, as an example, the values of horizon = 001H, vertical surface = 02H, and outside monitoring area = 00H are taken. Further, the camera parameters of FIG. 3 are obtained in advance and stored in the camera parameter storage unit 10.

【0017】オンライン状態での動作を説明する。ま
ず、カメラ1からA/D変換部2を通して得られる1枚
または複数枚の画像を基準画像作成部3に入力し、図2
(a)の如き基準画像を作成する。得られた基準画像は
基準画像記憶部4に格納する。差分処理部6にカメラ1
およびA/D変換部2を通して得られる入力画像と、基
準画像記憶部4内に格納された基準画像を入力し、両者
の差分画像を作成する。このとき、情景マップ記憶部5
に記憶された情景マップで、監視領域外として設定され
ている領域については、無条件に“変化なし”として差
分画像を作成する。得られた差分画像を2値化処理部7
に入力し、予め設定されたしきい値で2値化し、2値画
像データを得る。
The operation in the online state will be described. First, one or a plurality of images obtained from the camera 1 through the A / D conversion unit 2 is input to the reference image creation unit 3, and the image shown in FIG.
A reference image as shown in (a) is created. The obtained reference image is stored in the reference image storage unit 4. The camera 1 in the difference processing unit 6
And the input image obtained through the A / D conversion unit 2 and the reference image stored in the reference image storage unit 4 are input, and a difference image between them is created. At this time, the scene map storage unit 5
In the scene map stored in (1), a difference image is unconditionally set as "no change" for an area set as outside the monitoring area. The obtained difference image is binarized by the binarization processing unit 7.
, And binarize with a preset threshold value to obtain binary image data.

【0018】次に、2値画像データを特徴量抽出処理部
8に入力する。特徴量抽出処理部8では、まず、2値画
像データのラベル付け、特徴量(外接長方形の幅,高
さ,面積,代表点座標など)の計算を行なう。ラベル付
けされた画像データは、例えば図4(a)のように、本
来は1つの物体である領域が複数のラベルL1,L2,
L3に分かれてしまう場合がある。このように、複数に
分かれてしまっている領域を1つに統合し、対象物体に
近い大きさ・形状で抽出する処理を抽出処理部9で行な
う。
Next, the binary image data is input to the feature amount extraction processing section 8. The feature amount extraction processing unit 8 first labels the binary image data and calculates the feature amount (width, height, area, representative point coordinates, etc. of the circumscribed rectangle). The labeled image data has a plurality of labels L1, L2, which are originally one object, as shown in FIG.
It may be divided into L3. In this way, the extraction processing unit 9 performs a process of integrating the regions divided into a plurality into one and extracting the regions with a size and shape close to the target object.

【0019】抽出処理部9内での処理方法には種々考え
られるが、ここでは領域を統合するための幅,高さ,面
積などの基準値として、カメラ1での座標系(以下、単
にカメラ座標系という)での値を用いずに、カメラ座標
系での値を実座標系に変換した値を用いるようにする。
例えば、図4(a)のラベルL1の代表点を外接長方形
の下辺の中点P1(x1,y1)とした場合、点P1は
情景マップ上では地平面上にあるので、点P1の実座標
は(X1,Y1,0)と表わすことができる。ここで、
ラベルL1はY=Y1のX−Z平面上にあると考え、こ
の場合のラベルL1の実座標での幅,高さ,面積などの
特徴量を座標変換処理手段9Aを用いて計算する。
Various processing methods can be considered in the extraction processing unit 9, but here, as reference values such as width, height, and area for integrating regions, the coordinate system of the camera 1 (hereinafter, simply referred to as camera) is used. The value in the coordinate system) is not used, but the value in the camera coordinate system converted to the actual coordinate system is used.
For example, when the representative point of the label L1 in FIG. 4A is the midpoint P1 (x1, y1) of the lower side of the circumscribed rectangle, the point P1 is on the horizon on the scene map, and therefore the actual coordinates of the point P1. Can be represented as (X1, Y1, 0). here,
It is considered that the label L1 is on the XZ plane of Y = Y1, and the feature quantities such as the width, height, and area of the label L1 in the actual coordinates in this case are calculated using the coordinate conversion processing means 9A.

【0020】まず、地平面上に存在する点のカメラ座標
(x,y)から実座標(X,Y,Z)の変換式は、図3
から、 と表わされる。
First, the conversion formula from the camera coordinates (x, y) of a point existing on the ground plane to the real coordinates (X, Y, Z) is shown in FIG.
From Is represented.

【0021】図4(a)のラベルL1を拡大表示したも
のを同図(b)に示す。同図(b)は点P1a(x1
a,y1a)、点P1b(x1b,y1b)、点P1c
(x1c,y1c)はそれぞれラベルL1の外接長方形
の左下点,右下点,上辺の中点とする。式(1)を用い
て、図4(b)でのラベルL1のP1a,P1bの実座
標(X1a,Y1a,0),(X1b,Y1b,0)を
計算すれば、これらの座標値から、ラベルL1の実座標
での幅W1は、 W1=|X1b−X1a| …(2) として求めることができる。
An enlarged display of the label L1 of FIG. 4 (a) is shown in FIG. 4 (b). The same figure (b) shows the point P1a (x1
a, y1a), point P1b (x1b, y1b), point P1c
Let (x1c, y1c) be the lower left point, lower right point, and upper middle point of the circumscribed rectangle of the label L1, respectively. If the real coordinates (X1a, Y1a, 0) and (X1b, Y1b, 0) of P1a and P1b of the label L1 in FIG. 4 (b) are calculated using the equation (1), these coordinate values are calculated as follows: The width W1 of the label L1 in actual coordinates can be calculated as W1 = | X1b−X1a | (2).

【0022】また、点P1cのカメラ座標(x1c,y
1c)から実座標(X1c,Y1c,Z1c)への変換
式は、X1c=X1,Y1c=Y1として、 となり、ラベルL1の実座標での高さH1は、 H1=|Z1c−Z1|=|Z1c−0|=|Z1c| …(4) として求めることができる。
The camera coordinates (x1c, y) of the point P1c
1c) to the real coordinates (X1c, Y1c, Z1c), the conversion formula is X1c = X1, Y1c = Y1 Therefore, the height H1 of the label L1 in the actual coordinates can be obtained as H1 = | Z1c-Z1 | = | Z1c-0 | = | Z1c | (4).

【0023】ラベルL1のカメラ座標での面積値をs
1、実座標での面積値をS1とするとS1は例えば、 S1=s1・W1・H1/w1・h1 …(5) (ただし、w1=|x1b−x1a+1|,h1=|y
1c−y1+1|) といった式で計算することができる。
The area value of the label L1 in camera coordinates is s
1. If the area value in the real coordinates is S1, S1 is, for example, S1 = s1.W1.H1 / w1.h1 (5) (where w1 = | x1b-x1a + 1 |, h1 = | y
1c-y1 + 1 |).

【0024】同様に、ラベルL1,L2を結合した場合
の実座標での特徴量、ラベルL1,L2,L3を結合し
た場合の実座標での特徴量などを計算する。領域決定手
段9Bでこれを、特徴量記憶部11内に予め設定された
対象物体の実座標での幅,高さ,面積などの特徴量の基
準値と比較し、最も対象物体に近い値をとるように結合
するラベルを決定する。例えば、図4(a)では、ラベ
ルL1,L2,L3が結合されて1領域となり、ラベル
L4は別領域となる。
Similarly, the feature amount in the real coordinate when the labels L1, L2 are combined, the feature amount in the real coordinate when the labels L1, L2, L3 are combined, and the like are calculated. The area determining means 9B compares this with a reference value of the feature quantity such as width, height, and area in the actual coordinates of the target object preset in the feature quantity storage unit 11, and determines a value closest to the target object. Decide which label to combine to take. For example, in FIG. 4A, the labels L1, L2 and L3 are combined into one area, and the label L4 is another area.

【0025】なお、以上では、Z=0の場合について説
明したが、Z=0でない場合は先の式(1)を次式
(6)のように変更すれば良い。
In the above, the case of Z = 0 has been described, but when Z = 0 is not satisfied, the above equation (1) may be changed to the following equation (6).

【0026】対応付処理部12では、連続する2時刻t
=1,t=2において、抽出処理部9で得られた結果を
用いて、同一物体の対応付けを行なう。このとき、時刻
t=1,t=2において複数の変化領域が存在する場合
には、例えば両時刻における実座標での位置が最も近い
変化領域を同一物体として対応付けを行なう。追跡処理
部13では、対応付処理部12で得られる複数の連続2
時刻の対応付け結果を用いて、2時刻より多い時刻での
同一物体の実座標の位置変化を計算する。対象動作認識
処理部14では、追跡処理部13で得られた実座標の位
置データの変化と、予め設定された検出対象動作での実
座標での位置変化とを比較し、その一致度を出力する。
In the correspondence processing unit 12, two consecutive times t.
= 1 and t = 2, the same object is associated with the result obtained by the extraction processing unit 9. At this time, when there are a plurality of changing regions at the times t = 1 and t = 2, the changing regions having the closest positions in the real coordinates at both times are associated with each other as the same object. In the tracking processing unit 13, a plurality of consecutive 2 obtained in the correspondence processing unit 12
The position change of the real coordinates of the same object at more than two times is calculated using the time correspondence result. The target motion recognition processing unit 14 compares the change in the position data of the real coordinates obtained by the tracking processing unit 13 with the position change in the real coordinates in the preset detection target motion, and outputs the degree of coincidence. To do.

【0027】判断処理部15では、対象動作認識処理部
14で得られた各動作らしさの中から、検出優先順位の
最も高い動作に応じた処理を行なう。例えば、図5のよ
うな2つの物体18A,18Bの侵入禁止領域への侵入
または接近動作について、侵入動作の方の検出優先順位
を高く設定していれば、この侵入動作にもとづいて警報
出力部16への出力や、VTR(ビデオテープレコー
ダ)17への画像記録などを指示する。
The determination processing unit 15 performs a process corresponding to the action having the highest detection priority among the actions likely obtained by the target action recognition processing unit 14. For example, if the detection priority of the intruding action is set higher in the intruding or approaching action of the two objects 18A and 18B into the intrusion prohibited area as shown in FIG. 5, the alarm output unit is based on this intruding action. Output to 16 and image recording to VTR (video tape recorder) 17 are instructed.

【0028】図6はこの発明の他の実施例を示すブロッ
ク図である。抽出処理部9内には確信度算出手段9C、
対応付処理部12内には対象物体対応付確信度算出手段
12A、対象動作認識処理部14内には対象動作確信度
算出手段14Aをそれぞれ付加した点が特徴で、その他
は図1と同様である。すなわち、抽出処理部9の確信度
算出手段9Cは、得られた対象物体の実座標での特徴量
(高さ,幅,面積など)と基準値の一致度から、対象物
体らしい形状,大きさかどうかを示す対象物体確信度P
oを算出する。この物体確信度Poの算出方法として
は、得られた対象物体の実座標での高さ,幅,高さと幅
の比,面積といった特徴量を例えばファジィのメンバシ
ップ関数で表わし、これらのメンバシップ関数を合成し
てPoを求める方法がある。
FIG. 6 is a block diagram showing another embodiment of the present invention. In the extraction processing unit 9, the confidence factor calculation means 9C,
The correspondence processing unit 12 is characterized in that a target object correspondence certainty degree calculation unit 12A and a target motion recognition processing unit 14 are additionally provided with a target motion certainty degree calculation unit 14A. is there. That is, the certainty factor calculation unit 9C of the extraction processing unit 9 determines whether the shape and size of the target object are the same as the target object based on the degree of coincidence between the feature amount (height, width, area, etc.) of the obtained target object in the actual coordinates and the reference value. Target object certainty factor P
Calculate o. As a method for calculating the object certainty factor Po, feature amounts such as height, width, ratio of height to width, and area of the obtained target object in actual coordinates are expressed by, for example, a fuzzy membership function, and the membership of these is expressed. There is a method of synthesizing functions to obtain Po.

【0029】一方、対応付処理部12の対応付確信度算
出手段12Aは、対象物体の予想位置と実際の位置との
差から、対応付け確信度Ptを算出する。時刻t=1,
t=2での対象物体位置から計算される時刻t=3での
対象物体予想位置は、対象物体の実座標上での移動速度
と、対象物体の移動経路上の情景マップの状態から判断
される。例えば、図7(a),(b)のように、時刻t
=1,t=2における物体の位置が点P1,P2でとも
に図2(b)に示す情景マップ上では、地平面の領域に
あったとする。物体の運動を等速直線運動と考えると、
点P1,P2の実座標値から、t=3の実座標値は、図
7(a),(b)では点P3の位置と予想される。
On the other hand, the correlation certainty factor calculating means 12A of the correlation processing unit 12 calculates the correlation certainty factor Pt from the difference between the predicted position and the actual position of the target object. Time t = 1,
The target object predicted position at time t = 3 calculated from the target object position at t = 2 is determined from the moving speed of the target object in real coordinates and the state of the scene map on the moving route of the target object. It For example, as shown in FIGS. 7A and 7B, time t
It is assumed that the positions of the object at = 1 and t = 2 are points P1 and P2, and both are in the area of the horizon on the scene map shown in FIG. Considering the motion of an object as a linear motion at constant velocity,
From the actual coordinate values of the points P1 and P2, the actual coordinate value of t = 3 is expected to be the position of the point P3 in FIGS. 7A and 7B.

【0030】ここで、点P2と点P3を結ぶ直線上での
情景マップの変化を調べると、図7(a)では地平面上
で変化していないので、点P3の位置がそのまま時刻t
=3での対象物体の予想位置となる。一方、図7(b)
では点P3で地平面から垂直面に変化している。よっ
て、この場合にはt=3での対象物体の予想位置を地平
面と垂直面の交点P3’とする。ここでは、物体の運動
を等速直線運動として次の時刻での予想位置を計算した
が、物体の移動経路と位置が計算できれば、他の運動を
行なう場合でも良いことは勿論である。
Here, when the change of the scene map on the straight line connecting the points P2 and P3 is examined, since it does not change on the horizontal plane in FIG. 7A, the position of the point P3 remains at the time t.
= 3 is the expected position of the target object. On the other hand, FIG. 7 (b)
At point P3, it changes from the horizontal plane to the vertical plane. Therefore, in this case, the predicted position of the target object at t = 3 is the intersection P3 ′ of the horizontal plane and the vertical plane. Here, the motion of the object is assumed to be a constant-velocity linear motion, and the predicted position at the next time is calculated. However, other motions may be performed as long as the movement path and the position of the object can be calculated.

【0031】対象動作認識処理部14の対象動作確信度
算出手段14Aは、各時刻における実座標での物体位置
の変化と、前段で得られた対応付確信度Ptを用いて、
対象動作対応付確信度Pmを算出する。その1例とし
て、図8に矢印で示すような、或る領域19への対象物
体の接近動作を検出する場合について説明する。接近動
作らしい場合を1、そうでない場合を0とすると、この
場合には、対象物体の実座標の位置とその領域19との
距離dと、その距離の変化量Δdを求め、距離が短くか
つ近づく距離変化量が大きい程、その領域に接近してい
る可能性が高いと見なし、1に近い値をPmとして出力
すれば良い。
The target motion certainty factor calculating means 14A of the target motion recognition processing section 14 uses the change of the object position in the real coordinates at each time and the associated certainty factor Pt obtained in the preceding stage.
The certainty factor Pm associated with the target motion is calculated. As an example thereof, a case where an approaching motion of a target object to a certain area 19 as indicated by an arrow in FIG. 8 is detected will be described. If the approaching movement is 1 and the other is 0, the distance d between the position of the real coordinate of the target object and the area 19 and the change amount Δd of the distance are obtained, and the distance is short and The larger the amount of change in the approaching distance is, the higher the possibility of approaching the region is, and the value close to 1 may be output as Pm.

【0032】そこで、距離dと距離の変化量Δdについ
て、例えば図9(a),(b)のような値を出力するメ
ンバシップ関数Pmd,PmΔdをそれぞれ設定し、こ
の2関数と対応付確信度Ptとを合成する。合成方法と
しては、例えば、 Pm:max(Pmd,PmΔd)・Pt(d<d0) Pmd・PmΔd・Pt (d0≦d) のようにする方法がある。なお、同時に複数の対象物体
の動作を監視したい場合は、各動作毎に対象動作確信度
Pmの算出方法を設定しておくようにする。
Therefore, for the distance d and the distance change amount Δd, membership functions Pmd and PmΔd for outputting the values as shown in FIGS. 9A and 9B are set, respectively, and these two functions are associated with certainty. And Pt. As a synthesizing method, for example, there is a method such as Pm: max (Pmd, PmΔd) · Pt (d <d0) Pmd · PmΔd · Pt (d0 ≦ d). When it is desired to monitor the motions of a plurality of target objects at the same time, the calculation method of the target motion certainty factor Pm is set for each motion.

【0033】判断処理部15では、物体確信度Po,動
作確信度Pmの両方の値に応じた警報出力レベルを各動
作毎に予め設定しておき、この設定値により警報出力レ
ベルを決定し、得られた警報出力レベルに対応した処理
を行なう。例えば、表1に示すように、0から3までの
4段階の警報出力レベルが設定され、動作「イ」の(P
o,Pm)→警報出力レベルの対応、および動作「ロ」
の(Po,Pm)→警報出力レベルの対応が、それぞれ
図10(a),(b)のように設定されているものとす
る。また、検出動作の優先順位の高低が表2のように設
定されているものとする。
In the judgment processing unit 15, an alarm output level corresponding to both the object certainty factor Po and the action certainty factor Pm is set in advance for each operation, and the alarm output level is determined by this set value. The processing corresponding to the obtained alarm output level is performed. For example, as shown in Table 1, four levels of alarm output levels from 0 to 3 are set, and the operation (a) (P
o, Pm) → Correspondence of alarm output level and operation "B"
It is assumed that the correspondence of (Po, Pm) → alarm output level is set as shown in FIGS. 10 (a) and 10 (b), respectively. Further, it is assumed that the priority level of the detection operation is set as shown in Table 2.

【0034】[0034]

【表1】 [Table 1]

【表2】 [Table 2]

【0035】或る時刻で、物体18AのPo=0.8,
動作「イ」のPm=0.7,動作「ロ」のPm=0.
6、物体18BのPo=0.6,動作「イ」のPm=
0.3,動作「ロ」のPm=0.5の場合には、物体1
8Aの警報出力レベルは2.2、物体18Bの警報出力
レベルは1.1となり、警報出力レベルの最も大きいも
のは「2」ということになる。これは、表1からレベル
2の処理、すなわち監視員にのみ警報を出力し、VTR
17にそのときの画像を低品質で記録する処理を行な
う。また、このときの警報出力レベルの最大値を出した
動作は、表2の優先順位から動作「ロ」ということにな
る。
At a certain time, Po = 0.8 of the object 18A,
Pm of the motion "a" is 0.7, Pm of the motion "b" is 0.
6, Po of object 18B = 0.6, Pm of motion "a" =
In the case of 0.3 and Pm = 0.5 of the motion "b", the object 1
The alarm output level of 8A is 2.2, the alarm output level of the object 18B is 1.1, and the highest alarm output level is "2". This is a level 2 process from Table 1, that is, an alarm is output only to the observer, and the VTR
In step 17, a process of recording the image at that time with low quality is performed. Further, the operation that gives the maximum value of the alarm output level at this time is the operation "b" from the priority order of Table 2.

【0036】検出したい動作を追加/削除したい場合に
は、動作確信度Pmの算出方法と、その動作の(Po,
Pm)→警報出力レベルの対応を、追加/削除するだけ
で良い。また、複数の動作の検出優先順位の変更は、表
2の優先順位を変更するだけで良い。さらに、このとき
の物体確信度Poおよび動作確信度Pmの値を合わせて
記録しておけば、仮に誤報となった場合にもその原因を
知るためのデータとすることができ、このデータをもと
に特徴量の基準値や動作定義を自動的に改善することに
より、設置環境に適合した誤報の少ないシステムにする
ことが可能となる。
When it is desired to add / delete a motion to be detected, a method of calculating the motion certainty factor Pm and (Po,
Pm) → alarm output level correspondence need only be added / deleted. Further, the detection priority of a plurality of operations can be changed only by changing the priority of Table 2. Furthermore, if the values of the object certainty factor Po and the motion certainty factor Pm at this time are also recorded together, even if an erroneous report is made, it can be used as data for knowing the cause, and this data can also be obtained. In addition, by automatically improving the reference value of the feature amount and the operation definition, it is possible to make the system suitable for the installation environment and with few false alarms.

【0037】なお、図6の抽出処理部9を確信度算出手
段9Cのみ、対応付処理部12を対応付確信度算出手段
12Aのみ、また対象動作認識処理部14を対象動作確
信度算出手段14Aのみにより、それぞれ構成するよう
にしても良いことは言うまでもない。
It should be noted that the extraction processing unit 9 of FIG. 6 has only the certainty factor calculation means 9C, the correspondence processing unit 12 has only the correspondence certainty factor calculation unit 12A, and the target motion recognition processing unit 14 has the target motion certainty degree calculation unit 14A. It is needless to say that each of them may be configured by only the above.

【0038】[0038]

【発明の効果】この発明によれば、変化領域が監視対象
物体であるかどうか、また、その動きが監視対象動作か
どうかを判断するために、変化領域の画像上での各特徴
量(幅,高さ,面積,移動量など)を実座標上での特徴
量に変換し、これらを予め設定した値と比較するように
したので、領域別にいくつもの特徴量基準値を設定して
おく必要がなくなり、基準値も監視員やシステムエンジ
ニアが日頃使用している尺度を使用できるので、設定が
簡単となる。また、例えば物体が侵入したかしていない
かという判断結果だけでなく、その結果がどの程度確か
らしいかを合わせて得るようにすれば、この確からしさ
をもとに後の処理を変えたりすることができるので、誤
報を減少させることが可能となる、などの利点が得られ
る。
According to the present invention, in order to determine whether or not a change area is an object to be monitored and whether its movement is a motion to be monitored, each feature quantity (width) on the image of the change area is determined. , Height, area, movement amount, etc.) are converted into feature values on the real coordinates and these are compared with preset values, so it is necessary to set several feature value reference values for each region. Since the standard value can be used, the standard value used by the observer or system engineer can be used, so the setting becomes easy. Also, for example, if not only the judgment result of whether or not an object has entered, but also the degree of certainty of the result is obtained, the subsequent processing can be changed based on this certainty. Therefore, it is possible to reduce false alarms, which is an advantage.

【図面の簡単な説明】[Brief description of drawings]

【図1】この発明の実施例を示すブロック図である。FIG. 1 is a block diagram showing an embodiment of the present invention.

【図2】情景マップを説明するための説明図である。FIG. 2 is an explanatory diagram for explaining a scene map.

【図3】座標変換方法を説明するための説明図である。FIG. 3 is an explanatory diagram for explaining a coordinate conversion method.

【図4】この発明による物体抽出処理を説明するための
説明図である。
FIG. 4 is an explanatory diagram for explaining an object extraction process according to the present invention.

【図5】この発明による対象動作認識処理を説明するた
めの説明図である。
FIG. 5 is an explanatory diagram for explaining a target motion recognition process according to the present invention.

【図6】この発明の他の実施例を示すブロック図であ
る。
FIG. 6 is a block diagram showing another embodiment of the present invention.

【図7】予想位置を説明するための説明図である。FIG. 7 is an explanatory diagram for explaining an expected position.

【図8】対象動作確信度を説明するための説明図であ
る。
FIG. 8 is an explanatory diagram for explaining a target motion certainty factor.

【図9】メンバシップ関数例を示すグラフである。FIG. 9 is a graph showing an example of a membership function.

【図10】判断処理動作を説明するための説明図であ
る。
FIG. 10 is an explanatory diagram illustrating a determination processing operation.

【図11】従来例を示すブロック図である。FIG. 11 is a block diagram showing a conventional example.

【図12】図11の動作を説明するための説明図であ
る。
12 is an explanatory diagram for explaining the operation of FIG. 11. FIG.

【図13】図11における領域別特徴量を説明するため
の説明図である。
FIG. 13 is an explanatory diagram for describing the feature amount for each area in FIG. 11.

【符号の説明】[Explanation of symbols]

1…カメラ、2…A/D変換部、2A,2B,18A,
18B…対象物体、3…背景画像作成部、4…背景画像
記憶部、5…情景マップ記憶部、6…差分処理部、7…
2値化処理部、8…特徴量抽出処理部、9…対象物体抽
出処理部、9A…座標変換処理手段、9B…領域決定手
段、9C…確信度算出手段、10…カメラパラメータ記
憶部、11…特徴量記憶部、12…対応付け処理部、1
2A…対応付け確信度算出手段、13…追跡処理部、1
4…対象動作確認処理部、14A…対象動作確信度算出
手段、15…判断処理部、16…警報出力部、17…V
TR、19…侵入禁止区域、20…背景メモリ、21…
特徴量対応付処理部、22…動き量抽出処理部、23…
領域別特徴量設定部。
1 ... Camera, 2 ... A / D converter, 2A, 2B, 18A,
18B ... Target object, 3 ... Background image creation unit, 4 ... Background image storage unit, 5 ... Scene map storage unit, 6 ... Difference processing unit, 7 ...
Binarization processing unit, 8 ... Feature amount extraction processing unit, 9 ... Target object extraction processing unit, 9A ... Coordinate conversion processing unit, 9B ... Region determination unit, 9C ... Certainty factor calculation unit, 10 ... Camera parameter storage unit, 11 ... feature quantity storage unit, 12 ... association processing unit, 1
2A ... Correlation certainty factor calculation means, 13 ... Tracking processing unit, 1
4 ... Target motion confirmation processing unit, 14A ... Target motion certainty degree calculation means, 15 ... Judgment processing unit, 16 ... Warning output unit, 17 ... V
TR, 19 ... Intrusion prohibited area, 20 ... Background memory, 21 ...
Feature amount correspondence processing unit, 22 ... Motion amount extraction processing unit, 23 ...
Region-specific feature amount setting unit.

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 G08B 13/196 7323−5G H04N 7/18 D (72)発明者 清水 晃 神奈川県川崎市川崎区田辺新田1番1号 富士電機株式会社内─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 6 Identification code Internal reference number FI Technical indication location G08B 13/196 7323-5G H04N 7/18 D (72) Inventor Akira Shimizu Kawasaki-ku, Kawasaki-shi, Kanagawa Prefecture No. 1 Shinden Tanabe Fuji Electric Co., Ltd.

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 テレビカメラを介する1つまたは複数の
入力画像から基準画像を作成し、この基準画像と入力画
像との差にもとづき物体の監視を行なう物体監視装置に
おいて、 監視領域を1つまたは複数の平面に分割し情景マップを
記憶する情景マップ記憶手段と、前記入力画像,監視領
域,カメラ設置位置の位置関係を示すカメラパラメータ
を記憶するパラメータ記憶部と、変化領域の特徴量をそ
の情景マップ上での位置関係とカメラパラメータによっ
て実際の3次元空間座標(実座標)上での特徴量に変換
する座標変換処理手段と、対象物体の実座標での特徴量
の基準値と座標変換された特徴量から対象物体領域を決
定する領域決定手段とを設けたことを特徴とする物体監
視装置。
1. An object monitoring apparatus that creates a reference image from one or a plurality of input images through a television camera and monitors an object based on the difference between the reference image and the input image. A scene map storage unit that divides into a plurality of planes and stores a scene map, a parameter storage unit that stores a camera parameter indicating a positional relationship among the input image, the monitoring area, and the camera installation position, and a feature amount of the change area in the scene. Coordinate conversion processing means for converting into a feature amount on the actual three-dimensional space coordinates (real coordinates) according to the positional relationship on the map and the camera parameters, and the coordinate conversion with the reference value of the feature amount at the actual coordinates of the target object. An object monitoring apparatus, comprising: a region determining unit that determines a target object region from the feature amount.
【請求項2】 テレビカメラを介する1つまたは複数の
入力画像から基準画像を作成し、この基準画像と入力画
像との差にもとづき物体の監視を行なう物体監視装置に
おいて、 対象物体として決定された領域の特徴量とその基準値と
の一致度を算出する物体確信度算出手段と、過去の対応
付け結果から予想される物体位置と実際に得られた物体
位置との一致度を算出する物体対応付け確信度算出手段
と、実際に得られた物体位置の軌跡と物体対応付け確信
度とから対象動作毎に対象動作らしさを算出するための
対象動作確信度算出手段とを設け、物体確信度と対象動
作確信度の各値にもとづき警報のパターンを変えること
を特徴とする物体監視装置。
2. An object monitoring apparatus that creates a reference image from one or more input images through a television camera and monitors the object based on the difference between the reference image and the input image, and determines the target object. Object confidence factor calculation means for calculating the degree of coincidence between the feature amount of the area and its reference value, and object correspondence for calculating the degree of coincidence between the object position predicted from the past correspondence result and the object position actually obtained Attaching certainty factor calculating means, and a target motion certainty factor calculating means for calculating the target motion likelihood for each target motion from the trajectory of the object position actually obtained and the object association certainty factor, and the object certainty factor An object monitoring device characterized by changing an alarm pattern based on each value of a target motion certainty factor.
【請求項3】 前記対象物体として決定された領域の特
徴量とその基準値との一致度を算出する物体確信度算出
手段と、過去の対応付け結果から予想される物体位置と
実際に得られた物体位置との一致度を算出する物体対応
付け確信度算出手段と、実際に得られた物体幾の軌跡と
物体対応付け確信度とから対象動作毎に対象動作らしさ
を算出するための対象動作確信度算出手段とを付加し、
物体確信度と対象動作確信度の各値にもとづき警報のパ
ターンを変えることを特徴とする請求項1に記載の物体
監視装置。
3. An object certainty factor calculation means for calculating a degree of coincidence between a feature amount of a region determined as the target object and its reference value, and an object position predicted from a past association result and actually obtained. Object matching certainty factor calculating means for calculating the degree of coincidence with the object position, and target motion for calculating the target motion likelihood for each target motion from the actually obtained trajectories of the objects and the object matching certainty factors. Confidence factor calculation means is added,
The object monitoring apparatus according to claim 1, wherein the alarm pattern is changed based on each value of the object certainty factor and the target motion certainty factor.
JP18126793A 1993-07-22 1993-07-22 Object monitoring device Expired - Fee Related JP3630703B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP18126793A JP3630703B2 (en) 1993-07-22 1993-07-22 Object monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP18126793A JP3630703B2 (en) 1993-07-22 1993-07-22 Object monitoring device

Publications (2)

Publication Number Publication Date
JPH0737063A true JPH0737063A (en) 1995-02-07
JP3630703B2 JP3630703B2 (en) 2005-03-23

Family

ID=16097713

Family Applications (1)

Application Number Title Priority Date Filing Date
JP18126793A Expired - Fee Related JP3630703B2 (en) 1993-07-22 1993-07-22 Object monitoring device

Country Status (1)

Country Link
JP (1) JP3630703B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005341450A (en) * 2004-05-31 2005-12-08 Secom Co Ltd Sensing apparatus
JP2006133991A (en) * 2004-11-04 2006-05-25 Fuji Xerox Co Ltd Authentication device
WO2006080355A1 (en) * 2005-01-31 2006-08-03 Olympus Corporation Object tracing device, microscope system, and object tracing program
JPWO2006030633A1 (en) * 2004-09-15 2008-05-15 松下電器産業株式会社 Object detection device
WO2008093585A1 (en) * 2007-01-30 2008-08-07 Aisin Seiki Kabushiki Kaisha Moving object recognizing device
JP2009064287A (en) * 2007-09-07 2009-03-26 Meidensha Corp Intruder detector
JP2011150665A (en) * 2010-01-25 2011-08-04 Kyocera Corp Portable electronic device
US8189962B2 (en) 2006-12-19 2012-05-29 Hitachi Kokusai Electric Inc. Image processing apparatus
JP2013156671A (en) * 2012-01-26 2013-08-15 Secom Co Ltd Image monitoring device
JP2020017010A (en) * 2018-07-24 2020-01-30 富士通株式会社 Detection device, detection method and detection program

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005341450A (en) * 2004-05-31 2005-12-08 Secom Co Ltd Sensing apparatus
JP4509654B2 (en) * 2004-05-31 2010-07-21 セコム株式会社 Sensing device
JPWO2006030633A1 (en) * 2004-09-15 2008-05-15 松下電器産業株式会社 Object detection device
JP4963964B2 (en) * 2004-09-15 2012-06-27 パナソニック株式会社 Object detection device
JP2006133991A (en) * 2004-11-04 2006-05-25 Fuji Xerox Co Ltd Authentication device
JP4711045B2 (en) * 2004-11-04 2011-06-29 富士ゼロックス株式会社 Authentication device
WO2006080355A1 (en) * 2005-01-31 2006-08-03 Olympus Corporation Object tracing device, microscope system, and object tracing program
JP2006209698A (en) * 2005-01-31 2006-08-10 Olympus Corp Target tracking device, microscope system and target tracking program
US8189962B2 (en) 2006-12-19 2012-05-29 Hitachi Kokusai Electric Inc. Image processing apparatus
US8184857B2 (en) 2007-01-30 2012-05-22 Aisin Seiki Kabushiki Kaisha Moving object recognizing apparatus
JP2008186246A (en) * 2007-01-30 2008-08-14 Aisin Seiki Co Ltd Moving object recognizing device
WO2008093585A1 (en) * 2007-01-30 2008-08-07 Aisin Seiki Kabushiki Kaisha Moving object recognizing device
JP2009064287A (en) * 2007-09-07 2009-03-26 Meidensha Corp Intruder detector
JP2011150665A (en) * 2010-01-25 2011-08-04 Kyocera Corp Portable electronic device
US9613509B2 (en) 2010-01-25 2017-04-04 Kyocera Corporation Mobile electronic device and method for crime prevention
JP2013156671A (en) * 2012-01-26 2013-08-15 Secom Co Ltd Image monitoring device
JP2020017010A (en) * 2018-07-24 2020-01-30 富士通株式会社 Detection device, detection method and detection program

Also Published As

Publication number Publication date
JP3630703B2 (en) 2005-03-23

Similar Documents

Publication Publication Date Title
US5554983A (en) Object recognition system and abnormality detection system using image processing
US5434927A (en) Method and apparatus for machine vision classification and tracking
EP0878965A2 (en) Method for tracking entering object and apparatus for tracking and monitoring entering object
US8320613B2 (en) Detecting and tracking targets in images based on estimated target geometry
US10853664B2 (en) Device and method for detecting abnormal situation
US20100013917A1 (en) Method and system for performing surveillance
CN113671480A (en) Radar and video fusion traffic target tracking method, system, equipment and terminal
EP0400607A2 (en) Infrared monitoring system
JP2003016429A (en) Vehicle periphery monitor device
JP2003216949A (en) Infrared image processor
CN111937036A (en) Method, apparatus, and computer-readable storage medium having instructions for processing sensor data
JPH0737063A (en) Object monitoring device
CN115184917B (en) Regional target tracking method integrating millimeter wave radar and camera
JP3388087B2 (en) Object detection device
US20230014601A1 (en) Multi-sensor occlusion-aware tracking of objects in traffic monitoring systems and methods
CN115965655A (en) Traffic target tracking method based on radar-vision integration
JP2002074370A (en) System and method for monitoring based on moving image and computer readable recording medium
US7710310B2 (en) Detection system, method for detecting objects and computer program therefor
JPH11345392A (en) Device and method for detecting obstacle
JP2002074369A (en) System and method for monitoring based on moving image and computer readable recording medium
JPH0991439A (en) Object monitor
JPH0514891A (en) Image monitor device
KR102228395B1 (en) Apparatus, system and method for analyzing images using divided images
JP2005284652A (en) Video monitoring method and apparatus using moving vector
JPH09322153A (en) Automatic monitor

Legal Events

Date Code Title Description
A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20041215

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071224

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081224

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081224

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091224

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees