JP3480894B2 - Image monitoring apparatus and image monitoring method - Google Patents

Image monitoring apparatus and image monitoring method

Info

Publication number
JP3480894B2
JP3480894B2 JP26360297A JP26360297A JP3480894B2 JP 3480894 B2 JP3480894 B2 JP 3480894B2 JP 26360297 A JP26360297 A JP 26360297A JP 26360297 A JP26360297 A JP 26360297A JP 3480894 B2 JP3480894 B2 JP 3480894B2
Authority
JP
Japan
Prior art keywords
image
area
plane
extracted
input means
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP26360297A
Other languages
Japanese (ja)
Other versions
JPH11102440A (en
Inventor
一則 小野口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP26360297A priority Critical patent/JP3480894B2/en
Priority to US09/161,428 priority patent/US6205242B1/en
Publication of JPH11102440A publication Critical patent/JPH11102440A/en
Application granted granted Critical
Publication of JP3480894B2 publication Critical patent/JP3480894B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、例えば横断歩道ま
たはその周辺等の平面領域において人の有無または流れ
等を検出する画像監視装置及び画像監視方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image monitoring apparatus and an image monitoring method for detecting the presence or absence of a person or a flow in a plane area such as a pedestrian crossing or its periphery.

【0002】[0002]

【従来の技術】車の流量計測や信号待ちの車の検知等に
用いられる超音波センサは、超音波を良く反射する硬い
物体しか検知できず、人間等の検知には不向きである。
また、計測範囲が狭いため、横断歩道周辺で赤信号のた
めに待機している人の有無や人数、及び青信号で横断中
の歩行者の流れ等を広範囲に検出することが難しい。
2. Description of the Related Art An ultrasonic sensor used for measuring the flow rate of a vehicle or detecting a vehicle waiting for a signal can detect only a hard object that reflects ultrasonic waves well, and is not suitable for detecting humans.
In addition, since the measurement range is narrow, it is difficult to detect the presence or absence of people waiting for a red traffic light around a pedestrian crossing and the flow of pedestrians crossing the green traffic light in a wide range.

【0003】このため、TVカメラから入力される画像
を用い、歩行者の監視を行う手法が従来から提案されて
いる。画像を用いた歩行者の監視手法としては、異なる
2時点で入力した画像間の差を取り、動いている領域を
歩行者として検出する時間差分法、予め用意しておいた
背景画像と入力画像との間の差を取り、背景画像と明る
さが異なる領域を歩行者として検出する背景差分法、及
び画像中の各点の動き情報(オプティカルフロー)か
ら、一定方向に等速直線運動する領域を歩行者として検
出する手法等がある。
Therefore, a method of monitoring a pedestrian using an image input from a TV camera has been conventionally proposed. As a pedestrian monitoring method using images, a time difference method of detecting a moving area as a pedestrian by taking a difference between images input at two different time points, a background image and an input image prepared in advance The difference between the background image and the background image is detected as a pedestrian in the area where the brightness is different from the background image, and the motion information (optical flow) of each point in the image is used to make a uniform linear motion in a certain direction. There is a method of detecting the pedestrian as a pedestrian.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、前述し
た手法には以下のような問題点がある。時間差分法は、
例えば、信号待ちをしている歩行者といった静止対象物
には適用できない。また、背景差分法は、監視領域が屋
外の場合、日照変化に伴う背景画像の更新が難しく、ま
た、歩行者の影領域や車のヘッドライト等により生じる
道路上の明るさの変動領域が検出領域に含まれるため、
これらを除去する必要がある。また、動き情報を用いる
手法は、オプティカルフロー抽出に多大な計算コストが
かかるとともに、静止している人間が検出できない。
However, the above-mentioned method has the following problems. The time difference method is
For example, it cannot be applied to stationary objects such as pedestrians waiting for a signal. In addition, the background subtraction method makes it difficult to update the background image due to changes in sunshine when the monitored area is outdoors, and detects areas of fluctuation in brightness on the road caused by shadow areas of pedestrians, headlights of cars, etc. Since it is included in the area,
These need to be removed. In addition, the method using motion information requires a large calculation cost for optical flow extraction and cannot detect a stationary person.

【0005】本発明は、上記問題に鑑みてなされたもの
で、その目的とするところは、歩行者の影やヘッドライ
ト等により生じる路面の明るさの変動領域を誤って検出
することがなく、背景更新が不必要で、かつ、立ち止ま
っている状態も含め歩行者を検出することが可能な計算
コストの少ない画像監視装置及び画像監視方法を提供す
ることにある。
The present invention has been made in view of the above problems, and an object of the present invention is to prevent erroneous detection of a variation area of road surface brightness caused by a pedestrian's shadow or headlights. An object of the present invention is to provide an image monitoring apparatus and an image monitoring method that do not require background updating and that can detect pedestrians even in a stopped state and that has a low calculation cost.

【0006】 本発明においては、観測方向が互いに略
直交しまたは略向き合い、観測視野が重複するように配
置された少なくとも2つ以上の画像入力手段と、画像入
力手段で同時刻に取得された複数の画像を3次元空間中
で設定した平面に投影する手段と、投影された複数の画
像データを比較して対応する画素の輝度値の差がしきい
値よりも大きい領域を前記設定平面に対し高さが異なる
領域として抽出する手段と、前記画像入力手段の位置と
前記設定平面上の特定の位置との相対関係から定まる点
を中心とする複数のクサビ型形状領域を含むパターンか
らなる照合マスクを用いて、前記抽出された領域から監
視対象の存在位置を抽出する手段とからなる画像監視装
置を提供する。
In the present invention, the observation directions are substantially
Arrange them so that they are orthogonal or face each other and the observation fields of view overlap.
At least two or more image input means provided, and image input
Multiple images acquired by force means at the same time in a three-dimensional space
The means for projecting onto the plane set in and the multiple images projected.
There is a threshold difference between the brightness values of the corresponding pixels when comparing the image data.
Areas larger than the value have different heights with respect to the setting plane
Means for extracting as a region, and the position of the image input means
A point determined from the relative relationship with a specific position on the setting plane
Is the pattern including multiple wedge-shaped shape regions centered on
Using a matching mask consisting of
An image monitoring device comprising means for extracting the existence position of the visual target.
Provide the storage.

【0007】 また本発明においては、観測方向が互い
に略直交しまたは略向き合い、観測視野が重複するよう
に配置された少なくとも2つ以上の画像入力手段で同時
刻に取得された複数の画像を3次元空間中で設定した平
面に投影し、その投影された複数の画像データを比較し
て対応する画素の輝度値の差がしきい値よりも大きい領
域を前記設定平面に対し高さが異なる領域として抽出
し、前記画像入力手段の位置と前記設定平面上の特定の
位置との相対関係から定まる点を中心とする複数のクサ
ビ型形状領域を含むパターンからなる照合マスクを用い
て、前記抽出された領域から監視対象の存在位置を抽出
することを特徴とする画像監視方法を提供する。
Further, in the present invention, the observation directions are mutually
So that the observation fields of view overlap with each other.
Simultaneously with at least two image input means arranged in
A set of multiple images captured every second in a three-dimensional space
Project on a plane and compare the projected image data
If the difference in the brightness value of the corresponding pixel is larger than the threshold value,
Areas are extracted as areas with different heights from the set plane
However, the position of the image input means and a specific position on the setting plane
Multiple wedges centered on a point determined by the relative relationship with the position
Using a matching mask consisting of a pattern containing a bi-shaped area
The location of the monitoring target from the extracted area
An image monitoring method is provided.

【0008】[0008]

【0009】[0009]

【0010】[0010]

【0011】このような構成とすることにより、監視対
象の影やヘッドライト等により生じる路面の明るさの変
動領域を誤って検出することがなく、背景更新が不必要
で、かつ、立ち止まっている状態も含め歩行者を効率良
く検出することができる。
With such a configuration, a region in which the road surface brightness fluctuates due to a shadow to be monitored, a headlight, or the like is not erroneously detected, background updating is unnecessary, and is stopped. It is possible to efficiently detect pedestrians including their states.

【0012】[0012]

【0013】[0013]

【0014】[0014]

【0015】[0015]

【0016】[0016]

【0017】[0017]

【0018】[0018]

【発明の実施の形態】以下で、本発明の詳細を図面に従
い説明する。図1は本実施例における画像監視装置の概
略構成を示すもので、1:TVカメラi(1≦i≦
n)、2:画像メモリi(1≦i≦n)、3:画像投影
部i(1≦i≦n)、4:選択部、5:比較部j(1≦
j≦m)、6:抽出部j(1≦j≦m)、7:統合部か
ら構成されている。
DETAILED DESCRIPTION OF THE INVENTION The details of the present invention will be described below with reference to the drawings. FIG. 1 shows a schematic configuration of an image monitoring apparatus according to the present embodiment, in which 1: TV camera i (1 ≦ i ≦
n), 2: image memory i (1 ≦ i ≦ n), 3: image projection unit i (1 ≦ i ≦ n), 4: selection unit, 5: comparison unit j (1 ≦ i)
j ≦ m), 6: extraction unit j (1 ≦ j ≦ m), 7: integration unit.

【0019】図9に画像監視装置及び方法に関する処理
の流れを示す。画像入力、画像の投影、投影データの選
択、投影データの比較、監視対象位置の抽出、統合の順
で処理を行なう。
FIG. 9 shows the flow of processing relating to the image monitoring apparatus and method. Processing is performed in the order of image input, image projection, projection data selection, projection data comparison, monitoring target position extraction, and integration.

【0020】TVカメラi(1≦i≦n)より入力され
た画像は画像メモリi(1≦i≦n)に蓄積される。画
像投影部i(1≦i≦n)は画像メモリi(1≦i≦
n)に蓄積されている各々の画像を3次元空間中に予め
設定しておいた座標系Cxyz を基準とした平面P:ax
+by+cz=0上に投影する。
The image input from the TV camera i (1≤i≤n) is stored in the image memory i (1≤i≤n). The image projection unit i (1 ≦ i ≦ n) has an image memory i (1 ≦ i ≦ n).
The plane P: ax based on the coordinate system Cxyz preset in the three-dimensional space for each image stored in n)
Project onto + by + cz = 0.

【0021】この平面の方程式は、測量機により監視領
域に座標系Cxyz を設定した後、この座表系におけるサ
ンプル点の位置を測量機を用いて計測し、最小自乗法に
よりサンプル点を含む平面式を算出することにより求め
る。監視領域が横断歩道等を含む交差点領域の場合に
は、道路上に複数のサンプル点を設け、これらのサンプ
ル点の位置を計測機により測定する。屋内の通路等の場
合には、通路の床面上にサンプル点を設ける。
In this plane equation, after setting the coordinate system Cxyz in the monitoring area by the surveying instrument, the position of the sample point in this coordinate system is measured by the surveying instrument, and the plane including the sample point is obtained by the least square method. It is obtained by calculating the formula. When the monitoring area is an intersection area including a pedestrian crossing, a plurality of sample points are provided on the road, and the positions of these sample points are measured by a measuring machine. In the case of indoor passages, sample points will be provided on the floor of the passage.

【0022】図2を用い、本発明の画像監視装置に好適
な投影手法に関し説明する。21:監視領域の座標系C
xyz の原点をO、22:TVカメラi(1≦i≦n)の
画像中心をOi 、TVカメラiの焦点位置をCi 、画像
面上の点qi を23:平面P上へ投影した点をQi 、画
像中心を原点とする座標系をそれぞれ、xi 、−yi、
Oi を起点としてxi 軸上で長さが画像面のx軸方向の
画素サイズに相当するベクトルをnix、Oi を起点とし
てy軸上で長さが画像面のy軸方向の画素サイズに相当
するベクトルをniyとする。また、qi の画像面上の位
置を(kix、kiy)とする。点qi を平面P上へ投影し
た点Qi のCxyz での位置を以下の式より求める。qi
に対して次の関係が成り立つ。
A projection method suitable for the image monitoring apparatus of the present invention will be described with reference to FIG. 21: Coordinate system C of monitoring area
The origin of xyz is O, 22: the image center of the TV camera i (1≤i≤n) is Oi, the focus position of the TV camera i is Ci, and the point qi on the image plane is projected onto the plane P by 23. Qi is the coordinate system with the origin at the center of the image, xi, -yi,
A vector whose length corresponds to the pixel size in the x-axis direction of the image plane on the xi axis starting from Oi is nix, and length on the y-axis starting from Oi corresponds to the pixel size in the y-axis direction of the image plane. Let the vector be niy. The position of qi on the image plane is (kix, kiy). The position at Cxyz of the point Qi obtained by projecting the point qi on the plane P is obtained by the following formula. qi
The following relation holds for.

【0023】[0023]

【数1】 TVカメラi(1≦i≦n)に関しては、校正板及び測
量機を用いたキャリブレーションにより、以下のパラメ
ータを予め求めておくことが可能である。
[Equation 1] For the TV camera i (1 ≦ i ≦ n), the following parameters can be obtained in advance by calibration using a calibration plate and a surveying instrument.

【0024】[0024]

【数2】 この時、Qi とqi を結ぶ直線の方程式は、[Equation 2] At this time, the equation of the straight line connecting Qi and qi is

【0025】[0025]

【数3】 として表される。このx、y、zを平面式P:ax+b
y+cz=0に代入し、tを求めることにより、qi の
P上の投影点Qi の位置(Qix、Qiy、Qiz)を算出す
ることができる。画像投影部i(1≦i≦n)は、TV
カメラiより入力された画像が格納される画像メモリi
中の全画素qi =(kix、kiy)に対し、以上の処理を
行ない、各qi の投影位置(Qix、Qiy、Qiz)及びq
i の輝度値からなる投影データを選択部へ出力する。
[Equation 3] Expressed as This x, y, z is expressed by the plane formula P: ax + b
The position (Qix, Qiy, Qiz) of the projection point Qi of qi on P can be calculated by substituting for y + cz = 0 and calculating t. The image projection unit i (1 ≦ i ≦ n) is a TV
Image memory i in which images input from camera i are stored
The above processing is performed for all pixels qi = (kix, kiy) in the pixel, and the projection positions (Qix, Qiy, Qiz) and q of each qi are processed.
The projection data consisting of the brightness value of i is output to the selection unit.

【0026】選択部は画像投影部i(1≦i≦n)より
入力されるn個の投影データに対し、2つの投影データ
の組をそれぞれ選択し、比較部j(1≦j≦m)へ送
る。どの画像投影部の出力同士を組み合わせるかは予め
設定し、選択部に記憶させておく。例えば、図3に示す
交差点において、横断歩道を渡っている人、及び横断歩
道の手前で信号待ちしている人をそれぞれ図3に示す向
きに設置された8台のTVカメラを用いて監視する場合
を考える。
The selecting section selects two sets of projection data for n pieces of projection data input from the image projecting section i (1≤i≤n), and the comparing section j (1≤j≤m). Send to. Which output of the image projection units is combined with each other is set in advance and stored in the selection unit. For example, at the intersection shown in FIG. 3, a person crossing the pedestrian crossing and a person waiting for a signal in front of the pedestrian crossing are monitored using eight TV cameras installed in the directions shown in FIG. 3, respectively. Consider the case.

【0027】各カメラは図4に示すような観測視野を持
つため(図4においては、TVカメラ2、3、5、8の
観測視野のみを模式的に示している)、領域T1 を監視
するために、TVカメラ3とTVカメラ8の画像を扱う
画像投影部3と画像投影部8からの投影データを比較部
1へ出力するよう選択部へ記憶させておく。同様に、領
域T2 を監視するために、TVカメラ2とTVカメラ3
の画像を扱う画像投影部2と画像投影部3からの投影デ
ータを比較部2へ出力するよう選択部へ記憶させてお
く。また、領域T3 を監視するために、TVカメラ2と
TVカメラ5の画像を扱う画像投影部2と画像投影部5
からの投影データを比較部3へ出力するよう選択部へ記
憶させておく。
Since each camera has an observation field of view as shown in FIG. 4 (in FIG. 4, only the observation fields of view of the TV cameras 2, 3, 5, and 8 are schematically shown), the region T1 is monitored. Therefore, the projection data from the image projection unit 3 and the image projection unit 8 which handle the images of the TV camera 3 and the TV camera 8 are stored in the selection unit so as to be output to the comparison unit 1. Similarly, in order to monitor the area T2, the TV camera 2 and the TV camera 3
The projection data from the image projecting unit 2 and the image projecting unit 3 that handle the image are stored in the selecting unit so as to be output to the comparing unit 2. Further, in order to monitor the area T3, the image projection unit 2 and the image projection unit 5 that handle the images of the TV camera 2 and the TV camera 5 are monitored.
The projection data from are stored in the selection unit so as to be output to the comparison unit 3.

【0028】以上のように、図3に示す交差点エリアに
図5に示す8つの監視領域を設定したとすると、領域T
4 〜T8 を監視するために、比較部4に画像投影部4と
画像投影部5から出力される投影データの組、比較部5
に画像投影部4と画像投影部7から出力される投影デー
タの組、比較部6に画像投影部6と画像投影部7から出
力される投影データの組、比較部7に画像投影部1と画
像投影部6から出力される投影データの組、比較部8に
画像投影部1と画像投影部8から出力される投影データ
の組がそれぞれ入力されるよう選択部に記憶させてお
く。このように、選択部では予め記憶された組合わせに
従って、各比較部j(1≦j≦m)と接続する画像投影
部i(1≦i≦n)の組合わせを選択し、投影データを
出力する。
As described above, assuming that eight monitoring areas shown in FIG. 5 are set in the intersection area shown in FIG. 3, the area T
In order to monitor 4 to T8, a set of projection data output from the image projecting unit 4 and the image projecting unit 5 to the comparing unit 4, the comparing unit 5
A pair of projection data output from the image projection unit 4 and the image projection unit 7, a pair of projection data output from the image projection unit 6 and the image projection unit 7 to the comparison unit 6, and an image projection unit 1 to the comparison unit 7. The selection unit stores the projection data sets output from the image projection unit 6 and the comparison unit 8 inputs the projection data sets output from the image projection unit 1 and the image projection unit 8, respectively. In this way, the selection unit selects the combination of the image projection unit i (1 ≦ i ≦ n) connected to each comparison unit j (1 ≦ j ≦ m) according to the combination stored in advance, and outputs the projection data. Output.

【0029】比較部j(1≦j≦m)は選択部より入力
される2組の投影データに対し、平面P上の同位置にお
ける明度がそれぞれ異なる領域Rを抽出する。比較部j
(1≦j≦m)に画像投影部i1 からの投影データK1
と画像投影部i2 からの投影データK2 が入力される場
合を考える。K1 とK2 は、それぞれ以下のような投影
座標値と輝度値のデータから構成されている。
The comparison unit j (1≤j≤m) extracts regions R having different lightness at the same position on the plane P from the two sets of projection data input from the selection unit. Comparison part j
Projection data K1 from the image projection unit i1 to (1≤j≤m)
Consider the case where the projection data K2 from the image projection unit i2 is input. K1 and K2 are respectively composed of the following projection coordinate value and brightness value data.

【0030】[0030]

【数4】 ここで、Q1 、Q2 は投影座標値、I1 、I2 は投影さ
れた画素の輝度値である。
[Equation 4] Here, Q1 and Q2 are projection coordinate values, and I1 and I2 are brightness values of projected pixels.

【0031】K1 、K2 に含まれる投影座標値におい
て、x座標値の最大値Xmax 及び最小値Xmin を求め
る。同様に、y座標値の最大値Ymax 及び最小値Ymin
を求める。そして、M×Nの2次元配列からなる領域メ
モリを用意し、Xmin からXmaxまでをM等分に、ま
たYmin からYmax までをN等分にサンプリング
し、投影データK1 、K2 に含まれる各要素の輝度値を
この領域メモリ上の対応するアドレスに書き込む。領域
メモリの各要素(i、j)はK1 の輝度値、K2 の輝度
値及びフラグ値( 0か1) を蓄積する3つセルから構成
されている。K1 に含まれる各要素のx座標値Q1ix 及
びy座標値Q1iy が
With respect to the projected coordinate values included in K1 and K2, the maximum value Xmax and the minimum value Xmin of the x coordinate value are obtained. Similarly, the maximum y-coordinate value Ymax and the minimum y-coordinate value Ymin
Ask for. Then, an area memory consisting of an M × N two-dimensional array is prepared, Xmin to Xmax are sampled into M equal parts, and Ymin to Ymax are sampled into N equal parts, and each element included in the projection data K1 and K2 is sampled. The brightness value of is written to the corresponding address on this area memory. Each element (i, j) of the area memory is composed of three cells which store the brightness value of K1, the brightness value of K2 and the flag value (0 or 1). The x coordinate value Q1ix and the y coordinate value Q1iy of each element included in K1 are

【0032】[0032]

【数5】 の範囲内にある場合、領域メモリ上の(i、j)が持つ
K1 の輝度値を収めるセルにその要素の輝度値を書き込
む。同様にK2 に含まれる各要素のx座標値Q2ix 及び
y座標値Q2iy が
[Equation 5] If it is within the range, the brightness value of the element is written in the cell that stores the brightness value of K1 of (i, j) on the area memory. Similarly, the x coordinate value Q2ix and y coordinate value Q2iy of each element included in K2 are

【0033】[0033]

【数6】 の範囲内にある場合、領域メモリ上の(i、j)が持つ
K2 の輝度値を収めるセルにその要素の輝度値を書き込
む。
[Equation 6] If it is within the range, the brightness value of the element is written in the cell that stores the brightness value of K2 of (i, j) on the area memory.

【0034】K1 、K2 の全要素を領域メモリに書き込
んだ後、領域メモリを走査して、K1 またはK2 の輝度
値を蓄積するセルにデータが書き込まれていない要素
(i、j)を見つける。そして、それらの要素を周囲の
データを用いて線形補間する。この際、各(i、j)に
おいて、K1 に対するものはK1 同士、K2 に対するも
のはK2 同士で補間を行なう。
After writing all the elements of K1 and K2 to the area memory, the area memory is scanned to find an element (i, j) in which data is not written in the cell storing the brightness value of K1 or K2. Then, those elements are linearly interpolated using the surrounding data. At this time, in each (i, j), interpolation for K1 is performed between K1 and that for K2 is performed between K2.

【0035】次いで、領域メモリの各要素(i、j)に
おいて、セルに蓄積されているK1の輝度値とK2 の輝
度値の差の絶対値Dif(i,j) を求める。そしてDif(i,
j) が予め設定しておいた閾値より大きい場合、フラグ
を蓄積するセルに1を格納する。また、設定しておいた
閾値より小さい場合には、フラグを蓄積するセルに0を
格納する。図6に示すように、設定した平面上の点S’
はTVカメラからの投影点が同じであるため、Dif(i,
j) が小さくなり、フラグ値は0となる。これに対し、
歩行者上の点SはTVカメラからの投影位置がそれぞれ
異なるため、TVカメラ1からの投影点Vi 及びTVカ
メラ2からの投影点Ui では、Dイf(i,j) が大きくな
り、フラグ値は1となる。
Then, in each element (i, j) of the area memory, the absolute value Dif (i, j) of the difference between the brightness value of K1 and the brightness value of K2 stored in the cell is calculated. And Dif (i,
If j) is larger than the preset threshold value, 1 is stored in the cell that stores the flag. If it is smaller than the set threshold value, 0 is stored in the cell that stores the flag. As shown in FIG. 6, a point S ′ on the set plane
Since the projection points from the TV camera are the same, Dif (i,
j) becomes smaller and the flag value becomes 0. In contrast,
Since the point S on the pedestrian has different projection positions from the TV camera, D f (i, j) becomes large at the projection point Vi from the TV camera 1 and the projection point Ui from the TV camera 2, and the flag The value is 1.

【0036】このように、歩行者が存在する場合には、
カメラの位置に対し、反対方向に倒れ込んだ形でフラグ
値1の領域が広がる。領域メモリ上でのこの形状は、通
常、図6の上から見た図のようなクサビ型形状を示す。
領域メモリの全要素(i、j)に対し、フラグを設定し
た後、抽出部j(1≦j≦m)に領域メモリを出力す
る。K1 の輝度値とK2 の輝度値の差の絶対値を、K1
の輝度値とK2 の輝度値の平均値で正規化した値を、差
の絶対値の代わりに用いても良い。また、フラグに格納
する値は0、1に限らず、状態を区別できる値なら何を
用いても構わない。
Thus, when a pedestrian is present,
An area having a flag value of 1 spreads in a state of falling in the opposite direction with respect to the position of the camera. This shape on the area memory usually shows a wedge-shaped shape as shown in the top view of FIG.
After setting flags for all elements (i, j) of the area memory, the area memory is output to the extraction unit j (1 ≦ j ≦ m). The absolute value of the difference between the brightness value of K1 and the brightness value of K2 is K1
A value normalized by the average value of the luminance value of K2 and the luminance value of K2 may be used instead of the absolute value of the difference. The value stored in the flag is not limited to 0 and 1, and any value that can distinguish the states may be used.

【0037】抽出部j(1≦j≦m)は比較部j(1≦
j≦m)より入力される領域メモリを走査し、フラグ値
1の2つのクサビ型形状が一定方向にそれぞれ伸びてい
る要素(ib 、jb )を求める。そして、この位置を歩
行者の存在位置として統合部へ出力する。クサビ型形状
が領域メモリ上で伸びて行く方向は、基準としている座
標系Cxyz において、TVカメラの位置から領域メモリ
の各要素(i、j)が表している位置へ伸ばしたベクト
ルの方向と同じである。
The extraction part j (1 ≦ j ≦ m) is compared with the comparison part j (1 ≦ j ≦ m).
The area memory input from (j ≦ m) is scanned to find the elements (ib, jb) in which the two wedge-shaped shapes having the flag value 1 respectively extend in the fixed direction. Then, this position is output to the integration unit as the pedestrian existing position. The direction in which the wedge shape extends on the area memory is the same as the direction of the vector extended from the position of the TV camera to the position represented by each element (i, j) of the area memory in the reference coordinate system Cxyz. Is.

【0038】例えば、図7において、領域メモリ(i、
j)がCxyz における点Pの位置を表しており、この点
Pに歩行者が存在する場合には、TVカメラ1に対して
のクサビ型形状領域はd1 方向に、またTVカメラ2に
対してのクサビ型形状領域はd2 方向に伸びる。Cxyz
におけるTVカメラの位置と領域メモリの各要素(i、
j)の位置は既知であるため、各(i、j)においてク
サビ型形状領域が伸びて行く方向をそれぞれ求め、クサ
ビ型形状領域をその方向にそれぞれ伸ばした形の照合マ
スクを生成する。
For example, in FIG. 7, the area memory (i,
j) represents the position of the point P at Cxyz, and when a pedestrian is present at this point P, the wedge-shaped area for the TV camera 1 is in the direction d1 and for the TV camera 2. The wedge-shaped shaped region of is extended in the d2 direction. Cxyz
The position of the TV camera and each element (i,
Since the position of j) is already known, the direction in which the wedge-shaped shape region extends is obtained for each (i, j), and the matching mask is formed by extending the wedge-shaped shape region in that direction.

【0039】図7に示す方向にクサビ型形状領域が伸び
る場合には、図8に示すような照合マスクを生成し、そ
の中心を要素(i、j)に当てはめる。もし、領域メモ
リの要素(i、j)部分に歩行者が存在するならば、マ
スクの斜線部分にフラグ値1の要素が多く現われる。こ
のため、マスクの斜線部分に対応するフラグ値の和を求
め、この和が一定値以上の場合に、要素(i、j)に対
応するCxyz における位置を歩行者の存在位置とする。
When the wedge-shaped shaped region extends in the direction shown in FIG. 7, a matching mask as shown in FIG. 8 is generated and its center is applied to the element (i, j). If a pedestrian exists in the element (i, j) portion of the area memory, many elements having the flag value 1 appear in the shaded portion of the mask. Therefore, the sum of the flag values corresponding to the shaded portions of the mask is obtained, and when this sum is greater than or equal to a certain value, the position in Cxyz corresponding to the element (i, j) is set as the pedestrian's existing position.

【0040】統合部は各抽出部j(1≦j≦m)より得
られた歩行者の位置情報を統合し、座標系Cxyz 中の全
監視領域における歩行者の位置、数、移動方向、及び移
動速度をそれぞれ求める。各抽出部jからは、座標系C
xyz を基準とした歩行者の位置が出力されてくるため、
歩行者の位置及び数は直接求まる。また、前回の計測位
置に最も近い歩行者同士を対応付けることにより、歩行
者の移動方向及び移動速度を求める。
The integration unit integrates the pedestrian position information obtained from each extraction unit j (1 ≦ j ≦ m), and determines the position, number, moving direction, and direction of the pedestrian in all monitoring areas in the coordinate system Cxyz. Find the moving speed respectively. From each extraction unit j, the coordinate system C
Since the position of the pedestrian based on xyz is output,
The position and number of pedestrians can be obtained directly. In addition, the moving direction and the moving speed of the pedestrian are obtained by associating the pedestrians closest to the previous measurement position.

【0041】[0041]

【発明の効果】以上詳述したように、本発明によれば、
複数のTVカメラを用い、設定した平面に対して高さが
異なる対象物を検出し歩行者の位置を求めるため、歩行
者の影やヘッドライト等により生じる路面上の明るさ変
動領域を誤って検出することがない。また、背景画像等
のデータを用いていないため、日照変化に伴う背景デー
タの更新といった困難な問題が存在しない。さらに、動
いている歩行者ばかりでなく、静止している歩行者も検
出することができ、かつ中心となる処理が画像の投影と
差分であるため、計算コストが少ない。
As described in detail above, according to the present invention,
Since multiple TV cameras are used to detect objects of different heights with respect to a set plane and determine the position of the pedestrian, the brightness fluctuation area on the road surface caused by the shadow of the pedestrian, headlights, etc. is erroneously detected. Never detected. Further, since the data such as the background image is not used, there is no difficult problem of updating the background data due to the change of the sunshine. Furthermore, not only moving pedestrians but also stationary pedestrians can be detected, and since the main processing is the projection and difference of the image, the calculation cost is low.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の基本構成を説明する図。FIG. 1 is a diagram illustrating a basic configuration of the present invention.

【図2】画像の投影手法を説明する図。FIG. 2 is a diagram illustrating an image projection method.

【図3】監視領域及びカメラ配置を説明する図。FIG. 3 is a diagram illustrating a monitoring area and a camera arrangement.

【図4】TVカメラの視野範囲を説明する図。FIG. 4 is a diagram illustrating a visual field range of a TV camera.

【図5】各TVカメラの組が担当する監視領域を説明す
る図。
FIG. 5 is a diagram illustrating a monitoring area in charge of a set of TV cameras.

【図6】投影位置を説明する図。FIG. 6 is a diagram illustrating a projection position.

【図7】クサビ型形状領域の方向を説明する図。FIG. 7 is a diagram illustrating a direction of a wedge-shaped shaped area.

【図8】照合マスクを説明する図。FIG. 8 is a diagram illustrating a matching mask.

【図9】本発明の処理フローを説明する図。FIG. 9 is a diagram illustrating a processing flow of the present invention.

【符号の説明】[Explanation of symbols]

1:TVカメラi(1≦i≦n) 2:画像メモリi(1≦i≦n) 3:画像投影部i(1≦i≦n) 4:選択部 5:比較部j(1≦j≦m) 6:抽出部j(1≦j≦m) 7:統合部 1: TV camera i (1 ≦ i ≦ n) 2: Image memory i (1 ≦ i ≦ n) 3: Image projection unit i (1 ≦ i ≦ n) 4: Selector 5: Comparison part j (1 ≦ j ≦ m) 6: Extraction part j (1 ≦ j ≦ m) 7: Integration Department

───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 平9−81738(JP,A) 特開 平5−143156(JP,A) 小野田一則ほか,平面投影ステレオ法 を用いた道路領域検出,情報処理学会研 究報告(95−CV−93),日本,情報処 理学会,1995年 3月23日,Vol. 95,No.34(CV93−7),61−68 (58)調査した分野(Int.Cl.7,DB名) G06T 1/00 315 G06T 1/00 330 G01C 3/06 G05D 1/00 G06T 7/20 JICSTファイル(JOIS)─────────────────────────────────────────────────── ─── Continuation of the front page (56) References JP-A-9-81738 (JP, A) JP-A-5-143156 (JP, A) Kazunori Onoda et al. Road area detection and information using planar projection stereo method IPSJ Research Report (95-CV-93), Japan, Information Processing Society, March 23, 1995, Vol. 95, No. 34 (CV93-7), 61-68 (58) Fields investigated (Int.Cl. 7 , DB name) G06T 1/00 315 G06T 1/00 330 G01C 3/06 G05D 1/00 G06T 7/20 JISST file (JOIS)

Claims (2)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】観測方向が互いに略直交しまたは略向き合
い、観測視野が重複するように配置された少なくとも2
つ以上の画像入力手段と、画像入力手段で同時刻に取得
された複数の画像を3次元空間中で設定した平面に投影
する手段と、投影された複数の画像データを比較して
応する画素の輝度値の差がしきい値よりも大きい領域を
前記設定平面に対し高さが異なる領域として抽出する手
段と、前記画像入力手段の位置と前記設定平面上の特定
の位置との相対関係から定まる点を中心とする複数のク
サビ型形状領域を含むパターンからなる照合マスクを用
いて、前記抽出された領域から監視対象の存在位置を抽
出する手段とからなる画像監視装置。
1. Observation directions are substantially orthogonal to each other or face each other.
At least 2 with overlapping observation fields
Acquired at the same time with one or more image input means and image input means
Means for projecting a plurality of images in a plane which is set in a three-dimensional space, pair by comparing the plurality of image data projected
Means for extracting an area in which the difference in the luminance value of the corresponding pixel is larger than a threshold value as an area having a different height from the setting plane, and the position of the image input means and the specification on the setting plane.
Multiple points centered on the point determined by the relative relationship with the position of
Uses a matching mask consisting of a pattern that contains a rust-shaped area
There, the image monitoring apparatus and means for extracting the location of the monitoring target from the extracted region.
【請求項2】観測方向が互いに略直交しまたは略向き合
い、観測視野が重複するように配置された少なくとも2
つ以上の画像入力手段で同時刻に取得された複数の画像
を3次元空間中で設定した平面に投影し、その投影され
た複数の画像データを比較して対応する画素の輝度値の
差がしきい値よりも大きい領域を前記設定平面に対し高
さが異なる領域として抽出し、前記画像入力手段の位置
と前記設定平面上の特定の位置との相対関係から定まる
点を中心とする複数のクサビ型形状領域を含むパターン
からなる照合マスクを用いて、前記抽出された領域から
監視対象の存在位置を抽出することを特徴とする画像監
視方法。
2. The observation directions are substantially orthogonal to each other or face each other.
At least 2 with overlapping observation fields
A plurality of images acquired at the same time by one or more image input means are projected on a plane set in a three-dimensional space, and the plurality of projected image data are compared to determine the luminance value of the corresponding pixel.
A region having a difference larger than a threshold value is extracted as a region having a different height with respect to the set plane , and the position of the image input means is extracted.
And the specific position on the setting plane
A pattern containing multiple wedge-shaped shape regions centered on a point
An image monitoring method is characterized in that the existing position of the monitoring target is extracted from the extracted area using a matching mask consisting of .
JP26360297A 1997-09-29 1997-09-29 Image monitoring apparatus and image monitoring method Expired - Fee Related JP3480894B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP26360297A JP3480894B2 (en) 1997-09-29 1997-09-29 Image monitoring apparatus and image monitoring method
US09/161,428 US6205242B1 (en) 1997-09-29 1998-09-24 Image monitor apparatus and a method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP26360297A JP3480894B2 (en) 1997-09-29 1997-09-29 Image monitoring apparatus and image monitoring method

Publications (2)

Publication Number Publication Date
JPH11102440A JPH11102440A (en) 1999-04-13
JP3480894B2 true JP3480894B2 (en) 2003-12-22

Family

ID=17391830

Family Applications (1)

Application Number Title Priority Date Filing Date
JP26360297A Expired - Fee Related JP3480894B2 (en) 1997-09-29 1997-09-29 Image monitoring apparatus and image monitoring method

Country Status (1)

Country Link
JP (1) JP3480894B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6963661B1 (en) 1999-09-09 2005-11-08 Kabushiki Kaisha Toshiba Obstacle detection system and method therefor
FR2802653B1 (en) * 1999-12-21 2003-01-24 Poseidon METHOD AND SYSTEM FOR DETECTING AN OBJECT IN FRONT OF A BACKGROUND
US7619626B2 (en) 2003-03-01 2009-11-17 The Boeing Company Mapping images from one or more sources into an image for display
US7148861B2 (en) 2003-03-01 2006-12-12 The Boeing Company Systems and methods for providing enhanced vision imaging with decreased latency

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
小野田一則ほか,平面投影ステレオ法を用いた道路領域検出,情報処理学会研究報告(95−CV−93),日本,情報処理学会,1995年 3月23日,Vol.95,No.34(CV93−7),61−68

Also Published As

Publication number Publication date
JPH11102440A (en) 1999-04-13

Similar Documents

Publication Publication Date Title
CN111179358B (en) Calibration method, device, equipment and storage medium
US6205242B1 (en) Image monitor apparatus and a method
JP3054681B2 (en) Image processing method
CN111462503B (en) Vehicle speed measuring method and device and computer readable storage medium
CN112798811B (en) Speed measurement method, device and equipment
JPH07334679A (en) Area extracting device
CN102957895A (en) Satellite map based global mosaic video monitoring display method
JP4193342B2 (en) 3D data generator
JP2927916B2 (en) Distance detection device
JPH06167564A (en) Position measuring system and device using fish eye lens
JP2003061075A (en) Object-tracking device, object-tracking method and intruder monitor system
JP3480894B2 (en) Image monitoring apparatus and image monitoring method
JP2001338280A (en) Three-dimensional space information input device
US8102516B2 (en) Test method for compound-eye distance measuring apparatus, test apparatus, and chart used for the same
JP2000146546A (en) Method and apparatus for forming three-dimensional model
CN111028264B (en) Rotation robust three-dimensional object detection optimization method and device
JP2961140B2 (en) Image processing method
CN113674361A (en) Vehicle-mounted all-round-looking calibration implementation method and system
JP2000028355A (en) Three-dimensional image processing device
JPH11223516A (en) Three dimensional image pickup device
JP3519296B2 (en) Automatic measurement method and automatic measurement device for thermal image
JPH11223526A (en) Apparatus for setting image point and photogrammetry method using the image point-setting apparatus
JPH0534117A (en) Image processing method
Goss et al. Three-dimensional visualization environment for multisensor data analysis, interpretation, and model-based object recognition
JPS6361108A (en) Apparatus for confirming three-dimensional object

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081010

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081010

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091010

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101010

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111010

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111010

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121010

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131010

Year of fee payment: 10

LAPS Cancellation because of no payment of annual fees