JPH07244714A - Object detection device - Google Patents
Object detection deviceInfo
- Publication number
- JPH07244714A JPH07244714A JP6059895A JP5989594A JPH07244714A JP H07244714 A JPH07244714 A JP H07244714A JP 6059895 A JP6059895 A JP 6059895A JP 5989594 A JP5989594 A JP 5989594A JP H07244714 A JPH07244714 A JP H07244714A
- Authority
- JP
- Japan
- Prior art keywords
- group
- attribute
- data
- area
- detecting
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Closed-Circuit Television Systems (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Geophysics And Detection Of Objects (AREA)
Abstract
Description
【0001】[0001]
【産業上の利用分野】この発明は、特定の監視領域内に
おいて所定の物体を検出するための物体検出装置に関連
し、特にこの発明は、人間などの移動物体が監視領域内
を通過する経路を追跡する機能や、特定位置の通過を検
出してその通過回数を計数する機能を有する物体検出装
置に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an object detecting device for detecting a predetermined object within a specific surveillance area, and more particularly, the present invention relates to a route along which a moving object such as a human passes through the surveillance area. The present invention relates to an object detection device that has a function of tracking an object and a function of detecting passage of a specific position and counting the number of passages.
【0002】[0002]
【従来の技術】従来、特定の監視領域内の所定の物体の
移動経路を検出するためには、領域の上方にテレビカメ
ラを設置し、カメラから得られる画像をリアルタイムで
画像処理して目的とする物体を検出する方法がとられて
いる。2. Description of the Related Art Conventionally, in order to detect a moving path of a predetermined object in a specific surveillance area, a television camera is installed above the area and an image obtained from the camera is processed in real time to achieve a purpose. A method of detecting a moving object is used.
【0003】また、ゲートやドアなどを通過する人間や
物体を検出して入出場を計数するために、進行方向に沿
って複数個の光電スイッチやタッチスイッチを配備し
て、各スイッチの検出信号の推移に応じて移動経路を検
出し、この移動経路がゲートやドアの位置を通過した回
数を計数する方法が実施されている。Further, in order to detect a person or an object passing through a gate or a door and to count entrances and exits, a plurality of photoelectric switches or touch switches are provided along the traveling direction, and a detection signal of each switch is provided. The method of detecting the movement route according to the transition of the above and counting the number of times that the movement route has passed the position of the gate or the door is implemented.
【0004】[0004]
【発明が解決しようとする課題】第1の方法では、カメ
ラや画像処理装置が高額であるためコスト高となり、ま
たカメラを光学的に安定した環境に設置しなければ正確
なデータが得られないため、実用的でないという問題が
ある。In the first method, the cost is high because the camera and the image processing device are expensive, and accurate data cannot be obtained unless the camera is installed in an optically stable environment. Therefore, there is a problem that it is not practical.
【0005】また第2の方法では、各スイッチは進行方
向に沿って配備されるので、例えば、一定間隔をおいて
運び込まれる荷物などの検出や計数については充分な精
度が得られる。しかしながら、この方法では物体の立体
的な形状を認識することは不可能であるため、検出の対
象が人間や動物などの場合、その動作や手荷物などを誤
検出してしまい、データの精度が著しく低下する。Further, in the second method, since the switches are arranged along the traveling direction, sufficient accuracy can be obtained for detection and counting of, for example, luggage carried in at a constant interval. However, since it is impossible to recognize the three-dimensional shape of an object with this method, when the detection target is a human being or an animal, the motion or baggage is erroneously detected, and the accuracy of the data is remarkably high. descend.
【0006】この発明は上記問題に着目してなされたも
ので、監視領域内で複数個の3次元データを測定し、こ
れらの3次元データをグループ分けして特定の属性を有
するグループを抽出することにより、検出精度が高く、
実用性に優れた物体検出装置を提供することを目的とす
る。The present invention has been made in view of the above problem, and measures a plurality of three-dimensional data in a monitoring area, divides these three-dimensional data into groups, and extracts a group having a specific attribute. Therefore, the detection accuracy is high,
An object is to provide an object detection device having excellent practicability.
【0007】[0007]
【課題を解決するための手段】この発明は特定の監視領
域内において所定の物体の有無を検出するための物体検
出装置であって、前記監視領域内の複数個の3次元デー
タを測定するデータ測定手段と、前記データ測定手段に
より測定された各3次元データを複数個のグループに分
類するグループ化手段と、前記グループ化手段により分
類された各グループについての特徴量を算出する特徴量
算出手段と、前記特徴量算出手段により算出された特徴
量に基づき各グループの属性を判定する属性判定手段
と、前記属性判定手段の判定結果に基づき前記監視領域
内に前記所定の物体に該当する属性を有するグループの
有無を検出する検出手段とを備えた構成のものである。SUMMARY OF THE INVENTION The present invention is an object detecting device for detecting the presence or absence of a predetermined object in a specific monitoring area, which is data for measuring a plurality of three-dimensional data in the monitoring area. Measuring means, grouping means for classifying each three-dimensional data measured by the data measuring means into a plurality of groups, and characteristic amount calculating means for calculating a characteristic amount for each group classified by the grouping means And an attribute determination unit that determines the attribute of each group based on the characteristic amount calculated by the characteristic amount calculation unit, and an attribute that corresponds to the predetermined object in the monitoring area based on the determination result of the attribute determination unit. And a detection means for detecting the presence / absence of a group that the user has.
【0008】請求項2の発明では、前記データ測定手段
は、前記監視領域内の上面全域に均等に配置され垂直方
向の距離を測定する複数個の測距センサを含んでいる。According to a second aspect of the present invention, the data measuring means includes a plurality of distance measuring sensors that are evenly arranged over the entire upper surface of the monitoring area and measure the distance in the vertical direction.
【0009】請求項3の発明では、前記検出手段は、人
間に該当する属性を有するグループの有無を検出してい
る。In the invention of claim 3, the detecting means detects the presence or absence of a group having an attribute corresponding to a human.
【0010】前記属性判定手段は、請求項4の発明で
は、各グループの特徴量をニューラルネットワークプロ
グラムにより学習された参照ベクトルと比較することに
より各グループの属性を判定する手段であり、また請求
項5の発明では、各グループの特徴量を所定の判別関数
式に代入して各グループが前記所定の物体に該当する属
性を有するか否かを判定する手段である。また請求項6
の発明では、前記属性判定手段は、各グループの特徴量
を用いたファジイ推論演算を実行して各グループの属性
を判定する手段である。In the invention of claim 4, the attribute determining means is means for determining the attribute of each group by comparing the feature amount of each group with a reference vector learned by a neural network program. According to the fifth aspect of the invention, the feature amount of each group is substituted into a predetermined discriminant function formula to determine whether each group has an attribute corresponding to the predetermined object. Claim 6
In the invention, the attribute determining means is means for determining the attribute of each group by executing a fuzzy inference operation using the feature amount of each group.
【0011】請求項7の発明は特定の監視領域内におい
て所定の物体の移動経路を検出するための物体検出装置
であって、前記監視領域内の複数個の3次元データを測
定するデータ測定手段と、前記データ測定手段により測
定された各3次元データを複数個のグループに分類する
グループ化手段と、前記グループ化手段により分類され
た各グループについての特徴量を算出する特徴量算出手
段と、前記特徴量算出手段により算出された特徴量に基
づき各グループの属性を判定する属性判定手段と、前記
属性判定手段の判定結果に基づき前記監視領域内に前記
所定の物体に該当する属性を有するグループの位置を検
出する位置検出手段と、前記各手段を所定の時間毎に繰
り返し動作させて前記所定の物体に該当する属性を有す
るグループの位置の時間的変化を検出し、この位置の変
化を前記所定の物体の移動経路として特定する経路特定
手段とを備えた構成のものである。According to a seventh aspect of the present invention, there is provided an object detecting device for detecting a movement path of a predetermined object within a specific monitoring area, wherein the data measuring means measures a plurality of three-dimensional data within the monitoring area. Grouping means for classifying each three-dimensional data measured by the data measuring means into a plurality of groups, and feature amount calculating means for calculating a feature amount for each group classified by the grouping means, An attribute determining unit that determines the attribute of each group based on the characteristic amount calculated by the characteristic amount calculating unit, and a group that has an attribute corresponding to the predetermined object in the monitoring area based on the determination result of the attribute determining unit Position detecting means for detecting the position of the object, and the position of a group having an attribute corresponding to the predetermined object by repeatedly operating the respective means at predetermined time intervals. Detecting a temporal change, but this change in the position of the configuration of a route specifying means for specifying a movement path of said predetermined object.
【0012】請求項8の発明は特定の監視領域内におい
て所定の物体が監視領域内の特定位置を通過することを
検出するための物体検出装置である。この発明では、請
求項7の発明の構成に加えて、前記経路特定手段により
特定された移動経路が前記監視領域内の特定位置を通過
したことを検出する特定位置通過検出手段が具備されて
いる。An eighth aspect of the present invention is an object detecting device for detecting that a predetermined object passes through a specific position within the specific monitoring area. According to the present invention, in addition to the configuration of the invention of claim 7, there is provided a specific position passage detecting means for detecting that the movement path specified by the path specifying means has passed a specific position in the monitoring area. .
【0013】[0013]
【作用】データ測定手段により監視領域内の複数個の3
次元データを測定した後、グループ化手段によりこれら
のデータを複数個のグループに分類する。特徴量算出手
段は各グループについての特徴量を算出し、属性判定手
段は得られた特徴量からグループの属性を判定する。検
出手段は、各グループの中から前記所定の物体の属性を
有するグループを検出対象として検出する。Operation: A plurality of three data in the monitoring area are provided by the data measuring means.
After measuring the dimensional data, the grouping means classifies these data into a plurality of groups. The feature amount calculating means calculates the feature amount for each group, and the attribute determining means determines the attribute of the group from the obtained feature amount. The detection means detects a group having the attribute of the predetermined object as a detection target from each group.
【0014】請求項7の発明でも同様に、監視領域内の
複数個の3次元データがグループ化されて各グループに
ついての特徴量が算出された後、得られた特徴量よりグ
ループの属性が判定される。位置検出手段は、これら各
グループの中から所定の物体の属性を有するグループの
位置を検出する。経路特定手段は、上記の動作を所定の
時間毎に繰り返し実行して、所定の物体の属性を有する
グループについての位置の変化を検出し、これを検出対
象の移動経路として特定する。Similarly, in the invention of claim 7, after a plurality of three-dimensional data in the monitoring area are grouped to calculate the feature amount for each group, the attribute of the group is determined from the obtained feature amount. To be done. The position detecting means detects the position of a group having a predetermined object attribute from each of these groups. The route specifying unit repeatedly executes the above-described operation at predetermined time intervals, detects a change in the position of a group having a predetermined object attribute, and specifies this as a moving path to be detected.
【0015】さらに請求項8の発明では、上記の手順に
よって検出された移動経路が監視領域内の特定位置を通
過したことが特定位置検出手段により検出される。Further, in the invention of claim 8, the specific position detecting means detects that the movement route detected by the above procedure has passed a specific position in the monitoring area.
【0016】請求項2の発明では、監視領域の上面全域
に測距センサを均等配置しているので、各測距センサの
取付位置および各センサの出力する距離データにより、
監視領域全域の3次元データが求められる。According to the second aspect of the present invention, since the distance measuring sensors are evenly arranged over the entire upper surface of the monitoring area, the distance measuring sensor outputs the distance data output from the mounting positions of the respective distance measuring sensors.
Three-dimensional data for the entire monitoring area is required.
【0017】請求項3の発明では、特に人間に該当する
属性を有するグループが、手荷物などの物体や手足の動
作などと切り離して検出される。According to the third aspect of the present invention, a group having an attribute that particularly corresponds to a human being is detected separately from an object such as baggage or a motion of a limb.
【0018】請求項4,5,6の発明では、それぞれニ
ューラルネットワーク,判別関数,ファジイ推論を用い
ることにより、各グループの属性判定の精度が高められ
る。In the inventions of claims 4, 5, and 6, the accuracy of attribute determination of each group is improved by using the neural network, the discriminant function, and the fuzzy inference, respectively.
【0019】[0019]
【実施例】図1(1)〜(3)は、この発明の一実施例
にかかる入退場者検出装置が適用される入退場用のゲー
ト1であって、図1(1)にゲートの正面図を、図2
(2)に平面図を、図1(3)にゲートの縦方向の断面
図を、それぞれ示してある。1 (1) to 1 (3) show an entrance / exit gate 1 to which an entrance / exit detector according to an embodiment of the present invention is applied. The front view is shown in FIG.
A plan view is shown in (2), and a vertical sectional view of the gate is shown in FIG. 1 (3).
【0020】この実施例の入退場者検出装置は、ゲート
1を通過して入場または退場する人間を検出して入退場
者を計数するもので、ゲート1の天井面2には、図2に
示すごとく、横方向にI個,縦方向にJ個(合計K個と
する)の測距センサSijが間隔d0 を置いて均等に配置
されている。The entrance / exit detector according to this embodiment detects a person who enters or exits through the gate 1 and counts the number of entrance / exit. The ceiling surface 2 of the gate 1 is shown in FIG. As shown in the drawing, I distance measuring sensors S ij are arranged in the horizontal direction and J pieces in the vertical direction (total of K pieces), which are evenly arranged at intervals d 0 .
【0021】前記測距センサSijは、マイクロチップ上
に一対のフォトセンサや演算回路などを備えた構成のも
ので、天井面2の水平方向中央部には、これらフォトセ
ンサに検出させる反射パターンを生成するための投光パ
ターン生成部4が配置されている。この投光パターン生
成部4は、図3(1)に示すごとく、LEDや豆電球な
どの補助光源5,一対のシリンドリカルレンズ6a,6
b,可視光カットフィルタ7,縞模様の帯フィルム8か
ら成るもので、複数の補助光源5を天井面2の中央部横
方向に等間隔に(ここでは測距センサと同様の間隔d0
ごとに)配置し、前記シリンドリカルレンズ6a,6
b,可視孔カットフィルタ7,帯フィルム8を介するこ
とにより、図3(2)に示すような縞模様の投光パター
ンが生成される。The distance measuring sensor S ij has a structure in which a pair of photosensors and arithmetic circuits are provided on a microchip, and a reflection pattern to be detected by these photosensors is provided in the horizontal central portion of the ceiling surface 2. The light projection pattern generation unit 4 for generating the light is arranged. As shown in FIG. 3A, the light projection pattern generation unit 4 includes an auxiliary light source 5 such as an LED or a miniature bulb 5 and a pair of cylindrical lenses 6a and 6a.
b, a visible light cut filter 7, and a striped band film 8. The plurality of auxiliary light sources 5 are arranged at equal intervals in the lateral direction of the central portion of the ceiling surface 2 (here, the distance d 0 is the same as that of the distance measuring sensor).
For each of the cylindrical lenses 6a, 6
By passing through b, the visible hole cut filter 7 and the band film 8, a striped light projection pattern as shown in FIG. 3B is generated.
【0022】この投光パターンは、図1(3)に示す如
く、ゲート2の真下の床面9全体に照射され、床面9、
または床面9上の物体や人間などにより反射されて、縞
模様の反射パターンが生成される。As shown in FIG. 1C, this projection pattern is applied to the entire floor surface 9 directly below the gate 2, and the floor surface 9,
Alternatively, it is reflected by an object or a person on the floor surface 9 to generate a striped reflection pattern.
【0023】各測距センサSijは、前記した一対のフォ
トセンサの並ぶ方向が帯フィルム8の縞パターンに直交
するように設置されており、これにより各フォトセンサ
は縦縞の反射パターンを検出する。各フォトセンサの検
出パターンにはフォトセンサの位置の相違に基づく位相
差が生じており、測距センサの演算部は、この位相差と
フォトセンサ間の距離とを用いて所定の演算を実行し、
測距センサの取付位置から反射面までの距離を算出す
る。Each distance measuring sensor S ij is installed so that the direction in which the above-mentioned pair of photosensors are arranged is orthogonal to the striped pattern of the strip film 8, whereby each photosensor detects a vertical striped reflection pattern. . There is a phase difference in the detection pattern of each photo sensor due to the difference in the position of the photo sensor, and the calculation unit of the distance measuring sensor executes a predetermined calculation using this phase difference and the distance between the photo sensors. ,
The distance from the mounting position of the distance measuring sensor to the reflecting surface is calculated.
【0024】なお、図1中、3は入退場用の通路を、矢
印aは入場の方向を、矢印bの方向は退場の方向を、そ
れぞれ示す。In FIG. 1, numeral 3 indicates an entrance / exit passage, arrow a indicates the direction of entry, and arrow b indicates the direction of exit.
【0025】上記の構成により、ゲート1の真下の空間
は、ゲートを通過する人間を検出するための監視領域と
して機能することになる。図4は、この監視領域40を
平面的に表す。この監視領域内は、横方向にx軸、縦方
向にy軸、高さ方向にz軸をそれぞれ設定して、前記測
距センサSijの取付位置と各センサの計測値に基づくK
個の3次元データTRを特定している。入退場検出装置
はこれらの3次元データTRを用いて後述する処理を行
うことにより、ゲート1を通過する人間を検出してその
数を計数する。なお、図中LNは、後述する計数処理で
用いるために監視領域40内に設定されたチェックライ
ンである。With the above structure, the space directly below the gate 1 functions as a monitoring area for detecting a person passing through the gate. FIG. 4 shows the monitoring area 40 in a plan view. Within this monitoring area, the x-axis is set in the horizontal direction, the y-axis is set in the vertical direction, and the z-axis is set in the height direction, and K based on the mounting position of the distance measuring sensor S ij and the measured value of each sensor is set.
The three-dimensional data TR are specified. The entrance / exit detection device detects a person passing through the gate 1 and counts the number thereof by performing a process described later using these three-dimensional data TR. In addition, LN in the drawing is a check line set in the monitoring area 40 for use in the counting process described later.
【0026】図5は、入退場検出装置の回路構成を示す
もので、前記した測距センサSijのほかに、距離算出部
10,環境設定部11,環境記憶部12,比較処理部1
3,分類処理部14,特徴量算出部15,属性判定部1
6,抽出グループ記憶部17,経路特定部18,移動情
報記憶部19,入退場計数部20,表示部21,制御処
理部22などをその構成として含んでいる。FIG. 5 shows a circuit configuration of the entrance / exit detection device. In addition to the distance measuring sensor S ij described above, a distance calculation unit 10, an environment setting unit 11, an environment storage unit 12, a comparison processing unit 1 are provided.
3, classification processing unit 14, feature amount calculation unit 15, attribute determination unit 1
6, it includes an extraction group storage unit 17, a route identification unit 18, a movement information storage unit 19, an entrance / exit counting unit 20, a display unit 21, a control processing unit 22, and the like as its configuration.
【0027】前記各測距センサSijで得られた距離デー
タは、距離算出部10に与えられ、床面から物体までの
高さデータに変換される。図6は、この高さデータと測
距センサSijの測定データとの関係を示す。図中、LE
Nijは測距センサSijの取付け高さ、すなわち床面から
測距センサSijまでの距離を、SENijは測距センサS
ijにより測定された測定データ、すなわち測距センサか
ら対象物(図示例では人間)までの距離を示す。The distance data obtained by each of the distance measuring sensors S ij is supplied to the distance calculation unit 10 and converted into height data from the floor surface to the object. FIG. 6 shows the relationship between the height data and the measurement data of the distance measuring sensor S ij . LE in the figure
N ij is the mounting height of the distance measuring sensor S ij , that is, the distance from the floor surface to the distance measuring sensor S ij , and SEN ij is the distance measuring sensor S ij.
The measurement data measured by ij , that is, the distance from the distance measuring sensor to the object (human in the illustrated example) is shown.
【0028】いま、対象物の高さをHijとすると、この
高さHijは、つぎの(1)式で求められる。Assuming that the height of the object is H ij , this height H ij can be calculated by the following equation (1).
【0029】[0029]
【数1】 [Equation 1]
【0030】図5に戻って、距離算出部10は、所定の
時間間隔(例えば10ms)ごとに、各測距センサSij
から測定データSENijを読み込んで上記(1)式を実
行し、対象物の高さHijを算出する。この高さHijは、
初期設定時には環境設定部11に、稼動状態では比較処
理部13に、それぞれ出力される。Returning to FIG. 5, the distance calculating section 10 determines the distance measuring sensors S ij at predetermined time intervals (for example, 10 ms).
The measurement data SEN ij is read from and the above equation (1) is executed to calculate the height H ij of the object. This height H ij is
It is output to the environment setting unit 11 at the initial setting and to the comparison processing unit 13 at the operating state.
【0031】環境設定部11は、各測距センサSijにつ
いて、光学的なノイズや機差などに起因する出力値の振
れ幅をあらかじめ把握し、前記(1)式により得られた
高さHijの誤差を取り除くためのもので、各測距センサ
Sijについて得られた高さHijに所定のオフセット値を
のせたものを高さの初期値INijとして設定し、これを
環境記憶部12へ出力する。環境記憶部12は、各測距
センサSijから得られた高さの初期値INijを記憶する
ほか、前述した各測距センサの取付け高さLENijや各
センサの取付位置などを記憶する。The environment setting section 11 grasps beforehand the fluctuation range of the output value due to optical noise or machine difference for each distance measuring sensor S ij , and obtains the height H obtained by the above equation (1). This is for removing the error of ij . The height H ij obtained for each distance measuring sensor S ij is set as an initial value IN ij of height, and this is set as the initial value IN ij of the environment storage unit. Output to 12. The environment storage unit 12 stores the initial value IN ij of the height obtained from each distance measuring sensor S ij, and also stores the mounting height LEN ij of each distance measuring sensor and the mounting position of each sensor described above. .
【0032】比較処理部13は、装置の稼動時に、距離
算出部10より与えられた高さHijを環境記憶部12に
記憶された高さの初期値INijとを比較し、その比較結
果によって高さHijを最適な値に修正する。The comparison processing unit 13 compares the height H ij given by the distance calculation unit 10 with the initial value IN ij of the height stored in the environment storage unit 12 when the apparatus is in operation, and the comparison result. The height H ij is corrected to the optimum value by.
【0033】分類処理部14は、各測距センサSijにつ
いて、取付位置のx,y座標、および最終的に得られた
高さHijから成る3次元データを用いて、後述するグル
ープ化処理を行い、各3次元データを複数個のグループ
に分類する。The classification processing unit 14 uses the three-dimensional data consisting of the x and y coordinates of the mounting position and the finally obtained height H ij for each distance measuring sensor S ij , and the grouping processing described later. Then, each three-dimensional data is classified into a plurality of groups.
【0034】特徴量算出部15は、分類処理部14によ
り分類された各グループのデータを用いて所定の演算を
実行し、後述する各種の特徴量を算出する。The characteristic amount calculation unit 15 executes a predetermined calculation using the data of each group classified by the classification processing unit 14 to calculate various characteristic amounts described later.
【0035】属性判定部16は、ニューラルネットワー
クの一種である学習ベクトル量子化(LVQ)プログラ
ムにより作動するもので、あらかじめ、人間、荷物、動
物、床面など異なる属性を有する物体について、それぞ
れ与えられた複数のモデルから特徴量を算出し、各属性
ごとの特徴量のパターンを数次元の参照ベクトルの形で
記憶している。また属性判定部16は、装置稼動時に
は、前記特徴量算出部15により算出された各グループ
の特徴量のパターンについて前記各参照ベクトルとの距
離を算出し、この結果、最短の距離にある参照ベクトル
をグループに最も近いものと判定して、この参照ベクト
ルの持つ属性をグループの属性として確定する。The attribute determination unit 16 operates by a learning vector quantization (LVQ) program, which is a type of neural network, and is given in advance for objects having different attributes such as humans, luggage, animals, and floor surfaces. The feature amount is calculated from a plurality of models, and the feature amount pattern for each attribute is stored in the form of a multidimensional reference vector. Further, the attribute determining unit 16 calculates a distance between each feature vector of each group calculated by the feature calculating unit 15 and each reference vector when the apparatus is in operation, and as a result, the reference vector at the shortest distance is obtained. Is determined to be the closest to the group, and the attribute of this reference vector is confirmed as the attribute of the group.
【0036】経路特定部18は、各グループに与えられ
た属性をチェックして人間に該当する属性を有するグル
ープを抽出し、その各特徴量を抽出グループ記憶部17
に記憶させる。この抽出グループ記憶部17には、人間
に該当するものとして抽出されたグループについて、最
新のデータと1サンプル前のデータとが記憶されてい
る。経路特定部18は、この最新のデータに対応する1
サンプル前のデータを抽出し、両データの変化からグル
ープの移動経路を特定する。The route specifying unit 18 checks the attributes given to each group, extracts a group having an attribute corresponding to a human, and extracts the respective feature quantities from the extracted group storage unit 17
To memorize. The extracted group storage unit 17 stores the latest data and the data one sample before regarding the group extracted as a person. The route identifying unit 18 corresponds to the latest data 1
The data before the sample is extracted, and the movement route of the group is specified from the change of both data.
【0037】移動情報記憶部19は、経路特定部18に
より特定された経路を記憶するためのもので、グループ
の中心の最新の位置データと1サンプル前の位置データ
とが記憶される。The movement information storage unit 19 is for storing the route specified by the route specifying unit 18, and stores the latest position data of the center of the group and the position data of one sample before.
【0038】入退場計数部19は、人間と判定されたグ
ループが前記チェックラインLNを通過して矢印aの入
場側またはbの退場側へ移動することを検出して入退場
者の数を計数するためのもので、移動情報記憶部19に
記憶された各グループの移動経路を順次前記チェックラ
インLNの位置と比較し、入退場者の数を計数する。The entrance / exit counting unit 19 counts the number of people entering and leaving by detecting that the group determined to be a human moves through the check line LN to the entrance side of arrow a or the exit side of b. The moving route of each group stored in the moving information storage unit 19 is sequentially compared with the position of the check line LN to count the number of visitors.
【0039】表示部21は、LEDや液晶のディスプレ
イ装置、またはCRTディスプレイ装置などであって、
入退場計数部19によりカウントされた入場者数および
退場者数をリアルタイムで表示する。The display unit 21 is an LED or liquid crystal display device, a CRT display device, or the like.
The number of visitors and the number of exits counted by the entrance / exit counting unit 19 are displayed in real time.
【0040】制御処理部22は、CPU23,ROM2
4,RAM25から構成されており、CPU23は、R
OM24に記憶された制御プロブラムに基づき、前記各
部の動作を一連に制御する。またRAM25は、各測距
センサSijについての測定データSENijや高さHijを
記憶する領域の他に、前記各処理部が動作するための作
業エリアとしての複数の領域を備える。The control processing section 22 includes a CPU 23 and a ROM 2
4, RAM 25, CPU23, R
Based on the control program stored in the OM 24, the operation of each unit is controlled in series. Further, the RAM 25 includes a plurality of areas as work areas for operating the respective processing units, in addition to an area for storing the measurement data SEN ij and the height H ij for each distance measuring sensor S ij .
【0041】図7には、前記RAM25,抽出グループ
記憶部17,移動情報記憶部19の各メモリのデータ構
成が、環境記憶部12,比較処理部13,分類処理部1
4,特徴量算出部15,属性判定部16,経路特定部1
8,入退場計数部20の各部の関係と共に示してある。In FIG. 7, the data structure of each memory of the RAM 25, the extraction group storage unit 17, and the movement information storage unit 19 is shown as an environment storage unit 12, a comparison processing unit 13, and a classification processing unit 1.
4, feature quantity calculation unit 15, attribute determination unit 16, route identification unit 1
8 shows the relationship between each part of the entrance / exit counting unit 20.
【0042】RAM25内には、前記した作業エリアと
して、各測距センサSijに対応する3次元データを記憶
するための3次元データ格納領域26,分類処理の過程
で得られる各グループについてのデータ(以下「グルー
プデータ」という)を記憶するためのグループデータ格
納領域27,各グループについて算出される特徴量を記
憶するための特徴量格納領域28などが設けられてい
る。In the RAM 25, as the above-mentioned work area, a three-dimensional data storage area 26 for storing three-dimensional data corresponding to each distance measuring sensor S ij and data for each group obtained in the course of the classification process. A group data storage area 27 for storing (hereinafter referred to as “group data”), a characteristic amount storage area 28 for storing the characteristic amount calculated for each group, and the like are provided.
【0043】前記3次元データ格納領域26には、測距
センサSijの数に対応するK個の領域r1 〜rK が設け
られ、それぞれの領域には、環境記憶部12に記憶され
た各測距センサSijの取付位置と、比較処理部13より
与えられる各測距センサSijの高さHijとから成る3次
元データ(xk ,yk ,zk )が記憶される。分類処理
部14は、各3次元データを読み出して所定の分類処理
を行い、その結果をグループデータ格納領域27に格納
する。The three-dimensional data storage area 26 is provided with K areas r 1 to r K corresponding to the number of distance measuring sensors S ij , and each area is stored in the environment storage unit 12. and mounting positions of each distance measuring sensor S ij, the height H ij and the three-dimensional data consisting of each distance measuring sensor S ij given from the comparison processing unit 13 (x k, y k, z k) are stored. The classification processing unit 14 reads each three-dimensional data, performs a predetermined classification process, and stores the result in the group data storage area 27.
【0044】グループデータ格納領域27には、分類処
理によって得られるN個のグループについて、s1 〜s
N の各領域に、それぞれのグループの中心座標Gn ,グ
ループに属する要素として抽出された3次元データEn
(以下「要素データEn 」という),各要素とグループ
中心との距離の平均値ADn (以下「要素・中心間の平
均距離ADn 」という),後述する無効化フラグFn な
どの各データが格納される。The group data storage area 27 stores s 1 to s for the N groups obtained by the classification process.
In each area of N , the central coordinates G n of each group, and the three-dimensional data E n extracted as elements belonging to the group
(Hereinafter referred to as “element data E n ”), an average value AD n of the distance between each element and the center of the group (hereinafter referred to as “average distance AD n between element / center”), each of an invalidation flag F n described later, and the like. Data is stored.
【0045】このグループデータ格納領域27の記憶内
容は、分類処理部14の処理に応じて何度も書き換えら
れる。特徴量算出部15は、最終的なグループデータを
読み出して、各グループについての特徴量として、所属
する要素の数Sn ,グループ中心のx座標CXn ,y座
標CYn ,各要素のz座標の平均値AZn および分散値
VZn ,他のグループのうち最短の位置にあるグループ
との距離(以下「最短グループとの距離」という)DM
n をそれぞれ算出し、これを特徴量格納領域28の領域
f1 〜fN に順次格納する。The stored contents of the group data storage area 27 are rewritten many times according to the processing of the classification processing section 14. The feature amount calculation unit 15 reads the final group data, and as the feature amount for each group, the number of belonging elements S n , the group center x coordinate CX n , the y coordinate CY n , and the z coordinate of each element. Mean value AZ n and variance value VZ n , and the distance to the group at the shortest position among other groups (hereinafter referred to as the “distance to the shortest group”) DM
Each n is calculated and sequentially stored in the areas f 1 to f N of the feature amount storage area 28.
【0046】前記各特徴量のうち、要素数Sn は物体の
面積に相当するもので、グループ中心のx,y座標CX
n ,CYn は物体の位置を表すものである。また各要素
のz座標の平均値AZn ,分散値VZn は、それぞれ物
体の立体的な形状についてのデータであり、最短グルー
プとの距離DMn は、近くに存在する物体との間隔を表
すものである。Of the above feature quantities, the number of elements S n corresponds to the area of the object, and the x and y coordinates CX of the center of the group.
n and CY n represent the position of the object. Further, the average value AZ n and the variance value VZ n of the z-coordinates of each element are data on the three-dimensional shape of the object, and the distance DM n from the shortest group represents the distance to an object existing nearby. It is a thing.
【0047】各グループの特徴量が特徴量格納領域28
の所定の領域fn に格納されると、つぎに属性判定部1
6によりこれらの特徴量を用いたグループの属性の判定
処理が行われる。この判定の結果、グループの属性デー
タQn が得られ、第7の特徴量として領域fn 内へ格納
される。The feature quantity of each group is stored in the feature quantity storage area 28.
Stored in a predetermined area f n of the attribute determination unit 1
In step 6, the group attribute determination process using these feature quantities is performed. As a result of this determination, the attribute data Q n of the group is obtained and stored in the area f n as the seventh feature amount.
【0048】抽出グループ記憶部17は、最新のデータ
を記憶する最新データ格納領域NM(以下単に「領域N
M」という)と、1サンプル前、すなわち10ms前の
データを記憶する比較データ格納領域OM(以下単に
「領域OM」という)とから構成される。領域NMは、
前記RAM25内の特徴量格納領域28に格納されたN
個のグループのうち、人間に該当する属性データを有す
るM個のグループを抽出してその特徴量を記憶するため
のもので、経路特定部18によりこの抽出作業が行われ
ると、該当するグループの各特徴量が順次領域MNに格
納される。The extraction group storage section 17 stores the latest data in the latest data storage area NM (hereinafter simply referred to as "area N").
M ”) and a comparison data storage area OM (hereinafter simply referred to as“ area OM ”) that stores data of one sample before, that is, 10 ms before. The area NM is
N stored in the feature amount storage area 28 in the RAM 25
This is for extracting M groups having attribute data corresponding to a human from the individual groups and storing the characteristic amounts thereof. When the route specifying unit 18 performs this extraction work, Each feature amount is sequentially stored in the area MN.
【0049】図中、g1 〜gM の各領域内には、それぞ
れ特徴量記憶領域28から抽出されたグループについ
て、グループの要素数NSm ,グループ中心のx座標N
Xm ,y座標NYm ,各要素のz座標の平均値NAm ,
z座標の分散値NVm ,最短グループとの距離ND
m が、それぞれ格納されている。In the figure, in each area of g 1 to g M , for each group extracted from the feature amount storage area 28, the number of elements NS m of the group and the x-coordinate N of the group center N
X m , y coordinate NY m , z coordinate average value NA m of each element,
Variance value NV m of z coordinate, distance ND to the shortest group
m is stored in each.
【0050】この領域NM内の各データは、測距センサ
のつぎのサンプリングの前に領域OMへと移される。図
示例では、1サンプル前に抽出されたL個のグループに
ついて、それぞれh1 〜hL の各領域内に、要素数OS
l ,グループ中心のx座標OXl ,y座標OYl ,各要
素のz座標の平均値OAl および分散値OVl ,最短グ
ループとの距離ODl の各特徴量が格納されている。Each data in the area NM is moved to the area OM before the next sampling by the distance measuring sensor. In the illustrated example, the number of elements OS is set in each region of h 1 to h L for each of L groups extracted one sample before.
l, a group center x coordinate OX l, y coordinates OY l, mean OA l and variance values OV l of z coordinates of each element, each feature quantity distance OD l of the shortest groups are stored.
【0051】移動情報記憶部19は、前記領域NMに記
憶された各グループについての移動情報として、グルー
プ中心の位置の変化を記憶する。経路特定部18は、領
域OMより領域NMに記憶された各グループについての
1サンプル前のデータを抽出し、移動情報記憶部19の
領域q1 〜qM に、それぞれのグループ中心の最新の位
置(NXm ,NYm )と1サンプル前の位置(PXm ,
PYm )とを格納する。The movement information storage section 19 stores a change in the position of the center of the group as movement information for each group stored in the area NM. The route identifying unit 18 extracts the data one sample before for each group stored in the region NM from the region OM, and in the regions q 1 to q M of the movement information storage unit 19, the latest position of the center of each group. (NX m , NY m ) and the position (PX m ,
PY m ) and
【0052】なお、前記グループデータ格納領域27お
よび特徴量格納領域28,抽出グループ記憶部17のN
M,OMの各領域,移動情報記憶部19には、サンプリ
ング毎に変動するデータを記憶できるよう十分な領域が
確保されており、データ格納後も各メモリには未使用領
域29〜33が残されている。The group data storage area 27, the feature quantity storage area 28, and the N of the extraction group storage unit 17 are stored.
The M and OM areas and the movement information storage unit 19 have sufficient areas to store the data that varies with each sampling, and unused areas 29 to 33 remain in each memory even after the data is stored. Has been done.
【0053】以下上記した各部における詳細な制御手順
をフローチャートを用いて順に説明する。まず図8は、
各測距センサSijについて高さの初期値INij(以下単
に「初期値INij」という)を求める手順を示す。ステ
ップ1で装置の各部がリセットされた後、ステップ2,
3で、y軸方向のカウンタjおよびx軸方向のカウンタ
iが、それぞれ1に設定される。つぎに距離算出部10
は、各測距センサSijについて所定回数の測定値を取り
込み、このうちの最大値をSENijとして確定する(ス
テップ4)。The detailed control procedure in each of the above-mentioned parts will be described below in order using a flow chart. First of all,
A procedure for obtaining an initial height value IN ij (hereinafter simply referred to as “initial value IN ij ”) for each distance measuring sensor S ij will be described. After each part of the device is reset in step 1, step 2,
At 3, the counter j in the y-axis direction and the counter i in the x-axis direction are set to 1, respectively. Next, the distance calculation unit 10
Takes in the measurement values of each distance measuring sensor S ij a predetermined number of times, and determines the maximum value as SEN ij (step 4).
【0054】つぎのステップ5で、距離算出部10は前
記した(1)式を実行して高さHijを算出し、この値を
環境設定部11に出力する。環境設定部11では、与え
られた高さHijが0より大きいか否かを判定し、0より
大きいときはこの高さHijに所定のオフセット値αを加
算した値を初期値INijとする(ステップ7)。また高
さHijが0以下であるときは、この時の高さHijの実質
的な値を「0」と判断して、初期値INijとしてオフセ
ット値αを設定する(ステップ8)。In the next step 5, the distance calculation unit 10 executes the above-mentioned equation (1) to calculate the height H ij, and outputs this value to the environment setting unit 11. The environment setting unit 11 determines whether or not the given height H ij is larger than 0. When it is larger than 0, a value obtained by adding a predetermined offset value α to this height H ij is set as an initial value IN ij . (Step 7). When the height H ij is 0 or less, the substantial value of the height H ij at this time is determined to be "0", and the offset value α is set as the initial value IN ij (step 8).
【0055】ステップ7,8のいずれかで設定された初
期値INijは、環境記憶部12内に格納される(ステッ
プ9)。以下、カウンタi,jが順次インクリメントさ
れてステップ4〜9の処理が繰り返し行われ、各測距セ
ンサSijについての高さの初期値INijが環境記憶部1
2に格納される。The initial value IN ij set in either step 7 or 8 is stored in the environment storage unit 12 (step 9). Hereinafter, the counter i, j is being repeated processing of steps 4-9 is sequentially incremented, the initial value IN ij height of each distance measuring sensor S ij environmental storage unit 1
Stored in 2.
【0056】図9は、装置稼動時の高さHijの算出手順
を示す。距離算出部10は、各測距センサSijからの測
定データSENijを所定の間隔(10ms間隔)で取り
込んでおり、まず図8の手順と同様、カウンタi,jを
「1」に設定して、第1の測距センサS11 の測定デー
タSEN11を取り込んだ後、前記(1)式を実行して高
さH11を算出する(ステップ1〜4)。FIG. 9 shows a procedure for calculating the height H ij when the apparatus is operating. Distance calculation unit 10 sets the measurement data SEN ij from the distance measuring sensor S ij and incorporates at predetermined intervals (10ms intervals), first similar to the procedure of FIG. 8, the counter i, j to "1" Then, after the measurement data SEN 11 of the first distance measuring sensor S 11 is fetched, the formula (1) is executed to calculate the height H 11 (steps 1 to 4).
【0057】この高さH11は比較処理部13に与えられ
る。比較処理部13では、環境記憶部12に記憶された
初期値IN11を読み出し、与えられた高さH11をこの初
期値IN11と比較する(ステップ5)。この比較により
高さH11が初期値IN11より大きいと判定されたとき
は、ステップ5が「YES」となり、高さH11は、初期
値IN11分だけ減算された値に修正される(ステップ
6)。一方、高さH11が初期値IN11以下であると判定
された場合は、この位置には対象物がないものと判定さ
れ、高さH11は「0」に設定される(ステップ7)。This height H 11 is given to the comparison processing unit 13. The comparison processing unit 13 reads the initial value IN 11 stored in the environment storage unit 12 and compares the given height H 11 with this initial value IN 11 (step 5). If it is determined by this comparison that the height H 11 is larger than the initial value IN 11 , step 5 becomes “YES”, and the height H 11 is corrected to a value subtracted by the initial value IN 11 ( Step 6). On the other hand, when it is determined that the height H 11 is less than or equal to the initial value IN 11, it is determined that there is no object at this position, and the height H 11 is set to “0” (step 7). .
【0058】ステップ6またはステップ7で最終的に高
さHijの値が確定すると、この高さHijはRAM25の
前記3次元データ格納領域26へと出力される(ステッ
プ8)。以下ステップ9〜12で、カウンタi,jが順
次インクリメントされて上記ステップ3〜ステップ8の
手順が繰り返し実行され、各測距センサSijについての
最終的な高さHijが3次元データ格納領域26へ格納さ
れる。When the value of the height H ij is finally determined in step 6 or step 7, this height H ij is output to the three-dimensional data storage area 26 of the RAM 25 (step 8). Hereinafter in step 9-12, the counter i, j is being sequentially incremented procedure repeated execution of step 3 to step 8, final height H ij is three-dimensional data storage area for each distance measuring sensor S ij 26.
【0059】図10は、分類処理部14によるグループ
化処理の手順を示す。なお、以下の手順では、グループ
数の基準値NC0 ,要素数の下限値Nmin ,分散の上限
値Vmax ,グループ中心間の距離の最小値CDmin など
のパラメータが適宜用いられる。これらのパラメータは
グループの分割処理や融合処理を行うための種々の判定
基準として設定されるもので、あらかじめROM24内
に記憶されるか、または図示しないフロッピーディスク
装置などにより外部から読み込まれる。FIG. 10 shows the procedure of grouping processing by the classification processing unit 14. In the following procedure, parameters such as the reference value NC 0 of the number of groups, the lower limit value N min of the number of elements, the upper limit value V max of the variance, and the minimum value CD min of the distance between the group centers are appropriately used. These parameters are set as various determination criteria for performing group division processing and group fusion processing, and are stored in the ROM 24 in advance or read from the outside by a floppy disk device (not shown) or the like.
【0060】まず分類処理部14は、各測距センサSij
についての3次元データを順次読み出して、z座標が最
大となる1〜複数個のデータを抽出し、このデータを仮
のグループ中心として前記RAM25内のグループデー
タ格納領域27に登録する(ステップ1)。First, the classification processing unit 14 determines each distance measuring sensor S ij.
Is sequentially read out to extract one to a plurality of data having the maximum z coordinate, and this data is registered in the group data storage area 27 in the RAM 25 as a temporary group center (step 1). .
【0061】図11は仮のグループ中心の抽出方法の一
例を示す。ここでは説明上、各データをxy平面上に矩
形の形で表してあり、丸印を記した矩形34を最大のz
座標を有するデータとする。この実施例では左上のデー
タから順にz座標が比較されており、最大値が抽出され
たとき、続く所定の数のデータについての比較処理をス
キップしている。これにより仮のグループ中心34aは
ある程度分散した位置に抽出される。FIG. 11 shows an example of a temporary group center extraction method. Here, for the sake of explanation, each data is represented in the shape of a rectangle on the xy plane, and the rectangle 34 marked with a circle represents the maximum z.
Data with coordinates. In this embodiment, z coordinates are compared in order from the upper left data, and when the maximum value is extracted, the comparison process for a predetermined number of data that follows is skipped. As a result, the temporary group centers 34a are extracted at positions that are dispersed to some extent.
【0062】図10に戻って、つぎのステップ2で、分
類処理部14は、有効グループ数を計数するカウンタN
Cを0に初期設定した後、各3次元データについて前記
ステップ1で設定した各グループ中心との距離を求め、
各3次元データを最短の距離にあるグループ中心に所属
する要素として割り付ける。割り付けられた各3次元デ
ータは前記グループデータ格納領域27内の該当する領
域sn の要素データEn として記憶される(ステップ
3)。Returning to FIG. 10, in the next step 2, the classification processing unit 14 causes the counter N for counting the number of effective groups.
After initializing C to 0, the distance from each group center set in step 1 is obtained for each three-dimensional data,
Each three-dimensional data is assigned as an element belonging to the center of the group at the shortest distance. Each assigned three-dimensional data is stored as the element data E n of the corresponding area s n in the group data storage area 27 (step 3).
【0063】つぎに分類処理部14は、グループデータ
格納領域27の1番目の領域s1 内に記憶された要素デ
ータE1 を読み出し、このグループに属する要素数N1
を算出する(ステップ4,5)。この要素数N1 があら
かじめ設定された要素数の下限値Nmin 以上であれば有
効なグループとして決定し、有効グループ数のカウンタ
NCをインクリメントする(ステップ6,7)。Next, the classification processing unit 14 reads the element data E 1 stored in the first area s 1 of the group data storage area 27, and the number N 1 of elements belonging to this group.
Is calculated (steps 4 and 5). If the number of elements N 1 is equal to or more than the preset lower limit value N min of the number of elements, it is determined as an effective group, and the effective group number counter NC is incremented (steps 6 and 7).
【0064】つぎのステップ8で、分類処理部14は、
各要素の位置座標についての平均値を求め、グループ中
心の座標G1 をこの平均座標に再設定する。さらに続く
ステップ9では、新たに設定されたグループ中心の座標
G1 と要素データE1 とから要素・中心間の平均距離A
D1 を算出し、領域s1 内に記憶させる。At the next step 8, the classification processing unit 14
The average value of the position coordinates of each element is calculated, and the group center coordinate G 1 is reset to this average coordinate. In the subsequent step 9, the average distance A between the element and the center is calculated from the newly set coordinates G 1 of the group center and the element data E 1.
D 1 is calculated and stored in the area s 1 .
【0065】一方、ステップ5で求められた要素数N1
が下限値Nmin より少ないときは、ステップ6が「N
O」となってステップ10に移行し、分類処理部14は
前記領域S1 に無効化フラグF1 をセットする。On the other hand, the number of elements N 1 obtained in step 5
Is less than the lower limit value N min , step 6 is “N
Becomes O "goes to step 10, the classification processing portion 14 sets the invalidation flag F 1 in the region S 1.
【0066】設定されたすべてのグループについて上記
の処理が行われるとステップ12が「YES」となり、
分類処理部14はつぎのステップ13で、これらの処理
が所定の回数行われたかをチェックする。この場合、こ
の判定は「NO」であるから、分類処理部14はつぎの
ステップ14,15で有効グループNCを基準値NC0
と比較する。When the above process is performed for all the set groups, step 12 becomes "YES",
In the next step 13, the classification processing unit 14 checks whether these processes have been performed a predetermined number of times. In this case, since this determination is “NO”, the classification processing unit 14 determines the effective group NC as the reference value NC 0 in the next steps 14 and 15.
Compare with.
【0067】この基準値NC0 は、監視領域内のグルー
プを分類する標準的なグループ数としてあらかじめ設定
されているもので、以下のステップ14〜18におい
て、クラスタリングの一手法であるISO−DATA法
を用いて有効グループ数のチェック、およびその結果に
基づくグループの分割,融合処理が行われる。This reference value NC 0 is set in advance as a standard number of groups for classifying the groups in the monitoring area. In steps 14 to 18 below, the ISO-DATA method which is one of the clustering methods is used. Is used to check the number of effective groups and to divide and merge the groups based on the result.
【0068】すなわち有効グループ数NCが基準値NC
0 の半分以下であればグループ数が少なすぎるとして分
割処理が行われ(ステップ14,16)、有効グループ
数NCが基準値NC0 の2倍以上であればグループ数が
多すぎるとして融合処理が行われる(ステップ15,1
7)。また有効グループ数が基準値NC0 の2分の1よ
り大きく2倍より小さいときは、ステップ14,15が
ともに「NO」となり、分割処理および融合処理が順に
行われる(ステップ18)。That is, the number of effective groups NC is the reference value NC.
If it is less than half of 0, the number of groups is too small and the division processing is performed (steps 14 and 16). If the number of effective groups NC is twice the reference value NC 0 or more, the number of groups is too large and the fusion processing is performed. Performed (steps 15,1)
7). When the number of effective groups is larger than one half of the reference value NC 0 and smaller than twice, both steps 14 and 15 are “NO”, and the division processing and the fusion processing are sequentially performed (step 18).
【0069】図12は、図10のステップ16およびス
テップ18における分割処理の詳細な手順を示す。まず
ステップ16−1で新規グループを計数するためのカウ
ンタnA を「0」に、グループデータを読み出す領域を
指定するためのカウンタnを「1」に、それぞれ設定し
た後、分類処理部14はつぎのステップ16−2で、前
記グループデータ格納領域27の領域sn より各グルー
プデータを読み出す。FIG. 12 shows the detailed procedure of the division processing in steps 16 and 18 of FIG. First, in step 16-1, the counter n A for counting the new group is set to “0” and the counter n for designating the area from which the group data is read is set to “1”. in step 16-2, reads each group data from area s n of the group data storage area 27.
【0070】この領域sn に無効化フラグFn がセット
されていなければ、ステップ16─3が「NO」となっ
てステップ16−4へと移行し、分類処理部14は各要
素についてx軸,y軸,z軸の各方向毎に分散を求め、
この3方向の分散値のうちの最大値を最大分散値Vn と
して設定する。 If the invalidation flag F n is not set in this area s n , step 16-3 becomes "NO" and the process shifts to step 16-4, and the classification processing unit 14 determines the x-axis for each element. , Y-axis, z-axis for each direction,
The maximum value of the variance values in the three directions is set as the maximum variance value V n .
【0071】この最大分散値Vn が前記分散値の上限値
Vmax より大きければ、ステップ16−5が「YES」
となり、分類処理部14はさらにこのグループが分割可
能であるか否かをチェックする(ステップ16−6〜ス
テップ16−8)。If the maximum variance value V n is larger than the upper limit value V max of the variance value, step 16-5 is "YES".
Therefore, the classification processing unit 14 further checks whether or not this group can be divided (step 16-6 to step 16-8).
【0072】この結果、有効グループ数NCが前記基準
値NC0 の半分以下である場合、または要素・中心間の
平均距離ADn がグループ中心間距離の下限値CDmin
以上であり、かつ要素数Nn が下限値Nmin 以上であれ
ば、このグループは、グループ中心を基準に最大の分散
値が得られる軸方向に分割される(ステップ16−
9)。As a result, when the number NC of effective groups is less than half of the reference value NC 0 , or when the average distance AD n between the elements and the center is the lower limit value CD min of the group center distance.
If the number of elements is equal to or more than the above, and the number of elements N n is equal to or more than the lower limit value N min , this group is divided in the axial direction in which the maximum variance value is obtained based on the group center (step 16-
9).
【0073】図13はグループの分割処理の一例を示
す。なおここでは説明を簡略化するため、x軸,y軸方
向の2次元におけるデータの分布例を表してある。FIG. 13 shows an example of group division processing. In order to simplify the description, an example of two-dimensional data distribution in the x-axis and y-axis directions is shown.
【0074】図中、eは各要素を、c0 はもとのグルー
プ中心を、それぞれ示す。この例では、x軸方向の分散
が最大となっており、グループ中心c0 を基準としてそ
れぞれx方向に±dだけ移動した位置に新たなグループ
中心c1 ,c2 が設定される。なお、グループ中心の移
動量dは、最大分散値Vn にあらかじめ設定された係数
β(ただし0<β<1)を掛け合わせて求めたものであ
る。In the figure, e represents each element, and c 0 represents the center of the original group. In this example, the dispersion in the x-axis direction is maximum, and new group centers c 1 and c 2 are set at positions that are respectively moved by ± d in the x direction with reference to the group center c 0 . The movement amount d of the group center is obtained by multiplying the maximum variance value V n by a preset coefficient β (where 0 <β <1).
【0075】上記の方法により新たに設定されたグルー
プ中心c1 ,c2 のうち、一方のグループ中心の座標は
前記グループデータ格納領域27内のもとのグループ中
心c0 の記憶されていた領域sn に、他方の座標は無効
化フラグがセットされている領域または前記空き領域2
9に、それぞれ記憶され、新規グループ数nA がインク
リメントされる(ステップ16−10)。Of the group centers c 1 and c 2 newly set by the above method, the coordinates of one of the group centers is the area in which the original group center c 0 is stored in the group data storage area 27. In s n , the other coordinate is the area in which the invalidation flag is set or the empty area 2
9, and the new group number n A is incremented (step 16-10).
【0076】なお、ステップ16−5,16−7,16
−8のいずれかの判定が「NO」であれば、グループの
分割は行われず、グループ中心の位置データはそのまま
保持され、つぎの領域s2 についての処理に移行する。
上記の処理がすべてのグループについて行われるとステ
ップ16−12の判定が「YES」となり、ステップ1
6−13で有効グループ数NCに新規グループ数nA が
加算され、分割処理が終了する。Steps 16-5, 16-7, 16
If any of the determinations in -8 is "NO", the group division is not performed, the position data of the center of the group is held as it is, and the process proceeds to the next area s 2 .
When the above process is performed for all groups, the determination in step 16-12 is “YES”, and step 1
In 6-13, the number of new groups n A is added to the number of effective groups NC, and the division process ends.
【0077】図14は、図10のステップ17,18に
おける融合処理の詳細な手順を示す。まずステップ17
−1で融合候補の組み合わせ数をカウントするカウンタ
nDを「0」に、グループデータの読み出し領域を設定
するためのカウンタnを「1」に、それぞれ設定した
後、分類処理部14は、まず前記グループデータ格納領
域27の領域sn (この場合領域s1 )より各グループ
データを読み出す(ステップ17−2)。FIG. 14 shows the detailed procedure of the fusion process in steps 17 and 18 of FIG. First step 17
After setting the counter n D for counting the number of combinations of fusion candidates at −1 to “0” and the counter n for setting the read area of the group data to “1”, the classification processing unit 14 first Each group data is read from the area s n (in this case, the area s 1 ) of the group data storage area 27 (step 17-2).
【0078】この領域に無効化フラグFn がセットされ
ていなければステップ17−3が「NO」となってステ
ップ17−4へと移行し、つぎの領域(この場合は領域
s2)内のグループデータが読み出される。If the invalidation flag F n is not set in this area, step 17-3 becomes "NO" and the process moves to step 17-4, and the next area (in this case, the area s 2 ) Group data is read.
【0079】この領域s2 の無効化フラグF2 もセット
されていなければ、ステップ17−5からステップ17
−6へと移行し、分類処理部14は両グループの中心座
標G1 ,G2 より中心間の距離CDを算出し、これをグ
ループ中心間の距離の下限値CDmin と比較する。[0079] If still set invalidation flag F 2 in the region s 2, Step Step 17-5 17
In step -6, the classification processing unit 14 calculates the center-to-center distance CD from the center coordinates G 1 and G 2 of both groups, and compares this with the lower limit value CD min of the center-to-group distance.
【0080】算出された中心間の距離CDが下限値CD
min より小さい場合は、分類処理部14は両グループを
融合対象と判定し、各グループデータが格納されている
領域(この場合s1 ,s2 )および算出された距離CD
をRAM25内の融合対象テーブル35(図15に示
す)へ格納し、融合候補の組み合わせ数nD を1加算す
る(ステップ17−7〜ステップ17−9)。The calculated distance CD between the centers is the lower limit value CD.
If it is smaller than min , the classification processing unit 14 determines that both groups are to be merged, and the areas (s 1 and s 2 in this case) in which each group data is stored and the calculated distance CD.
Is stored in the fusion target table 35 (shown in FIG. 15) in the RAM 25, and the fusion candidate combination number n D is incremented by 1 (steps 17-7 to 17-9).
【0081】以下、カウンタnをインクリメントしてグ
ループデータ格納領域27内のすべてのグループの組み
合わせについてグループ中心間の距離をチェックし、融
合対象となるグループの組み合わせが抽出して、融合対
象テーブル35内に記憶する。Thereafter, the counter n is incremented to check the distances between the group centers for all combinations of groups in the group data storage area 27, the combinations of groups to be merged are extracted, and the combinations in the fusion target table 35 are extracted. Remember.
【0082】つぎに分類処理部14は、前記融合対象テ
ーブル35内の各組み合わせについて、それぞれの中心
間の距離CDを比較し、データの格納順序を距離の短い
順に並び換えるソート処理を行う(ステップ17−1
3)。Next, the classification processing section 14 compares the distances CD between the centers of the respective combinations in the fusion target table 35, and carries out a sorting process for rearranging the data storage order in ascending order of distance (step). 17-1
3).
【0083】図15は、RAM25内の前記融合対象テ
ーブル35のデータ構成とソート処理の一例を示す。こ
の融合対象テーブル35には、まず上記のステップ17
−2〜ステップ17−12の手順により、融合対象とし
て抽出された各グループの組合せについて、グループデ
ータの格納領域のアドレス値と中心間の距離CDとが抽
出された順に格納される(図15(1))。データ格納
後にステップ17−13のソート処理が行われると、各
データは中心間の距離CDの昇順に並べ換えられる(図
15(2))。FIG. 15 shows an example of the data structure and sort processing of the fusion target table 35 in the RAM 25. In the fusion target table 35, first, the above step 17 is performed.
By the procedure of −2 to step 17-12, the address value of the storage area of the group data and the distance CD between the centers are stored in the order of extraction for each combination of the groups extracted as the fusion target (FIG. 1)). When the sort process of step 17-13 is performed after the data is stored, each data is rearranged in the ascending order of the center-to-center distance CD (FIG. 15 (2)).
【0084】このソート処理が終了すると、分類処理部
14はつぎのステップ17−14で、融合候補の組み合
わせ数nD と前記グループ数の基準値NC0 とを比較す
る。この比較により、組み合わせ数nD が基準値NC0
以下のときは抽出されたすべての組み合わせについて、
また組み合わせ数nD が基準値NC0 より大きい場合は
中心間距離CDの短いものから順にNC0 個の組み合わ
せについて、それぞれ融合処理が行われる(ステップ1
7−15,ステップ17−17)。When this sort processing is completed, the classification processing unit 14 compares the number of combinations n D of fusion candidates with the reference value NC 0 of the number of groups in the next step 17-14. By this comparison, the number of combinations n D is the reference value NC 0.
In the following cases, for all the extracted combinations,
If the number of combinations n D is larger than the reference value NC 0 , the fusion process is performed on each of the NC 0 combinations in the ascending order of the center-to-center distance CD (step 1).
7-15, steps 17-17).
【0085】いま融合対象として抽出されたグループp
1 およびp2 について、それぞれの要素数をS1 ,
S2 ,中心座標g1 ,g2 とすると、この2つのグルー
プを融合して得られるグループp3 のグループ中心の座
標g3 はつぎの(2)式で与えられる。Group p extracted now as a fusion target
For 1 and p 2 , the number of elements of each is S 1 ,
Assuming S 2 and center coordinates g 1 and g 2 , the group center coordinate g 3 of the group p 3 obtained by fusing these two groups is given by the following equation (2).
【0086】[0086]
【数2】 [Equation 2]
【0087】融合処理が終わると、分類処理部14は、
ステップ17−16またはステップ17−18で有効グ
ループ数NCから融合したグループの数を減算して有効
グループ数NCを更新し、融合処理を終了する。When the fusion process is completed, the classification processing unit 14
In step 17-16 or step 17-18, the number of merged groups is subtracted from the number of valid groups NC to update the number of valid groups NC, and the merge process ends.
【0088】図10に戻って、ステップ16〜18のい
ずれかの処理が実行されて各グループは再編成され、各
グループ中心の座標が再設定される。分割処理部14
は、前記グループデータについて、グループ中心の座標
Gn 以外のすべてのデータをクリアする(ステップ1
9)。Returning to FIG. 10, the processing of any of steps 16 to 18 is executed to reorganize each group, and the coordinates of the center of each group are reset. Division processing unit 14
Clears all the data in the group data other than the group center coordinates G n (step 1).
9).
【0089】ステップ19で各データがクリアされる
と、ステップ3に戻って、3次元データ格納領域内の各
3次元データは再びいずれかのグループ中心に割り付け
られ、以下同様の処理が繰り返し実行される。この結
果、あらかじめ設定された所定の回数分の処理が終了す
ると、ステップ13が「YES」となり、特徴量算出部
15による特徴量の算出処理へと移行する。When each data is cleared in step 19, the process returns to step 3 and each three-dimensional data in the three-dimensional data storage area is again allocated to the center of one of the groups, and the same processing is repeated thereafter. It As a result, when the processing for the preset number of times is completed, step 13 becomes “YES”, and the process proceeds to the feature amount calculation process by the feature amount calculation unit 15.
【0090】図16は、特徴量算出部15による特徴量
の算出処理手順を示す。この処理は、前記の手順により
分類された各グループについて順次特徴量を算出するも
ので、まず前記グループデータ格納領域27の第1の領
域s1 より各グループデータが読み出される(ステップ
1,2)。FIG. 16 shows the procedure for calculating the characteristic amount by the characteristic amount calculation unit 15. In this process, the feature amount is sequentially calculated for each group classified by the above procedure, and each group data is first read from the first area s 1 of the group data storage area 27 (steps 1 and 2). .
【0091】この領域s1 に無効化フラグF1 がセット
されていなければステップ3が「NO」となり、特徴量
算出部15は、要素データE1 よりこのグループの要素
数を算出し、これを特徴量記憶領域28の領域f1 に第
1の特徴量S1 として格納する(ステップ4)。If the invalidation flag F 1 is not set in this area s 1 , step 3 becomes "NO", and the feature quantity calculation unit 15 calculates the number of elements of this group from the element data E 1 and The first feature quantity S 1 is stored in the area f 1 of the feature quantity storage area 28 (step 4).
【0092】つぎに特徴量算出部15は、グループ中心
の位置座標G1 よりx座標とy座標とを取り出し、それ
ぞれ第2,第3の特徴量CX1 ,CY1 として前記領域
f1に格納し(ステップ5)、さらに要素データE1 よ
り各要素のz座標の平均値と分散値とを算出し、これを
第4,第5の特徴量AZ1 ,VZ1 として領域f1 内に
格納する(ステップ6,7)。Next, the characteristic amount calculating section 15 extracts the x coordinate and the y coordinate from the position coordinate G 1 of the center of the group and stores them in the area f 1 as the second and third characteristic amounts CX 1 and CY 1 , respectively. Then, the average value and the variance value of the z-coordinates of each element are calculated from the element data E 1 and stored in the area f 1 as the fourth and fifth characteristic quantities AZ 1 and VZ 1. (Steps 6 and 7).
【0093】つぎのステップ8で、特徴量算出部15
は、グループデータ格納領域27の領域s2 〜sN より
他のグループの中心の座標を順次読み出して、領域s1
のグループ中心G1 との距離を算出し、このうちの最小
値を最短グループとの距離DM1 として確定し、前記領
域f1 内に記憶させる。In the next step 8, the feature quantity calculation unit 15
Reads the coordinates of the centers of the other groups sequentially from the areas s 2 to s N of the group data storage area 27 to obtain the area s 1
The distance from the center G 1 of the group is calculated, and the minimum value of these is determined as the distance DM 1 to the shortest group and stored in the area f 1 .
【0094】一方、領域S1 に無効化フラグF1 がセッ
トされている時は、この領域にかかるグループは無効と
見なされ、特徴量記憶領域28の領域f1 内に各特徴量
の値として「0」が与えられた後、つぎの領域のグルー
プデータの処理へと移行する(ステップ3,9〜1
1)。On the other hand, when the invalidation flag F 1 is set in the area S 1 , the group related to this area is regarded as invalid and the value of each feature quantity is stored in the area f 1 of the feature quantity storage area 28. After "0" is given, the process shifts to the group data of the next area (steps 3, 9 to 1).
1).
【0095】以下同様にグループデータ格納領域27の
領域sn に記憶されたグループデータについて上記のス
テップ2〜8の処理を行うことにより、有効と見なされ
るグループについて、要素数Sn ,グループ中心のx座
標CXn ,y座標CYn ,z座標の平均値AZn ,z方
向の分散VZn ,最短グループとの距離DMn が算出さ
れ、特徴量記憶領域28の所定の領域fn に格納され
る。すべてのグループについての処理が終了するとステ
ップ11が「YES」となり、属性判定部16による判
定処理へと移行する。Similarly, by performing the above steps 2 to 8 on the group data stored in the area s n of the group data storage area 27, the number of elements S n and the group center The x-coordinate CX n , the y-coordinate CY n , the z-coordinate average value AZ n , the z-direction variance VZ n , and the distance DM n from the shortest group are calculated and stored in a predetermined area f n of the feature amount storage area 28. It When the processing for all groups is completed, step 11 becomes "YES", and the determination processing by the attribute determination unit 16 is performed.
【0096】図17は、属性判定処理の手順を示す。ま
ず属性判定部16は、前記特徴量記憶領域28の第1番
目の領域f1 より、S1 ,CX1 ,CY1 ,AZ1 ,V
Z1 ,DM1 の各特徴量を読み出す(ステップ1,
2)。FIG. 17 shows the procedure of the attribute determination process. First, the attribute determination unit 16 determines S 1 , CX 1 , CY 1 , AZ 1 , V from the first area f 1 of the feature amount storage area 28.
Each feature quantity of Z 1 and DM 1 is read (step 1,
2).
【0097】前述したように、属性判定部16は、あら
かじめ人間や物体などの各属性について所定のモデルを
用いて学習した特徴量のパターンを参照ベクトルの形で
記憶しており、特徴量記憶領域28の領域f1 から読み
出された特徴量により構成されるベクトルと各参照ベク
トルとの距離を算出し、この中で最短の距離をとる参照
ベクトルをグループに最も近いものと判断する。これに
より、この参照ベクトルにかかる属性がグループの属性
データQ1 として採用され、前記領域f1 内に格納され
る(ステップ3,4)。As described above, the attribute determining unit 16 stores the pattern of the characteristic amount learned in advance using a predetermined model for each attribute such as a human being or an object in the form of a reference vector, and stores the characteristic amount storage area. The distance between each reference vector and the vector composed of the feature amount read from the 28 regions f 1 is calculated, and the reference vector having the shortest distance among them is determined to be the closest to the group. As a result, the attribute of this reference vector is adopted as the attribute data Q 1 of the group and stored in the area f 1 (steps 3 and 4).
【0098】上記の処理を特徴量記憶領域28内の領域
fn (n=1〜N)のデータについて順次行うことによ
り、各領域fn に属性データQn が格納され、経路特定
処理へと移行する。The attribute data Q n is stored in each area f n by sequentially performing the above processing for the data of the area f n (n = 1 to N) in the feature amount storage area 28, and the route specifying processing is started. Transition.
【0099】図18は、経路特定処理の手順を示す。前
記属性判定部16により各グループの属性が決定される
と、経路特定部18は、抽出グループ記憶部17に格納
するデータ数のカウンタmを0に初期設定した後、前記
特徴量記憶領域28の第1番目の領域f1 から属性デー
タQ1 を含む各特徴量を読み出す(ステップ1,2)。FIG. 18 shows the procedure of the route specifying process. When the attribute determination unit 16 determines the attribute of each group, the route identification unit 18 initializes the counter m for the number of data stored in the extracted group storage unit 17 to 0, and then stores the data in the feature amount storage area 28. Each feature amount including the attribute data Q 1 is read from the first area f 1 (steps 1 and 2).
【0100】この属性データQ1 が人間以外の物体を意
味するものであればステップ3が「NO」となり、以下
の手順がスキップされてつぎの領域f2 の処理へと移行
する(ステップ6,7)。If the attribute data Q 1 means an object other than a human being, step 3 becomes "NO", the following procedure is skipped, and the process proceeds to the next area f 2 (step 6,). 7).
【0101】ステップ3が「YES」のとき、すなわち
属性データQ1 が人間を意味するものであれば、経路特
定部18は前記カウンタmをインクリメントし、読み出
した各特徴量S1 ,CX1 ,CY1 ,AZ1 ,VZ1 ,
DM1 を抽出グループ記憶部17の領域gm (この場合
領域g1 )の各特徴量NS1 ,NX1 ,NY1 ,N
A1 ,NV1 ,ND1 として記憶させる(ステップ4,
5)。When step 3 is "YES", that is, when the attribute data Q 1 means a human being, the route specifying unit 18 increments the counter m and reads out the respective feature quantities S 1 , CX 1 , CY 1 , AZ 1 , VZ 1 ,
DM 1 is extracted Each feature quantity NS 1 , NX 1 , NY 1 , N of the area g m (in this case area g 1 ) of the group storage unit 17 is extracted.
It is stored as A 1 , NV 1 and ND 1 (step 4,
5).
【0102】上記の手順を前記特徴量記憶領域28内の
すべてのデータについて順次行うことにより、人間に該
当する属性を有するグループが順次抽出されて、その特
徴量が抽出グループ記憶部17の領域NMへ格納され
る。このときステップ7が「YES」となり、経路特定
部18は、ステップ8で、領域MNに格納されたデータ
数としてMを記憶すると共にカウンタmを1に戻し、つ
ぎのステップ9で抽出グループ記憶部17の領域gm よ
りグループ中心のx,y座標NXm ,NYm を読み出
し、これを移動移動情報記憶部19の領域qm に格納す
る。By sequentially performing the above procedure for all the data in the feature quantity storage area 28, groups having attributes corresponding to human beings are sequentially extracted, and the feature quantities are stored in the area NM of the extraction group storage unit 17. Stored in. At this time, step 7 becomes “YES”, and the route specifying unit 18 stores M as the number of data stored in the area MN and resets the counter m to 1 in step 8, and then extracts the group storage unit in step 9. The x, y coordinates NX m , NY m of the center of the group are read from the area g m of 17 and are stored in the area q m of the movement information storage unit 19.
【0103】つぎに、経路特定部18は、抽出グループ
記憶部17の領域OMに格納された各グループ中心の位
置データより前記gm 領域のグループ中心と最短の距離
にあるものを抽出し、その最短距離DSを所定のしきい
値thと比較する(ステップ10,11)。Next, the route specifying unit 18 extracts the one located at the shortest distance from the group center of the g m region from the position data of each group center stored in the region OM of the extraction group storage unit 17, and The shortest distance DS is compared with a predetermined threshold value th (steps 10 and 11).
【0104】このしきい値thは、前記した所定のサン
プリング時間内に人間が移動できると考えられる最大の
距離に相当するもので、あらかじめROM24などに記
憶されている。距離の最小値DSがこのしきい値以下で
あればステップ11の判定は「YES」となり、経路特
定部18はこの最短距離DSにあるグループの特徴量を
領域gm のグループの1サンプル前のデータと判定し
て、そのx座標,y座標を前記移動情報記憶部19のデ
ータPXm ,PYm として領域qm 内に格納する(ステ
ップ12)。This threshold value th corresponds to the maximum distance that a person can move within the above-mentioned predetermined sampling time, and is stored in the ROM 24 or the like in advance. If the minimum value DS of the distance is less than or equal to this threshold value, the determination in step 11 is “YES”, and the route specifying unit 18 sets the feature amount of the group at the shortest distance DS to the sample one sample before in the group of the region g m . It is determined that the data is data, and the x and y coordinates thereof are stored in the area q m as the data PX m and PY m of the movement information storage unit 19 (step 12).
【0105】一方、ステップ10で得られた最小距離D
Sが前記しきい値より大きければ、領域OM内には、領
域gm のグループに対応するデータは存在しないと見な
され、移動情報記憶部19のデータPXm ,PYm とし
て「−1」が設定される(ステップ13)。On the other hand, the minimum distance D obtained in step 10
If S is larger than the threshold value, it is considered that the data corresponding to the group of the region g m does not exist in the region OM, and “−1” is set as the data PX m and PY m of the movement information storage unit 19. It is set (step 13).
【0106】以下同様の手順が繰り返し実行されて領域
NMに記憶された各グループについての移動情報が移動
情報記憶部19に記憶されると、ステップ15が「YE
S」となり、経路特定部18は領域NM内の各データを
領域OMに移動させて、1サンプル前のデータとして保
存する(ステップ16)。When the movement information for each group stored in the area NM is stored in the movement information storage section 19 by repeating the same procedure thereafter, step 15 returns "YE".
S ”, and the path specifying unit 18 moves each data in the area NM to the area OM and stores it as the data of one sample before (step 16).
【0107】図19は、入退場計数部20による計数処
理手順を示す。この計数処理手順では装置の初期起動時
にのみ、ステップ1が実行され、入場者のカウンタIN
および出場者のカウンタOUTが共に「0」に初期設定
される。以後に行われる処理ではステップ1はスキップ
され、カウンタIN,OUTの値は順次更新される。FIG. 19 shows a counting processing procedure by the entrance / exit counting unit 20. In this counting procedure, step 1 is executed only when the device is initially activated, and the counter IN
And the counter OUT of the contestant is both initialized to "0". In the subsequent processing, step 1 is skipped and the values of the counters IN and OUT are updated sequentially.
【0108】入退場計数部20は、ステップ2でカウン
タmを1に設定した後、ステップ3でRAM25内のフ
ラグFN,FOをリセットする。このフラグFNはグル
ープの最新のデータについて、フラグFOは1サンプル
前のデータについて、それぞれグループの位置が入場側
にあることを記憶するためのものである。The entrance / exit counting unit 20 sets the counter m to 1 in step 2, and then resets the flags FN and FO in the RAM 25 in step 3. This flag FN is for storing the latest data of the group, and the flag FO is for storing that the position of the group is on the entrance side for the data one sample before.
【0109】ステップ4で入退場計数部20は、移動情
報記憶部19の領域qm 内のデータを読み出し、まず現
在のグループ中心のy座標NYm を前記したチェックラ
インLN(図4に示す)のy座標Ythと比較する(ステ
ップ5)。NYm がYthより大きいときはステップ5が
「YES」となり、このグループは入場側に位置するも
のとしてフラグFNがセットされる(ステップ6)。In step 4, the entrance / exit counting unit 20 reads the data in the area q m of the movement information storage unit 19, and first checks the y-coordinate NY m of the current group center by the check line LN (shown in FIG. 4). The y-coordinate Y th is compared (step 5). When NY m is larger than Y th, step 5 becomes "YES", and the flag FN is set because this group is located on the entrance side (step 6).
【0110】つぎに1サンプル前のグループ中心のy座
標PYm について、「−1」の値をとるか否かがチェッ
クされ(ステップ7)、この判定が「NO」の場合、さ
らにチェックラインLNのy座標Ythとの比較が行われ
る(ステップ8)。この結果PYm がYthより大きい場
合は、フラグFOがセットされる(ステップ9)。Next, it is checked whether or not the y-coordinate PY m of the group center one sample before takes a value of "-1" (step 7). If this judgment is "NO", the check line LN is further checked. Is compared with the y coordinate Y th (step 8). If PY m is larger than Y th as a result, the flag FO is set (step 9).
【0111】図20は、5つのグループP1 ,P2 ,P
3 ,P4 ,P5 についての監視領域40内の経路を示
す。図中、黒丸は各グループの最新の位置を、白丸は1
サンプル前の位置をそれぞれ表し、各グループの経路が
矢印で示してある。FIG. 20 shows five groups P 1 , P 2 , P.
The routes in the monitoring area 40 for 3 , P 4 , and P 5 are shown. In the figure, the black circle is the latest position of each group, and the white circle is 1.
The position before the sample is shown, and the route of each group is indicated by an arrow.
【0112】図19に戻って、入退場計数部20はステ
ップ10〜12で、前記RAM25内のフラグFN,F
Oをチェックし、各フラグの関係によって入退場者の有
無を判定する。グループ中心の最新の位置が入場側にあ
り、かつ1サンプル前の位置が退場側にある場合(前記
グループP1 の場合)は、ステップ10が「YES」,
ステップ12が「NO」となり、入場者のカウンタIN
が1カウントされる(ステップ13)。またグループ中
心の最新の位置が退場側にありかつ1サンプル前の位置
が入場側にある場合(グループP2 の場合)は、ステッ
プ10が「NO」,ステップ11が「YES」となり、
退場者のカウンタOUTが1カウントされる。Returning to FIG. 19, the entrance / exit counting unit 20 performs steps 10 to 12 in which the flags FN and F in the RAM 25 are stored.
O is checked, and the presence / absence of an entrance / exit is determined based on the relationship between the flags. If the latest position of the center of the group is on the entrance side and the position one sample before is on the exit side (in the case of the group P 1 ), step 10 is “YES”,
Step 12 becomes "NO", and the counter IN of the visitors
Is counted by 1 (step 13). When the latest position of the center of the group is on the exit side and the position one sample before is on the entrance side (in the case of group P 2 ), step 10 is “NO”, step 11 is “YES”,
The exit counter counter 1 is counted one.
【0113】ステップ10,ステップ12がともに「Y
ES」となる場合、すなわちグループ中心の最新位置と
1サンプル前の位置とがともに入場側にある場合(グル
ープP3 の場合)、およびステップ10,ステップ11
がともに「NO」となる場合、すなわちグループ中心の
最新位置,1サンプル前の位置がともに退場側にある場
合(グループP4 の場合)は、グループはチェックライ
ンLNを通過せずに入場側または退場側のみで移動して
いるものと判断され、入退場の計数対象とはならない。In both Step 10 and Step 12, "Y
ES ”, that is, the latest position of the center of the group and the position one sample before are both on the entrance side (in the case of group P 3 ), and steps 10 and 11
Are both “NO”, that is, when the latest position at the center of the group and the position one sample before are both on the exit side (in the case of group P 4 ), the group does not pass through the check line LN and the entrance side or It is judged that only the exit side is moving, and is not counted as the entry / exit count.
【0114】また、図20のグループP5 またはP6 の
場合は、1サンプル前のグループ中心の位置(図中点線
で示す)は監視領域40の外にあり検出されないので、
前記移動情報記憶部19のデータPXm ,PYm として
「−1」が記憶されていることになる。したがってこれ
らのケースでは、ステップ7の判定が「YES」とな
り、以下の手順はスキップされる。In the case of the group P 5 or P 6 in FIG. 20, the position of the center of the group one sample before (indicated by the dotted line in the figure) is outside the monitoring area 40 and is not detected.
This means that "-1" is stored as the data PX m and PY m in the movement information storage unit 19. Therefore, in these cases, the determination in step 7 is “YES”, and the following procedure is skipped.
【0115】上記の処理が移動情報記憶部19内のすべ
ての領域のデータについて行われるとステップ16が
「YES」となって、計数処理が終了する。When the above processing is performed for the data of all the areas in the movement information storage unit 19, step 16 becomes "YES" and the counting processing ends.
【0116】なお、この実施例ではチェックラインをx
方向に平行して設けているが、図21に示すように、
x,y方向それぞれに複数のチェックラインLN1〜L
N3を設け、各グループ中心のx座標およびy座標の位
置の変化をチェックして入退場を判定するようにしても
よい。In this embodiment, the check line is x
Although it is provided parallel to the direction, as shown in FIG.
A plurality of check lines LN1 to L in each of the x and y directions
N3 may be provided, and the entrance and exit may be determined by checking the change in the x-coordinate and y-coordinate positions at the center of each group.
【0117】前記した属性判定部16の判定処理はLV
Qプログラムを用いて各グループの属性を判定するもの
であるが、この方法に限らず、例えば判別関数の手法を
用いて各グループの属性についての判定を行うことがで
きる。The determination process of the attribute determination unit 16 is LV.
Although the Q program is used to determine the attribute of each group, the present invention is not limited to this method, and the attribute of each group can be determined using, for example, a discriminant function method.
【0118】図22は、判別関数を用いた属性判定処理
の手順を示す。この実施例の属性判定処理は、各グルー
プについて算出された特徴量のうち、要素数Sn ,z方
向の平均値AZn ,分散値VZn ,最短のグループとの
距離DNn の4つの特徴量を用いてこのグループが人間
に該当するものかどうかを判定するもので、RAM25
内の前記特徴量記憶領域27の領域fn より各特徴量S
n ,AZn ,VZn ,DNn が順次読み出される(ステ
ップ1,2)。FIG. 22 shows the procedure of the attribute determination process using the discriminant function. In the attribute determination process of this embodiment, among the feature amounts calculated for each group, four features of the number of elements S n , the average value AZ n in the z direction, the variance value VZ n , and the distance DN n to the shortest group are included. RAM25 is used to determine whether or not this group corresponds to a human by using the amount.
Of the feature quantity S from the area f n of the feature quantity storage area 27 in the
n , AZ n , VZ n , and DN n are sequentially read (steps 1 and 2).
【0119】つぎのステップ3で、属性判定部16は、
これらの特徴量を用いてつぎの(3)式で表される判別
関数式を実行し関数値Fを算出する。At the next step 3, the attribute determining section 16
A discriminant function expression represented by the following expression (3) is executed using these feature amounts to calculate a function value F.
【0120】[0120]
【数3】 [Equation 3]
【0121】この判別関数式は、各特徴量により表され
るパターンが人間に該当するパターンであるか否かを判
定するもので、係数w1 ,w2 ,w3 ,w4 およびオフ
セット値w5 には、あらかじめ複数のモデルのデータに
より所定の値を算出して設定してある。This discriminant function formula determines whether or not the pattern represented by each feature amount is a pattern corresponding to a human, and the coefficients w 1 , w 2 , w 3 , w 4 and the offset value w are used. In 5 , a predetermined value is calculated and set in advance from data of a plurality of models.
【0122】つぎに属性処理部16は、前記(3)式に
より算出された関数値Fの値をチェックする(ステップ
4)。この関数値Fが0以上の値をとれば、判別対象の
グループは人間であると判定され(ステップ5)、Fが
0以下である場合は、このグループの有する特徴量パタ
ーンは人間の特徴量パターンではないと判定される(ス
テップ6)。Next, the attribute processing section 16 checks the value of the function value F calculated by the equation (3) (step 4). If the function value F takes a value of 0 or more, it is determined that the group to be discriminated is a human (step 5), and if F is 0 or less, the characteristic amount pattern of this group has a human characteristic amount. It is determined that it is not a pattern (step 6).
【0123】つぎのステップ7で、属性判定部16は、
上記の判定結果を属性データQn として特徴量格納領域
28の領域fn に記憶させ、以下の領域についても同様
の処理を繰り返し実行して、各グループの属性を確定す
る(ステップ7〜9)。At the next step 7, the attribute determining section 16
The above determination result is stored in the area f n of the characteristic value storing area 28 as attribute data Q n, repeatedly executes the same processing for the following areas, to determine the attributes of each group (Step 7-9) .
【0124】さらに、この属性判定処理は、ファジイ推
論により行うことも可能である。この場合、属性判定部
16には、グループの面積(要素数に相当する),高さ
(z方向)の平均値および分散値,最短グループとの距
離の4つの特徴量について属性との関係がファジイルー
ルとして与えられている。Furthermore, this attribute determination process can be performed by fuzzy inference. In this case, the attribute determination unit 16 determines the relationship between the attributes of the four feature amounts, that is, the area (corresponding to the number of elements) of the group, the average value and variance of the height (z direction), and the distance to the shortest group. It is given as a fuzzy rule.
【0125】上記ファジイルールの具体例をつぎに示
す。 (1)面積が小さければ、グループは人間ではない。 (2)高さの分散が小さければ、グループは単純な形を
した物体である。 (3)面積が大きく、高さの分散が大きく、最短グルー
プとの距離が大きければ、グループは人間である。 (4)面積が大きく、高さの分散が大きく、最短グルー
プとの距離が小さく、高さの平均が大きければ、グルー
プは人間にかつがれた荷物である。 (5)面積が大きく、高さの分散が大きく、最短グルー
プとの距離が小さく、高さの平均が小さければ、グルー
プは人間または物体の近くに位置する子供である。A specific example of the above fuzzy rule is shown below. (1) If the area is small, the group is not human. (2) If the height variance is small, the group is a simple shaped object. (3) If the area is large, the heights are widely dispersed, and the distance to the shortest group is large, the group is a human. (4) If the area is large, the height dispersion is large, the distance to the shortest group is small, and the average height is large, then the group is a baggage carried by humans. (5) If the area is large, the variance of the height is large, the distance to the shortest group is small, and the average height is small, the group is a human or a child located near an object.
【0126】図23(1)〜(4)は、各特徴量につい
てのメンバーシップ関数を示す。図中、Sは「小さい」
を意味するファジイラベルSを、Bは「大きい」を意味
するファジイラベルBをそれぞれ示し、横軸には各特徴
量の値が、縦軸には適合度が、それぞれ表されている。23 (1) to 23 (4) show membership functions for each feature. In the figure, S is "small"
Is shown, and B is a fuzzy label B which means “large”. The horizontal axis represents the value of each feature amount and the vertical axis represents the goodness of fit.
【0127】図24は、上記のファジイルール(1)〜
(5)を表形式に表現したものである。図中、「結論」
の欄は、前記ファジイルールの後件部を簡略表現したも
ので、判定対象のグループの属性が人間と推論される場
合には「1」が、人間以外の属性を持つと推論される場
合には「0」が、それぞれ記入されている。FIG. 24 shows the above fuzzy rules (1) to
(5) is expressed in a tabular form. "Conclusion" in the figure
Column is a simplified representation of the consequent part of the fuzzy rule. If the attribute of the group to be judged is inferred to be human, “1” is inferred to have an attribute other than human. “0” is entered for each.
【0128】属性判定部16は、設定された各グループ
について前記RAM25内の特徴量記憶領域28から各
特徴量Sn ,AZn ,VZn ,DNn を読み出した後、
前記メンバーシップ関数を用いて各特徴量毎に適合度を
求め、これを前記ファジイルールに当てはめて推論演算
を実行する。この結果、図24に示す結論に基づき、
「1」または「0」のいずれかの値がグループの属性デ
ータQn として確定され、特徴量記憶領域28内に記憶
される。The attribute determination unit 16 reads out the feature quantities S n , AZ n , VZ n , and DN n from the feature quantity storage area 28 in the RAM 25 for each set group,
The membership function is used to obtain the goodness of fit for each feature quantity, and this is applied to the fuzzy rule to execute the inference operation. As a result, based on the conclusion shown in FIG.
A value of either “1” or “0” is determined as the group attribute data Q n and stored in the feature amount storage area 28.
【0129】図25は、前記入退場計数部20により計
数された入退場者数の表示例を示すもので、液晶表示器
21aにより、入場者数,退場者数が、それぞれリアル
タイムで表示されている。FIG. 25 shows a display example of the number of entering / leaving persons counted by the entering / leaving counting section 20. The number of persons entering / leaving is displayed in real time on the liquid crystal display 21a. There is.
【0130】上記の実施例では、ゲート1の真下の空間
を監視領域としてゲート1を通過する人間を検出するよ
うにしているが、これに限らず、例えば室内の適所に監
視領域を設け、特定場所に出入りする人間を検出するよ
うにしてもよい。なお、この実施例では人間を検出する
ための装置に限定して説明したが、検出対象は人間に限
らず種々の物体に適用でき、さまざまな用途に応用でき
ることは言うまでもない。In the above embodiment, the space under the gate 1 is used as the monitoring area to detect a person passing through the gate 1. However, the present invention is not limited to this. People who enter and exit the place may be detected. In this embodiment, the description has been limited to the device for detecting a human being, but it goes without saying that the detection target is not limited to a human being and can be applied to various objects and various applications.
【0131】[0131]
【発明の効果】この発明は上記の如く、特定の監視領域
内において所定の物体の有無を検出するために、監視領
域内で複数個の3次元データを測定して得られたデータ
を複数個のグループに分類し、この中から検出対象に該
当する属性を有するグループの有無を検出するようにし
たから、監視領域内にある物体の立体的な特徴を把握で
き、検出対象を正確に検出することができる。As described above, according to the present invention, in order to detect the presence or absence of a predetermined object in a specific monitoring area, a plurality of data obtained by measuring a plurality of three-dimensional data in the monitoring area are used. Since the presence or absence of a group having an attribute corresponding to the detection target is detected from among the groups, the three-dimensional characteristics of the object in the monitoring area can be grasped and the detection target can be accurately detected. be able to.
【0132】請求項7の発明では、上記の処理を繰り返
し行うことにより、検出対象の位置の変化を検出してこ
れをこの物体の移動経路として特定するようにしたか
ら、監視領域内のあらゆる方向における検出対象の移動
経路を追跡することができる。According to the seventh aspect of the present invention, the above process is repeated to detect the change in the position of the detection target and identify it as the movement path of this object. The movement path of the detection target in can be traced.
【0133】また請求項8の発明では、検出された移動
経路が特定の位置を通過することを検出するようにした
から、検出対象が特定位置を通過した回数を正確に計測
することが可能である。Further, according to the invention of claim 8, since it is detected that the detected movement route passes through the specific position, it is possible to accurately measure the number of times the detection target has passed through the specific position. is there.
【0134】請求項2の発明では、監視領域の上面全域
に測距センサを均等配置したので、各測距センサの取付
位置および測定データにより、監視領域全域における3
次元データを簡単に求めることができる。According to the second aspect of the present invention, the distance measuring sensors are evenly arranged over the entire upper surface of the monitoring area.
Dimensional data can be easily obtained.
【0135】請求項3の発明では、特に人間に該当する
属性を有するグループを検出するようにしたので、人の
複雑な動作や手荷物などを誤検出する虞がなく、正確な
検出が行われる。According to the third aspect of the present invention, since the group having the attribute corresponding to a human being is particularly detected, there is no possibility of erroneously detecting a complicated motion of a person or baggage, and accurate detection is performed.
【0136】請求項4,5,6の発明では、それぞれニ
ューラルネットワーク,判別関数,ファジイ推論を用い
てグループの属性の判定を行うようにしたので、属性判
定の精度が高められ、対象物を正確に検出することがで
きる。In the inventions of claims 4, 5, and 6, since the attribute of the group is determined by using the neural network, the discriminant function, and the fuzzy inference, respectively, the accuracy of the attribute determination is improved and the object is accurately determined. Can be detected.
【図1】この発明の一実施例にかかる入退場者検出装置
が適用されるゲートの構成を示す正面図、平面図、断面
図である。FIG. 1 is a front view, a plan view, and a cross-sectional view showing the structure of a gate to which an entrance / exit detection device according to an embodiment of the present invention is applied.
【図2】測距センサおよび投光パターン生成部の設定例
を示す説明図である。FIG. 2 is an explanatory diagram showing a setting example of a distance measuring sensor and a light projection pattern generation unit.
【図3】投光パターン生成部の構成を示す説明図であ
る。FIG. 3 is an explanatory diagram showing a configuration of a light projection pattern generation unit.
【図4】監視領域内で計測される3次元データを示す説
明図である。FIG. 4 is an explanatory diagram showing three-dimensional data measured in a monitoring area.
【図5】入退場者検出装置の電気的構成を示すブロック
図である。FIG. 5 is a block diagram showing an electrical configuration of an entrance / exit detection device.
【図6】測距センサの測定データと対象物の高さとの関
係を示す説明図である。FIG. 6 is an explanatory diagram showing a relationship between measurement data of a distance measuring sensor and a height of an object.
【図7】RAM,抽出グループ記憶部,移動情報記憶部
のデータ構成と各処理部との関係を示す説明図である。FIG. 7 is an explanatory diagram showing a relationship between a data structure of a RAM, an extraction group storage unit, and a movement information storage unit and each processing unit.
【図8】高さの初期値を設定する手順を示すフローチャ
ートである。FIG. 8 is a flowchart showing a procedure for setting an initial height value.
【図9】測定データから3次元データを設定する手順を
示すフローチャートである。FIG. 9 is a flowchart showing a procedure for setting three-dimensional data from measurement data.
【図10】分類処理の手順を示すフローチャートであ
る。FIG. 10 is a flowchart showing a procedure of classification processing.
【図11】仮のグループ中心の設定方法を示す説明図で
ある。FIG. 11 is an explanatory diagram showing a temporary group center setting method.
【図12】図10の分割処理の詳細な手順を示すフロー
チャートである。12 is a flowchart showing a detailed procedure of the division processing of FIG.
【図13】グループの分割方法を示す説明図である。FIG. 13 is an explanatory diagram showing a method of dividing a group.
【図14】図10の融合処理の詳細な手順を示すフロー
チャートである。14 is a flowchart showing a detailed procedure of the fusion process of FIG.
【図15】融合対象テーブルのデータ構成を示す説明図
である。FIG. 15 is an explanatory diagram showing a data configuration of a fusion target table.
【図16】特徴量算出処理の手順を示すフローチャート
である。FIG. 16 is a flowchart illustrating a procedure of a feature amount calculation process.
【図17】属性判定処理の手順を示すフローチャートで
ある。FIG. 17 is a flowchart illustrating a procedure of attribute determination processing.
【図18】経路特定処理の手順を示すフローチャートで
ある。FIG. 18 is a flowchart showing a procedure of route identification processing.
【図19】入退場計数処理の手順を示すフローチャート
である。FIG. 19 is a flowchart showing a procedure of entrance / exit counting processing.
【図20】入退場者の計数方法を示す説明図である。FIG. 20 is an explanatory diagram showing a counting method of entering and leaving people.
【図21】チェックラインの他の設定方法を示す説明図
である。FIG. 21 is an explanatory diagram showing another method of setting check lines.
【図22】判別関数を用いた属性判定処理の手順を示す
フローチャートである。FIG. 22 is a flowchart showing a procedure of attribute determination processing using a discriminant function.
【図23】ファジイ推論による属性判定処理に用いられ
るメンバーシップ関数を示す説明図である。FIG. 23 is an explanatory diagram showing a membership function used for attribute determination processing by fuzzy inference.
【図24】属性判定処理に用いられるファジイルールを
示す説明図である。FIG. 24 is an explanatory diagram showing a fuzzy rule used for attribute determination processing.
【図25】表示部の表示例を示す説明図である。FIG. 25 is an explanatory diagram illustrating a display example of a display unit.
Sij 測距センサ 10 距離算出部 14 分類処理部 15 特徴量算出部 16 属性判定部 18 経路特定部 19 入退場計数部 25 RAM 40 監視領域S ij distance measurement sensor 10 distance calculation unit 14 classification processing unit 15 feature amount calculation unit 16 attribute determination unit 18 route identification unit 19 entrance / exit counting unit 25 RAM 40 monitoring area
Claims (8)
有無を検出するための物体検出装置であって、 前記監視領域内の複数個の3次元データを測定するデー
タ測定手段と、 前記データ測定手段により測定された各3次元データを
複数個のグループに分類するグループ化手段と、 前記グループ化手段により分類された各グループについ
ての特徴量を算出する特徴量算出手段と、 前記特徴量算出手段により算出された特徴量に基づき各
グループの属性を判定する属性判定手段と、 前記属性判定手段の判定結果に基づき前記監視領域内に
前記所定の物体に該当する属性を有するグループの有無
を検出する検出手段とを備えて成る物体検出装置。1. An object detection device for detecting the presence or absence of a predetermined object in a specific monitoring area, comprising: data measuring means for measuring a plurality of three-dimensional data in the monitoring area; Grouping means for classifying each three-dimensional data measured by the means into a plurality of groups, feature quantity calculating means for calculating the feature quantity for each group classified by the grouping means, and the feature quantity calculating means Attribute determining means for determining the attribute of each group based on the feature amount calculated by: and the presence or absence of a group having an attribute corresponding to the predetermined object in the monitoring area based on the determination result of the attribute determining means An object detection device comprising a detection means.
の上面全域に均等に配置され垂直方向の距離を測定する
複数個の測距センサを含む請求項1に記載された物体検
出装置。2. The object detecting device according to claim 1, wherein the data measuring unit includes a plurality of distance measuring sensors that are evenly arranged over the entire upper surface in the monitoring area and measure distances in the vertical direction.
有するグループの有無を判定する手段である請求項1に
記載された物体検出装置。3. The object detection device according to claim 1, wherein the detection means is means for determining the presence or absence of a group having an attribute corresponding to a human.
量をニューラルネットワークプログラムにより学習され
た参照ベクトルと比較することにより各グループの属性
を判定する手段である請求項1に記載された物体検出装
置。4. The object detection according to claim 1, wherein the attribute determination means is means for determining the attribute of each group by comparing the feature amount of each group with a reference vector learned by a neural network program. apparatus.
量を所定の判別関数式に代入して各グループが前記所定
の物体に該当する属性を有するか否かを判定する手段で
ある請求項1に記載された物体検出装置。5. The attribute determining means is means for substituting a feature amount of each group into a predetermined discriminant function formula and determining whether each group has an attribute corresponding to the predetermined object. 1. The object detection device described in 1.
量を用いたファジイ推論演算を実行して各グループの属
性を判定する手段である請求項1に記載された物体検出
装置。6. The object detecting apparatus according to claim 1, wherein the attribute determining unit is a unit that executes a fuzzy inference operation using the feature amount of each group to determine the attribute of each group.
移動経路を検出するための物体検出装置であって、 前記監視領域内の複数個の3次元データを測定するデー
タ測定手段と、 前記データ測定手段により測定された各3次元データを
複数個のグループに分類するグループ化手段と、 前記グループ化手段により分類された各グループについ
ての特徴量を算出する特徴量算出手段と、 前記特徴量算出手段により算出された特徴量に基づき各
グループの属性を判定する属性判定手段と、 前記属性判定手段の判定結果に基づき前記監視領域内に
前記所定の物体に該当する属性を有するグループの位置
を検出する位置検出手段と、 前記各手段を所定の時間毎に繰り返し動作させて前記所
定の物体に該当する属性を有するグループの位置の時間
的変化を検出し、この位置の変化を前記所定の物体の移
動経路として特定する経路特定手段とを備えて成る物体
検出装置。7. An object detection device for detecting a movement path of a predetermined object within a specific monitoring area, comprising: data measuring means for measuring a plurality of three-dimensional data within the monitoring area; Grouping means for classifying each three-dimensional data measured by the measuring means into a plurality of groups, feature quantity calculating means for calculating a feature quantity for each group classified by the grouping means, and feature quantity calculation Attribute determining means for determining the attribute of each group based on the characteristic amount calculated by the means, and detecting the position of the group having the attribute corresponding to the predetermined object in the monitoring area based on the determination result of the attribute determining means Position detecting means, and a temporal change of the position of a group having an attribute corresponding to the predetermined object by repeatedly operating the respective means at predetermined times And a path specifying unit that specifies the change in the position as the movement path of the predetermined object.
監視領域内の特定位置を通過することを検出するための
物体検出装置であって、 前記監視領域内の複数個の3次元データを測定するデー
タ測定手段と、 前記データ測定手段により測定された各3次元データを
複数個のグループに分類するグループ化手段と、 前記グループ化手段により生成された各グループについ
ての特徴量を算出する特徴量算出手段と、 前記特徴量算出手段により算出された特徴量に基づき各
グループの属性を判定する属性判定手段と、 前記属性判定手段の判定結果に基づき前記監視領域内に
前記所定の物体に該当する属性を有するグループの位置
を検出する位置検出手段と、 前記各手段を所定の時間毎に繰り返し動作させて前記所
定の物体に該当する属性を有するグループの位置の時間
的変化を検出し、この位置の変化を前記所定の物体の移
動経路として特定する経路特定手段と、 前記経路特定手段により特定された移動経路が前記監視
領域内の特定位置を通過したことを検出する特定位置通
過検出手段とを備えて成る物体検出装置。8. An object detection device for detecting that a predetermined object passes through a specific position within a specific monitoring area, wherein a plurality of three-dimensional data within the monitoring area is measured. Data measuring means, grouping means for classifying each three-dimensional data measured by the data measuring means into a plurality of groups, and feature quantity for calculating the feature quantity for each group generated by the grouping means Calculating means, attribute determining means for determining the attribute of each group based on the characteristic amount calculated by the characteristic amount calculating means, and corresponding to the predetermined object in the monitoring area based on the determination result of the attribute determining means Position detecting means for detecting a position of a group having an attribute, and an attribute corresponding to the predetermined object by repeatedly operating each of the means at a predetermined time. A route specifying unit that detects a temporal change in the position of the group and specifies the change in the position as the moving route of the predetermined object, and the moving route specified by the route specifying unit is a specific position in the monitoring area. An object detecting device comprising: a specific position passage detecting means for detecting passage.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP6059895A JPH07244714A (en) | 1994-03-03 | 1994-03-03 | Object detection device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP6059895A JPH07244714A (en) | 1994-03-03 | 1994-03-03 | Object detection device |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH07244714A true JPH07244714A (en) | 1995-09-19 |
Family
ID=13126315
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP6059895A Pending JPH07244714A (en) | 1994-03-03 | 1994-03-03 | Object detection device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH07244714A (en) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11112965A (en) * | 1997-09-30 | 1999-04-23 | Omron Corp | Observation device for moving object |
JP2007515620A (en) * | 2003-03-12 | 2007-06-14 | アイ・ティー・ティー・マニュファクチャリング・エンタープライジズ・インコーポレイテッド | Fast object detection apparatus and method based on time-domain impulse signals |
JP2007315948A (en) * | 2006-05-26 | 2007-12-06 | Sogo Keibi Hosho Co Ltd | Object detector and its method |
JP2008186375A (en) * | 2007-01-31 | 2008-08-14 | Univ Of Tokyo | Object measuring system |
US7536253B2 (en) | 2005-01-31 | 2009-05-19 | Optex Co., Ltd. | Traffic monitoring apparatus |
JP2012154719A (en) * | 2011-01-25 | 2012-08-16 | Omron Corp | Object detecting unit |
WO2015069087A1 (en) * | 2013-11-11 | 2015-05-14 | 삼성전자주식회사 | Reader learning method and device, data recognition method and device |
CN110500957A (en) * | 2019-09-10 | 2019-11-26 | 中国科学院苏州纳米技术与纳米仿生研究所 | A kind of active three-D imaging method, device, equipment and storage medium |
-
1994
- 1994-03-03 JP JP6059895A patent/JPH07244714A/en active Pending
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11112965A (en) * | 1997-09-30 | 1999-04-23 | Omron Corp | Observation device for moving object |
JP2007515620A (en) * | 2003-03-12 | 2007-06-14 | アイ・ティー・ティー・マニュファクチャリング・エンタープライジズ・インコーポレイテッド | Fast object detection apparatus and method based on time-domain impulse signals |
US7536253B2 (en) | 2005-01-31 | 2009-05-19 | Optex Co., Ltd. | Traffic monitoring apparatus |
JP2007315948A (en) * | 2006-05-26 | 2007-12-06 | Sogo Keibi Hosho Co Ltd | Object detector and its method |
JP2008186375A (en) * | 2007-01-31 | 2008-08-14 | Univ Of Tokyo | Object measuring system |
JP2012154719A (en) * | 2011-01-25 | 2012-08-16 | Omron Corp | Object detecting unit |
WO2015069087A1 (en) * | 2013-11-11 | 2015-05-14 | 삼성전자주식회사 | Reader learning method and device, data recognition method and device |
KR20150054258A (en) * | 2013-11-11 | 2015-05-20 | 삼성전자주식회사 | Method and apparatus for training recognizer, method and apparatus for recognizing data |
CN110500957A (en) * | 2019-09-10 | 2019-11-26 | 中国科学院苏州纳米技术与纳米仿生研究所 | A kind of active three-D imaging method, device, equipment and storage medium |
CN110500957B (en) * | 2019-09-10 | 2021-09-14 | 中国科学院苏州纳米技术与纳米仿生研究所 | Active three-dimensional imaging method, device, equipment and storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Antonini et al. | Behavioral priors for detection and tracking of pedestrians in video sequences | |
US7409076B2 (en) | Methods and apparatus for automatically tracking moving entities entering and exiting a specified region | |
US5764283A (en) | Method and apparatus for tracking moving objects in real time using contours of the objects and feature paths | |
Cheriyadat et al. | Detecting dominant motions in dense crowds | |
JP5953484B2 (en) | Measuring device, measuring method and measuring program | |
US20120020518A1 (en) | Person tracking device and person tracking program | |
WO2019220589A1 (en) | Video analysis device, video analysis method, and program | |
WO2020158488A1 (en) | Movement route predict system, movement route predict method, and computer program | |
JPH07244714A (en) | Object detection device | |
CN108921072A (en) | A kind of the people flow rate statistical method, apparatus and system of view-based access control model sensor | |
US20210133491A1 (en) | System and method for detecting, tracking and counting human objects of interest with an improved height calculation | |
JP2016162096A (en) | Mobile object tracking device | |
CN107610224A (en) | It is a kind of that algorithm is represented based on the Weakly supervised 3D automotive subjects class with clear and definite occlusion modeling | |
JPH10255057A (en) | Mobile object extracting device | |
TW201804445A (en) | Moving object detection device | |
CN112699748A (en) | Human-vehicle distance estimation method based on YOLO and RGB image | |
JP3891181B2 (en) | Method and apparatus for automatically calculating camera parameters | |
KR20160118783A (en) | Method and Apparatus for counting the number of person | |
Boltes et al. | Gathering of data under laboratory conditions for the deep analysis of pedestrian dynamics in crowds | |
CN113158816A (en) | Visual odometer quadric-surface road sign construction method for outdoor scene object | |
Xiao | Automatic identification of smoking behaviour in public places based on improved YOLO algorithm | |
JP4588914B2 (en) | Object position measuring device | |
JP2020126332A (en) | Object position estimation device and method thereof | |
Klausmann et al. | Application-oriented assessment of computer vision algorithms | |
CN117872907B (en) | Shopping cart control method and system based on unmanned technology |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Year of fee payment: 7 Free format text: PAYMENT UNTIL: 20090419 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Year of fee payment: 7 Free format text: PAYMENT UNTIL: 20090419 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100419 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Year of fee payment: 8 Free format text: PAYMENT UNTIL: 20100419 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Year of fee payment: 9 Free format text: PAYMENT UNTIL: 20110419 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120419 Year of fee payment: 10 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Year of fee payment: 11 Free format text: PAYMENT UNTIL: 20130419 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Year of fee payment: 12 Free format text: PAYMENT UNTIL: 20140419 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |