JPH11282999A - Instrument for measuring mobile object - Google Patents

Instrument for measuring mobile object

Info

Publication number
JPH11282999A
JPH11282999A JP10083109A JP8310998A JPH11282999A JP H11282999 A JPH11282999 A JP H11282999A JP 10083109 A JP10083109 A JP 10083109A JP 8310998 A JP8310998 A JP 8310998A JP H11282999 A JPH11282999 A JP H11282999A
Authority
JP
Japan
Prior art keywords
image
axis
moving
counting
moving object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP10083109A
Other languages
Japanese (ja)
Other versions
JP3831112B2 (en
Inventor
Naoki Ogata
直樹 尾形
Osamu Tokumi
修 徳見
Satoshi Tonami
智 渡並
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
East Japan Railway Co
Original Assignee
Secom Co Ltd
East Japan Railway Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd, East Japan Railway Co filed Critical Secom Co Ltd
Priority to JP08310998A priority Critical patent/JP3831112B2/en
Publication of JPH11282999A publication Critical patent/JPH11282999A/en
Application granted granted Critical
Publication of JP3831112B2 publication Critical patent/JP3831112B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To count the number of mobile objects with precision while considering the transition of movement in the respective objects by forming two-dimensional X-T images and two-dimensional Y-T images, analyzing at least one of a movement direction and a movement speed concerning the objects, based on the Y-T images and counting the number of them, based on the X-T image through the use of an analysis result. SOLUTION: An X-T image forming part 34 aligns X-axis binary images in a time base direction by time sequence order and forms the two-dimensional X-T images. A congestion degree judging part 36 judges the congestion degree of persons on a passage based on the X-T image. A Y-T image forming part 42 aligns Y-axis binary images in the time base direction by time sequence order and forms the two-dimensional Y-T images. A direction discriminating part 46 discriminates the movement direction of the mobile object by the inclining direction of a cluster and a speed discriminating part 48 judges the movement speed by the inclining size of the cluster. A separation by direction part 52 separates the X-T images by direction, based on a map by direction and an individual counting part 54 counts the number of passing persons within a processing time.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は移動物体計測装置に
関し、特に、通路などの人の行き来がある場所において
人数を計測する装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a moving object measuring apparatus, and more particularly, to an apparatus for measuring the number of people at a place where people come and go, such as a passage.

【0002】[0002]

【従来の技術】例えば駅の階段や改札口などの人が流通
する通路において、各種の目的から人数計測が行われ
る。その際、手作業で人数を計数するのは極めて煩雑で
ある。このため、画像処理により人数を計測する移動物
体計測装置が提案されている。搬送される製品、車両、
動物などの数を自動計測する場合にも移動物体計測装置
が利用される。
2. Description of the Related Art The number of people is measured for various purposes in passages where people circulate, such as the stairs of a station or a ticket gate. At that time, counting the number of persons manually is extremely complicated. For this reason, a moving object measurement device that measures the number of people by image processing has been proposed. Products, vehicles,
The moving object measuring device is also used when automatically counting the number of animals and the like.

【0003】特開平8−123935号公報には、従来
の移動物体計測装置が開示されている。この装置におい
ては、カメラにより観測エリアの画像が取得される。そ
の画像領域内には一次元の計数ラインが設定される。そ
の計数ラインは移動物体の通過を監視するための観測ラ
インとして機能するものである。ここで、計数ライン上
の背景を表す一次元画像と計数ライン上の移動物体像を
含む一次元画像との差分を演算することにより移動物体
像が順次抽出されている。そして、各時刻の移動物体像
を時間軸方向に揃えて構成される二次元の物体像に対し
て、例えば、その総面積を基準値で除算することによっ
て人数が計数されている。更に、この従来装置において
は、上記計数ラインの上側及び下側に方向判定用の計数
ラインが設定されている。そして、それらの計数ライン
上における移動物体の通過位置及びその通過時間に基づ
いて移動物体の移動方向及び速度が判別されている。
[0003] Japanese Patent Application Laid-Open No. 8-123935 discloses a conventional moving object measuring device. In this device, an image of an observation area is acquired by a camera. One-dimensional counting lines are set in the image area. The counting line functions as an observation line for monitoring the passage of the moving object. Here, moving object images are sequentially extracted by calculating the difference between the one-dimensional image representing the background on the counting line and the one-dimensional image including the moving object image on the counting line. Then, for a two-dimensional object image formed by aligning the moving object images at each time in the time axis direction, the number of persons is counted by, for example, dividing the total area by a reference value. Further, in this conventional device, a counting line for direction determination is set above and below the counting line. Then, the moving direction and speed of the moving object are determined based on the passing position and the passing time of the moving object on those counting lines.

【0004】なお、特開平5−266196号公報に
も、画像処理に基づく人数計測装置が開示されている。
[0004] Japanese Patent Application Laid-Open No. 5-266196 also discloses a person counting apparatus based on image processing.

【0005】[0005]

【発明が解決しようとする課題】しかしながら、上記特
開平8−123935号公報で提案された装置において
は、混雑度が高いような場合、上記の上側及び下側の計
数ラインを別人が同時に又は近時刻で通過する可能性が
あり、その場合には移動方向や移動速度の判別が困難又
は不正確になるという問題が指摘される。また、混雑度
が低い場合においても、計数ライン上で人が立ち止まっ
たり、ある者を別の者が追い越したりすると上記同様の
問題が生じるものと思われる。なお、この従来文献に
は、移動速度を考慮した人数計測処理、混雑度に応じた
計測手法の切り換えなどについては何ら開示されていな
い。
However, in the apparatus proposed in Japanese Patent Application Laid-Open No. H8-123935, when the congestion degree is high, another person simultaneously or near the upper and lower counting lines. There is a possibility of passing at the time, and in that case, a problem is pointed out that it is difficult or inaccurate to determine the moving direction and the moving speed. Further, even when the congestion degree is low, it is considered that the same problem as described above occurs when a person stops on the counting line or another person overtakes another person. Note that this conventional document does not disclose any method of measuring the number of people in consideration of the moving speed, switching of the measurement method according to the degree of congestion, and the like.

【0006】本発明は上記従来の課題に鑑みなされたも
のであり、その目的は、各移動物体の動きの推移を考慮
して精度良く移動物体数の計測を行うことにある。
The present invention has been made in view of the above-mentioned conventional problems, and an object of the present invention is to accurately measure the number of moving objects in consideration of the transition of the movement of each moving object.

【0007】本発明の他の目的は、混雑度を考慮して適
切な手法により移動物体数の計測を行うことにある。
Another object of the present invention is to measure the number of moving objects by an appropriate method in consideration of the degree of congestion.

【0008】本発明の他の目的は、特に移動速度を考慮
して移動物体数の計測を行うことにある。
It is another object of the present invention to measure the number of moving objects in consideration of a moving speed.

【0009】[0009]

【課題を解決するための手段】(1)上記目的を達成す
るために、本発明は、X軸に沿って設定されたX軸ウイ
ンドウを通過する移動物体を表すX軸二値化像を逐次取
得し、各時刻のX軸二値化像を時間軸方向に揃えて二次
元のX−T画像を形成する第1の画像形成手段と、前記
X軸ウインドウを横切って整列設定された複数のY軸ウ
インドウごとに、移動物体の移動位置を表すY軸二値化
像を逐次取得し、各時刻のY軸二値化像を時間軸方向に
揃えて二次元のY−T画像を形成する第2の画像形成手
段と、前記Y−T画像に基づいて各移動物体について移
動方向及び移動速度の少なくとも一方を解析する移動解
析手段と、前記移動解析手段の解析結果を利用して、前
記X−T画像に基づいて移動物体数を計数する計数手段
と、を含むことを特徴とする。
(1) In order to achieve the above object, the present invention is to sequentially convert an X-axis binary image representing a moving object passing through an X-axis window set along the X-axis. A first image forming means for acquiring and aligning the X-axis binary images at each time in the time axis direction to form a two-dimensional X-T image; and a plurality of images arranged and set across the X-axis window. For each Y-axis window, a Y-axis binarized image representing the moving position of the moving object is sequentially obtained, and the Y-axis binarized images at each time are aligned in the time axis direction to form a two-dimensional YT image. A second image forming means, a movement analyzing means for analyzing at least one of a moving direction and a moving speed of each moving object based on the Y-T image, and the X Counting means for counting the number of moving objects based on the T image. And butterflies.

【0010】上記構成によれば、X軸ウインドウ上にお
ける移動物体の存在(又は変位)を表すX軸二値化像が
取得され、そのX軸二値化像を時系列順で揃えることに
より二次元のX−T画像が形成される。そのX−T画像
の一方軸はX軸ウインドウの長手方向(X軸)に相当し
他方軸は時間軸(T軸)に相当する。
According to the above configuration, an X-axis binarized image representing the existence (or displacement) of the moving object on the X-axis window is obtained, and the X-axis binarized images are aligned in chronological order. A two-dimensional X-T image is formed. One axis of the X-T image corresponds to the longitudinal direction (X-axis) of the X-axis window, and the other axis corresponds to the time axis (T-axis).

【0011】その一方、X軸ウインドウを横切るように
複数のY軸ウインドウが設定され、各Y軸ウインドウ上
における移動物体の位置(又は変位)を表すY軸二値化
像が取得され、そのY軸二値化像を時系列順で揃えるこ
とにより二次元のY−T画像が形成される。そのY−T
画像の一方軸はY軸ウインドウの長手軸(Y軸)に相当
し他方軸は時間軸(T軸)に相当する。
On the other hand, a plurality of Y-axis windows are set to cross the X-axis window, and a Y-axis binarized image representing the position (or displacement) of the moving object on each Y-axis window is obtained. A two-dimensional YT image is formed by aligning the axial binarized images in chronological order. That YT
One axis of the image corresponds to the longitudinal axis (Y axis) of the Y axis window, and the other axis corresponds to the time axis (T axis).

【0012】ちなみに、X−T画像と各Y−T画像の両
者の時間軸は一致していることが望ましく、所定タイミ
ング(一定周期又は移動が途絶えたタイミング)で両画
像が形成されるように制御するのが望ましい。なお、上
記のX軸は主移動方向に直交しているのが望ましく、上
記のY軸は主移動方向に並行であることが望ましい。
Incidentally, it is desirable that the time axes of both the XT image and each of the YT images coincide with each other, so that the two images are formed at a predetermined timing (a fixed period or a timing at which the movement is stopped). It is desirable to control. Note that the X axis is desirably orthogonal to the main movement direction, and the Y axis is desirably parallel to the main movement direction.

【0013】上記のようにY軸ウインドウ単位でY−T
画像が得られると、各Y−T画像上において移動物体の
動きが認識され、その動きを利用して移動方向、移動速
度などの情報が取得される。よって、X軸ウインドウ上
の各位置において、各移動物体の移動方向が異なりかつ
それが時間的に変化する場合でも、上記のY−T画像に
よれば、各移動物体の運動に着目して移動方向などを忠
実に判別可能である。もちろん、すべての移動物体が一
定の方向に移動するという前提があれば移動方向の判別
は必ずしも行う必要がない。
As described above, Y-T in Y-axis window units
When an image is obtained, the movement of the moving object is recognized on each Y-T image, and information such as the moving direction and the moving speed is acquired using the movement. Therefore, at each position on the X-axis window, even if the moving direction of each moving object is different and changes with time, according to the above YT image, the moving object is focused on the motion of each moving object. The direction and the like can be faithfully determined. Of course, if it is assumed that all the moving objects move in a certain direction, it is not always necessary to determine the moving direction.

【0014】上述のように移動解析が行われると、その
解析結果がX−T画像上における物体数の計数において
利用される。その計数手法としては各種の手法を適用で
きるが、少なくとも移動方向及び移動速度の一方を利用
して計数処理を行えば、特に混雑度が高いような状態に
おいて計数精度を向上できる。なお、各移動物体ごとに
移動速度が取得される場合、その代表値(例えば平均
値)を利用して計数処理を行ってもよく、あるいは個々
の移動物体の移動速度を考慮して計数処理を行ってもよ
い。
When the movement analysis is performed as described above, the analysis result is used in counting the number of objects on the X-T image. Various methods can be applied as the counting method. However, if the counting process is performed using at least one of the moving direction and the moving speed, the counting accuracy can be improved particularly in a state where the congestion degree is high. When the moving speed is obtained for each moving object, the counting process may be performed using a representative value (for example, an average value), or the counting process may be performed in consideration of the moving speed of each moving object. May go.

【0015】本発明に係る装置は、望ましくは、駅の階
段などの人が二方向(正逆方向)に流通する場所での人
数計測に用いられる。すなわち、本発明によれば、混雑
度が変動したり密集状態が形成されるような場所におい
て、人数計数を高速にかつ高精度に行うことができる。
The apparatus according to the present invention is desirably used for measuring the number of people at places where people circulate in two directions (forward and reverse directions), such as the stairs of a station. That is, according to the present invention, the number of people can be counted at high speed and with high accuracy in a place where the degree of congestion fluctuates or a dense state is formed.

【0016】(2)本発明において、望ましくは、前記
X軸ウインドウ及び前記複数のY軸ウインドウを包含す
る観測エリアを撮像する撮像手段と、前記撮像手段にて
取得された各画像に対し隣接フレーム間で差分演算を実
行して差分画像を求める差分演算手段と、前記差分画像
を基礎として前記X軸二値化像及び前記Y軸二値化像を
作成する二値化像作成手段と、を含む。
(2) In the present invention, preferably, imaging means for imaging an observation area including the X-axis window and the plurality of Y-axis windows, and an adjacent frame for each image acquired by the imaging means A difference calculation means for performing a difference calculation between the two to obtain a difference image; and a binary image creation means for creating the X-axis binary image and the Y-axis binary image based on the difference image. Including.

【0017】上記構成によれば、撮像手段で撮像された
画像を基礎としてX軸二値化像及びY軸二値化像が取り
出され、単一の撮像手段を用いて各二値化像を取得でき
る利点がある。ここで、撮像手段は、観測エリアの上方
(望ましくはX軸ウインドウの中央上方)に設けるのが
望ましく、そのように設定を行えば、移動物体の高さ
(例えば身長)のばらつきや移動物体間の重なりによる
測定誤差を極力低減できる。
According to the above arrangement, an X-axis binarized image and a Y-axis binarized image are taken out based on the image picked up by the image pickup means, and each binarized image is extracted using a single image pickup means. There are advantages that can be obtained. Here, the imaging means is preferably provided above the observation area (preferably above the center of the X-axis window). If such setting is made, variations in the height (for example, height) of the moving object and the distance between the moving objects The measurement error due to the overlap of can be reduced as much as possible.

【0018】例えばカメラなどを利用して撮像を行う場
合、カメラ直下からの各撮像位置の距離に依存して移動
物体の像の見え方が異なるので、その場合にはその距離
に応じた重み付けあるいは画像補正を行うのが望まし
い。
For example, when an image is taken using a camera or the like, the appearance of the image of the moving object differs depending on the distance of each image pickup position from immediately below the camera. In this case, weighting or weighting according to the distance is used. It is desirable to perform image correction.

【0019】もちろん、X軸ウインドウ及び各Y軸ウイ
ンドウ用の専用の撮像手段を個別的に設けてもよい。そ
のような撮像手段として、CCD素子などを利用するこ
とができる。また、撮像された画像を記録装置に記録し
ておき、その再生画像を処理することにより移動物体数
の計数を行ってもよい。
Of course, dedicated imaging means for the X-axis window and each Y-axis window may be individually provided. As such an imaging means, a CCD element or the like can be used. Alternatively, the captured image may be recorded in a recording device, and the number of moving objects may be counted by processing the reproduced image.

【0020】差分画像は、変位があった部分だけ像とし
て表した画像であり、移動物体の移動変位分のみを画像
化でき、背景や静止物体(移動物体自体の静止を含む)
の影響を排除できる。なお、差分画像に対しては、移動
物体の変位を背景(ノイズ)から分離抽出するために例
えば二値化処理などを施すのが望ましい。
The difference image is an image in which only the portion where the displacement has occurred is represented as an image, and only the displacement of the moving object can be imaged, and the background and the stationary object (including the stationary object itself)
Can be eliminated. Note that it is desirable to apply, for example, a binarization process to the difference image in order to separate and extract the displacement of the moving object from the background (noise).

【0021】(3)本発明において、望ましくは、前記
二値化像作成手段は、前記差分画像から前記X軸ウイン
ドウに相当するX軸ウインドウ画像を切り出し、そのX
軸ウインドウ画像をX軸に射影しかつ二値化処理するこ
とによって前記X軸二値化像を作成する手段と、前記差
分画像から前記各Y軸ウインドウに相当するY軸ウイン
ドウ画像を切り出し、そのY軸ウインドウ画像をY軸に
射影しかつ二値化処理することによって前記Y軸二値化
像を作成する手段と、を含む。
(3) In the present invention, preferably, the binarized image creation means cuts out an X-axis window image corresponding to the X-axis window from the difference image,
Means for projecting the axis window image on the X axis and performing binarization processing to create the X axis binary image, and cutting out a Y axis window image corresponding to each of the Y axis windows from the difference image, Means for projecting the Y-axis window image on the Y-axis and performing binarization processing to create the Y-axis binary image.

【0022】二値化像の本質は、移動物体(又はその変
位)の抽出・明確化にあり、それゆえ照明や撮像の工夫
などにより、移動物体のみを弁別できる画像として各ウ
インドウ画像が取得されるのであれば、それらのウイン
ドウ画像は実質的に上記二値化像に該当するものと考え
られ、それをそのまま画像形成に利用してもよい。一般
に、ノイズや局所的な明るさの相違などを排除して、移
動物体を的確に抽出するために、各ウインドウ画像に射
影処理及び二値化処理を施して二値化像を作成するのが
望ましい。各二値化像は一次元像(ライン像)あるいは
一定の幅をもった帯状の像として構成されるのが望まし
い。
The essence of the binarized image lies in the extraction and clarification of the moving object (or its displacement). Therefore, each window image is acquired as an image from which only the moving object can be discriminated by means of lighting and imaging. If such a window image is used, it is considered that the window image substantially corresponds to the binarized image, and the window image may be used as it is for image formation. In general, in order to eliminate noise and local brightness differences, and to accurately extract a moving object, it is necessary to apply a projection process and a binarization process to each window image to create a binarized image. desirable. Each binarized image is preferably configured as a one-dimensional image (line image) or a band-like image having a certain width.

【0023】(4)本発明において、望ましくは、前記
移動解析手段は、前記Y−T画像において移動物体ごと
の移動軌跡を認識する移動軌跡認識手段と、前記移動軌
跡の傾き方向から当該移動物体の移動方向を判別する方
向判別手段と、を含む。
(4) In the present invention, preferably, the movement analysis means includes movement trajectory recognition means for recognizing a movement trajectory of each moving object in the YT image, and the moving object is determined based on a tilt direction of the movement trajectory. Direction determining means for determining the moving direction of the camera.

【0024】Y−T画像においては、各Y軸ウインドウ
で観測された移動物体の経時的な位置変化が移動軌跡と
して表され、その起動軌跡の傾き方向から移動方向が判
別される。この場合、移動速度の変化により移動軌跡が
直線とならないような場合には移動軌跡を近似する直線
の傾き方向から移動方向を判別すればよい。
In the YT image, a change over time in the position of the moving object observed in each Y-axis window is represented as a moving locus, and the moving direction is determined from the inclination direction of the starting locus. In this case, if the moving locus does not become a straight line due to a change in the moving speed, the moving direction may be determined from the inclination direction of the straight line approximating the moving locus.

【0025】上記処理によれば、各Y軸ウインドウにお
いてそれを通過する移動物体ごとに移動速度が求められ
る。例えば、Y−T画像の時間軸範囲内において、特定
のY軸ウインドウ内における移動物体の流通方向が逆転
するような場合においても、上記処理によればその逆転
も把握可能である。
According to the above processing, the moving speed is obtained for each moving object passing through each Y-axis window. For example, in the case where the moving direction of the moving object in the specific Y-axis window is reversed within the time axis range of the Y-T image, the reversal can be grasped by the above processing.

【0026】(5)本発明において、望ましくは、前記
計数手段は、前記判別された移動方向に従って前記X−
T画像に含まれる物体像を移動方向ごとに区分けする区
分け手段と、前記区分け後のX−T画像に基づいて移動
方向ごとに移動物体数の計数を行う方向別計数手段と、
を含む。
(5) In the present invention, preferably, the counting means is configured to control the X-axis according to the determined moving direction.
Classifying means for classifying an object image included in a T image for each moving direction, direction-specific counting means for counting the number of moving objects for each moving direction based on the XT image after the classification,
including.

【0027】上述のように、各移動物体の移動方向が判
別されるので、X−T画像上において各移動物体の移動
方向を区別しながら移動物体数の計測を行える。
As described above, since the moving direction of each moving object is determined, the number of moving objects can be measured while distinguishing the moving direction of each moving object on the XT image.

【0028】(6)本発明において、望ましくは、前記
移動解析手段は、前記Y−T画像において移動物体ごと
の移動軌跡を認識する移動軌跡認識手段と、前記移動軌
跡の傾きの大きさから当該移動物体の移動速度を判別す
る速度判別手段と、を含む。
(6) In the present invention, preferably, the movement analysis means includes a movement trajectory recognition means for recognizing a movement trajectory of each moving object in the YT image, and the movement analysis means determines the inclination of the movement trajectory. Speed determining means for determining the moving speed of the moving object.

【0029】上記構成によれば、Y−T画像における移
動軌跡の傾きは移動速度に相当しておりその傾きの大き
さから移動速度が演算される。移動速度が途中で変化す
るような場合、変化前後の移動軌跡の傾きからそれぞれ
移動速度を求めてもよいし、移動軌跡が直線近似できる
ような場合、速度の平均値として移動速度を求めてもよ
い。また、物体数計測での要請に応じて、1又は複数の
代表的な移動軌跡のみについて移動速度を演算してもよ
い。
According to the above arrangement, the inclination of the movement locus in the YT image corresponds to the movement speed, and the movement speed is calculated from the magnitude of the inclination. When the moving speed changes in the middle, the moving speed may be obtained from the inclination of the moving trajectory before and after the change, or when the moving trajectory can be linearly approximated, the moving speed may be obtained as an average value of the speed. Good. Further, the moving speed may be calculated for only one or a plurality of representative moving trajectories in response to a request for the number of objects.

【0030】(7)本発明において、望ましくは、前記
計数手段は、前記判別された移動速度に基づいて単位面
積を可変設定する手段と、前記X−T画像における物体
像の総面積を前記単位面積で除した結果に基づいて移動
物体数を計数する除算計数手段と、を含む。
(7) In the present invention, preferably, the counting means includes means for variably setting a unit area based on the determined moving speed, and means for setting a total area of the object image in the XT image to the unit area. Division counting means for counting the number of moving objects based on the result of the division by the area.

【0031】例えば混雑度が高いような場合、X−T画
像において各物体像の個別カウントが困難になる。そこ
で、1移動物体当たりの基準面積で物体像の総面積を除
算し移動物体数を求めるものである。その場合、基準面
積は移動物体の速度(例えば平均速度)に応じて可変設
定すれば、密集状態においても比較的高精度で物体数の
計数を行える。
For example, when the congestion degree is high, it becomes difficult to individually count each object image in the XT image. Therefore, the number of moving objects is obtained by dividing the total area of the object image by the reference area per moving object. In this case, if the reference area is variably set according to the speed (for example, the average speed) of the moving object, the number of objects can be counted with relatively high accuracy even in a dense state.

【0032】(8)上記目的を達成するために、本発明
は、X軸に沿って設定されたX軸ウインドウを通過する
移動物体を観測するためのX軸射影二値化像を逐次取得
し、各時刻のX軸射影二値化像を時間軸方向に揃えて二
次元のX−T画像を形成するX−T画像形成手段と、前
記X−T画像に基づいて混雑度を判定する混雑度判定手
段と、前記判定された混雑度に応じた計数方式に従っ
て、前記X−T画像に基づいて移動物体数の計数を行う
計数手段と、を含むことを特徴とする。
(8) In order to achieve the above object, the present invention sequentially obtains an X-axis projected binary image for observing a moving object passing through an X-axis window set along the X-axis. XT image forming means for forming a two-dimensional XT image by aligning the X-axis projected binary images at each time in the time axis direction, and congestion determining a congestion degree based on the XT image And a counting means for counting the number of moving objects based on the XT image in accordance with a counting method according to the determined congestion degree.

【0033】上記構成によれば、混雑度に応じて計数方
式を切り換えて、状況に応じて適切な計数を行える。例
えば、混雑度が低いような場合、実際の通過事実に忠実
な計数方式が選択され、混雑度が高いような場合、移動
物体が密集していても計数可能な計数方式が選択され
る。このように柔軟に計数方式を切り換えれば各計数方
式の利点を十分に活かすことができる。
According to the above configuration, the counting method can be switched according to the degree of congestion, and appropriate counting can be performed according to the situation. For example, when the congestion degree is low, a counting method faithful to the actual passing fact is selected, and when the congestion degree is high, a counting method capable of counting even if the moving objects are dense is selected. If the counting methods are flexibly switched in this way, the advantages of each counting method can be fully utilized.

【0034】(9)本発明において、望ましくは、前記
混雑度は、前記X−T画像に含まれる物体像の総面積に
基づいて判定される。X−T画像には一定期間内におけ
る移動物体の通過数が反映されているため、それを基準
として混雑度が判定される。
(9) In the present invention, preferably, the congestion degree is determined based on the total area of the object images included in the XT image. Since the X-T image reflects the number of passing moving objects within a certain period, the congestion degree is determined based on the number.

【0035】(10)本発明において、望ましくは、前
記計数手段は、前記混雑度判定手段が低混雑度であると
判定した場合に、前記X−T画像に含まれる物体像の個
数を計数することにより移動物体数を演算する個別計数
手段と、前記混雑度判定手段が高混雑度であると判定し
た場合に、前記X−T画像に含まれる物体像の総面積を
基準面積で除することにより移動物体数を演算する除算
計数手段と、を含む。
(10) In the present invention, desirably, the counting means counts the number of object images included in the XT image when the congestion degree judging means judges that the congestion degree is low. The individual counting means for calculating the number of moving objects, and when the congestion degree determining means determines that the congestion degree is high, dividing the total area of the object images included in the X-T image by a reference area. And division counting means for calculating the number of moving objects by

【0036】上記構成によれば、低混雑度の場合すなわ
ち各物体像の連結の可能性が低いような場合には個別計
数方式が適用され、高混雑度の場合すなわち各物体像の
連結の可能性が高いような場合には便宜的に面積を演算
対象とした除算計数方式が適用される。なお、個別計数
方式が適用される場合、各物体像の大きさ(面積)を移
動速度に応じて評価してもよい。例えば、移動速度を考
慮しても大きすぎる物体像が存在していた場合、それを
物体像の連結と認識でき、その部分について除算演算方
式を適用してもよい。ただし、人が大きな荷物を担いで
いるような場合、それを二人と誤判定しないように他の
画像処理を組み合わせて適用してもよい。
According to the above configuration, the individual counting method is applied when the congestion degree is low, that is, when the possibility of connection of each object image is low, and when the congestion degree is high, that is, the connection of each object image is possible. In the case where the performance is high, a division counting method using the area as a calculation object is applied for convenience. When the individual counting method is applied, the size (area) of each object image may be evaluated according to the moving speed. For example, when there is an object image that is too large even in consideration of the moving speed, it can be recognized as a connection of the object images, and a division operation method may be applied to the portion. However, when a person is carrying a large luggage, another image processing may be combined and applied so as not to erroneously determine that the two are two persons.

【0037】(11)本発明において、望ましくは、前
記個別計数手段及び前記除算計数手段は、移動方向ごと
に移動物体数の計数を行う。この構成において、移動方
向の判別は上述のY−T画像に基づいて行うのが望まし
い。
(11) In the present invention, preferably, the individual counting means and the division counting means count the number of moving objects for each moving direction. In this configuration, it is desirable to determine the moving direction based on the above-described YT image.

【0038】以上のように、本発明によれば、複雑なパ
ラメータの設定やチューニングは不要であり、また、高
価な設備を必要とせずに、混雑度が高い場合においても
比較的高精度の計数を行うことができる。よって、低コ
ストで実用性が高い移動物体計測装置を提供できる利点
がある。
As described above, according to the present invention, it is not necessary to set or tune complicated parameters, and it is not necessary to use expensive equipment, and even if the congestion degree is high, the counting can be performed with relatively high accuracy. It can be performed. Therefore, there is an advantage that it is possible to provide a low-cost and highly practical moving object measurement device.

【0039】[0039]

【発明の実施の形態】以下、本発明の好適な実施の形態
について図面に基づいて説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Preferred embodiments of the present invention will be described below with reference to the drawings.

【0040】図1には、本発明に係る移動物体計測装置
の好適な実施形態が示されており、図1はその全体構成
を示すブロック図である。本実施形態に係る移動物体計
測装置は例えば駅の改札口や階段に設けられる人数計測
装置である。もちろん、本発明は人以外の他の物体を計
測する場合においても適用可能である。
FIG. 1 shows a preferred embodiment of the moving object measuring apparatus according to the present invention, and FIG. 1 is a block diagram showing the entire configuration. The moving object measurement device according to the present embodiment is, for example, a people measurement device provided at a ticket gate or stairs of a station. Of course, the present invention is also applicable to a case where an object other than a person is measured.

【0041】図1において、画像入力部10は観測エリ
アを撮像した画像を取り込む手段である。この実施形態
において、カメラ12で撮像された画像がA/D変換器
14によってデジタル信号に変換されている。このよう
にカメラ12からの信号を直接的に入力してもよいが、
例えばカメラ12で撮像された画像をいったん記録装置
16に格納し、その記録装置16から読み出された信号
を取り込むようにしてもよい。
In FIG. 1, an image input unit 10 is a means for taking in an image of an observation area. In this embodiment, an image captured by the camera 12 is converted into a digital signal by the A / D converter 14. Thus, the signal from the camera 12 may be directly input,
For example, an image captured by the camera 12 may be temporarily stored in the recording device 16 and a signal read from the recording device 16 may be fetched.

【0042】カメラ12は、人が通過する観測エリアの
上方真下向きで設置されるのが望ましい。このようにカ
メラ12を配置すれば、上方から人の流通を観察するこ
とができるので、隠蔽や体格(身長など)のばらつきの
影響を少なくすることができる。
It is desirable that the camera 12 be installed just above the observation area through which a person passes. By arranging the cameras 12 in this manner, the flow of people can be observed from above, so that the influence of concealment and variation in physique (such as height) can be reduced.

【0043】図2には、カメラ12で撮像された観測エ
リアの画像100が示されている。図2において、符号
106はカメラ真下位置を示しており、符号108及び
符号110はそれぞれ通路102の左端108及び右端
110を示している。そのような各座標は、後述するパ
ラメータ入力部30等によってユーザーにより登録され
る。図2において、X軸は主流通方向と直交しており、
Y軸は主流通方向と平行である。
FIG. 2 shows an image 100 of the observation area captured by the camera 12. In FIG. 2, reference numeral 106 indicates a position immediately below the camera, and reference numerals 108 and 110 indicate a left end 108 and a right end 110 of the passage 102, respectively. Such coordinates are registered by the user through a parameter input unit 30 described later. In FIG. 2, the X axis is orthogonal to the main flow direction,
The Y axis is parallel to the main flow direction.

【0044】カメラ12は、できる限り高い位置に配置
するのが望ましく、そのように設置すれば、できるだけ
人同士の重なり合いを防止して測定誤差を少なくでき
る。ちなみに、本実施形態の装置は、図2に示す通路1
02を順方向及び逆方向に流通する人の数を計測するこ
とを目的としており、その流通方向に直交する方向への
人の動きは検知対象とはしていない。本発明の原理を拡
張適用することによって、様々な方向へ移動する人の計
測を行うことも可能である。
It is desirable that the camera 12 is arranged at a position as high as possible. If such an arrangement is adopted, it is possible to prevent overlap between persons as much as possible and to reduce measurement errors. By the way, the device of the present embodiment has a passage 1 shown in FIG.
02 is intended to measure the number of people who circulate in the forward and reverse directions, and the movement of the person in the direction orthogonal to the circulation direction is not detected. By extending the principle of the present invention, it is also possible to measure a person moving in various directions.

【0045】撮像対象が平坦な通路ではなく、例えば階
段であるような場合、カメラ10はその階段の上方ある
いは斜め上方に設置される。何れにしても、上述したよ
うに、できる限り人同士の重なり合いがないような方向
から撮像を行なうのが望ましい。
When the object to be imaged is not a flat passage but a stair, for example, the camera 10 is installed above or diagonally above the stair. In any case, as described above, it is desirable to perform imaging from a direction in which people do not overlap as much as possible.

【0046】図1に示すパラメータ入力部30は、例え
ばキーボードやマウスなどで構成されるものであり、撮
像条件をユーザーにより入力させるための手段である。
もちろん、予め撮像条件が既知であれば、必ずしもその
ようなパラメータ入力部30を設ける必要はない。入力
されるパラメータとしては、図2に示したようなカメラ
真下位置106、通路の左端108及び右端110ある
いは通路の幅といったものや、撮像に使用しているカメ
ラ12の画角や設置高があげられる。それらのパラメー
タの入力に当たっては、例えばディスプレイ上に撮像さ
れた画像を表示し、図2に示すように、各パラメータに
相当する座標をマウスなどのポインティングデバイスを
利用してクリックさせることによりユーザー入力させて
もよい。そのようなユーザーインターフェイスを利用す
れば、ユーザーの負担を軽減でき、初期パラメータ設定
にかかる煩雑さを大幅に解消可能である。カメラが常設
されている場合には、各測定を行なう度にそのようなパ
ラメータの入力を行なう必要はなく、あらかじめ登録し
ておけばよい。臨時にカメラを設置して人数計測を行う
ような場合でも、上述したようにパラメータの入力は簡
単であり、即座に計測を実行できるという利点がある。
The parameter input section 30 shown in FIG. 1 is composed of, for example, a keyboard and a mouse, and is a means for allowing a user to input an imaging condition.
Of course, if the imaging conditions are known in advance, it is not always necessary to provide such a parameter input unit 30. The input parameters include the position just below the camera 106, the left end 108 and the right end 110 of the passage, or the width of the passage as shown in FIG. 2, and the angle of view and installation height of the camera 12 used for imaging. Can be In inputting those parameters, for example, a captured image is displayed on a display, and as shown in FIG. 2, coordinates corresponding to each parameter are clicked using a pointing device such as a mouse to input a user input. You may. By using such a user interface, the burden on the user can be reduced, and the complexity of setting the initial parameters can be greatly reduced. If the camera is permanently installed, it is not necessary to input such parameters every time each measurement is performed, and it is sufficient to register them in advance. Even when the number of people is measured by temporarily installing a camera, the input of parameters is simple as described above, and there is an advantage that the measurement can be executed immediately.

【0047】図1に戻って、前処理部19には、A/D
変換器14から出力されるデジタル信号としての画像が
入力される。フレーム間差分演算部18はフレーム間に
おいて差分演算を実行することにより、差分画像を取得
する手段である。その差分画像は人の動きすなわち変位
を表した画像である。このような差分演算によれば、人
の動きに着目でき、たとえば人が静止しているような場
合に、それに対して重複した計測がなされてしまうこと
を排除できる。また、背景との分離を容易かつ確実に行
えるという利点もある。
Returning to FIG. 1, A / D
An image as a digital signal output from the converter 14 is input. The inter-frame difference calculation unit 18 is a unit that obtains a difference image by performing a difference calculation between frames. The difference image is an image representing the movement, that is, the displacement of the person. According to such a difference calculation, it is possible to pay attention to the movement of a person, and it is possible to eliminate, for example, when a person is stationary, performing redundant measurement. There is also an advantage that separation from the background can be performed easily and reliably.

【0048】二値化処理部20は、差分画像に対して二
値化処理を実行する手段である。このような二値化によ
れば、ノイズなどを排除して、移動物体の変位のみを確
実に抽出することが可能となる。その場合のしきい値
は、しきい値設定部22によって設定されている。しき
い値設定部22は、図2に示した画像100内における
局所的な明るさの違いに対応するために、画像内の各部
位の明るさに応じて設定される。このため、望ましくは
A/D変換器14から出力される画像がしきい値設定部
22で参照される。そして、しきい値設定部22はその
ような画像に基づいて適切なしきい値の設定を行ってい
る。この場合、後述するX軸ウインドウ112がX軸方
向に沿って設定されることに対応して、しきい値はX軸
上の各座標に対応して可変設定するのが望ましい。
The binarization processing section 20 is means for executing a binarization process on the difference image. According to such binarization, it is possible to reliably extract only the displacement of the moving object while eliminating noise and the like. The threshold in that case is set by the threshold setting unit 22. The threshold value setting unit 22 is set according to the brightness of each part in the image in order to cope with a local difference in brightness in the image 100 shown in FIG. For this reason, the image output from the A / D converter 14 is desirably referred to by the threshold value setting unit 22. Then, the threshold setting unit 22 sets an appropriate threshold based on such an image. In this case, it is desirable that the threshold value be variably set corresponding to each coordinate on the X-axis in accordance with the setting of an X-axis window 112 described later along the X-axis direction.

【0049】上述のように二値化処理された差分画像は
メモリ24にいったん格納される。カメラ12において
は、連続的に画像100の取り込みが行われており、メ
モリ24には連続的に取得される差分画像が順次格納さ
れることになる。もちろん、後述するX軸二値化像形成
部32及びY軸二値化像形成部40がそれぞれ記憶部を
有するような場合には、独立してメモリ24を設ける必
要はない。
The difference image subjected to the binarization processing as described above is temporarily stored in the memory 24. The camera 12 continuously captures the image 100, and the memory 24 sequentially stores sequentially acquired difference images. Of course, when the X-axis binarized image forming unit 32 and the Y-axis binarized image forming unit 40 each have a storage unit, it is not necessary to provide the memory 24 independently.

【0050】処理期間制御部26は、後に詳述するX−
T画像及びY−T画像の形成期間すなわち処理期間を設
定する手段であり、そのような処理期間は一定期間とし
て、あるいは通路102上における人の流通が途絶えた
タイミングとして設定される。このため、処理期間制御
部26にはタイマー28が接続され、さらに必要に応じ
て差分画像が取り込まれている。処理期間制御部26が
リフレッシュ信号を出力すると、そのタイミングでメモ
リ24の記憶内容がクリアされ、次の処理期間内の差分
画像の格納が行われる。もちろん、メモリ24に格納さ
れた各差分画像は後述するX軸二値化像形成部32及び
Y軸二値化像形成部40に所定のタイミングで順次送ら
れている。
The processing period control unit 26 controls an X-
This is a means for setting a formation period of a T image and a YT image, that is, a processing period. Such a processing period is set as a fixed period or as a timing at which circulation of a person on the passage 102 is interrupted. Therefore, a timer 28 is connected to the processing period control unit 26, and a difference image is fetched as needed. When the processing period control unit 26 outputs the refresh signal, the content stored in the memory 24 is cleared at that timing, and the difference image is stored in the next processing period. Of course, the difference images stored in the memory 24 are sequentially sent to an X-axis binarized image forming unit 32 and a Y-axis binarized image forming unit 40, which will be described later, at a predetermined timing.

【0051】ちなみに、タイマ28はたとえば10秒の
計測を行っており、すなわち人の流通が途絶えない限り
においては、10秒間隔で以下に説明する画像処理及び
人数計測が実行される。それらの説明に先だって、X軸
ウインドウ(計数用ウインドウ)及びY軸ウインドウ
(方向/速度検出用ウインドウ)について説明する。
By the way, the timer 28 measures, for example, 10 seconds, that is, the image processing and the number of persons described below are executed at intervals of 10 seconds as long as the circulation of the person is not interrupted. Prior to the description, an X-axis window (counting window) and a Y-axis window (direction / speed detection window) will be described.

【0052】図3及び図4には、そのようなX軸ウイン
ドウ112及びY軸ウインドウ114が概念的に示され
ている。それらのウインドウは観測エリア内に仮想的に
設定されるものである。図3において、X軸ウインドウ
112は、人の主流通方向(各図においてY軸方向)と
直交する方向(各図においてX軸方向)に沿って設定さ
れている。すなわち、X軸方向に伸長した長方形の領域
としてX軸ウインドウ112が設定される。その幅W1
は、少なくとも人数計測を行なう検知範囲と同じかそれ
以上に設定される。その高さH1は図1に示した装置の
画像処理速度やカメラ12の高さを考慮して、通過する
人が1フレーム、望ましくは複数のフレームに現れる大
きさとして設定する。もちろん、例えばベルトコンベア
上において一定の低速度で流れる物品の個数を検出する
ような場合、このX軸ウインドウ112の高さH1は実
質的に1画素としてもよい。ただし、人数計測を行なう
場合には、人の予測される最大通過速度などを考慮して
上述のように高さH1が設定される。
FIGS. 3 and 4 conceptually show such an X-axis window 112 and a Y-axis window 114. These windows are virtually set in the observation area. In FIG. 3, the X-axis window 112 is set along a direction (the X-axis direction in each drawing) orthogonal to the main flow direction of the person (the Y-axis direction in each drawing). That is, the X-axis window 112 is set as a rectangular area extending in the X-axis direction. Its width W1
Is set to be at least equal to or larger than the detection range in which the number of people is measured. In consideration of the image processing speed of the apparatus shown in FIG. 1 and the height of the camera 12, the height H1 is set as a size at which a passing person appears in one frame, preferably a plurality of frames. Of course, when detecting the number of articles flowing at a constant low speed on the belt conveyor, for example, the height H1 of the X-axis window 112 may be substantially one pixel. However, when the number of people is measured, the height H1 is set as described above in consideration of the predicted maximum passing speed of the person and the like.

【0053】X軸ウインドウ112は、図2に示したよ
うな各パラメータの入力にしたがって自動的に設定され
ており、X軸ウインドウ112の中央座標がカメラ真下
位置106に相当している。
The X-axis window 112 is automatically set in accordance with the input of each parameter as shown in FIG. 2, and the center coordinates of the X-axis window 112 correspond to the position 106 directly below the camera.

【0054】図4において、X軸ウインドウ112の各
位置を横切るようにすなわちY軸方向に沿って複数のY
軸ウインドウ114が自動的に設定される。Y軸ウイン
ドウ114は、基本的にX軸ウインドウ112に対して
直交し、かつY軸ウインドウ114のY軸方向の中央座
標がX軸ウインドウ112のY軸中央座標と一致するよ
うに設定される。図4に示す例では、n個のY軸ウイン
ドウ114が設定されており、各Y軸ウインドウ114
は互いに接している。ここで、Y軸ウインドウ114の
個数を多くすれば、一般にそれだけ計測精度を向上でき
るが、その反面処理負荷が増加するので、装置の処理能
力を考慮してY軸ウインドウ114の個数を定めるのが
望ましい。
In FIG. 4, a plurality of Y-axes cross each position of the X-axis window 112, ie, along the Y-axis direction.
The axis window 114 is automatically set. The Y-axis window 114 is basically set so that it is orthogonal to the X-axis window 112 and that the center coordinate of the Y-axis window 114 in the Y-axis direction matches the Y-axis center coordinate of the X-axis window 112. In the example shown in FIG. 4, n Y-axis windows 114 are set, and each Y-axis window 114
Are in contact with each other. Here, if the number of the Y-axis windows 114 is increased, the measurement accuracy can generally be improved accordingly, but the processing load increases. On the other hand, the number of the Y-axis windows 114 is determined in consideration of the processing capability of the apparatus. desirable.

【0055】各Y軸ウインドウ114のX軸方向の幅W
2はX軸ウインドウ112のX軸方向の長さとY軸ウイ
ンドウ114の個数nとから決定され、各Y軸方向の高
さH2は、予想される人の最大移動速度などに応じて適
宜設定される。高さH2を大きくすればそれだけ後述す
る移動軌跡をより長時間あるいは長い距離に渡って取得
できるが、その分処理負担が大きくなるので、システム
の処理能力などに応じて高さH2を設定するのが望まし
い。
The width W in the X-axis direction of each Y-axis window 114
2 is determined from the length of the X-axis window 112 in the X-axis direction and the number n of the Y-axis windows 114, and the height H2 in each Y-axis direction is appropriately set according to the expected maximum moving speed of the person. You. If the height H2 is increased, a movement trajectory to be described later can be acquired over a longer time or a longer distance. However, the processing load increases correspondingly, so the height H2 is set according to the processing capacity of the system. Is desirable.

【0056】なお、例えば階段などを撮像した画像にお
いては、その階段の上部と下部とではカメラからの距離
が異なり、移動物体(人)の画像上における現れ方が相
違してくる。そこで、後述するように、そのような見え
方の相違に応じた画像補正や重み付けなどを行ってもよ
く、あるいはY軸ウインドウ114を台形状の領域とす
ることによって、重み付けを行ってもよい。
For example, in an image of a staircase or the like, the distance from the camera is different between the upper part and the lower part of the staircase, and the appearance of the moving object (person) in the image is different. Therefore, as will be described later, image correction and weighting may be performed according to such a difference in appearance, or weighting may be performed by making the Y-axis window 114 a trapezoidal region.

【0057】図1に戻って、X軸二値化像形成部32に
は、メモリ24に格納された各差分画像が順次入力され
る。そして、X軸二値化像形成部32は、まず、図3に
示したX軸ウインドウ112に相当するX軸ウインドウ
画像を切り出し、それをX軸に射影するとともに、二値
化処理を行ってX軸二値化像122(図5)を形成して
いる。
Returning to FIG. 1, each difference image stored in the memory 24 is sequentially input to the X-axis binary image forming unit 32. Then, the X-axis binarized image forming unit 32 first cuts out an X-axis window image corresponding to the X-axis window 112 shown in FIG. 3, projects it on the X-axis, and performs a binarization process. An X-axis binarized image 122 (FIG. 5) is formed.

【0058】図5には、その処理内容が概念的に示され
ている。(A)に示すように、観測エリア内にはパラメ
ータ入力部30によって入力されたパラメータを利用し
てX軸ウインドウ112が自動設定される。差分画像か
ら切り出されるX軸ウインドウ画像内には移動物体の差
分像120が含まれる。すなわち、この差分像120は
フレーム間における人の変位を表す像である。(B)に
示すように、X軸ウインドウ画像がX軸上に射影され、
これによりX軸上の輝度値の頻度分布が作成される。そ
の頻度分布をしきい値を利用して二値化処理することに
より、図示されるようなX軸二値化像122が形成され
る。そのX軸二値化像122には上記の差分像120に
対応した物体像124が含まれる。ちなみに、符号12
6は物体像124以外の背景部分を示している。
FIG. 5 conceptually shows the processing contents. As shown in (A), the X-axis window 112 is automatically set in the observation area using the parameters input by the parameter input unit 30. The X-axis window image cut out from the difference image includes the difference image 120 of the moving object. That is, the difference image 120 is an image representing the displacement of the person between the frames. As shown in (B), the X-axis window image is projected on the X-axis,
As a result, a frequency distribution of luminance values on the X axis is created. By binarizing the frequency distribution using a threshold value, an X-axis binarized image 122 as shown is formed. The X-axis binarized image 122 includes an object image 124 corresponding to the difference image 120 described above. By the way, code 12
Reference numeral 6 denotes a background portion other than the object image 124.

【0059】図1に戻って、X−T画像形成部34は、
上述のように作成されたX軸二値化像122を時系列順
で時間軸方向に揃えることにより、二次元のX−T画像
を形成する手段である。図6には、X−T画像130が
示されている。上記のように、この画像は図5(B)に
示したX軸二値化像122を時系列で連結させることに
より作成されるものである。X−T画像130上におい
て、物体像124は時間軸方向に連結し、それらによっ
てクラスタ132が構成される。このクラスタ132
は、X軸ウインドウ112を人が通過する期間内におけ
るその変位を表す物体像として位置づけられる。
Returning to FIG. 1, the XT image forming section 34
This is a means for forming a two-dimensional XT image by aligning the X-axis binarized image 122 created as described above in the time axis direction in chronological order. FIG. 6 shows an X-T image 130. As described above, this image is created by connecting the X-axis binarized images 122 shown in FIG. 5B in time series. On the X-T image 130, the object images 124 are connected in the time axis direction, and a cluster 132 is formed by them. This cluster 132
Is positioned as an object image representing its displacement during the period when a person passes through the X-axis window 112.

【0060】ところで、図7に示すように、カメラ12
の真下に位置する人200とそこから変位した位置に存
在する人202とでは、符号200A及び符号202A
に示すようにカメラ12からの見え方が相違する。そこ
で、見え方の相違に対応した補正を行なうのが望まし
い。図1に示したX−T画像形成部34は、そのような
補正を行なう機能も有しており、図8にはその補正内容
が示されている。すなわち、上述のような見え方の相違
はパラメータ入力部30で設定されるパラメータ及びク
ラスタの存在位置に応じて把握できるので、そのような
見え方の相違を解消するように各クラスタの補正が行わ
れる。図8に示すように、X軸上の中央に位置するクラ
スタに対しては特別の補正は行われず、その中央からX
軸方向に左右に変位するにしたがって、その変位度合に
応じて符号130にAで示すようにクラスタの面積の補
正が行われる。もちろん、X−T画像130自体に対し
て図8に示したような補正を行ってもよいが、後述する
人数計測に当たって見え方の相違に基づく重み付けを行
えば、実質的に上記同様の補正を行なうことができる。
By the way, as shown in FIG.
200A and 202A, a person 200 located immediately below and a person 202 at a position displaced therefrom.
The appearance from the camera 12 is different as shown in FIG. Therefore, it is desirable to perform correction corresponding to the difference in appearance. The X-T image forming unit 34 shown in FIG. 1 also has a function of performing such correction, and FIG. 8 shows the details of the correction. That is, since the difference in appearance as described above can be grasped in accordance with the parameters set in the parameter input unit 30 and the position of the cluster, correction of each cluster is performed so as to eliminate such difference in appearance. Will be As shown in FIG. 8, no special correction is performed on the cluster located at the center on the X axis, and X
As the shaft is displaced left and right in the axial direction, the area of the cluster is corrected as indicated by A in reference numeral 130 according to the degree of displacement. Of course, the correction as shown in FIG. 8 may be performed on the X-T image 130 itself. However, if weighting is performed based on the difference in appearance in counting the number of people to be described later, substantially the same correction as described above is performed. Can do it.

【0061】上述のように形成されたX−T画像は、図
1において、後述する方向別分離部52に送られると共
に、混雑度判定部36に送られている。混雑度判定部3
6は、本実施形態においてX−T画像に基づき通路10
2上における人の混雑度を判定する手段である。たとえ
ば、X−T画像の全体面積に対するクラスタの総面積の
割合から混雑度を判定してもよい。なお、X軸ウインド
ウ112で観測される移動物体の検出継続時間などを基
準として混雑度を判定してもよい。
The XT image formed as described above is sent to the direction separating section 52 described later and also to the congestion degree judging section 36 in FIG. Congestion degree judgment unit 3
Reference numeral 6 denotes a passage 10 based on the X-T image in the present embodiment.
2 is a means for determining the degree of congestion of a person on 2. For example, the congestion degree may be determined from the ratio of the total area of the cluster to the entire area of the XT image. Note that the congestion degree may be determined based on the detection duration of a moving object observed in the X-axis window 112 or the like.

【0062】計数方式選択部38は、判定された混雑度
に応じて、後述する各計数方式を選択する手段であり、
混雑度に応じて計数方式を切り換えることにより、状況
に応じて的確な人数計測を行うことができる。これにつ
いては後に詳述する。
The counting method selecting section 38 is a means for selecting each counting method to be described later according to the determined congestion degree.
By switching the counting method according to the degree of congestion, it is possible to accurately measure the number of people according to the situation. This will be described later in detail.

【0063】図1に示すY軸二値化像形成部40にはメ
モリ24から順次差分画像が入力さている。Y軸二値化
像形成部40は、差分画像からY軸ウインドウに相当す
るY軸ウインドウ画像を切り出し、それをY軸上に射影
すると共に二値化処理をすることによってY軸二値化像
134(図9)を形成する手段である。
The difference image is sequentially input from the memory 24 to the Y-axis binary image forming section 40 shown in FIG. The Y-axis binarized image forming unit 40 cuts out a Y-axis window image corresponding to the Y-axis window from the difference image, projects it on the Y-axis, and performs a binarization process to thereby convert the Y-axis binarized image. 134 (FIG. 9).

【0064】図9には、Y軸二値化像形成部40の処理
内容が概念的に示されている。(A)に示すように、観
測エリア内においては、X軸ウインドウ112を横切る
ように複数のY軸ウインドウ114が自動設定される。
そのようなY軸ウインドウ114の設定に当たっては、
上述した各種のパラメータが参照される。Y軸二値化像
形成部40は、個々のY軸ウインドウ114ごとにY軸
ウインドウ画像を切り出し、さらにそのY軸ウインドウ
画像をY軸に射影することによってY軸上における輝度
値の頻度分布を形成する。その頻度分布をしきい値によ
り二値化処理することによって、(B)に示すようなY
軸二値化像134が形成される。ここで、Y軸二値化像
134には物体像136が含まれ、その物体像136は
差分画像に含まれていた差分像120に対応するもので
ある。ちなみに、符号138は、物体像136以外の背
景部分を示している。したがって、1つの差分画像に対
して、n個のY軸ウインドウ114が設定され、各Y軸
ウインドウ114ごとにY軸二値化像134が形成され
ることになる。
FIG. 9 conceptually shows the processing contents of the Y-axis binary image forming section 40. As shown in (A), a plurality of Y-axis windows 114 are automatically set across the X-axis window 112 in the observation area.
In setting such a Y-axis window 114,
Reference is made to the various parameters described above. The Y-axis binarized image forming unit 40 cuts out the Y-axis window image for each Y-axis window 114, and projects the Y-axis window image on the Y-axis, thereby obtaining the frequency distribution of the luminance value on the Y-axis. Form. By binarizing the frequency distribution using a threshold value, Y as shown in FIG.
An axis binarized image 134 is formed. Here, the object image 136 is included in the Y-axis binarized image 134, and the object image 136 corresponds to the difference image 120 included in the difference image. Incidentally, reference numeral 138 indicates a background portion other than the object image 136. Therefore, n Y-axis windows 114 are set for one difference image, and a Y-axis binary image 134 is formed for each Y-axis window 114.

【0065】図1に戻って、Y−T画像形成部42は、
上述のように形成された各Y軸ウインドウごとのY軸二
値化像134を時系列順で時間軸方向に揃えることによ
り二次元のY−T画像を形成する手段である。
Returning to FIG. 1, the YT image forming section 42
This is a means for forming a two-dimensional YT image by aligning the Y-axis binarized image 134 formed for each Y-axis window as described above in the time axis direction in chronological order.

【0066】図10にはY−T画像140が示されてい
る。個々のY軸二値化像を揃えることにより、図9
(B)に示した物体像136が時系列順で連結し、それ
らによりクラスタ142が構成される。そのクラスタ1
42は、Y軸ウインドウ内を人が一定速度で通過した場
合直線状のパターンとして構成され、一方Y軸ウインド
ウ114内において人の移動速度が変化するような場
合、その速度変化に対応して屈曲状あるいは曲線状のパ
ターンとして構成される。
FIG. 10 shows a YT image 140. By aligning the individual Y-axis binarized images, FIG.
The object images 136 shown in (B) are connected in chronological order, and they constitute a cluster 142. Cluster 1
Reference numeral 42 denotes a linear pattern formed when a person passes through the Y-axis window at a constant speed. On the other hand, when the moving speed of the person changes in the Y-axis window 114, the pattern is bent in accordance with the speed change. It is configured as a shape or a curved pattern.

【0067】何れにおいても、クラスタ142の傾きの
方向は、人の移動方向に対応しており、また、クラスタ
142の傾きの大きさは人の移動速度の大きさに対応し
ており、つまり、Y−T画像140によれば各Y軸ウイ
ンドウごとに各人の動きに着目して移動軌跡を求めるこ
とができる。
In each case, the direction of inclination of the cluster 142 corresponds to the direction of movement of the person, and the degree of inclination of the cluster 142 corresponds to the degree of movement speed of the person. According to the Y-T image 140, the movement trajectory can be obtained by focusing on the movement of each person for each Y-axis window.

【0068】図1に示す移動軌跡抽出部44は、図10
に示したY−T画像140上において例えば隣接ピクセ
ルごとにラベルを付与することによってラベリングを行
い、これにより各クラスタ142すなわち移動軌跡を分
離抽出する手段である。そのように抽出された各クラス
タは方向判別部46及び速度判別部48に入力されてい
る。
The moving trajectory extracting section 44 shown in FIG.
The labeling is performed by, for example, assigning a label to each adjacent pixel on the Y-T image 140 shown in (1), thereby separating and extracting each cluster 142, that is, the movement trajectory. Each cluster thus extracted is input to the direction discriminating unit 46 and the speed discriminating unit 48.

【0069】方向判別部46は、クラスタの傾き方向か
ら移動物体の移動方向を判別する手段であり、速度判別
部48はクラスタの傾きの大きさから移動速度を判別す
る手段である。
The direction judging section 46 is means for judging the moving direction of the moving object from the tilt direction of the cluster, and the speed judging section 48 is means for judging the moving speed from the magnitude of the tilt of the cluster.

【0070】図11には、方向判別及び速度判別の概念
が示されている。(A)に示すように、Y−T画像14
0上には通過する移動体ごとにクラスタ142が構成さ
れる。そのクラスタ142に対して例えばクラスタ要素
の面積重心点を連結して近似直線146が求められる。
そして、方向判別部46はその近似直線146の傾き方
向から各移動物体ごとに移動方向の判別を行っている。
また、速度判別部48は、近似直線146の傾きの大き
さにしたがって各移動物体ごとに移動速度の判別を行っ
ている。ここで、図11(A)に示すように、近似直線
146の傾きが負であれば移動方向が下りと判別され、
一方傾きが正であれば上りと判別される。また各近似直
線146とT軸(あるいはY軸)とのなす角度θが演算
により求められ、そのθにより上述したように移動速度
が判別されている。
FIG. 11 shows the concept of direction discrimination and speed discrimination. As shown in FIG.
A cluster 142 is formed on 0 for each moving object passing therethrough. An approximate straight line 146 is obtained by connecting, for example, the area centroid points of the cluster elements to the cluster 142.
Then, the direction determining unit 46 determines the moving direction for each moving object from the inclination direction of the approximate straight line 146.
In addition, the speed determining unit 48 determines the moving speed of each moving object according to the magnitude of the inclination of the approximate straight line 146. Here, as shown in FIG. 11A, if the slope of the approximate straight line 146 is negative, the moving direction is determined to be down,
On the other hand, if the slope is positive, it is determined to be up. The angle θ between each of the approximate straight lines 146 and the T axis (or Y axis) is obtained by calculation, and the moving speed is determined from the θ as described above.

【0071】図1に示す方向別マップ作成部50は、図
11(B)に示す方向別パターン148をX軸方向に揃
えることにより、図11(C)に示す方向別マップ15
0を作成する手段である。すなわち、方向別パターン1
48は、処理期間制御部26によって設定された処理期
間内において特定のY軸ウインドウを通過した各移動物
体の方向を表すパターンである。例えば、駅の階段にお
いては、電車の発着などに応じて人の流通方向が刻々と
変化するが、方向別パターン148は特定のY軸ウイン
ドウについてそのような刻々と変化する人の流れを反映
したパターンである。したがって、Y軸ウインドウ11
4の並び方向に沿ってすなわちX軸方向に沿って各Y軸
ウインドウについて求められた方向別パターン148を
整列配置すれば、上記の方向別マップ150を取得する
ことができる。この方向別マップ150は一定の処理期
間内における人の流通方向の変化をX軸上の各部位にお
いて表した画像である。
The direction-specific map generating section 50 shown in FIG. 1 aligns the direction-specific patterns 148 shown in FIG. 11B in the X-axis direction, thereby forming the direction-specific map 15 shown in FIG.
This is a means for creating 0. That is, direction-specific pattern 1
Reference numeral 48 denotes a pattern representing the direction of each moving object that has passed through a specific Y-axis window during the processing period set by the processing period control unit 26. For example, on the stairs of the station, the distribution direction of people changes momentarily according to the arrival and departure of a train, and the direction-specific pattern 148 reflects such ever-changing flow of people for a specific Y-axis window. It is a pattern. Therefore, the Y-axis window 11
By arranging and aligning the direction-specific patterns 148 obtained for each Y-axis window along the arrangement direction of 4, ie, along the X-axis direction, the above-described direction-specific map 150 can be obtained. The direction-specific map 150 is an image in which a change in the distribution direction of a person within a certain processing period is represented at each part on the X-axis.

【0072】図1に示す方向別分離部52には、X−T
画像形成部34から出力されたX−T画像130と、方
向別マップ作成部50から出力された方向別マップ15
0と、が入力されている。そして、方向別分離部52
は、方向別マップ150に基づいてX−T画像130を
方向別に分離する処理を行っている。図12にはその処
理内容が示されており、(A)に示すように方向別マッ
プ150とX−T画像130とが統合されると、(B)
に示すように、上り画像130Aと下り画像130Bと
が生成される。すなわち、X−T画像130内に含まれ
る各クラスタ132についてそれが上り方向か下り方向
かが弁別されることになる。このような方向別の処理に
よれば、各方向ごとに人数計測を行える利点がある。
The direction separating section 52 shown in FIG.
The XT image 130 output from the image forming unit 34 and the directional map 15 output from the directional map creating unit 50
0 is input. And the direction-specific separation unit 52
Performs a process of separating the X-T image 130 for each direction based on the direction map 150. FIG. 12 shows the details of the processing. When the direction-specific map 150 and the X-T image 130 are integrated as shown in FIG.
As shown in (1), an up image 130A and a down image 130B are generated. That is, for each cluster 132 included in the X-T image 130, it is discriminated whether it is the upward direction or the downward direction. According to such processing for each direction, there is an advantage that the number of people can be measured for each direction.

【0073】図1において、上述のように分離された上
り画像130Aと下り画像130Bは、個別計数部54
及び除算計数部56に送られている。それらの計数部5
4,56は、混雑度に応じて択一的に機能するものであ
り、その動作は計数方式選択部38によって制御されて
いる。本実施形態においては、低混雑度が判定された場
合、計数方式選択部38により個別計数部54の動作が
選択される。一方、高混雑度が判定された場合、計数方
式選択部38によって除算計数部56の動作が選択され
ている。
In FIG. 1, the up image 130A and the down image 130B separated as described above are
And the division count unit 56. Their counting section 5
Reference numerals 4 and 56 function alternatively according to the degree of congestion, and their operations are controlled by the counting method selection unit 38. In the present embodiment, when the low congestion degree is determined, the operation of the individual counting unit 54 is selected by the counting method selection unit 38. On the other hand, when the high congestion degree is determined, the operation of the division counting unit 56 is selected by the counting method selection unit 38.

【0074】以下に、各計数部の動作について説明す
る。なお、本実施形態では、低混雑度及び高混雑度とい
う二段階の評価を行ったが、もちろん三段階あるいはそ
れ以上の段階に分けて混雑度を評価してもよい。そし
て、混雑度に応じて適切な計数方式を選択するのが望ま
しい。
The operation of each counting section will be described below. In the present embodiment, the evaluation is performed in two stages of the low congestion degree and the high congestion degree. However, the congestion degree may be evaluated in three or more stages. Then, it is desirable to select an appropriate counting method according to the degree of congestion.

【0075】個別計数部54は、図12(B)に示した
上り画像130A及び下り画像130Bのそれぞれにつ
いてクラスタ132の個数をカウントすることによって
処理期間内における通過人数を計数する手段である。閑
散時においては、各移動物体が独立してクラスタリング
されている可能性が高いことを考慮したものである。な
お、後述する除算計数に当たっては、一人当たりの基準
面積でクラスタの総面積の除算をすることが行われる
が、閑散時においてはその各人の移動速度がまちまちで
ある可能性が高く、この場合、一律の基準面積を用いる
と計数誤差が大きくなる。その意味においても低混雑時
においては個別計数を行なうのが望ましい。
The individual counting section 54 is a means for counting the number of clusters 132 in each of the up image 130A and the down image 130B shown in FIG. This takes into account the possibility that each moving object is likely to be independently clustered during off-peak hours. In addition, in the division counting described below, the total area of the cluster is divided by the reference area per person, but when there is no traffic, there is a high possibility that the moving speed of each person is different, and in this case, If a uniform reference area is used, the counting error increases. In that sense, it is desirable to perform individual counting during low congestion.

【0076】ただし、複数人が縦あるいは横に並んで通
過したような場合に計数誤差の発生が危惧される。そこ
で、本実施形態では、各クラスタが何人に相当するのか
をその幅やその面積を基準として判定する処理が行われ
ている。その幅の判定しきい値としてはX軸ウインドウ
内で観測される人の幅を基準とすればよく、面積の判定
しきい値としては速度判別部48によって判別された各
クラスタの移動速度からX軸ウインドウ内における当該
移動物体の滞在時間を推定し、それに対して上記の人の
幅を乗算したものとして決定することができる。
However, when a plurality of people pass vertically or horizontally, a counting error may occur. Therefore, in the present embodiment, processing is performed to determine how many persons each cluster corresponds to, based on the width and the area thereof. The threshold for determining the width may be based on the width of the person observed in the X-axis window, and the threshold for determining the area may be determined based on the moving speed of each cluster determined by the speed determining unit 48. The staying time of the moving object in the axis window can be estimated and determined by multiplying the estimated time by the width of the person.

【0077】図13には、個別計数部54の動作の一例
が示されている。なお、図13に示す動作は上り画像1
30A及び下り画像130Bのそれぞれに対して行われ
るものである。
FIG. 13 shows an example of the operation of the individual counting section 54. The operation shown in FIG.
30A and the down image 130B.

【0078】S101では、画像内から一つずつクラス
タが抽出される。S102では、速度判別部48によっ
て求められた当該クラスタの移動速度及び上述した人の
幅(基準幅)に基づき基準面積が演算される。S103
では、クラスタの幅が所定値以下か否かが判断され、S
104ではクラスタ面積が基準面積以下か否かが判断さ
れる。幅が所定値以下でかつクラスタ面積が基準面積以
下であれば、それは一人と認識することができるので、
S105において計数が行われる。一方、S103又は
S104の少なくとも一方においてNOが判定される
と、S106において、当該クラスタが何人相当するか
が判定される。例えば、クラスタの面積を基準面積で除
算することによって人数が推定される。S107では、
そのように推定された人数がカウントされることにな
る。S108では次のクラスタが存在しているか否かが
判定され、次のクラスタがあればS101からの各工程
が繰り返し実行される。その結果、上り画像130A及
び下り画像130Bごとに処理期間内における通過人数
が算出される。
In S101, clusters are extracted one by one from the image. In S102, a reference area is calculated based on the moving speed of the cluster determined by the speed determination unit 48 and the above-described width of the person (reference width). S103
Then, it is determined whether or not the width of the cluster is equal to or smaller than a predetermined value.
At 104, it is determined whether the cluster area is equal to or smaller than the reference area. If the width is less than the predetermined value and the cluster area is less than the reference area, it can be recognized as one person,
At S105, counting is performed. On the other hand, if NO is determined in at least one of S103 and S104, it is determined in S106 how many clusters correspond. For example, the number of people is estimated by dividing the area of the cluster by the reference area. In S107,
The estimated number of people is counted. In S108, it is determined whether or not the next cluster exists. If there is a next cluster, the steps from S101 are repeatedly executed. As a result, the number of passers in the processing period is calculated for each of the ascending image 130A and the descending image 130B.

【0079】図1において、除算計数部56は、上り画
像130A及び下り画像130Bにおけるクラスタ総面
積を基準面積で除することによって人数を推定する手段
である。ここで、その場合に用いられる基準面積は、上
述同様に、移動物体の幅とX軸ウインドウにおける移動
物体の滞在時間より決定される。ここで、各クラスタご
とに滞在時間を算出してもよいが、一般に混雑している
ような場合には通路上で同じ方向に一様の速度で移動物
体が移動しているとみなすことができるので、各方向ご
とにクラスタの平均移動速度を算出し、その平均移動速
度を利用して基準面積を決定するのが望ましい。
In FIG. 1, a division counting section 56 is means for estimating the number of persons by dividing the total area of the clusters in the up image 130A and the down image 130B by the reference area. Here, the reference area used in that case is determined from the width of the moving object and the staying time of the moving object in the X-axis window, as described above. Here, the staying time may be calculated for each cluster. However, in general, when the vehicle is crowded, it can be considered that the moving object is moving at a uniform speed in the same direction on the passage. Therefore, it is desirable to calculate the average moving speed of the cluster for each direction, and determine the reference area using the average moving speed.

【0080】図14には、除算計数部56の動作の一例
が示されている。ちなみに、この動作は上り画像130
A及び下り画像130Bのそれぞれについて実行され
る。
FIG. 14 shows an example of the operation of the division counter 56. By the way, this operation is performed for the up image 130
This is executed for each of the A and the downstream image 130B.

【0081】S201では、上述したように平均移動速
度が演算される。すなわち、上り画像130A及び下り
画像130Bにおいて、各クラスタについて求められた
移動速度を平均化することによって平均移動速度が演算
される。S202では、そのように求められた平均移動
速度と基準幅とから基準面積が演算される。そして、S
203では、上り画像130Aまたは下り画像130B
におけるクラスタ総面積を演算し、その総面積を基準面
積で除算することによって処理期間内における通過人数
が算出されている。
In S201, the average moving speed is calculated as described above. That is, in the ascending image 130A and the descending image 130B, the average moving speed is calculated by averaging the moving speed obtained for each cluster. In S202, a reference area is calculated from the average moving speed and the reference width thus obtained. And S
At 203, the up image 130A or the down image 130B
Is calculated and the total area is divided by the reference area to calculate the number of passers in the processing period.

【0082】図1における出力制御部58には、個別計
数部54における計数結果及び除算計数部56における
計数結果が入力されている。すなわち出力制御部58に
は処理期間ごとに、方向別の通過人数が入力されること
になる。出力制御部58は、各処理期間における方向別
の通過人数に基づいてテーブルやグラフなどを作成し、
それを表示器60に出力している。もちろん、プリント
アウトされるように構成してもよい。したがって、表示
器60には、処理期間ごとの通過人数が数値やヒストグ
ラムなどのグラフとして表示され、例えば駅の階段にお
ける各時間帯における交通量調査などを自動的に行なう
ことが可能である。
The counting result of the individual counting unit 54 and the counting result of the division counting unit 56 are input to the output control unit 58 in FIG. That is, the number of people passing by each direction is input to the output control unit 58 for each processing period. The output control unit 58 creates a table, a graph, and the like based on the number of people passing by each direction in each processing period,
It is output to the display 60. Of course, it may be configured to be printed out. Therefore, the display 60 displays the number of people passing through each processing period as a graph such as a numerical value or a histogram, and it is possible to automatically perform a traffic volume survey in each time zone on the stairs of the station, for example.

【0083】処理期間は、上述したように処理期間制御
部26によって設定されており、上述の画像処理及び人
数計測の動作は処理期間を単位として実行されている。
すなわち、図6に示したX−T画像130、図10に示
したY−T画像140及び図11(C)に示した方向別
マップ150のそれぞれのT軸方向のデータ範囲は互い
に一致している。
The processing period is set by the processing period control unit 26 as described above, and the above-described operations of the image processing and the number of people measurement are executed in units of the processing period.
That is, the data ranges of the X-T image 130 shown in FIG. 6, the Y-T image 140 shown in FIG. 10, and the directional map 150 shown in FIG. I have.

【0084】図1に示した人数計測装置は、例えば汎用
のコンピュータに対して画像入力部10を接続すること
によって構成することもできる。その場合に、図1に示
した各構成の機能は実質的にソフトウエアによって実現
されることになる。もちろん、たとえばX−T画像形成
処理やY−T画像形成処理などは並列実行可能であり、
そのような並列処理が可能になるように特別のハードウ
エアを構成してもよい。
The number measuring device shown in FIG. 1 can also be constituted by connecting the image input unit 10 to a general-purpose computer, for example. In that case, the function of each configuration shown in FIG. 1 is substantially realized by software. Of course, for example, the XT image forming process and the YT image forming process can be executed in parallel,
Special hardware may be configured to enable such parallel processing.

【0085】図1に示した装置は、人数計測以外におい
ても利用できる。たとえば、ベルトコンベアを流れる物
品の個数計測や高速道路を流通する車両の台数計測など
にも適用可能である。計測対象の性質に応じて各種の画
像処理条件あるいは計測条件を適宜設定すればよい。
The apparatus shown in FIG. 1 can be used for purposes other than counting people. For example, the present invention is applicable to the measurement of the number of articles flowing on a belt conveyor, the number of vehicles flowing on a highway, and the like. Various image processing conditions or measurement conditions may be appropriately set according to the nature of the measurement target.

【0086】上述した実施形態によれば、複雑なパラメ
ータ調整を行うことが不要であるので、例えば仮設カメ
ラなどを利用して簡便に人数計測を行えるという利点が
ある。また、特に各人の移動軌跡に着目しその方向及び
速度を簡単な処理によって算出し、それらを利用して高
精度の人数測定を実現できるという利点がある。特に、
低コストで実時間処理を可能にすることができる。さら
に、混雑度に応じて計数方式を切り換えることができる
ので、各種の状況に対応して適切な人数計測を行えると
いう利点がある。
According to the above-described embodiment, since there is no need to perform complicated parameter adjustment, there is an advantage that the number of people can be easily measured using, for example, a temporary camera. In addition, there is an advantage that the direction and speed of each person can be calculated by simple processing while paying particular attention to the movement trajectory of each person, and highly accurate person measurement can be realized by using them. Especially,
Real-time processing can be performed at low cost. Furthermore, since the counting method can be switched according to the congestion degree, there is an advantage that the appropriate number of people can be measured according to various situations.

【0087】[0087]

【発明の効果】以上説明したように、本発明によれば、
各移動物体の動きの推移を考慮して精度良く移動物体数
の計測を行える。また、本発明によれば混雑度を考慮し
て適切な移動物体数の計測を行える。
As described above, according to the present invention,
The number of moving objects can be accurately measured in consideration of the transition of the movement of each moving object. Further, according to the present invention, it is possible to appropriately measure the number of moving objects in consideration of the degree of congestion.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明に係る人数計測装置の好適な実施形態
を示すブロック図である。
FIG. 1 is a block diagram showing a preferred embodiment of a people counting apparatus according to the present invention.

【図2】 観測エリア内における座標関係を示す図であ
る。
FIG. 2 is a diagram showing a coordinate relationship in an observation area.

【図3】 X軸ウインドウ(計数用ウインドウ)を示す
概念図である。
FIG. 3 is a conceptual diagram showing an X-axis window (a counting window).

【図4】 Y軸ウインドウ(方向/速度検出用ウインド
ウ)の概念を示す図である。
FIG. 4 is a diagram showing the concept of a Y-axis window (direction / speed detection window).

【図5】 X軸二値化像の形成原理を示す図である。FIG. 5 is a diagram illustrating a principle of forming an X-axis binary image.

【図6】 X−T画像を示す説明図である。FIG. 6 is an explanatory diagram showing an XT image.

【図7】 カメラ直下とそこから変位した位置における
見え方の相違を説明するための図である。
FIG. 7 is a diagram for explaining a difference in appearance between a position immediately below a camera and a position displaced from the camera.

【図8】 見え方の相違に応じたクラスタの補正を示す
図である。
FIG. 8 is a diagram illustrating correction of a cluster according to a difference in appearance.

【図9】 Y軸二値化像の形成原理を示す図である。FIG. 9 is a diagram illustrating a principle of forming a Y-axis binary image.

【図10】 Y−T画像を示す説明図である。FIG. 10 is an explanatory diagram showing a YT image.

【図11】 クラスタに基づく移動方向及び移動速度の
判定と方向別マップを示す図である。
FIG. 11 is a diagram showing a determination of a moving direction and a moving speed based on a cluster and a map for each direction.

【図12】 X−T画像と方向別マップの統合処理を示
す図である。
FIG. 12 is a diagram showing an integration process of an XT image and a map for each direction.

【図13】 個別計数処理の動作を示す図である。FIG. 13 is a diagram illustrating an operation of an individual counting process.

【図14】 除算計数処理の動作を示す図である。FIG. 14 is a diagram illustrating an operation of a division counting process.

【符号の説明】[Explanation of symbols]

10 画像入力部、12 カメラ、18 フレーム間差
分演算部、20 二値化処理部、22 しきい値設定
部、26 処理期間制御部、30 パラメータ入力部、
32 X軸二値化像形成部、34 X−T画像形成部、
36 混雑度判定部、38 計数方式選択部、40 Y
軸二値化像形成部、42 Y−T画像形成部、44 移
動軌跡抽出部、46 方向判別部、48 速度判別部、
50 方向別マップ作成部、52 方向別分離部、54
個別計数部、56 除算計数部。
10 image input unit, 12 cameras, 18 inter-frame difference calculation unit, 20 binarization processing unit, 22 threshold value setting unit, 26 processing period control unit, 30 parameter input unit,
32 X-axis binarized image forming unit, 34 X-T image forming unit,
36 congestion degree determination unit, 38 counting method selection unit, 40 Y
Axis binarized image forming unit, 42 YT image forming unit, 44 moving trajectory extracting unit, 46 direction discriminating unit, 48 speed discriminating unit,
50 map creating unit for each direction, 52 separating unit for each direction, 54
Individual counting unit, 56 division counting unit.

───────────────────────────────────────────────────── フロントページの続き (72)発明者 渡並 智 東京都三鷹市下連雀8丁目10番16号 セコ ム株式会社内 ────────────────────────────────────────────────── ─── Continued on the front page (72) Inventor Satoshi Watananami 8-10-16 Shimorenjaku, Mitaka-shi, Tokyo Inside Secom Co., Ltd.

Claims (11)

【特許請求の範囲】[Claims] 【請求項1】 X軸に沿って設定されたX軸ウインドウ
を通過する移動物体を表すX軸二値化像を逐次取得し、
各時刻のX軸二値化像を時間軸方向に揃えて二次元のX
−T画像を形成する第1の画像形成手段と、 前記X軸ウインドウを横切って整列設定された複数のY
軸ウインドウごとに、移動物体の移動位置を表すY軸二
値化像を逐次取得し、各時刻のY軸二値化像を時間軸方
向に揃えて二次元のY−T画像を形成する第2の画像形
成手段と、 前記Y−T画像に基づいて各移動物体について移動方向
及び移動速度の少なくとも一方を解析する移動解析手段
と、 前記移動解析手段の解析結果を利用して、前記X−T画
像に基づいて移動物体数を計数する計数手段と、 を含むことを特徴とする移動物体計測装置。
1. An X-axis binary image representing a moving object passing through an X-axis window set along the X-axis is sequentially acquired,
The X-axis binarized image at each time is aligned in the time axis direction to obtain a two-dimensional X
First image forming means for forming a T image; and a plurality of Ys arranged and set across the X-axis window.
For each axis window, a Y-axis binarized image representing the moving position of the moving object is sequentially acquired, and the Y-axis binarized images at each time are aligned in the time axis direction to form a two-dimensional YT image. 2, an image forming unit, a movement analyzing unit that analyzes at least one of a moving direction and a moving speed of each moving object based on the YT image, and the X- A moving object measuring device, comprising: counting means for counting the number of moving objects based on a T image.
【請求項2】 請求項1記載の装置において、 前記X軸ウインドウ及び前記複数のY軸ウインドウを包
含する観測エリアを撮像する撮像手段と、 前記撮像手段にて取得された各画像に対し隣接フレーム
間で差分演算を実行して差分画像を求める差分演算手段
と、 前記差分画像を基礎として前記X軸二値化像及び前記Y
軸二値化像を作成する二値化像作成手段と、 を含むことを特徴とする移動物体計測装置。
2. An apparatus according to claim 1, wherein said imaging means captures an observation area including said X-axis window and said plurality of Y-axis windows, and a frame adjacent to each image acquired by said imaging means. A difference calculation means for performing a difference calculation between the two to obtain a difference image, and the X-axis binary image and the Y value based on the difference image.
A moving object measuring device, comprising: a binarized image creating unit that creates an axis binary image.
【請求項3】 請求項2記載の装置において、 前記二値化像作成手段は、 前記差分画像から前記X軸ウインドウに相当するX軸ウ
インドウ画像を切り出し、そのX軸ウインドウ画像をX
軸に射影しかつ二値化処理することによって前記X軸二
値化像を作成する手段と、 前記差分画像から前記各Y軸ウインドウに相当するY軸
ウインドウ画像を切り出し、そのY軸ウインドウ画像を
Y軸に射影しかつ二値化処理することによって前記Y軸
二値化像を作成する手段と、 を含むことを特徴とする移動物体計測装置。
3. The apparatus according to claim 2, wherein the binarized image creating unit cuts out an X-axis window image corresponding to the X-axis window from the difference image, and converts the X-axis window image into an X-axis window image.
Means for creating the X-axis binarized image by projecting onto the axis and performing a binarization process; cutting out a Y-axis window image corresponding to each of the Y-axis windows from the difference image; Means for creating the Y-axis binarized image by projecting the image on the Y-axis and performing binarization processing.
【請求項4】 請求項1〜3のいずれかに記載の装置に
おいて、 前記移動解析手段は、 前記Y−T画像において移動物体ごとの移動軌跡を認識
する移動軌跡認識手段と、 前記移動軌跡の傾き方向から当該移動物体の移動方向を
判別する方向判別手段と、 を含むことを特徴とする移動物体計測装置。
4. The apparatus according to claim 1, wherein the movement analysis unit includes: a movement trajectory recognition unit configured to recognize a movement trajectory of each moving object in the YT image; A moving object measuring device, comprising: direction determining means for determining a moving direction of the moving object from a tilt direction.
【請求項5】 請求項4記載の装置において、 前記計数手段は、 前記判別された移動方向に従って前記X−T画像に含ま
れる物体像を移動方向ごとに区分けする区分け手段と、 前記区分け後のX−T画像に基づいて移動方向ごとに移
動物体数の計数を行う方向別計数手段と、 を含むことを特徴とする移動物体計測装置。
5. The apparatus according to claim 4, wherein the counting unit is configured to classify an object image included in the X-T image according to the determined moving direction for each moving direction; A moving object measuring device, comprising: a direction-specific counting unit that counts the number of moving objects for each moving direction based on an X-T image.
【請求項6】 請求項1〜3のいずれかに記載の装置に
おいて、 前記移動解析手段は、 前記Y−T画像において移動物体ごとの移動軌跡を認識
する移動軌跡認識手段と、 前記移動軌跡の傾きの大きさから当該移動物体の移動速
度を判別する速度判別手段と、 を含むことを特徴とする移動物体計測装置。
6. The apparatus according to claim 1, wherein the movement analysis unit includes: a movement trajectory recognition unit configured to recognize a movement trajectory of each moving object in the YT image; A moving object measuring device for judging a moving speed of the moving object from a magnitude of the inclination.
【請求項7】 請求項6記載の装置において、 前記計数手段は、 前記判別された移動速度に基づいて単位面積を可変設定
する手段と、 前記X−T画像における物体像の総面積を前記単位面積
で除した結果に基づいて移動物体数を計数する除算計数
手段と、 を含むことを特徴とする移動物体計測装置。
7. The apparatus according to claim 6, wherein the counting unit variably sets a unit area based on the determined moving speed, and sets the total area of the object image in the X-T image as the unit. A moving object measuring device, comprising: division counting means for counting the number of moving objects based on the result of dividing by the area.
【請求項8】 X軸に沿って設定されたX軸ウインドウ
を通過する移動物体を表すX軸二値化像を逐次取得し、
各時刻のX軸二値化像を時間軸方向に揃えて二次元のX
−T画像を形成する画像形成手段と、 前記X−T画像に基づいて混雑度を判定する混雑度判定
手段と、 前記判定された混雑度に応じた計数方式に従って、前記
X−T画像に基づいて移動物体数の計数を行う計数手段
と、 を含むことを特徴とする移動物体計測装置。
8. An X-axis binary image representing a moving object passing through an X-axis window set along the X-axis is sequentially acquired,
The X-axis binarized image at each time is aligned in the time axis direction to obtain a two-dimensional X
Image forming means for forming a -T image; congestion degree judging means for judging congestion degree based on the X-T image; and a counting method according to the judged congestion degree, based on the X-T image. And a counting means for counting the number of moving objects.
【請求項9】 請求項8記載の装置において、 前記混雑度は、前記X−T画像に含まれる物体像の総面
積に基づいて判定されることを特徴とする移動物体計測
装置。
9. The moving object measuring device according to claim 8, wherein the congestion degree is determined based on a total area of the object images included in the XT image.
【請求項10】 請求項8又は9記載の装置において、 前記計数手段は、 前記混雑度判定手段が低混雑度であると判定した場合
に、前記X−T画像に含まれる物体像の個数を計数する
ことにより移動物体数を演算する個別計数手段と、 前記混雑度判定手段が高混雑度であると判定した場合
に、前記X−T画像に含まれる物体像の総面積を基準面
積で除することにより移動物体数を演算する除算計数手
段と、 を含むことを特徴とする移動物体計測装置。
10. The apparatus according to claim 8, wherein the counting unit counts the number of object images included in the XT image when the congestion degree determination unit determines that the congestion degree is low. Individual counting means for calculating the number of moving objects by counting; and when the congestion degree determination means determines that the congestion degree is high, the total area of the object images included in the X-T image is divided by a reference area. And a division counting means for calculating the number of moving objects.
【請求項11】 請求項10記載の装置において、 前記個別計数手段及び前記除算計数手段は、移動方向ご
とに移動物体数の計数を行うことを特徴とする移動物体
計測装置。
11. The moving object measuring apparatus according to claim 10, wherein the individual counting means and the division counting means count the number of moving objects for each moving direction.
JP08310998A 1998-03-30 1998-03-30 Moving object measuring device Expired - Fee Related JP3831112B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP08310998A JP3831112B2 (en) 1998-03-30 1998-03-30 Moving object measuring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP08310998A JP3831112B2 (en) 1998-03-30 1998-03-30 Moving object measuring device

Publications (2)

Publication Number Publication Date
JPH11282999A true JPH11282999A (en) 1999-10-15
JP3831112B2 JP3831112B2 (en) 2006-10-11

Family

ID=13793043

Family Applications (1)

Application Number Title Priority Date Filing Date
JP08310998A Expired - Fee Related JP3831112B2 (en) 1998-03-30 1998-03-30 Moving object measuring device

Country Status (1)

Country Link
JP (1) JP3831112B2 (en)

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001323445A (en) * 2000-05-12 2001-11-22 Toko Electric Corp Apparatus for measuring number of fish swimming upstream on fish ladder
JP2003109001A (en) * 2001-09-27 2003-04-11 Ced System Inc System and program for detecting person
JP2004102380A (en) * 2002-09-05 2004-04-02 Meidensha Corp Congestion degree investigation device
JP2005025593A (en) * 2003-07-04 2005-01-27 Minolta Co Ltd Counting system and counting method
JP2009157492A (en) * 2007-12-25 2009-07-16 Sumitomo Electric Ind Ltd Vehicle detection device, vehicle detection system, and vehicle detection method
JP2009205494A (en) * 2008-02-28 2009-09-10 Omron Corp Gate device
JP2009211311A (en) * 2008-03-03 2009-09-17 Canon Inc Image processing apparatus and method
JP2010079419A (en) * 2008-09-24 2010-04-08 Mitsubishi Electric Corp Number-of-person counter and number-of-person counting method
JP2010181920A (en) * 2009-02-03 2010-08-19 Optex Co Ltd Area management system
US7899212B2 (en) 2006-08-25 2011-03-01 Kabushiki Kaisha Toshiba Image processing apparatus and image processing method
WO2011155439A1 (en) * 2010-06-07 2011-12-15 三洋電機株式会社 Motion detection device
JP2012108908A (en) * 2010-11-18 2012-06-07 Axis Ab Measurement object counter, and method for counting measurement object
US8284991B2 (en) 2008-03-03 2012-10-09 Canon Kabushiki Kaisha Apparatus and method for counting number of objects
US8472715B2 (en) 2007-10-26 2013-06-25 Panasonic Corporation Situation determining apparatus, situation determining method, situation determining program, abnormality determining apparatus, abnormality determining method, abnormality determining program, and congestion estimating apparatus
JP2014006655A (en) * 2012-06-22 2014-01-16 Nippon Telegr & Teleph Corp <Ntt> Passenger number estimation method and computer program
JP2014103521A (en) * 2012-11-20 2014-06-05 Saxa Inc Imaging apparatus and image processing program
JP2016165238A (en) * 2015-03-09 2016-09-15 Necソリューションイノベータ株式会社 Same fish determination device, fish counting device, mobile terminal for fish counting, same fish determination method, fish counting method, number of fish estimation device, number of fish estimation method, same fish determination system, fish counting system and number of fish estimation system
JP2019153077A (en) * 2018-03-02 2019-09-12 日本電気株式会社 Individual counting device, individual counting method, individual counting program, and individual counting system
JP2020071783A (en) * 2018-11-01 2020-05-07 キヤノン株式会社 Image analyzer, image analyzing method, and program
CN111242903A (en) * 2020-01-03 2020-06-05 温氏食品集团股份有限公司 Automatic counting platform and method for pigling
WO2023276477A1 (en) * 2021-06-29 2023-01-05 パナソニックIpマネジメント株式会社 Information processing device, information processing method, and program

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001323445A (en) * 2000-05-12 2001-11-22 Toko Electric Corp Apparatus for measuring number of fish swimming upstream on fish ladder
JP2003109001A (en) * 2001-09-27 2003-04-11 Ced System Inc System and program for detecting person
JP2004102380A (en) * 2002-09-05 2004-04-02 Meidensha Corp Congestion degree investigation device
JP2005025593A (en) * 2003-07-04 2005-01-27 Minolta Co Ltd Counting system and counting method
US7176441B2 (en) 2003-07-04 2007-02-13 Konica Minolta Holdings, Inc. Counting system and counting method
US7899212B2 (en) 2006-08-25 2011-03-01 Kabushiki Kaisha Toshiba Image processing apparatus and image processing method
US8655078B2 (en) 2007-10-26 2014-02-18 Panasonic Corporation Situation determining apparatus, situation determining method, situation determining program, abnormality determining apparatus, abnormality determining method, abnormality determining program, and congestion estimating apparatus
US8472715B2 (en) 2007-10-26 2013-06-25 Panasonic Corporation Situation determining apparatus, situation determining method, situation determining program, abnormality determining apparatus, abnormality determining method, abnormality determining program, and congestion estimating apparatus
JP2009157492A (en) * 2007-12-25 2009-07-16 Sumitomo Electric Ind Ltd Vehicle detection device, vehicle detection system, and vehicle detection method
JP2009205494A (en) * 2008-02-28 2009-09-10 Omron Corp Gate device
US8284991B2 (en) 2008-03-03 2012-10-09 Canon Kabushiki Kaisha Apparatus and method for counting number of objects
JP2009211311A (en) * 2008-03-03 2009-09-17 Canon Inc Image processing apparatus and method
JP2010079419A (en) * 2008-09-24 2010-04-08 Mitsubishi Electric Corp Number-of-person counter and number-of-person counting method
JP2010181920A (en) * 2009-02-03 2010-08-19 Optex Co Ltd Area management system
WO2011155439A1 (en) * 2010-06-07 2011-12-15 三洋電機株式会社 Motion detection device
JP2012108908A (en) * 2010-11-18 2012-06-07 Axis Ab Measurement object counter, and method for counting measurement object
US9177385B2 (en) 2010-11-18 2015-11-03 Axis Ab Object counter and method for counting objects
JP2014006655A (en) * 2012-06-22 2014-01-16 Nippon Telegr & Teleph Corp <Ntt> Passenger number estimation method and computer program
JP2014103521A (en) * 2012-11-20 2014-06-05 Saxa Inc Imaging apparatus and image processing program
JP2016165238A (en) * 2015-03-09 2016-09-15 Necソリューションイノベータ株式会社 Same fish determination device, fish counting device, mobile terminal for fish counting, same fish determination method, fish counting method, number of fish estimation device, number of fish estimation method, same fish determination system, fish counting system and number of fish estimation system
JP2019153077A (en) * 2018-03-02 2019-09-12 日本電気株式会社 Individual counting device, individual counting method, individual counting program, and individual counting system
JP2020071783A (en) * 2018-11-01 2020-05-07 キヤノン株式会社 Image analyzer, image analyzing method, and program
CN111242903A (en) * 2020-01-03 2020-06-05 温氏食品集团股份有限公司 Automatic counting platform and method for pigling
CN111242903B (en) * 2020-01-03 2023-08-15 温氏食品集团股份有限公司 Piglet out-of-line automatic counting platform and method
WO2023276477A1 (en) * 2021-06-29 2023-01-05 パナソニックIpマネジメント株式会社 Information processing device, information processing method, and program

Also Published As

Publication number Publication date
JP3831112B2 (en) 2006-10-11

Similar Documents

Publication Publication Date Title
JPH11282999A (en) Instrument for measuring mobile object
US8655078B2 (en) Situation determining apparatus, situation determining method, situation determining program, abnormality determining apparatus, abnormality determining method, abnormality determining program, and congestion estimating apparatus
US5574762A (en) Method and apparatus for directional counting of moving objects
EP0567059B1 (en) Object recognition system using image processing
JP3785456B2 (en) Safety monitoring device at station platform
JP3183320B2 (en) Counting method and apparatus for each moving object direction
US20080144961A1 (en) Method and Image Evaluation Unit for Scene Analysis
JP4032727B2 (en) Lane boundary detection device
CN101477641A (en) Demographic method and system based on video monitoring
TWI335886B (en) Methods and systems for identifying events for a vehicle
JPH10334207A (en) Human stream measuring instrument
JP4087045B2 (en) Train presence / absence determination method and apparatus and monitoring system
JP3541774B2 (en) Vehicle type identification system
JP2002367077A (en) Device and method for deciding traffic congestion
KR100532058B1 (en) Traffic information acquisition method and apparatus using camera calibration
JPH0997335A (en) Vehicle recognition device and traffic flow measuring instrument
JP2004005726A (en) Traffic flow monitoring system for moving-body
JP4697761B2 (en) Queue detection method and queue detection apparatus
JP2001126192A (en) Method for judging parked or vacancy state in parking space of parking lot
JP5737909B2 (en) Image processing apparatus, image processing method, and program
JP4744789B2 (en) Object identification method and object identification apparatus
JPH05312818A (en) Speed measuring device and method through image processing
JP2001076291A (en) Traffic measurement system
JP3545079B2 (en) Traffic flow monitoring system for moving objects
JPH0636014A (en) Moving body measuring instrument

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20051130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060314

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060509

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060704

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060713

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100721

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110721

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110721

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120721

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees