JP2006031153A - Person counting device and person counting method - Google Patents

Person counting device and person counting method Download PDF

Info

Publication number
JP2006031153A
JP2006031153A JP2004205805A JP2004205805A JP2006031153A JP 2006031153 A JP2006031153 A JP 2006031153A JP 2004205805 A JP2004205805 A JP 2004205805A JP 2004205805 A JP2004205805 A JP 2004205805A JP 2006031153 A JP2006031153 A JP 2006031153A
Authority
JP
Japan
Prior art keywords
person
counting
target image
image
persons
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004205805A
Other languages
Japanese (ja)
Inventor
Eiji Fukumiya
英二 福宮
Kazuyuki Imagawa
和幸 今川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2004205805A priority Critical patent/JP2006031153A/en
Publication of JP2006031153A publication Critical patent/JP2006031153A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a person counting device performing accurate counting of persons even in an image with overlapping of persons, and performing the counting of persons by moving directions. <P>SOLUTION: This person counting device comprises: an image input means 10 inputting an object image; an edge image extraction means 20 extracting edge images from the object image; a person position detection means detecting person positions in the object image based on the edge images; a position tracking means 40 tracking persons who are moving in a series of continuous images containing the object image from the person positions detected by the person position detection means; and a person counting means 50 counting persons who enter and leave a predetermined counting area from the traces of the person positions tracked by the position tracking means. Matching of the person positions among frames is performed to count the persons who enter and leave the counting area. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、画像認識によって、予め定められた領域を出入りする人物の数を係数する人物計数装置に関するものである。   The present invention relates to a person counting device that calculates the number of persons entering and leaving a predetermined area by image recognition.

近年、電車の駅、店舗、美術館、催し物会場など、人の出入りが多い場所で出入りする人の数を自動的に計数しようとする技術が注目を浴びている。これは、特定の場所を出入りする人数を自動的に計数して、その結果を利用する様々な応用が広がっているからである。それらの応用例として、たとえば、電車の駅での乗降人数に対応した電車の運転計画策定、店舗での来店客数に基づく店舗レイアウトの構築、来場者数の時間変化に対応した催し物会場の安全対策実施などがある。   In recent years, technology that automatically counts the number of people entering and exiting places such as train stations, stores, museums, and event venues has attracted attention. This is because various applications that automatically count the number of people entering and exiting a specific place and use the result are spreading. Examples of these applications include formulating train driving plans corresponding to the number of passengers at train stations, building store layouts based on the number of customers at stores, and safety measures for entertainment venues corresponding to changes in the number of visitors. There is implementation.

特許文献1は、画像認識によって移動体(すなわち、人物)を計数する移動体カウント装置に関する技術を開示している。特許文献1によれば、天井に設置したCCDカメラにより俯角撮影された画像を処理して、フレーム間差分より移動体領域を抽出し、移動体領域のアスペクト比、面積比、及び周面比より、移動体を抽出し、フレーム間で当該移動体の対応付けを行って、対象領域を移動した移動体の数を計数している。   Patent Document 1 discloses a technique relating to a moving body counting apparatus that counts moving bodies (that is, persons) by image recognition. According to Patent Document 1, an image captured by a depression angle photographed by a CCD camera installed on a ceiling is processed, a moving body region is extracted from a difference between frames, and an aspect ratio, an area ratio, and a peripheral surface ratio of the moving body region are extracted. The moving object is extracted, the moving object is associated between the frames, and the number of moving objects that have moved the target area is counted.

上述した従来例では、人数計数において、人物が接することは考慮されているが、人物の重なり及び重なりからの分離は考慮されていない。そのために、高精度な人数計数を行うためには、撮影画像中で人物の重なりが発生しないような位置(たとえば天井など)にカメラを設置し、カメラで真下を撮影する必要がある。このため、天井のない場所、あるいは、上部にカメラを設置できない場所では、高精度な人数計数が出来ないといった制限がある。また、人物の移動方向を考慮した人数計数を行うためには、さらなる考案が必要である。
特開平8−185521号公報 特開2003−44853号公報 特開2003−173436号公報 特開2002−146160号公報
In the above-described conventional example, in counting the number of people, it is considered that the person touches, but the overlapping of the person and the separation from the overlap are not considered. For this reason, in order to perform high-accuracy counting of people, it is necessary to install a camera at a position (for example, a ceiling) where no overlapping of persons occurs in the captured image, and to shoot directly under the camera. For this reason, there is a limitation that it is not possible to count the number of people with high accuracy in a place where there is no ceiling or where a camera cannot be installed at the top. Further, in order to count the number of people in consideration of the movement direction of the person, further ideas are required.
JP-A-8-185521 JP 2003-44853 A JP 2003-173436 A JP 2002-146160 A

そこで本発明は、人物の重なりが発生する撮影画像においても、正確な人数計数が行え、かつ、移動方向別の人数計数が行える人物計数装置を提供することを目的とする。   SUMMARY OF THE INVENTION An object of the present invention is to provide a person counting device that can accurately count the number of people in a captured image where people overlap, and that can count the number of people in each moving direction.

請求項1記載の人物計数装置は、対象画像を入力する画像入力手段と、対象画像から、エッジ画像を抽出するエッジ画像抽出手段と、エッジ画像に基づいて、対象画像における人物位置を検出し、位置情報として出力する人物位置検出手段と、位置情報に基づいて、対象画像を含む画像列中を移動する人物の位置を追跡する位置追跡手段と、位置追跡手段において追跡した人物の位置の軌跡から、予め定められた計数領域を出入りした人数を計数する人数計数手段とを備える。   The person counting apparatus according to claim 1, wherein an image input unit that inputs a target image, an edge image extraction unit that extracts an edge image from the target image, a person position in the target image based on the edge image, From the position detection means for outputting as position information, the position tracking means for tracking the position of the person moving in the image sequence including the target image based on the position information, and the locus of the position of the person tracked by the position tracking means And a number counting means for counting the number of persons entering and leaving a predetermined counting area.

この構成によれば、カメラで撮影した画像を基に、人物位置を検出し、連続する一連の画像中を移動する人物の位置を追跡し、予め定められた計数領域を出入りした人数を精度良く計数することが出来る。   According to this configuration, the position of a person is detected based on an image captured by a camera, the position of a person moving in a series of consecutive images is tracked, and the number of persons who have entered and exited a predetermined counting area can be accurately determined. It can be counted.

請求項2記載の人物計数装置では、画像入力手段は、連続するフレームからなる画像を対象画像として入力し、エッジ画像抽出手段は、対象画像のフレーム間差分を求め、エッジ画像を抽出する。   In the person counting apparatus according to the second aspect, the image input means inputs an image composed of continuous frames as a target image, and the edge image extraction means obtains an inter-frame difference of the target image and extracts an edge image.

この構成によれば、対象画像のフレーム間差分から抽出したエッジ画像を用いて、画像中の人物位置を検出することが出来る。   According to this configuration, it is possible to detect the person position in the image using the edge image extracted from the inter-frame difference of the target image.

請求項3記載の人物計数装置では、対象画像は、水平方向と斜め上方向のいずれかの方向から撮影された画像であり、人物位置検出手段は、エッジ画像の上端部を結ぶ稜線を求め、この稜線に基づいて、対象画像における人物位置を検出し、位置情報とする。   In the person counting device according to claim 3, the target image is an image taken from either the horizontal direction or the diagonally upward direction, and the person position detecting unit obtains a ridge line connecting the upper end portions of the edge image, Based on this ridgeline, the position of a person in the target image is detected and used as position information.

請求項4記載の人物計数装置では、人物位置検出手段は、稜線の極大点を求め、求めた極大点を対象画像における人物位置と判定して、位置情報とする。   In the person counting device according to the fourth aspect, the person position detecting means obtains the maximal point of the ridge line, determines the obtained maximal point as the person position in the target image, and uses it as position information.

これらの構成によれば、画像中の人物位置を検出する対象画像には、俯角で撮影された画像ではなく、水平方向または斜め上方向から撮影された画像を用いることが出来る。従って、対象画像撮影用のカメラを天井に吊るす必要はなく、たとえば、壁際の目線の高さの位置に設置することが出来て、便利である。また、エッジ画像から稜線を求め、その極大点を対象画像中の人物の位置と判定して、位置情報として出力することが出来る。   According to these configurations, an image captured from a horizontal direction or an obliquely upward direction can be used as a target image for detecting a person position in an image, not an image captured at a depression angle. Therefore, it is not necessary to suspend the camera for photographing the target image on the ceiling, and it can be conveniently installed at the height of the line of sight on the wall, for example. Further, it is possible to obtain a ridge line from the edge image, determine the maximum point as the position of a person in the target image, and output it as position information.

請求項5記載の人物計数装置では、対象画像は、連続するフレームの画像からなり、位置追跡手段は、人物位置検出手段が出力した位置情報についてフレーム間の相関を求め、連続するフレームの画像中を移動する人物の移動位置を追跡する。   In the person counting apparatus according to claim 5, the target image is composed of images of successive frames, and the position tracking unit obtains a correlation between frames with respect to the position information output by the person position detecting unit and The movement position of the person who moves is tracked.

請求項6記載の人物計数装置では、対象画像は、連続するフレームの画像からなり、位置追跡手段は、対象画像における人物の移動方向を検出して移動方向情報として保持し、対象画像の現フレームにおける位置情報と移動方向情報とを基に、対象画像の次フレームにおける人物の移動位置を予測し、その予測移動位置を考慮して、対象画像の現フレームにおける人物と次フレームにおける人物を対応付けすることにより、人物の移動位置を追跡する。   7. The person counting apparatus according to claim 6, wherein the target image is composed of images of successive frames, and the position tracking means detects the movement direction of the person in the target image and holds it as movement direction information, and the current frame of the target image. Based on the position information and the movement direction information in, the movement position of the person in the next frame of the target image is predicted, and the person in the current frame of the target image is associated with the person in the next frame in consideration of the predicted movement position Thus, the movement position of the person is tracked.

これらの構成によれば、フレーム間の人物の対応付けを、位置情報と移動方向情報とに基づいて予測した予測移動位置を利用して行うので、人物の移動位置の追跡を、高精度かつ効率的に実行出来る。   According to these configurations, since the association between the persons between the frames is performed using the predicted movement position predicted based on the position information and the movement direction information, the movement position of the person can be tracked with high accuracy and efficiency. Can be executed.

請求項7記載の人物計数装置では、位置追跡手段は、位置情報と移動方向情報とを基に、対象画像中の重なっている人物の人数を判定し、重なりから解放される人物の人数を判定する。   8. The person counting apparatus according to claim 7, wherein the position tracking means determines the number of persons overlapping in the target image based on the position information and the moving direction information, and determines the number of persons released from the overlap. To do.

この構成によれば、対象画像中で人物の重なりが生じても、人数の計数が出来るので、対象画像の撮影角度に制限されない人物計数装置を提供できる。従って、対象画像撮影用のカメラを天井に吊るす必要はなく、たとえば、壁際の目線の高さの位置に設置することが出来て、便利である。   According to this configuration, since the number of persons can be counted even if people overlap in the target image, it is possible to provide a person counting device that is not limited by the shooting angle of the target image. Therefore, it is not necessary to suspend the camera for photographing the target image on the ceiling, and it can be conveniently installed at the height of the line of sight on the wall, for example.

請求項8記載の人物計数装置では、人数計数手段は、位置追跡手段が追跡した人物の位置の軌跡に基づき、予め定められた計数領域を出入りした人物を判定し、計数領域を出入りした人数を計数する。   In the person counting apparatus according to claim 8, the number counting means determines a person who has entered and exited a predetermined counting area based on the locus of the position of the person tracked by the position tracking means, and the number of persons who have entered and exited the counting area is determined. Count.

請求項9記載の人物計数装置では、位置追跡手段は、対象画像における人物の移動方向を検出して移動方向情報として保持し、人数計数手段は、位置追跡手段が保持する移動方向情報を基に、予め定められた計数領域を出入りした人物の人数を移動方向別に計数する。   In the person counting apparatus according to claim 9, the position tracking means detects the movement direction of the person in the target image and holds it as movement direction information, and the person counting means is based on the movement direction information held by the position tracking means. The number of persons who entered and exited a predetermined counting area is counted according to the moving direction.

これの構成によれば、予め定められた計数領域を出入りする人物の人数のみでなく、出入りする人物の人数を移動方向別に計数することが出来る高精度な人物計数装置を提供できる。   According to this configuration, it is possible to provide a highly accurate person counting device capable of counting not only the number of persons entering and exiting a predetermined counting area but also the number of persons entering and exiting according to the moving direction.

本発明によれば、人物の重なりが発生する撮影画像においても正確な人数計数が行え、かつ、移動方向別の人数計数が行える人物計数装置を提供することができる。   According to the present invention, it is possible to provide a person counting device capable of accurately counting the number of people even in a photographed image where people overlap, and capable of counting the number of people in each moving direction.

次に、図面を参照しながら、本発明の実施の形態を説明する。   Next, embodiments of the present invention will be described with reference to the drawings.

(実施の形態1)
図1は、本発明の実施の形態1における人物計数装置のブロック図である。本形態の人物計数装置は、画像入力手段10、エッジ画像抽出手段20、人物位置検出手段30、位置追跡手段40、人数計数手段50、画像メモリ60、入力手段70、制御手段80、及び、表示手段90を備える。
(Embodiment 1)
FIG. 1 is a block diagram of a person counting apparatus according to Embodiment 1 of the present invention. The person counting device of this embodiment includes an image input means 10, an edge image extraction means 20, a person position detection means 30, a position tracking means 40, a person counting means 50, an image memory 60, an input means 70, a control means 80, and a display. Means 90 are provided.

図1において、入力手段70は、キーボードやマウスからなり、人物計数装置の利用者が本装置の操作情報を入力する。表示手段90は、LCDなどからなり、対象画像、処理状況、検出結果などをこの装置の利用者に表示する。制御手段80は、人物計数装置の各構成要素を制御する。   In FIG. 1, an input means 70 comprises a keyboard and a mouse, and a user of the person counting apparatus inputs operation information of the apparatus. The display means 90 comprises an LCD or the like, and displays the target image, processing status, detection result, etc. to the user of this apparatus. The control means 80 controls each component of the person counting device.

図1と図10を参照して、本形態の人物計数装置の動作の概要を以下に説明する。図10は、本発明の実施の形態1における人物計数装置の動作のフローチャートである。   With reference to FIG. 1 and FIG. 10, the outline | summary of operation | movement of the person counting device of this form is demonstrated below. FIG. 10 is a flowchart of the operation of the person counting apparatus according to Embodiment 1 of the present invention.

ステップS0で本形態の人物計数装置の動作が開始する。   In step S0, the operation of the person counting apparatus of the present embodiment starts.

ステップS1において、画像入力手段10は、図1には図示していないCCDカメラで撮影された一連の対象画像を入力し、画像メモリ60に格納する。   In step S <b> 1, the image input unit 10 inputs a series of target images captured by a CCD camera (not shown in FIG. 1) and stores them in the image memory 60.

ステップS2において、エッジ画像抽出手段20は、画像メモリ60に格納されている対象画像の前フレームと現フレームの差分をとり、エッジ画像を抽出する。続いて、人物位置検出手段30は、エッジ画像抽出手段20が抽出したエッジ画像に対して、稜線抽出処理、フィルタ処理、極大点抽出処理などを行い、現フレームにおける人物位置を検出する。   In step S <b> 2, the edge image extraction unit 20 takes the difference between the previous frame and the current frame of the target image stored in the image memory 60 and extracts an edge image. Subsequently, the person position detection means 30 performs a ridge line extraction process, a filter process, a maximum point extraction process, and the like on the edge image extracted by the edge image extraction means 20 to detect a person position in the current frame.

ステップS3において、位置追跡手段40は、人物位置検出手段30が検出した対象画像の前フレームの人物位置と現フレームの人物位置との対応付けを行い、フレームごとの人物位置の追跡を行う。この対応付けには、人物ごとに付与されている位置情報と移動方向情報とを基に予測された予測移動位置が利用される。これによって、対象画像中において人物の重なりが生じた場合(以下、これを「オクルジョンの発生」と呼ぶ)、あるいは、人物の重なりが解かれた場合(以下、これを「オクルージョンの解除」と呼ぶ)でも、人物の人数を正確に計数できる。   In step S3, the position tracking unit 40 associates the person position of the previous frame of the target image detected by the person position detection unit 30 with the person position of the current frame, and tracks the person position for each frame. For this association, a predicted movement position predicted based on position information and movement direction information given for each person is used. As a result, when person overlap occurs in the target image (hereinafter referred to as “occurrence of occlusion”) or when person overlap is resolved (hereinafter referred to as “cancellation of occlusion”). ) But you can count the number of people accurately.

ステップS4において、人数計数手段50は、位置追跡手段40が行ったフレームごとの人物位置の追跡結果から、人物の移動位置の軌跡を求め、予め定められた計数領域を出入りする人物の人数を計数する。この時、人物ごとに付与された移動方向情報を利用して、計数領域を出入りする人物の人数を移動方向別に計数することが出来る。   In step S4, the person counting means 50 obtains the trajectory of the movement position of the person from the tracking result of the person position for each frame performed by the position tracking means 40, and counts the number of persons entering and exiting a predetermined counting area. To do. At this time, the number of persons entering and exiting the counting area can be counted for each movement direction using the movement direction information given to each person.

ステップS5において、一連の処理を終了する。   In step S5, a series of processing is terminated.

次に、各ステップにおける処理の詳細を述べる。   Next, details of processing in each step will be described.

図2は、本発明の実施の形態1におけるエッジ画像処理、稜線抽出処理、フィルタ処理、及び、極大点抽出処理を示す。すなわち、図2(a)は、本発明の実施の形態1における入力対象画像の例((n)フレームの画像)である。このような対象画像を含む画像列が、図1の画像入力手段10に入力され、画像メモリ60に格納される。   FIG. 2 shows edge image processing, ridge line extraction processing, filter processing, and maximum point extraction processing according to Embodiment 1 of the present invention. 2A is an example of an input target image ((n) frame image) according to Embodiment 1 of the present invention. An image sequence including such a target image is input to the image input unit 10 in FIG. 1 and stored in the image memory 60.

図2(b)は、本発明の実施の形態1における入力対象画像から抽出したエッジ画像を示す。エッジ画像の抽出は、以下のように行なわれる。(n)フレームの画像と(n−1)フレームの画像の差分を各画素について計算して、フレーム間差分である差分画像Aを求める。同様に、(n+1)フレームの画像と(n)フレームの画像の差分を各画素について計算して、フレーム間差分である差分画像Bを求める。この時、差分画像Aと差分画像Bを閾値t1によって二値化する。次に、差分画像Aと差分画像Bの論理積を求めると、図2(b)に示すエッジ画像が得られる。なお、閾値t1は,良好なエッジ画像が得られるような値に設定すると良い。   FIG. 2B shows an edge image extracted from the input target image according to Embodiment 1 of the present invention. Edge image extraction is performed as follows. The difference between the (n) frame image and the (n-1) frame image is calculated for each pixel to obtain a difference image A which is an inter-frame difference. Similarly, the difference between the image of the (n + 1) frame and the image of the (n) frame is calculated for each pixel to obtain a difference image B that is an interframe difference. At this time, the difference image A and the difference image B are binarized by the threshold value t1. Next, when the logical product of the difference image A and the difference image B is obtained, an edge image shown in FIG. 2B is obtained. Note that the threshold t1 is preferably set to a value such that a good edge image can be obtained.

図2(c)は、本発明の実施の形態1におけるエッジ画像から求めた稜線抽出画像を示す。この処理では、図2(b)に示したエッジ画像を垂直方向に上から探索し、最初に得られたエッジ画像の点を稜線とし、その下のエッジ画像の点をすべて削除する。この処理により、図2(c)に示す稜線が得られる。   FIG.2 (c) shows the ridgeline extraction image calculated | required from the edge image in Embodiment 1 of this invention. In this process, the edge image shown in FIG. 2B is searched from the top in the vertical direction, and the point of the edge image obtained first is used as the ridge line, and all the points of the edge image below it are deleted. By this process, the ridgeline shown in FIG. 2C is obtained.

図2(d)は、本発明の実施の形態1におけるフィルタ処理である。図2(c)に示した稜線の画像を、画面の水平方向をx軸、垂直方向をy軸とした時の空間信号波形と見做し、この空間信号波形に対してフィルタ処理を行う。フィルタには、想定した人物のサイズの検出に適した通過帯域を持つバンドパスフィルタを使用する。この処理の結果、図2(d)に示す滑らかな曲線が得られる。   FIG. 2 (d) shows the filter processing in the first embodiment of the present invention. The image of the ridge line shown in FIG. 2C is regarded as a spatial signal waveform when the horizontal direction of the screen is the x axis and the vertical direction is the y axis, and filter processing is performed on the spatial signal waveform. As the filter, a band pass filter having a pass band suitable for detection of an assumed person size is used. As a result of this processing, a smooth curve shown in FIG.

図2(e)は、本発明の実施の形態1における極大点位置の抽出を示す図である。図2(d)のフィルタ処理された空間信号波形の極大点を求め、その点を対象画像中の人物の位置として検出する。検出された人物位置は、極大点のX座標とY座標とによって記述される。X座標は、画面の水平方向での人物の位置を表し、Y座標は、人物の奥行き方向の位置を反映した、その人物の見かけの身長を表す。X座標とY座標とは、人物に付与される位置情報の一部となる。   FIG.2 (e) is a figure which shows extraction of the maximum point position in Embodiment 1 of this invention. The maximum point of the filtered spatial signal waveform in FIG. 2D is obtained, and that point is detected as the position of the person in the target image. The detected person position is described by the X coordinate and the Y coordinate of the maximum point. The X coordinate represents the position of the person in the horizontal direction of the screen, and the Y coordinate represents the apparent height of the person reflecting the position of the person in the depth direction. The X coordinate and the Y coordinate are part of the position information given to the person.

以上述べた入力対象画像から極大点を求めるまでの処理は、特許公開2003−44853号公報(特許文献2)、あるいは、特許公開2003−173436号公報(特許文献3)に開示されている技術を利用して実行することが出来る。したがって、ここでは、これ以上の説明は省略する。   The processing until the maximum point is obtained from the input target image described above is performed using the technique disclosed in Japanese Patent Publication No. 2003-44853 (Patent Document 2) or Japanese Patent Publication No. 2003-173436 (Patent Document 3). It can be used and executed. Therefore, further explanation is omitted here.

次に、人物の位置追跡処理について述べる。   Next, a person position tracking process will be described.

図3(a)は、本発明の実施の形態1における(n−1)フレームの極大点(=人物位置点)の例示図である。(n−1)フレームでは、人物位置点P1,P2,P3、P4が検出されている。図3(b)は、本発明の実施の形態1における(n)フレームの極大点(=人物位置点)の例示図である。(n)フレームでは、人物位置点Q1,Q2,Q3、Q4、Q5が検出されている。   FIG. 3A is an illustration of the maximum point (= person position point) of the (n−1) frame in the first embodiment of the present invention. In the (n-1) frame, person position points P1, P2, P3, and P4 are detected. FIG.3 (b) is an illustration figure of the local maximum point (= person position point) of the (n) frame in Embodiment 1 of this invention. (N) In the frame, person position points Q1, Q2, Q3, Q4, and Q5 are detected.

図3(a)に示す(n−1)フレームの極大点の例示図と、図3(b)に示す(n)フレームの極大点の例示図とを重ねて図示したものが、図4である。すなわち、図4は、本発明の実施の形態1における人物位置追跡の説明図である。図4を参照して、図1の位置追跡手段40が行う人物位置追跡処理を以下に説明する。   FIG. 4 shows an example of the maximum point of the (n-1) frame shown in FIG. 3A and the example of the maximum point of the (n) frame shown in FIG. is there. That is, FIG. 4 is an explanatory diagram of person position tracking in the first embodiment of the present invention. A person position tracking process performed by the position tracking unit 40 of FIG. 1 will be described below with reference to FIG.

各人物位置点には、前述した位置情報の他に、(n−1)フレームでの位置情報と(n)フレームでの位置情報とから求まる人物の移動方向情報が付与されている。この位置情報と移動方向情報とを用いて、(n−1)フレームにおける人物位置から、(n)フレームにおける人物位置を予測することが出来る。   In addition to the position information described above, each person position point is given person movement direction information obtained from the position information in the (n-1) frame and the position information in the (n) frame. Using this position information and movement direction information, the person position in (n) frame can be predicted from the person position in (n-1) frame.

図4では、(n−1)フレームの人物位置点P1は、(n)フレームでは、人物位置点P1から出る矢印の先端に位置しているものと推定される。事実、そのごく近傍に(n)フレームの人物位置点Q1がある。したがって、同一人物が、(n−1)フレームの人物位置点P1から(n)フレームの人物位置点Q1に移動したと判定され、人物位置点P1と人物位置点Q1とが対応付けられる。   In FIG. 4, it is estimated that the person position point P1 of the (n-1) frame is located at the tip of the arrow coming from the person position point P1 in the (n) frame. In fact, there is a person position point Q1 of (n) frames in the immediate vicinity. Therefore, it is determined that the same person has moved from the person position point P1 in the (n-1) frame to the person position point Q1 in the (n) frame, and the person position point P1 and the person position point Q1 are associated with each other.

また、(n−1)フレームの人物位置点P2と人物位置点P3は、(n)フレームでは、それぞれの点から出る矢印の先端に位置しているものと推定される。ところが、(n)フレームでは、その近傍には、唯一人物位置点Q2がある。これは、(n−1)フレームでは、二つの分かれた極大点として観測された二人の人物が、(n)フレームでは、重なって一つの極大点として観測されていることを意味する。これが、オクルージョンの発生である。したがって、(n−1)フレームの人物位置点P2と人物位置点P3が、(n)フレームでは人物位置点Q1として重なっていると判定され、人物位置点P2と人物位置点P3とが人物位置点Q2に対応付けられる。   In addition, it is estimated that the person position point P2 and the person position point P3 in the (n-1) frame are located at the tip of the arrow coming out from each point in the (n) frame. However, in the (n) frame, there is only one person position point Q2 in the vicinity thereof. This means that in the (n-1) frame, two persons observed as two separated local maxima are observed as one local maximum overlapping in the (n) frame. This is the occurrence of occlusion. Therefore, it is determined that the person position point P2 and the person position point P3 in the (n-1) frame overlap as the person position point Q1 in the (n) frame, and the person position point P2 and the person position point P3 are the person position. Corresponding to point Q2.

(n−1)フレームの人物位置点P4は、(n)フレームでは、オクルージョンが解除されて、人物位置点Q3と人物位置点Q4とに分かれたものと判定され、人物位置点P4に付与されている二人分の位置情報と移動方向情報とが、人物位置点Q3と人物位置点Q4とに分けて対応付けられる。   The person position point P4 in the (n-1) frame is determined to have been divided into the person position point Q3 and the person position point Q4 after the occlusion is canceled in the (n) frame, and is given to the person position point P4. The position information and the moving direction information for the two persons are associated with the person position point Q3 and the person position point Q4 separately.

(n)フレームで観測されているもう一つの人物位置点Q5は、(n−1)フレームのいずれの極大点とも対応付けられず、さらに、その位置が画面の右端に近いことから、(n)フレームにおいて、新たに検出された人物で、画面の右端から進入してきたものと判定される。   (N) Another person position point Q5 observed in the frame is not associated with any local maximum point in (n-1) frame, and the position is close to the right edge of the screen. ) It is determined that the person newly detected in the frame has entered from the right end of the screen.

以上説明したように、本形態の人物計数装置によれば、各人物に付与された位置情報と移動方向情報とを基に、現フレームの人物位置から次フレームの人物位置を予測し、フレーム間の人物の移動を正確に対応付けすることが出来る。この対応付けは、フレーム間において、オクルージョンの発生又は解除がある場合にも、正確に実行できる。このような処理により、本形態の人物計数装置は、画面内に予め設定された計数領域を出入りする人物の数をその移動方向別に計数することが出来る。その詳細は、後述する。   As described above, according to the person counting apparatus of the present embodiment, the person position of the next frame is predicted from the person position of the current frame based on the position information and movement direction information given to each person, and The movement of the person can be accurately associated. This association can be performed accurately even when occlusion occurs or is canceled between frames. By such processing, the person counting apparatus according to the present embodiment can count the number of persons entering and leaving the counting area set in advance in the screen for each moving direction. Details thereof will be described later.

次に、本形態の人物計数装置が行う人物位置追跡と人数計数のアルゴリズムを説明する。   Next, an algorithm of person position tracking and person counting performed by the person counting apparatus of this embodiment will be described.

まず、注目する(n)フレームにおける稜線の極大点を人物位置点Npi(i=0〜k;kは、(n)フレームで観測される人物位置の数)とし、(n−1)フレームにおける極大点を人物位置点Ppj(j=0〜m;mは、(n−1)フレームで観測される人物位置の数)とする。   First, the maximal point of the ridgeline in the (n) frame of interest is the person position point Npi (i = 0 to k; k is the number of person positions observed in the (n) frame), and (n−1) in the frame. The maximum point is defined as a person position point Ppj (j = 0 to m; m is the number of person positions observed in (n−1) frames).

各人物位置点には、図5に示すデータ構造のデータが付与されている。すなわち、人物位置点を表すデータは、人物位置点の現在位置のX座標「n_x」、Y座標「n_y」、人物位置点に登録された人物の数「peak_num」、及び、人物位置点に登録された人物の人物データへのリンク先「*man_link[]」である。   Each person position point is given data having the data structure shown in FIG. That is, the data representing the person position point is registered in the X coordinate “n_x”, the Y coordinate “n_y” of the current position of the person position point, the number of persons registered in the person position point “peak_num”, and the person position point. This is the link destination “* man_link []” to the person data of the person who has been selected.

人物位置点に登録された人物には、図6に示すデータ構造の人物データが付与されている。すなわち、人物データは、人物の過去位置((n−1)フレーム)のX座標「p_x」とY座標「p_y」、現在位置((n)フレーム)のX座標「n_x」とY座標「n_y」、人物が画面に進入した方向を示すフラグ「first_direction」である。フラグ「first_direction」は、左右上下の進入方向により、「0」、「1」、「2」、「3」の値をとる。   The person registered in the person position point is given person data having the data structure shown in FIG. That is, the person data includes the X coordinate “p_x” and the Y coordinate “p_y” of the past position ((n−1) frame) of the person, the X coordinate “n_x” and the Y coordinate “n_y” of the current position ((n) frame). ”Is a flag“ first_direction ”indicating the direction in which the person entered the screen. The flag “first_direction” takes values of “0”, “1”, “2”, and “3” depending on the approach direction in the left / right and up / down directions.

さらに、人数計数手段50には、計数領域を出入りする人数を計数するために、人数カウンタが設けられている。計数領域は、画面内の任意の場所に設定できる。その具体例は、後述する。   Further, the number counting means 50 is provided with a number counter for counting the number of people entering and leaving the counting area. The counting area can be set at any place in the screen. Specific examples thereof will be described later.

図7は、本発明の実施の形態1における人数カウンタのデータ構造を示す。すなわち、人数カウンタのデータ構造は、左方から計数領域に行った人数「count_in_L」、右方から計数領域に行った人数「count_in_R」、左方から計数領域を出た人数「count_out_L」、及び、右方から計数領域を出た人数「count_out_R」のデータからなる。   FIG. 7 shows the data structure of the people counter in Embodiment 1 of the present invention. That is, the data structure of the number counter includes the number of persons “count_in_L” performed in the counting area from the left, the number of persons “count_in_R” performed in the counting area from the right, the number of persons “count_out_L” exiting the counting area from the left, and It consists of data of the number of people “count_out_R” who have left the counting area from the right.

人物位置追跡と人数の計数は、フレーム間の各人物位置点に属する人物の対応付けの探索から始まる。この対応付けは、次のケース(a)とケース(b)に分けて行われる。   The person position tracking and the counting of the number of people start from searching for correspondence between persons belonging to each person position point between frames. This association is divided into the following case (a) and case (b).

ケース(a):(n−1)フレームの人物位置点Ppjから(n)フレームへの人物位置点Npiへの対応付け。   Case (a): (n−1) Correlation of person position point Ppj in frame to person position point Npi in (n) frame.


(1)(n−1)フレームにおいて画面内に存在し、(n)フレームにおいても画面内に存在する人物位置点を探す。

(1) A person position point existing in the screen in the (n-1) frame and in the screen in the (n) frame is searched for.

(n−1)フレームの人物位置点Ppjの人物について、その人物データの過去位置の座標(p_x,p_y)と現在位置の座標(n_x,n_y)を用いて、(n)フレームにおいて予測される予測移動位置を求め、その予測移動位置から閾値(a1x,a1y)以内の距離にある人物位置点Npiを検索し、最も近い人物位置点Npiを人物位置点Ppjに対応する点と判定する。   (N-1) The person at the person position point Ppj in the frame is predicted in the frame (n) using the coordinates (p_x, p_y) of the past position of the person data and the coordinates (n_x, n_y) of the current position. A predicted movement position is obtained, a person position point Npi located within a threshold (a1x, a1y) from the predicted movement position is searched, and the closest person position point Npi is determined as a point corresponding to the person position point Ppj.

仮に、最も近い人物位置点Npiが既に他の人物位置点Ppjと対応付けされている場合においても、現在探索した結果に基づく対応付けを行い、いわゆる重複対応付けを行う。   Even if the closest person position point Npi is already associated with another person position point Ppj, association based on the currently searched result is performed, and so-called overlapping association is performed.

(2)(n−1)フレームにおいては画面内に存在したが、(n)フレームにおいては画面外に移動した人物位置点の対応付けを行う。   (2) Although it exists in the screen in the (n-1) frame, the person position point moved to the outside of the screen is associated in the (n) frame.

人物位置点Ppjに対する予測移動位置から閾値(a1x,a1y)の距離以内に人物位置点Npiが無く、かつ、人物位置点Ppjに対する予測移動位置が画面端から閾値(a2x)以内であれば、その人物位置点Ppjに対応付けされるべき(n)フレームにおける人物位置点は、画像外に出たと判定する。   If there is no person position point Npi within the distance of the threshold (a1x, a1y) from the predicted movement position with respect to the person position point Ppj and the predicted movement position with respect to the person position point Ppj is within the threshold (a2x) from the screen edge, It is determined that the person position point in the (n) frame to be associated with the person position point Ppj has gone out of the image.

(3)(n−1)フレームにおいて画面内に存在し、(n)フレームにおいても(n−1)フレームと同一位置にいる人物位置点の対応付けを行う。   (3) The person position point that exists in the screen in the (n-1) frame and is in the same position as the (n-1) frame in the (n) frame is also associated.

人物位置点Ppjに対する予測移動位置が画面内であって画面端から閾値(a2x)以上離れていて、その予測移動位置から閾値(a1x,a1y)以内に人物位置点Npiが無ければ、その人物位置点Ppjに対応付けされるべき(n)フレームにおける人物位置点は、(n−1)フレームの位置で停止しているものと判定する。この場合のように、人物が停止状態にある場合は、フレーム間差分はゼロとなり、稜線の極大点が出現しないので、(n)フレームにおいて人物位置は、検出できない。   If the predicted movement position with respect to the person position point Ppj is within the screen and is separated from the screen edge by a threshold (a2x) or more and there is no person position point Npi within the threshold (a1x, a1y) from the predicted movement position, the person position The person position point in the (n) frame to be associated with the point Ppj is determined to be stopped at the position of the (n−1) frame. As in this case, when the person is in a stopped state, the difference between frames is zero, and the maximal point of the ridge line does not appear, and therefore the person position cannot be detected in the (n) frame.

なお、閾値(a1X、a1Y)と閾値(a2X)は、任意の値に設定して良い。   Note that the threshold values (a1X, a1Y) and the threshold value (a2X) may be set to arbitrary values.

ケース(b):ケース(a)において対応付けが行われなかった、(n)フレームの人物位置点Npiについて、 (n−1)フレームの人物位置点Ppjへの対応付け。   Case (b): (n) For the person position point Npi in the frame (n), which is not associated in case (a), (n-1) Correlation to the person position point Ppj in the frame.


(1)(n−1)フレームにおいては画面内に存在していないが、(n)フレームにおいて画面内に存在する人物位置点の対応付けを行う。

(1) Although it does not exist in the screen in the (n-1) frame, the person position point that exists in the screen in the (n) frame is associated.

人物位置点Npiが、画面端から閾値(b1x)以内の場合は、その人物位置点Npiは、(n)フレームにおいて画像に進入した来た新たな人物位置点と判定して、 人物位置点Ppj とは対応付けない。   If the person position point Npi is within the threshold (b1x) from the screen edge, the person position point Npi is determined to be a new person position point that has entered the image in the (n) frame, and the person position point Ppj Is not associated.

(2)(n−1)フレームにおいて画面内に存在し、(n)フレームにおいても画面内に存在する人物位置点の対応付けを行う。   (2) The person position points that exist in the screen in the (n-1) frame and also exist in the screen in the (n) frame are associated.

人物位置点Npiの位置から閾値(b2x,b2y)以内に重複対応付けされた人物位置点Ppjが有れば、人物位置点Npiは、その重複対応付けされた人物位置点Ppj から分離したものと判定して、対応付けする。   If there is a person position point Ppj that is overlap-associated within the threshold (b2x, b2y) from the position of the person position point Npi, the person position point Npi is separated from the person position point Ppj associated with the overlap. Determine and associate.

(3)(n−1)フレームにおいては画面内で停止していた人物が、(n)フレームにおいて動き出した人物位置点の対応付けを行う。   (3) In the (n-1) frame, the person who has stopped in the screen associates the person position point that has started moving in the (n) frame.

人物位置点Npiが、画像端から閾値(b1x)以内ではなく、人物位置点Npiの位置から閾値(b2x、b2y)以内に重複対応付けされた人物位置点Ppjが存在しない場合は、過去に人物位置点Npiの位置で停止していた人物が動き出したものと判定する。   The person position point Npi is not within the threshold value (b1x) from the end of the image, and there is no person position point Ppj that is associated with the position within the threshold value (b2x, b2y) from the position of the person position point Npi. It is determined that the person who has stopped at the position of the position point Npi has started to move.

なお、閾値(b1X)と閾値(b2x、b2y)は、任意の値に設定しても良い。   Note that the threshold value (b1X) and the threshold values (b2x, b2y) may be set to arbitrary values.

本形態の人物計数装置における計数領域の設定について以下に説明する。   The setting of the counting area in the person counting apparatus of this embodiment will be described below.

図8(a)は、本発明の実施の形態1における人物位置を示す画面101に設定された計数領域を示す。同図は、カメラで撮影された入力対象画面から人物位置を表す極大点を抽出した画面であり、人物位置点P1〜P4が観測されている。この画面101において、計数領域は、線分L1と線分L2とに挟まれた領域とし、この領域を出入りする人物を計数する。   FIG. 8A shows the counting area set on the screen 101 showing the person position in the first embodiment of the present invention. This figure is a screen obtained by extracting local maximum points representing a person position from an input target screen photographed by a camera, and person position points P1 to P4 are observed. In this screen 101, the counting area is an area sandwiched between the line segment L1 and the line segment L2, and the persons entering and exiting this area are counted.

画面101の線分L1と線分L2とで挟まれた計数領域に対する、入力対象画面を撮影した実際の空間での計数領域は、カメラと実際の空間との相対的な位置関係によって決まる。   The counting area in the actual space in which the input target screen is captured with respect to the counting area sandwiched between the line segment L1 and the line segment L2 on the screen 101 is determined by the relative positional relationship between the camera and the actual space.

図8(b)は、図8(a)の計数領域に対応するホール102(平面図)の計数領域を示す。この例では、ホール102は左右に出入り口があり、これらの出入り口を経てホール102を通過する人物を、ほぼ目線の高さに設置されたカメラ103で撮影し、入力対象画面を得て、ホール102を通過する人数を計数している。この時、図8(a)の線分L1と線分L2は、それぞれ、図8(b)の線分(a‐b)と線分(d‐c)に対応する。すなわち、画面101の計数領域(L1−L2)は、ホール102の計数領域(abcd)に対応する。   FIG. 8B shows the counting area of the hole 102 (plan view) corresponding to the counting area of FIG. In this example, the hall 102 has entrances on the left and right, and a person passing through the hall 102 through these entrances is photographed with a camera 103 installed at a height of approximately the line of sight to obtain an input target screen. The number of people passing through is counted. At this time, the line segment L1 and the line segment L2 in FIG. 8A correspond to the line segment (ab) and the line segment (dc) in FIG. 8B, respectively. That is, the counting area (L1-L2) of the screen 101 corresponds to the counting area (abcd) of the hole 102.

このような関係を考慮して、画面上に計数領域を設定すれば良い。   In consideration of such a relationship, the counting area may be set on the screen.

次に、図9を参照して、本形態の人物計数装置が行う人物位置追跡と人数計数のアルゴリズムをより具体的に説明する。   Next, with reference to FIG. 9, the person position tracking and person counting algorithm performed by the person counting apparatus of the present embodiment will be described more specifically.

図9は、本発明の実施の形態1における人物の出入りに伴う処理の説明図であり、この例では、計数領域は、画面と同じ大きさに設定している。すなわち、画面の左右が計数領域の境界であり、画面全体が計数領域である。   FIG. 9 is an explanatory diagram of processing accompanying the entry and exit of a person in Embodiment 1 of the present invention. In this example, the counting area is set to the same size as the screen. That is, the left and right sides of the screen are the boundaries of the counting area, and the entire screen is the counting area.

図9において、(n)フレームでは、極大点は観測されておらず、画面中には人物はいない。   In FIG. 9, in (n) frame, the local maximum point is not observed, and there is no person on the screen.

(n+1)フレームでは、画面の左端に人物位置点A1が出現し、画面の右端に人物位置点A2が出現している。人物位置点A1とA2の座標位置は、
A1(A1_n+1_X, A1_n+1_Y)
A2(A2_n+1_X, A2_n+1_Y)
とする。人物位置点A1とA2は、それぞれ、対応付けされる移動元がなく、また、画面端から閾値(b1X)以内にあるので、新たに画面に進入してきた人物と判定される。また、画面両端からの距離から、人物位置点A1は左から、人物位置点A2は右から進入してきたものと判定される。
In the (n + 1) frame, a person position point A1 appears at the left end of the screen, and a person position point A2 appears at the right end of the screen. The coordinate positions of the person position points A1 and A2 are
A1 (A1_n + 1_X, A1_n + 1_Y)
A2 (A2_n + 1_X, A2_n + 1_Y)
And Since the person position points A1 and A2 do not have a movement source associated with each other and are within the threshold (b1X) from the screen end, it is determined that the person has newly entered the screen. Further, from the distance from both ends of the screen, it is determined that the person position point A1 has entered from the left and the person position point A2 has entered from the right.

人物位置点A1には、以下の人物位置点データが付与される。
peak_num=1
*man_link[]=A1_p1
n_X=A1_n+1_X
n_Y=A1_n+1_Y
さらに、人物位置点A1にリンクされる人物データ「A1_p1」として、以下のデータが付与される。
p_X=0
p_Y=A1_n+1_Y
first_direction =0
ここで、人物位置点A1は、新規に左側から画面に進入した人物であるため、過去位置のX座標は、画面左側のX座標である「0」とし、過去位置のY座標は、現在位置のY座標と同じ「A1_n+1_Y」としている。さらに、初期方向は左から進入してきたことを表す「0」である。
The following person position point data is given to the person position point A1.
peak_num = 1
* Man_link [] = A1_p1
n_X = A1_n + 1_X
n_Y = A1_n + 1_Y
Further, the following data is given as the person data “A1_p1” linked to the person position point A1.
p_X = 0
p_Y = A1_n + 1_Y
first_direction = 0
Here, since the person position point A1 is a person who has entered the screen from the left side, the X coordinate of the past position is “0” which is the X coordinate of the left side of the screen, and the Y coordinate of the past position is the current position. “A1_n + 1_Y”, which is the same as the Y coordinate. Furthermore, the initial direction is “0” indicating that the vehicle has entered from the left.

人物位置点A2には、以下の人物位置点データが付与される。
peak_num=1
*man_link[]=A2_p1
n_X=A2_n+1_X
n_Y=A2_n+1_Y
さらに、人物位置点A2にリンクされる人物データ「A2_p1」として、以下のデータが付与される。
p_X =IMAGEX
p_Y=A2_n+1_Y
first_direction=1
ここで、人物位置点A2は、新規に右側から画面に入った人物であるため、過去位置のX座標は、画面右側のX座標である「IMAGEX」とし、過去位置のY座標は、現在位置のY座標と同じ「A2_n+1_Y」としている。さらに、初期方向は右から進入してきたことを表す「1」である。
The following person position point data is given to the person position point A2.
peak_num = 1
* Man_link [] = A2_p1
n_X = A2_n + 1_X
n_Y = A2_n + 1_Y
Further, the following data is given as the person data “A2_p1” linked to the person position point A2.
p_X = IMAGEX
p_Y = A2_n + 1_Y
first_direction = 1
Here, since the person position point A2 is a person who newly enters the screen from the right side, the X coordinate of the past position is “IMAGEX” that is the X coordinate of the right side of the screen, and the Y coordinate of the past position is the current position. “A2_n + 1_Y”, which is the same as the Y coordinate. Furthermore, the initial direction is “1” indicating that the vehicle has entered from the right.

ここで、人物位置点A1が左から進入してきたため、人数カウンタ「count_in_L」が、「1」だけ増分される。同様に人物位置点A2が右から進入してきたため、人数カウンタ「count_in_R」が、「1」だけ増分される。   Here, since the person position point A1 has entered from the left, the person counter “count_in_L” is incremented by “1”. Similarly, since the person position point A2 has entered from the right, the person counter “count_in_R” is incremented by “1”.

(n+2)フレームでは、二人の人物位置点はそれぞれ画面の中央に向かって、人物位置点B1とB2の位置まで移動している。   In the (n + 2) frame, the two person position points move toward the positions of the person position points B1 and B2 toward the center of the screen.

人物位置点B1とB2の座標位置は、
B1(B1_n+2_X、B1_n+2_Y)
B2(B2_n+2_X、B2_n+2_Y)
とする。
The coordinate positions of the person position points B1 and B2 are
B1 (B1_n + 2_X, B1_n + 2_Y)
B2 (B2_n + 2_X, B2_n + 2_Y)
And

(n+1)フレームにおける人物位置点A1とA2と、(n+2)フレームにおける人物位置点B1とB2について、対応付けをする。これには、各人物位置点の人物データが持っている位置情報から、(n+2)フレームにおける人物位置点の予測を行い、予め定められた閾値(a1X、a1Y)以内の距離にある、(n+2)フレームの人物位置点との対応付けを行う。すなわち、人物位置点A1は、人物データ「A1_p1」の過去位置の座標(p_X,p_Y)と現在位置の座標(n_X,n_Y)から線形に位置予測を行い、予測した位置の点「Ap1」(図9参照)から閾値(a1X、a1Y)以内にあって、かつ、予測した位置の点から最も近い座標の人物位置点B1に移動したものと判定する。同様に、人物位置点A2は、予測した位置の点「Ap2」から閾値(a1X、a1Y)以内にあって、かつ、最も近い座標の人物位置点B2に移動したものと判定する。   The person position points A1 and A2 in the (n + 1) frame and the person position points B1 and B2 in the (n + 2) frame are associated with each other. For this purpose, the human position point in the (n + 2) frame is predicted from the position information possessed by the person data of each person position point, and the distance is within a predetermined threshold (a1X, a1Y). ) The frame is associated with the person position point of the frame. That is, the position of the person position point A1 is linearly predicted from the coordinates (p_X, p_Y) of the past position of the person data “A1_p1” and the coordinates (n_X, n_Y) of the current position, and the point “Ap1” ( It is determined that the position is within the threshold (a1X, a1Y) from the position (a1X, a1Y) and has moved to the person position point B1 having the closest coordinates from the predicted position point. Similarly, it is determined that the person position point A2 has moved to the person position point B2 having the closest coordinates within the threshold (a1X, a1Y) from the predicted position point “Ap2”.

以上の対応付けの結果、人物位置点B1には、以下の人物位置点データが付与される。
peak_num=1
*man_link[]=B1_p1
n_X=B1_n+2_X
n_Y=B1_n+2_Y
さらに、人物位置点B1にリンクされる人物データ「B1_p1」として、以下のデータが付与される。
p_X=A1_n+1_X
p_Y=A1_n+1_Y
first_direction=0 (A1の値を継承)
人物位置点B2には、以下の人物位置点データが付与される。
peak_num=1
*man_link[]=B2_p1
n_X =B2_n+2_X
n_Y =B2_n+2_Y
さらに、人物位置点B2にリンクされる人物データ「B2_p1」として、以下のデータが付与される。
p_X=A2_n+1_X
p_Y=A2_n+1_Y
first_direction=1 (A2の値を継承)
この(n+2)フレームでは、人数カウンタの変化はない。
As a result of the above association, the following person position point data is given to the person position point B1.
peak_num = 1
* Man_link [] = B1_p1
n_X = B1_n + 2_X
n_Y = B1_n + 2_Y
Furthermore, the following data is given as the person data “B1_p1” linked to the person position point B1.
p_X = A1_n + 1_X
p_Y = A1_n + 1_Y
first_direction = 0 (inherits the value of A1)
The following person position point data is given to the person position point B2.
peak_num = 1
* Man_link [] = B2_p1
n_X = B2_n + 2_X
n_Y = B2_n + 2_Y
Furthermore, the following data is given as the person data “B2_p1” linked to the person position point B2.
p_X = A2_n + 1_X
p_Y = A2_n + 1_Y
first_direction = 1 (inherits the value of A2)
In this (n + 2) frame, the number of people counter does not change.

(n+3)フレームでは、二人の人物位置点は、重なり合い、一つの人物位置点C1となって現れ、オクルージョンが発生している。   In the (n + 3) frame, the two person position points overlap and appear as one person position point C1, and occlusion occurs.

人物位置点C1の座標位置は、
C1(C1_n+3_X、C1_n+3_Y)
とする。
The coordinate position of the person position point C1 is
C1 (C1_n + 3_X, C1_n + 3_Y)
And

(n+2)フレームにおける人物位置点B1とB2は、(n+3)フレームにおける人物位置点C1に対して、対応付けされる。これには、各人物位置点の人物データが持っている位置情報から、(n+3)フレームにおける人物位置点の予測を行い、予め定められた閾値(a1X、a1Y)以内にある、(n+3)フレームの人物位置点との対応付けを行う。すなわち、人物位置点B1について、人物データ「B1_p1」の過去位置の座標(p_X,p_Y)と現在位置の座標(n_X,n_Y)から線形に位置予測が行われる。同様に、人物位置点Bについて、人物データ「B2_p1」の過去位置の座標(p_X,p_Y)と現在位置の座標(n_X,n_Y)から線形に位置予測が行われる。この結果、人物位置点B1とB2は、共に人物位置点C1に移動したものと判定される。すなわち、人物位置点C1は、人物位置点B1とB2が移動してオクルージョンが発生したものと判定される。   The person position points B1 and B2 in the (n + 2) frame are associated with the person position point C1 in the (n + 3) frame. This is done by predicting the person position point in the (n + 3) frame from the position information possessed by the person data of each person position point, and within the predetermined threshold value (a1X, a1Y), the (n + 3) frame. Is associated with the person position point. That is, the position of the person position point B1 is linearly predicted from the coordinates (p_X, p_Y) of the past position of the person data “B1_p1” and the coordinates (n_X, n_Y) of the current position. Similarly, the position of the person position point B is linearly predicted from the coordinates (p_X, p_Y) of the past position of the person data “B2_p1” and the coordinates (n_X, n_Y) of the current position. As a result, it is determined that the person position points B1 and B2 have both moved to the person position point C1. That is, it is determined that the person position point C1 is the one where the person position points B1 and B2 are moved and the occlusion occurs.

以上の対応付けの結果、人物位置点C1には、以下の人物位置点データが付与される。
peak_num=2
*man_link[]=C1_p1
=C1_p2
n_X=C1_n+3_X
n_Y=C1_n+3_Y
ここで、人物位置点C1に登録された人物の数は2人であり、人物データへのリンク先は、2箇所である。人物データの序列は、各人物データの過去位置のY座標を比較し、値の大きい順に定める。
As a result of the above association, the following person position point data is given to the person position point C1.
peak_num = 2
* Man_link [] = C1_p1
= C1_p2
n_X = C1_n + 3_X
n_Y = C1_n + 3_Y
Here, the number of persons registered at the person position point C1 is two, and there are two links to person data. The order of the person data is determined in order of increasing value by comparing the Y coordinates of the past positions of the person data.

人物位置点C1にリンクされる第1の人物データ「C1_p1」として、以下のデータが付与される。
p_X=B2_n+2_X
p_Y=B2_n+2_Y
first_direction=1
また、人物位置点C1にリンクされる第2の人物データ「C1_p2」として、以下のデータが付与される。
p_X=B1_n+2_X
p_Y=B1_n+2_Y
first_direction=0
この(n+3)フレームでは、人数カウンタの変化はない。
The following data is given as the first person data “C1_p1” linked to the person position point C1.
p_X = B2_n + 2_X
p_Y = B2_n + 2_Y
first_direction = 1
Further, the following data is given as the second person data “C1_p2” linked to the person position point C1.
p_X = B1_n + 2_X
p_Y = B1_n + 2_Y
first_direction = 0
In this (n + 3) frame, the number of people counter does not change.

(n+4)フレームでは、オクルージョンが解除され、二人が登録されていた人物位置点C1は、人物位置点D2とD1に移動している。人物位置点D2とD1の座標位置は、
D1(D1_n+4_X、D1_n+4_Y)
D2(D2_n+4_X、D2_n+4_Y)
とする。
In the (n + 4) frame, the occlusion is canceled and the person position point C1 where the two persons are registered has moved to the person position points D2 and D1. The coordinate positions of the person position points D2 and D1 are
D1 (D1_n + 4_X, D1_n + 4_Y)
D2 (D2_n + 4_X, D2_n + 4_Y)
And

人物位置点C1と人物位置点D1とD2について、先ず、対応付けのケース(a)に従って、対応付けを行う。   The person position point C1 and the person position points D1 and D2 are first associated according to the association case (a).

人物位置点C1の現在位置の座標(n_X,n_Y)及び、第1の人物データ「1C_p1」の過去位置の座標(p_X,p_Y) を用いて、(n+4)フレームにおける人物位置点の線形予測を行い、予測した位置と最も近い座標である人物位置点D1に、人物位置点C1が移動したものと判定される。   Using the coordinates (n_X, n_Y) of the current position of the person position point C1 and the coordinates (p_X, p_Y) of the past position of the first person data “1C_p1”, linear prediction of the person position point in the (n + 4) frame is performed. Then, it is determined that the person position point C1 has moved to the person position point D1, which is the closest coordinate to the predicted position.

この時点で、人物位置点D2は、まだ対応付けがなされていないので、対応付けのケース(b)に従って、(n+3)フレームにおける人物位置点との対応付けを行う。この結果、(n+3)フレームにおいて、人物位置点D2の近辺に存在し、且つ、重複対応付けされた人物位置点(peak_num>1)である人物位置点C1に属する第2の人物データ「C1_p2」に対応する人物が、人物位置点D2へ移動したものと判定される。   At this point, since the person position point D2 has not been associated yet, the person position point D2 is associated with the person position point in the (n + 3) frame according to the association case (b). As a result, in the (n + 3) frame, the second person data “C1_p2” that exists in the vicinity of the person position point D2 and belongs to the person position point C1 that is the person position point (peak_num> 1) that is overlapped and associated with each other. It is determined that the person corresponding to has moved to the person position point D2.

以上の追跡結果から、この場合、人物位置点C1が人物位置点D1とD2に移動したと判定されるので、人物のオクルージョンが解除されたと判定される。   From the above tracking results, in this case, it is determined that the person position point C1 has moved to the person position points D1 and D2, so it is determined that the occlusion of the person has been released.

人物位置点D1には、以下の人物位置点データが付与される。
peak_num=1
*man_link[]=D1_p1
n_X=D1_n+4_X
n_Y=D1_n+4_Y
さらに、人物位置点D1にリンクされる人物データ「D1_p1」として、以下のデータが付与される。
p_X=B1_n+2_X
p_Y=B1_n+2_Y
first_direction=1
ここで、人物位置点D1に対応する前フレームの人物位置点C1が、重複対応付けされた人物位置点(peak_num>1)であったから、人物位置点D1の過去位置の座標は、更新されない。
The following person position point data is given to the person position point D1.
peak_num = 1
* Man_link [] = D1_p1
n_X = D1_n + 4_X
n_Y = D1_n + 4_Y
Further, the following data is given as the person data “D1_p1” linked to the person position point D1.
p_X = B1_n + 2_X
p_Y = B1_n + 2_Y
first_direction = 1
Here, since the person position point C1 of the previous frame corresponding to the person position point D1 is the person position point (peak_num> 1) that is overlap-associated, the coordinates of the past position of the person position point D1 are not updated.

人物位置点D2には、以下の人物位置点データが付与される。
peek_num=1
*man_link[]=D2_p1
n_X=D2_n+4_X
n_Y=D2_n+4_Y
また、人物位置点D2にリンクされる人物データ「D2_p1」として、以下のデータが付与される。
p_X=B1_n+2_X
p_Y=B1_n+2_Y
first_direction=0
この(n+4)フレームでは、人数カウンタの変化はない。
The following person position point data is given to the person position point D2.
peek_num = 1
* Man_link [] = D2_p1
n_X = D2_n + 4_X
n_Y = D2_n + 4_Y
Further, the following data is given as the person data “D2_p1” linked to the person position point D2.
p_X = B1_n + 2_X
p_Y = B1_n + 2_Y
first_direction = 0
In this (n + 4) frame, the number of people counter does not change.

(n+5)フレームでは、画面の左端から進入してきた人物位置点D2は、画面の右端から退出して、画面の右端から侵入してきた人物位置点D1は、人物位置点E1に移動している。人物位置点E1の座標は、
E1(E1_n+5_X、E1_n+5_Y)
とする。
In the (n + 5) frame, the person position point D2 entering from the left end of the screen leaves the right end of the screen, and the person position point D1 entering from the right end of the screen moves to the person position point E1. The coordinates of the person position point E1 are
E1 (E1_n + 5_X, E1_n + 5_Y)
And

人物位置点D1とD2と人物位置点E1との対応付けを行う。人物データ「 D1_p1」の過去位置の座標(p_X,p_Y)と現在位置の座標(n_X,n_Y)から、線形に位置予測を行い、予測した位置と最も近い座標の人物位置点E1に、人物位置点 D1が移動したものと判定される。人物データ「 D2_p1」の過去位置の座標(p_X,p_Y)と現在位置の座標(n_X,n_Y)から、線形に位置予測を行い、予測した位置から閾値(a1X、a1Y)以内には、人物位置点E1はなく、かつ、閾値(a2X)以内に画面右端があるので、人物位置点D2は画面外に出たと判定される。   The person position points D1 and D2 are associated with the person position point E1. From the coordinates (p_X, p_Y) of the past position of the person data “D1_p1” and the coordinates (n_X, n_Y) of the current position, the position of the person is linearly predicted, and the person position E1 at the coordinates closest to the predicted position It is determined that the point D1 has moved. Position prediction is performed linearly from the coordinates (p_X, p_Y) of the past position of the person data “D2_p1” and the coordinates (n_X, n_Y) of the current position, and the person position is within the threshold (a1X, a1Y) from the predicted position. Since there is no point E1 and the right edge of the screen is within the threshold (a2X), it is determined that the person position point D2 has gone out of the screen.

以上の対応付けの結果、人物位置点E1には、以下の人物位置点データが付与される。
peak_num=1
*man_link[]=E1_p1
n_X=E1_n+5_X
n_Y=E1_n+5_Y
また、人物位置点E1にリンクされる人物データ「E1_p1」として、以下のデータが付与される。
p_X=D1_n+4_X
p_Y=D1_n+4_Y
first_direction=1
ここで、人物位置点D2は、画面右端から出たため、人数カウンタの「count_out_R」が、「1」だけ増分される。
As a result of the above association, the following person position point data is given to the person position point E1.
peak_num = 1
* Man_link [] = E1_p1
n_X = E1_n + 5_X
n_Y = E1_n + 5_Y
Further, the following data is given as the person data “E1_p1” linked to the person position point E1.
p_X = D1_n + 4_X
p_Y = D1_n + 4_Y
first_direction = 1
Here, since the person position point D2 has come out from the right end of the screen, the “count_out_R” of the person counter is incremented by “1”.

(n+6)フレームでは、画面の右端から侵入してきた人物位置点も画面の左端から退出して、画面中には人物はいない。   In the (n + 6) frame, the person position point that has entered from the right end of the screen also leaves the left end of the screen, and there is no person on the screen.

ここでも、人物位置点E1からの追跡の対応付けがされるが、人物位置点E1からの、(n+6)フレームにおける予測した位置は、画面の左端より、閾値(a2x)以内にあるので、人物位置点E1は、(n+6)フレームにおいて画面の左端から出たと判定される。   Again, tracking is associated with the person position point E1, but the predicted position in the (n + 6) frame from the person position point E1 is within the threshold (a2x) from the left end of the screen. The position point E1 is determined to have come out from the left end of the screen in the (n + 6) frame.

ここで、人物位置点E1は、画面左端から出たため、人数カウンタの「count_out_L」が、「1」だけ増分される。   Here, since the person position point E1 has come out from the left end of the screen, the “count_out_L” of the person counter is incremented by “1”.

以上で、一連の人物位置追跡が終了する。これらの処理によって、人数カウンタの各変数は、
count_in_L=1
count_in_R=1
count_out_L=1
count_out_R=1
となっており、画面右端から1人、画面左端から1人が入り、画面右端から1人、画面左端から1人が出たことが分かる。
Thus, a series of person position tracking is completed. By these processes, each variable of the people counter becomes
count_in_L = 1
count_in_R = 1
count_out_L = 1
count_out_R = 1
It can be seen that one person entered from the right edge of the screen, one person entered from the left edge of the screen, one person from the right edge of the screen, and one person from the left edge of the screen.

以上説明したように、本形態の人物計数装置によれば、例えば、壁際の目線の高さの位置に設置したカメラから対象画像を撮影し、その対象画像中で人物の重なりが生じても、予め定められた計数領域を出入りする人物の人数を正確に計数出来るのみでなく、出入りする人物の人数を移動方向別に計数することが出来る。   As described above, according to the person counting apparatus of the present embodiment, for example, a target image is taken from a camera installed at the height of the line of sight on the wall, and even if people overlap in the target image, Not only can the number of persons entering and exiting a predetermined counting area be accurately counted, but the number of persons entering and exiting can also be counted by moving direction.

本発明の趣旨は、人物の重なりが生じても、正確な人数係数が出来る人物計数装置を実現することにあるのであって、本発明の趣旨を逸脱しない限り、種々の適用が可能である。   The gist of the present invention is to realize a person counting device capable of obtaining an accurate number coefficient even if people overlap, and various applications are possible without departing from the gist of the present invention.

本発明に係わる人物計数装置は、例えば、画像認識によって、指定されて領域を出入りする人物の数を係数する人物計数装置とその応用分野において利用できる。   The person counting apparatus according to the present invention can be used in, for example, a person counting apparatus that counts the number of persons who enter and leave a region by image recognition and its application fields.

本発明の実施の形態1における人物計数装置のブロック図Block diagram of person counting device in Embodiment 1 of the present invention (a)本発明の実施の形態1における入力対象画像 (b)本発明の実施の形態1における入力対象画像から抽出したエッジ画像 (c)本発明の実施の形態1におけるエッジ画像から求めた稜線抽出画像 (d)本発明の実施の形態1におけるフィルタ処理 (e)本発明の実施の形態1における極大点の抽出(A) Input target image in the first embodiment of the present invention (b) Edge image extracted from the input target image in the first embodiment of the present invention (c) Edge line obtained from the edge image in the first embodiment of the present invention Extracted image (d) Filter processing in Embodiment 1 of the present invention (e) Extraction of local maximum point in Embodiment 1 of the present invention (a)本発明の実施の形態1における(n−1)フレームの極大点(人物位置点)の例示図 (b)本発明の実施の形態1における(n)フレームの極大点(人物位置点)の例示図(A) Example of (n-1) frame maximum point (person position point) in Embodiment 1 of the present invention (b) (n) Frame maximum point (person position point) in Embodiment 1 of the present invention ) 本発明の実施の形態1における人物位置追跡の説明図Explanatory drawing of person position tracking in Embodiment 1 of the present invention 本発明の実施の形態1における人物位置点のデータ構造Data structure of person position point in Embodiment 1 of the present invention 本発明の実施の形態1における人物データのデータ構造Data structure of person data in Embodiment 1 of the present invention 本発明の実施の形態1における人数カウンタのデータ構造Data structure of number counter in embodiment 1 of the present invention (a)本発明の実施の形態1における人物位置を示す画面に設定された計数領域 (b)対応するホール平面図上の計数領域(A) Counting area set on screen showing person position in Embodiment 1 of the present invention (b) Counting area on corresponding hole plan view 本発明の実施の形態1における人物の出入りを伴う処理の説明図Explanatory drawing of the process with the entrance and exit of the person in Embodiment 1 of this invention 本発明の実施の形態1における人物計数装置の動作のフローチャートFlowchart of operation of person counting apparatus in embodiment 1 of the present invention

符号の説明Explanation of symbols

10 画像入力手段
20 エッジ画像抽出手段
30 人物位置検出手段
40 位置追跡手段
50 人数計数手段
60 画像メモリ60
70 入力手段70
80 制御手段80
90 表示手段90
DESCRIPTION OF SYMBOLS 10 Image input means 20 Edge image extraction means 30 Person position detection means 40 Position tracking means 50 People counting means 60 Image memory 60
70 Input means 70
80 Control means 80
90 display means 90

Claims (18)

対象画像を入力する画像入力手段と、
前記対象画像から、エッジ画像を抽出するエッジ画像抽出手段と、
前記エッジ画像に基づいて、前記対象画像における人物位置を検出し、位置情報として出力する人物位置検出手段と、
前記位置情報に基づいて、前記対象画像を含む画像列中を移動する人物の位置を追跡する位置追跡手段と、
前記位置追跡手段において追跡した人物の位置の軌跡から、予め定められた計数領域を出入りした人数を計数する人数計数手段とを備える、人物計数装置。
An image input means for inputting a target image;
Edge image extraction means for extracting an edge image from the target image;
A person position detecting means for detecting a person position in the target image based on the edge image and outputting as position information;
Position tracking means for tracking the position of a person who moves in an image sequence including the target image based on the position information;
A person counting device comprising: a person counting means for counting the number of people who entered and exited a predetermined counting area from the locus of the position of the person tracked by the position tracking means.
前記画像入力手段は、連続するフレームからなる画像を前記対象画像として入力し、前記エッジ画像抽出手段は、前記対象画像のフレーム間差分を求め、エッジ画像を抽出する請求項1記載の人物計数装置。 The person counting apparatus according to claim 1, wherein the image input unit inputs an image composed of continuous frames as the target image, and the edge image extraction unit obtains an inter-frame difference of the target image and extracts an edge image. . 前記対象画像は、水平方向と斜め上方向のいずれかの方向から撮影された画像であり、前記人物位置検出手段は、前記エッジ画像の上端部を結ぶ稜線を求め、この稜線に基づいて、前記対象画像における人物位置を検出し、前記位置情報とする請求項1記載の人物計数装置。 The target image is an image taken from one of a horizontal direction and a diagonally upward direction, and the person position detection unit obtains a ridge line connecting the upper end portions of the edge image, and based on the ridge line, the The person counting apparatus according to claim 1, wherein a person position in a target image is detected and used as the position information. 前記人物位置検出手段は、前記稜線の極大点を求め、求めた極大点を前記対象画像における人物位置と判定して、前記位置情報とする請求項3記載の人物計数装置。 The person counting device according to claim 3, wherein the person position detecting unit obtains a local maximum point of the ridge line, determines the obtained local maximum point as a human position in the target image, and uses it as the positional information. 前記対象画像は、連続するフレームの画像からなり、前記位置追跡手段は、前記人物位置検出手段が出力した前記位置情報についてフレーム間の相関を求め、連続するフレームの画像中を移動する人物の移動位置を追跡する請求項1記載の人物計数装置。 The target image is composed of images of consecutive frames, and the position tracking unit obtains a correlation between frames for the position information output by the person position detecting unit, and moves a person who moves in the images of consecutive frames. The person counting apparatus according to claim 1, wherein the position is tracked. 前記対象画像は、連続するフレームの画像からなり、前記位置追跡手段は、前記対象画像における人物の移動方向を検出して移動方向情報として保持し、前記対象画像の現フレームにおける前記位置情報と前記移動方向情報とを基に、前記対象画像の次フレームにおける人物の移動位置を予測し、その予測移動位置を考慮して、前記対象画像の現フレームにおける人物と次フレームにおける人物を対応付けすることにより、人物の移動位置を追跡する請求項1記載の人物計数装置。 The target image is composed of images of successive frames, and the position tracking means detects a movement direction of a person in the target image and holds it as movement direction information, and the position information in the current frame of the target image and the Predicting the movement position of the person in the next frame of the target image based on the movement direction information, and considering the predicted movement position and associating the person in the current frame of the target image with the person in the next frame The person counting device according to claim 1, wherein the movement position of the person is tracked. 前記位置追跡手段は、前記位置情報と前記移動方向情報とを基に、対象画像中の重なっている人物の人数を判定し、重なりから解放される人物の人数を判定する請求項6記載の人物計数装置。 The person according to claim 6, wherein the position tracking unit determines the number of persons overlapping in the target image based on the position information and the movement direction information, and determines the number of persons released from the overlap. Counting device. 前記人数計数手段は、前記位置追跡手段が追跡した人物の位置の軌跡に基づき、予め定められた計数領域を出入りした人物を判定し、前記計数領域を出入りした人数を計数する請求項1記載の人物計数装置。 2. The person counting unit according to claim 1, wherein the person counting unit determines a person who has entered and exited a predetermined counting area based on a locus of the position of the person tracked by the position tracking unit, and counts the number of persons who have entered and exited the counting area. Person counting device. 前記位置追跡手段は、前記対象画像における人物の移動方向を検出して移動方向情報として保持し、前記人数計数手段は、前記位置追跡手段が保持する移動方向情報を基に、予め定められた計数領域を出入りした人物の人数を移動方向別に計数する請求項1記載の人物計数装置。 The position tracking unit detects a moving direction of a person in the target image and holds it as moving direction information, and the number counting unit counts a predetermined number based on the moving direction information held by the position tracking unit. The person counting apparatus according to claim 1, wherein the number of persons entering and exiting the area is counted by moving direction. 対象画像を入力する画像入力ステップと、
前記対象画像から、エッジ画像を抽出するエッジ画像抽出ステップと、
前記エッジ画像に基づいて、前記対象画像における人物位置を検出し、位置情報として出力する人物位置検出ステップと、
前記位置情報に基づいて、前記対象画像を含む画像列中を移動する人物の位置を追跡する位置追跡ステップと、
前記位置追跡ステップにおいて追跡した人物の位置の軌跡から、予め定められた計数領域を出入りした人数を計数する人数計数ステップとを含む、人物計数方法。
An image input step for inputting a target image;
An edge image extraction step of extracting an edge image from the target image;
A person position detecting step for detecting a person position in the target image based on the edge image and outputting the position information as position information;
A position tracking step for tracking the position of a person moving in an image sequence including the target image based on the position information;
A person counting method including a person counting step of counting the number of persons entering and leaving a predetermined counting area from the locus of the position of the person tracked in the position tracking step.
前記画像入力ステップでは、連続するフレームからなる画像を前記対象画像として入力し、この対象画像のフレーム間差分を求め、エッジ画像を抽出する、請求項10記載の人物計数方法。 The person counting method according to claim 10, wherein in the image input step, an image composed of continuous frames is input as the target image, an inter-frame difference of the target image is obtained, and an edge image is extracted. 前記エッジ画像抽出ステップでは、水平方向と斜め上方向のいずれかの方向から撮影された対象画像から前記エッジ画像を求め、前記人物位置検出ステップでは、前記エッジ画像の上端部を結ぶ稜線に基づいて、前記対象画像における人物位置を検出、前記位置情報とする請求項10記載の人物計数方法。 In the edge image extraction step, the edge image is obtained from a target image taken from either a horizontal direction or an obliquely upward direction, and in the person position detection step, based on a ridge line connecting the upper end portions of the edge image. The person counting method according to claim 10, wherein a person position in the target image is detected and used as the position information. 前記対象画像は、連続するフレームの画像からなり、前記人物位置検出ステップでは、前記稜線の極大点を求め、求めた極大点を前記対象画像における人物位置と判定して、前記位置情報とする請求項12記載の人物計数方法。 The target image is composed of images of continuous frames, and in the person position detecting step, a local maximum point of the ridge line is obtained, the obtained local maximum point is determined as a human position in the target image, and is used as the position information. Item 12. The person counting method according to Item 12. 前記対象画像は、連続するフレームの画像からなり、前記位置追跡ステップでは、前記人物位置検出ステップにおいて出力した前記位置情報についてフレーム間の相関を求め、連続するフレームの画像中を移動する人物の移動位置を追跡する請求項10記載の人物計数方法。 The target image is composed of images of successive frames. In the position tracking step, a correlation between frames is obtained for the position information output in the person position detection step, and the movement of a person moving in the images of successive frames is obtained. The person counting method according to claim 10, wherein the position is tracked. 前記対象画像は、連続するフレームの画像からなり、前記位置追跡ステップでは、前記対象画像における人物の移動方向を検出して移動方向情報として保持し、前記対象画像の現フレームにおける前記位置情報と前記移動方向情報とを基に、前記対象画像の次フレームにおける人物の移動位置を予測し、その予測移動位置を考慮して、前記対象画像の現フレームにおける人物と次フレームにおける人物を対応付けすることにより、人物の移動位置を追跡する請求項10記載の人物計数方法。 The target image is composed of images of successive frames. In the position tracking step, the movement direction of the person in the target image is detected and held as movement direction information, and the position information in the current frame of the target image and the Predicting the movement position of the person in the next frame of the target image based on the movement direction information, and considering the predicted movement position and associating the person in the current frame of the target image with the person in the next frame The person counting method according to claim 10, wherein the movement position of the person is tracked. 前記位置追跡ステップでは、前記位置情報と前記移動方向情報とを基に、対象画像中の重なっている人物の人数を判定し、重なりから解放される人物の人数を判定する請求項15記載の人物計数方法。 16. The person according to claim 15, wherein in the position tracking step, the number of overlapping persons in the target image is determined based on the position information and the moving direction information, and the number of persons released from the overlapping is determined. Counting method. 前記人数計数ステップでは、前記位置追跡ステップにおいて追跡した人物の位置の軌跡に基づき、予め定められた計数領域を出入りした人物を判定し、前記計数領域を出入りした人数を計数する請求項10記載の人物計数方法。 11. The person counting step according to claim 10, wherein in the number counting step, a person who enters and exits a predetermined counting area is determined based on a trajectory of the position of the person tracked in the position tracking step, and the number of persons who enter and leave the counting area is counted. Person counting method. 前記位置追跡ステップでは、前記対象画像における人物の移動方向を検出して移動方向情報として保持し、前記人数計数ステップでは、前記移動方向情報を基に、予め定められた計数領域を出入りした人物の人数を移動方向別に計数する請求項10記載の人物計数方法。 In the position tracking step, the movement direction of the person in the target image is detected and held as movement direction information, and in the number-of-persons counting step, based on the movement direction information, The person counting method according to claim 10, wherein the number of persons is counted for each moving direction.
JP2004205805A 2004-07-13 2004-07-13 Person counting device and person counting method Pending JP2006031153A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004205805A JP2006031153A (en) 2004-07-13 2004-07-13 Person counting device and person counting method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004205805A JP2006031153A (en) 2004-07-13 2004-07-13 Person counting device and person counting method

Publications (1)

Publication Number Publication Date
JP2006031153A true JP2006031153A (en) 2006-02-02

Family

ID=35897463

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004205805A Pending JP2006031153A (en) 2004-07-13 2004-07-13 Person counting device and person counting method

Country Status (1)

Country Link
JP (1) JP2006031153A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009510541A (en) * 2005-09-29 2009-03-12 パナソニック株式会社 Object tracking method and object tracking apparatus
JP2009211274A (en) * 2008-03-03 2009-09-17 Canon Inc Image processing apparatus, image processing method, program and storage medium
JP2009211311A (en) * 2008-03-03 2009-09-17 Canon Inc Image processing apparatus and method
JP2011220904A (en) * 2010-04-13 2011-11-04 Advanced Telecommunication Research Institute International Position detection system
JP2015070359A (en) * 2013-09-27 2015-04-13 株式会社京三製作所 Person counting device
WO2018154654A1 (en) * 2017-02-22 2018-08-30 三菱電機株式会社 Moving object detection device and moving object detection program

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009510541A (en) * 2005-09-29 2009-03-12 パナソニック株式会社 Object tracking method and object tracking apparatus
JP2009211274A (en) * 2008-03-03 2009-09-17 Canon Inc Image processing apparatus, image processing method, program and storage medium
JP2009211311A (en) * 2008-03-03 2009-09-17 Canon Inc Image processing apparatus and method
US8284991B2 (en) 2008-03-03 2012-10-09 Canon Kabushiki Kaisha Apparatus and method for counting number of objects
JP2011220904A (en) * 2010-04-13 2011-11-04 Advanced Telecommunication Research Institute International Position detection system
JP2015070359A (en) * 2013-09-27 2015-04-13 株式会社京三製作所 Person counting device
WO2018154654A1 (en) * 2017-02-22 2018-08-30 三菱電機株式会社 Moving object detection device and moving object detection program
JPWO2018154654A1 (en) * 2017-02-22 2019-06-27 三菱電機株式会社 Moving body detection device and moving body detection program

Similar Documents

Publication Publication Date Title
US20220148321A1 (en) System and process for detecting, tracking and counting human objects of interest
US10417503B2 (en) Image processing apparatus and image processing method
JP4700477B2 (en) MOBILE BODY MONITORING SYSTEM AND MOBILE BODY FEATURE CALCULATION DEVICE
KR101788269B1 (en) Method and apparatus for sensing innormal situation
US20110169917A1 (en) System And Process For Detecting, Tracking And Counting Human Objects of Interest
JP6233624B2 (en) Information processing system, information processing method, and program
KR101307234B1 (en) Parking management system based on object recognition
US20120086778A1 (en) Time of flight camera and motion tracking method
WO2014061342A1 (en) Information processing system, information processing method, and program
JP2008009849A (en) Person tracking device
JP2016018374A (en) Object tracking apparatus, object tracking method, and object tracking program
JP2014149716A (en) Object tracking apparatus and method thereof
JP2006031153A (en) Person counting device and person counting method
WO2015005102A1 (en) Image processing device, image processing method, and image processing program
EP2966592B1 (en) Face recognition apparatus and method for recognizing face
Sugimoto et al. Robust rule-based method for human activity recognition
JP6266088B2 (en) Person detection device and person detection method
Sehairi et al. A Real-Time Implementation of Moving Object Action Recognition System Based on Motion Analysis
Thirde et al. Multi-camera tracking for visual surveillance applications
Benedek et al. Motion-based flexible camera registration
JP4552018B2 (en) Moving image processing apparatus and moving image processing method
JP6579657B2 (en) Judgment device, program, and remote communication support device
US10593045B2 (en) Information processing apparatus and method of controlling the same
Wu et al. Assistance instruments detection using geometry constrained knowledge for health care centers
JP2009140360A (en) Behavior analysis device and method