JP2020113300A - Queue detecting system, method, and program - Google Patents

Queue detecting system, method, and program Download PDF

Info

Publication number
JP2020113300A
JP2020113300A JP2020043673A JP2020043673A JP2020113300A JP 2020113300 A JP2020113300 A JP 2020113300A JP 2020043673 A JP2020043673 A JP 2020043673A JP 2020043673 A JP2020043673 A JP 2020043673A JP 2020113300 A JP2020113300 A JP 2020113300A
Authority
JP
Japan
Prior art keywords
matrix
person
input
unit
lined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020043673A
Other languages
Japanese (ja)
Other versions
JP7036138B2 (en
Inventor
有紀江 海老山
Yukie Ebiyama
有紀江 海老山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JP2020113300A publication Critical patent/JP2020113300A/en
Application granted granted Critical
Publication of JP7036138B2 publication Critical patent/JP7036138B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02EREDUCTION OF GREENHOUSE GAS [GHG] EMISSIONS, RELATED TO ENERGY GENERATION, TRANSMISSION OR DISTRIBUTION
    • Y02E40/00Technologies for an efficient electrical power generation, transmission or distribution
    • Y02E40/30Reactive power compensation

Abstract

To provide a queue detecting system, a queue detecting method, and a queue detecting program in which a person who does not intend to be in a queue but simply stay, etc. is not treated as a person in a queue.SOLUTION: A queue detecting system includes: a queue information input part 2 which accepts input of a queue position; a detecting part 31 which detects a subject from an input image; and a determining part 33 which determines whether the subject gets in a queue on the basis of distance between the subject and the queue position.SELECTED DRAWING: Figure 1

Description

本発明は、映像から行列を検出するためのシステム、方法及びプログラムに関する。 The present invention relates to a system, method and program for detecting a matrix from a video.

カメラ映像から行列を検出する方法、及び、行列を成す人数や長さ、待ち時間等を解析する方法が種々提案されている。 Various methods have been proposed for detecting a matrix from a camera image and for analyzing the number of people forming the matrix, the length of the matrix, the waiting time, and the like.

特許文献1に記載された技術は、入力画像に対し、背景差分を用いて人物領域の面積を求め、その面積をあらかじめ定めた一人あたりの単位面積で除算して人数を推定する。特許文献1に記載された技術は、推定した人数に対し、別途所定の方法で集計した単位時間当たりの入場者数で除算することにより、待ち時間を推定する。 The technique described in Patent Document 1 obtains the area of a person region from an input image by using the background difference, and divides the area by a predetermined unit area per person to estimate the number of people. The technique described in Patent Document 1 estimates the waiting time by dividing the estimated number of people by the number of visitors per unit time that is separately collected by a predetermined method.

特許文献2に記載された技術は、天井に設置したカメラで行列を真上から撮影し、背景差分及びオプティカルフローを用いて、滞留及び移動中の個々の人物領域を抽出する。特許文献2に記載された技術は、抽出した個々の人物領域を順に結んで行列線を生成し、各行列の総延長及び長さに基づく待ち時間を算出する。 The technique described in Patent Document 2 captures a matrix from directly above with a camera installed on the ceiling, and uses the background difference and optical flow to extract individual person regions that are staying and moving. The technique described in Patent Document 2 connects the extracted individual person regions in order to generate a matrix line, and calculates the waiting time based on the total extension and length of each matrix.

特開2002−329196号公報JP, 2002-329196, A 特開2007−317052号公報JP, 2007-317052, A

しかしながら、上述の特許文献1及び2に記載の技術では、行列に並ぶつもりではなく単に滞留しているだけ等の人物であっても、その人物を行列に並ぶ人として処理してしまう場合がある。 However, in the techniques described in Patent Documents 1 and 2 described above, there is a case where a person who does not intend to be in a queue but merely stays is treated as a person who is in a queue. ..

本発明の目的は、上述の課題を解決可能な技術を提供することである。 An object of the present invention is to provide a technique capable of solving the above problems.

本発明に係る行列検出システムは、行列位置の入力を受け付ける行列情報入力部と、入力画像から対象物を検出する検出部と、対象物と行列位置との距離に基づいて、対象物が行列に並んでいるか否かを判定する判定部と、を含む。 The matrix detection system according to the present invention includes a matrix information input unit that receives an input of a matrix position, a detection unit that detects an object from an input image, and a matrix of the objects based on a distance between the object and the matrix position. And a determination unit that determines whether or not they are lined up.

本発明に係る行列検出方法は、行列位置の入力を受け付け、入力画像から対象物を検出し、対象物と行列位置との距離に基づいて、対象物が行列に並んでいるか否かを判定する。 A matrix detection method according to the present invention receives an input of a matrix position, detects an object from an input image, and determines whether or not the object is lined up in a matrix based on a distance between the object and the matrix position. ..

本発明に係るプログラムは、行列位置の入力を受け付ける行列情報入力処理と、入力画像から対象物を検出する検出処理と、対象物と行列位置との距離に基づいて、対象物が行列に並んでいるか否かを判定する判定処理と、をコンピュータに実行させる。 The program according to the present invention is a matrix information input process that receives an input of a matrix position, a detection process that detects an object from an input image, and the objects are arranged in a matrix based on the distance between the object and the matrix position. The computer is caused to execute a determination process of determining whether or not there is.

本発明によれば、行列に並ぶつもりではなく単に滞留しているだけ等の人物であっても、誤ってその人物を行列に並ぶ人として処理してしまう場合がある、という課題が解決される。 According to the present invention, the problem that a person who does not intend to be in a line but simply stays in a line may be mistakenly processed as a person in a line may be solved. ..

本発明の実施形態1の構成例を示す機能ブロック図である。It is a functional block diagram which shows the structural example of Embodiment 1 of this invention. 行列情報の入力方法の例を示す説明図である。It is explanatory drawing which shows the example of the input method of matrix information. 行列情報の入力方法の例を示す説明図である。It is explanatory drawing which shows the example of the input method of matrix information. 行列待ち情報の生成過程の例を示す説明図である。It is an explanatory view showing an example of a generation process of queue waiting information. 行列待ち情報の生成過程の例を示す説明図である。It is an explanatory view showing an example of a generation process of queue waiting information. 本発明の実施形態1の処理経過の例を示すフローチャートである。It is a flow chart which shows an example of processing progress of Embodiment 1 of the present invention. 本発明の実施形態1の処理経過の例を示すフローチャートである。It is a flow chart which shows an example of processing progress of Embodiment 1 of the present invention. 本発明の実施形態2の構成例を示す機能ブロック図である。It is a functional block diagram which shows the structural example of Embodiment 2 of this invention. 本発明の実施形態2の処理経過の例を示すフローチャートである。It is a flow chart which shows an example of processing progress of Embodiment 2 of the present invention. 本発明の各実施形態を実現可能なコンピュータのハードウェア構成例を説明する図である。It is a figure explaining the example of hardware constitutions of a computer which can realize each embodiment of the present invention.

まず、本発明の実施形態の理解を容易にするために、本発明の背景を説明する。 First, the background of the present invention will be described to facilitate understanding of the embodiments of the present invention.

上述の特許文献1及び2に記載の技術では、行列に並ぶつもりではなく単に滞留しているだけ等の人物であっても、その人物を行列に並ぶ人として処理してしまう場合がある。 In the techniques described in the above-mentioned Patent Documents 1 and 2, even a person who does not intend to be in a queue but simply stays in a queue may process the person as a person in a queue.

例えば、特許文献1に記載の技術は、入力画像に対し、背景差分を用いて人物領域の面積を求めるため、行列に並ぶつもりではない人が行列の付近に立ち止まった場合、その単に滞留している人も含めて人物領域の面積を求めることになる。また、本来の行列から離れた位置に複数の滞留者がいた場合、特許文献1に記載の技術はその複数の滞留者が行列を構成する人々であると認識しうる。特許文献1に記載の技術には、その他の課題として、オクルージョンの発生による未検出等がある。特許文献1のような背景差分に基づく手法では、人物の体格の違い、荷物等付帯物の有無、及び、人物同士の重なりや遮蔽物による隠れによって、実際の人物と差分ベースで取得する人物領域との関係に容易に誤差が生じる。また、この手法では、個々の人物やその並び順を認識しないため、人物ごとの待ち時間を算出することができない。 For example, the technique described in Patent Document 1 obtains the area of the person region using the background difference with respect to the input image. Therefore, when a person who does not intend to be lined up in the matrix stops near the matrix, the person simply stays there. The area of the person area will be calculated including those who are present. Further, when there are a plurality of stayers at a position away from the original queue, the technique described in Patent Document 1 can recognize that the plurality of stayers are people who form the queue. The technique described in Patent Document 1 has other problems such as non-detection due to occurrence of occlusion. In the method based on the background difference as in Patent Document 1, a person area obtained on a difference basis with an actual person by the difference in the physique of the person, the presence or absence of incidental items such as luggage, and the overlapping of the persons or the hiding by a shield. An error easily occurs in the relationship with. Further, in this method, since the individual person and the arrangement order thereof are not recognized, the waiting time for each person cannot be calculated.

また、特許文献2に記載の技術においても、特許文献1と同様に単なる滞留者を行列に並ぶ人であるとする誤処理が生じうる。また、その他の課題として、特許文献2に記載の手法は、人物の検出及び追跡が良好に行えることを前提としているが、実環境においては、カメラの設置位置や建物の構造等により、人物同士の重なりや遮蔽物によるオクルージョンの発生が想定される。これにより、オクルージョン領域において人物の検出漏れが生じ、その結果行列に並ぶ人物を正しく繋ぐことに失敗し、誤った人数及び待ち時間を推定してしまう。特許文献2では、このようなオクルージョンの問題を解決するために、高い位置にカメラを設置し人物を真上から撮影することを提案している。しかし、一般的な屋内施設または屋外において必ずしも高い位置にカメラを設置できる環境が整っているとは限らない。また、一般的な監視カメラとも設置位置及び画角が異なるため、行列検出専用のカメラとして新たに設置する必要があり、導入コストの増大につながる。したがって、特殊な設置条件のカメラを使用するのではなく、人物を斜め上から撮影するような既設の監視カメラ映像を使用し、オクルージョンの問題を解決することが望ましい。 Further, also in the technique described in Patent Document 2, erroneous processing may occur in which a mere resident is a person who is lined up in a matrix, as in Patent Document 1. In addition, as another problem, the method described in Patent Document 2 is based on the premise that people can be detected and tracked satisfactorily. Occurrence of occlusion due to overlapping of trees and obstacles is assumed. This may result in omission of detection of persons in the occlusion area, resulting in failure to correctly connect persons arranged in a matrix, resulting in estimation of incorrect number of persons and waiting time. In order to solve such an occlusion problem, Patent Document 2 proposes to install a camera at a high position and shoot a person from directly above. However, the environment in which the camera can be installed at a high position is not necessarily established in general indoor facilities or outdoors. Further, since the installation position and the angle of view are different from those of a general surveillance camera, it is necessary to newly install the camera as a dedicated matrix detection camera, which leads to an increase in installation cost. Therefore, it is desirable to solve the occlusion problem by using an existing surveillance camera image that captures a person from diagonally above, instead of using a camera with special installation conditions.

以下に説明される本発明の実施形態によれば、上述の課題が解決され、行列に並ぶ意図でない人物の誤検出が防止され、また、天井設置型等特殊なカメラでなくても、オクルージョンに頑健に行列を検出することができる。 According to the embodiments of the present invention described below, the above-described problems are solved, erroneous detection of unintentional persons in a line is prevented, and occlusion is achieved even if the camera is not a special camera such as a ceiling-mounted type. The matrix can be detected robustly.

以下、本発明の実施形態を、図面を参照して説明する。 Embodiments of the present invention will be described below with reference to the drawings.

<実施形態1>
図1は本発明の実施形態1の構成例を示すブロック図である。
<Embodiment 1>
FIG. 1 is a block diagram showing a configuration example of the first embodiment of the present invention.

図1に示すように、本実施形態に係る行列検出システムは、画像入力部1と、行列情報入力部2と、行列検出部3と、出力部4とを含む。 As shown in FIG. 1, the matrix detection system according to the present embodiment includes an image input unit 1, a matrix information input unit 2, a matrix detection unit 3, and an output unit 4.

画像入力部1は、所定の監視領域を撮影した時系列の画像と撮影時刻との組を、行列検出部3に逐次入力する。画像入力部1が行列検出部3に入力する画像は、例えば監視カメラなどの撮影装置を用いて取得されてもよい。または、画像入力部1は、記憶装置(図示せず)に記憶された映像データを読み出して得られる時系列の画像を行列検出部3に入力してもよい。 The image input unit 1 sequentially inputs, to the matrix detection unit 3, a set of a time-series image of a predetermined monitoring area and a shooting time. The image input by the image input unit 1 to the matrix detection unit 3 may be acquired by using a photographing device such as a surveillance camera. Alternatively, the image input unit 1 may input a time-series image obtained by reading the video data stored in the storage device (not shown) to the matrix detection unit 3.

なお、本実施形態において検出対象とする物体の種別は特に限定されず、人物、動物、車、ロボット、又は物であってもよい。以下では、人物の検出を例にして説明する。 The type of the object to be detected in this embodiment is not particularly limited, and may be a person, an animal, a car, a robot, or an object. In the following, detection of a person will be described as an example.

行列情報入力部2は、解析対象となる行列の発生位置(以下「行列位置」という。)を入力する。行列情報入力部2は、例えばマウスや、タブレット端末のタッチパネルを介してユーザによる行列の発生位置の入力を受け付ける。行列情報入力部2は、ユーザによるマウス操作や、タッチペンや指などによるタッチパネル操作に基づき、監視カメラ映像が表示された画面上に行列の発生位置を入力してもよい。具体的には、行列情報入力部2は、画面上に、行列発生時の人物の足元位置の始点、中継点及び終点を描画して、行列の経路及び進行方向を入力してもよい。この時、ユーザは、始点及び終点を少なくともそれぞれ1点以上指定する必要があるが、中継点の指定は0点であってもよい。また、分岐や合流を含む行列を表現するために、ユーザは、始点又は終点の少なくともいずれかについて2つ以上入力してもよい。また、行列情報入力部2は、始点、中継点、終点間を結ぶ行列線ごとに、横に並ぶ人数の指定を、ユーザから受け付けるようにしてもよい。 The matrix information input unit 2 inputs the generation position of a matrix to be analyzed (hereinafter referred to as “matrix position”). The matrix information input unit 2 receives the input of the matrix generation position by the user via, for example, a mouse or a touch panel of a tablet terminal. The matrix information input unit 2 may input the generation position of the matrix on the screen on which the surveillance camera image is displayed, based on a mouse operation by a user or a touch panel operation by a touch pen or a finger. Specifically, the matrix information input unit 2 may draw the starting point, the relay point, and the ending point of the foot position of the person when the matrix occurs on the screen, and input the route and the traveling direction of the matrix. At this time, the user needs to specify at least one start point and at least one end point, but the relay point may be specified as 0 point. In addition, the user may input two or more for at least one of the start point and the end point in order to express a matrix including a branch and a merge. Further, the matrix information input unit 2 may receive, from the user, the designation of the number of people who are lined up side by side for each matrix line connecting the start point, the relay point, and the end point.

また、入力された始点、中継点、終点及び横に並ぶ人数を、監視カメラ映像が表示された画面上に重畳して描画することで、ユーザが入力内容を容易に確認できるようにしてもよい。また、行列情報の入力は、行列検出処理を開始する前にあらかじめ行われていてもよいし、行列検出処理を実行中の任意のタイミングで、変更した行列情報が反映されるようにしてもよい。 Further, the input start point, the relay point, the end point, and the number of people arranged side by side may be superimposed and drawn on the screen on which the surveillance camera image is displayed so that the user can easily confirm the input content. .. The matrix information may be input in advance before the matrix detection process is started, or the changed matrix information may be reflected at any timing during the execution of the matrix detection process. ..

なお、行列情報の入力方法は、上述のものに限定されない。例えば、行列発生時の人物の足元位置の始点、中継点及び終点の入力が行われるのではなく、ユーザがタッチパネル上に直接、直線や曲線をなぞることで行列位置を入力するようにしてもよい。または、行列情報入力部2は、ユーザによる入力に基づくのではなく、装置内外で格納されている所定の書式で行列位置が記述されたファイルを読み込む等の方法により自動的に行列位置を入力するようにしてもよい。 The input method of the matrix information is not limited to the above. For example, instead of inputting the start point, the relay point, and the end point of the foot position of the person when the matrix is generated, the user may directly input the matrix position by tracing a straight line or a curved line on the touch panel. .. Alternatively, the matrix information input unit 2 automatically inputs the matrix position by a method such as reading a file in which the matrix position is described in a predetermined format stored inside or outside the device, not based on the input by the user. You may do it.

ここで、行列情報の入力について具体的に説明する。図2は行列に並ぶ人物を監視カメラで撮影した画像を示す図である図2は、奥から手前方向に人物が並んでいる様子を示す。また、図2は、行列の最後尾では二股に分かれているが、途中で合流し、2列の行列となって先頭まで続いている様子を示している。図3は、行列情報として、行列の最後尾である2つの終点(終点1及び終点2)と、2つの中継点(中継点1及び中継点2)と、行列の先頭である1つの始点(始点1)とが入力された様子を示す。また、図3は、終点1及び2から中継点1までは1列の行列、中継点1から始点1までは2列の行列として入力された様子を示す。 Here, the input of the matrix information will be specifically described. FIG. 2 is a diagram showing an image of people lined up in a matrix taken by a surveillance camera. FIG. 2 shows a state in which people are lined up from the back to the front. In addition, FIG. 2 shows a state in which the last part of the procession is divided into two, but merges in the middle to form a two-column procession that continues to the beginning. FIG. 3 shows, as the matrix information, two end points (end point 1 and end point 2) at the tail end of the matrix, two relay points (relay point 1 and relay point 2), and one start point (start point of the matrix ( The starting point 1) and the input are shown. Further, FIG. 3 shows a state in which input is made as a one-column matrix from the end points 1 and 2 to the relay point 1 and as a two-column matrix from the relay point 1 to the start point 1.

行列情報入力部2は、上述のようにして入力された始点、中継点、終点及び各地点間の情報を、任意のタイミングで行列位置として反映させる。例えば、入力情報を反映させるための「反映」ボタンを表示画面上に表示しておき、ユーザによるそのボタンの押下を検出すると、行列情報入力部2は、入力情報を反映させてもよい。これにより反映された行列情報が、判定部33の判定等に用いられることになる。 The matrix information input unit 2 reflects the start point, the relay point, the end point, and the information between the points input as described above as a matrix position at an arbitrary timing. For example, the “reflect” button for reflecting the input information may be displayed on the display screen, and when the pressing of the button by the user is detected, the matrix information input unit 2 may reflect the input information. The matrix information reflected by this is used for the determination of the determination unit 33 and the like.

行列検出部3は、画像入力部1から逐次入力される画像を解析し、画像中の行列を検出する。行列検出部3は、検出部31と、追跡部32と、判定部33と、生成部34とを備える。 The matrix detection unit 3 analyzes images sequentially input from the image input unit 1 and detects a matrix in the image. The matrix detection unit 3 includes a detection unit 31, a tracking unit 32, a determination unit 33, and a generation unit 34.

検出部31は、画像入力部1から取得した画像中に存在するすべての、又は一部の人物を検出する。検出部31は、例えば、あらかじめ人物の頭部、上半身など特定部位の人体領域のパターンを認識するために構築された識別器を利用し入力画像から人物を検出する処理を行ってもよい。識別器を利用する方法に限定されず、検出部31は、人物の検出方法としてパターン認識における公知の手法を用いればよい。 The detection unit 31 detects all or some of the persons present in the image acquired from the image input unit 1. For example, the detection unit 31 may perform a process of detecting a person from an input image by using a discriminator constructed in advance to recognize a pattern of a human body region of a specific part such as a person's head or upper body. The detection unit 31 is not limited to the method using the discriminator, and any known method in pattern recognition may be used as the person detection method.

また、検出部31は、行列位置の近辺に存在する人物のみを検出対象とするために、行列情報入力部2から入力される行列位置に基づいて、検出対象領域を限定して検出処理を行うようにしてもよい。すなわち、検出部31は、入力された行列位置の近傍の領域に対してのみ検出処理を行うようにしてもよい。 In addition, the detection unit 31 performs detection processing by limiting the detection target region based on the matrix position input from the matrix information input unit 2 in order to detect only the persons existing near the matrix position. You may do it. That is, the detection unit 31 may perform the detection processing only on the region near the input matrix position.

検出部31は、検出結果として、画像入力部1から取得した画像の時刻と、検出した人物の位置座標を出力する。入力画像を撮影したカメラのキャリブレーション情報について、あらかじめ算出されている等によりわかっている場合、検出部31は、キャリブレーション情報を用いて、人物の検出結果である画面上の位置座標を世界座標に変換して出力してもよい。 The detection unit 31 outputs the time of the image acquired from the image input unit 1 and the position coordinates of the detected person as the detection result. When the calibration information of the camera that captured the input image is known by being calculated in advance, the detection unit 31 uses the calibration information to determine the position coordinates on the screen, which are the detection results of the person, as world coordinates. May be converted to and output.

追跡部32は、検出部31により各フレーム画像から検出された人物を対象に、複数フレーム間に渡って人物の追跡を行う。追跡部32は、例えば、パーティクルフィルタなどの公知のアルゴリズムを用いて、人物の追跡処理を行うようにしてもよい。 The tracking unit 32 tracks the person over a plurality of frames, targeting the person detected from each frame image by the detection unit 31. The tracking unit 32 may perform a person tracking process using a known algorithm such as a particle filter, for example.

追跡部32は、追跡対象の人物の位置を更新するために用いる移動モデルに関し、対象が行列に並ぶ人物か否かによって、異なる移動モデルを使用してもよい。追跡部32は、行列に並ぶ人物であるかどうかにつき、例えば判定部33が管理する行列人物ID(IDentifier)リストを参照してもよい。その場合、追跡部32は、追跡対象の人物IDが行列人物IDリストに登録されていれば行列に並ぶ人物であると判定し、登録されていなければ行列に並んでいない人物であると判定しても良い。 The tracking unit 32 may use different movement models with respect to the movement model used to update the position of the person to be tracked, depending on whether or not the target is a person arranged in a matrix. The tracking unit 32 may refer to, for example, a queue person ID (IDentifier) list managed by the determination unit 33 to determine whether or not the persons are in line. In that case, the tracking unit 32 determines that the person ID to be tracked is registered in the queue person ID list, and is determined to be a person who is in the queue, and is not registered, is determined to be a person who is not in the queue. May be.

行列に並ぶ人物に関し、並んでいる時間の多くは静止状態である。そのため、多くの時間で静止状態を表す(すなわち、ほとんど移動しない)移動モデルを適用することが適切である。また、行列情報入力部2から得られる行列位置情報により、場所ごとの進行方向は既知である。そのため、進行方向を限定した移動モデルを適用することができる。つまり、追跡部32は、行列に並ぶ人物に対して、移動状態と静止状態を表す2状態モデルを使用した追跡処理を行うことで、より頑健に追跡することが可能になる。追跡部32は、行列に並ぶ人物が静止状態か移動状態かに応じて、各状態モデルの重みを変化させるようにしてもよい。 For people in a line, most of the time they are in a line is stationary. Therefore, it is appropriate to apply a moving model that represents a stationary state for a large amount of time (that is, hardly moves). In addition, the traveling direction for each place is known from the matrix position information obtained from the matrix information input unit 2. Therefore, it is possible to apply a movement model in which the traveling direction is limited. In other words, the tracking unit 32 can perform more robust tracking by performing a tracking process using a two-state model that represents a moving state and a stationary state with respect to persons in a matrix. The tracking unit 32 may change the weight of each state model depending on whether the person in the line is in a stationary state or a moving state.

一方で、行列に並んでいない人物は、移動方向に制限がない。そのため、追跡部32は、行列に並んでいない人物に対しては、所定範囲の移動速度で全方位に移動することを想定した移動モデルを適用してもよい。 On the other hand, there is no limit to the direction of movement for persons who are not in line. Therefore, the tracking unit 32 may apply a movement model assuming that the person is not lined up in a line in all directions at a movement speed within a predetermined range.

入力された人物の位置情報が画像上の平面座標である場合で、あらかじめ算出されている等の事情により入力画像を撮影したカメラのキャリブレーション情報をわかっている場合、追跡部32は、世界座標系で追跡処理を行ってもよい。すなわち、追跡部32は、キャリブレーション情報を用いて、画面上の座標系を世界座標系に変換してから追跡処理を行ってもよい。人物の位置情報が世界座標系で入力される場合は、追跡部32は、そのまま世界座標系にて追跡処理を行ってもよい。 If the input positional information of the person is the plane coordinates on the image, and if the calibration information of the camera that has captured the input image is known due to such reasons as being calculated in advance, the tracking unit 32 determines the world coordinate. The tracking process may be performed in the system. That is, the tracking unit 32 may perform the tracking process after converting the coordinate system on the screen into the world coordinate system using the calibration information. When the position information of the person is input in the world coordinate system, the tracking unit 32 may directly perform the tracking process in the world coordinate system.

追跡部32は、追跡結果を出力する。追跡部32は、例えば、追跡結果として、追跡対象の人物毎の人物IDと、時刻と、位置座標とを紐付けた情報を出力する。 The tracking unit 32 outputs the tracking result. The tracking unit 32 outputs, for example, the information in which the person ID of each person to be tracked, the time, and the position coordinate are associated with each other as the tracking result.

判定部33は、追跡部32から出力される時刻ごとの人物の位置座標をもとに、各人物の移動速度を算出する。判定部33は、人物の位置座標と、行列情報入力部2から入力される行列位置の座標とを比較し、各人物と行列位置との距離を算出する。 The determination unit 33 calculates the moving speed of each person based on the position coordinates of the person for each time output from the tracking unit 32. The determination unit 33 compares the position coordinates of the person with the coordinates of the matrix position input from the matrix information input unit 2, and calculates the distance between each person and the matrix position.

判定部33は、移動速度及び行列位置との距離が所定の閾値よりも小さくなる人物を、行列に並ぶ人物(以下、「行列人物」という。)と判定する。判定部33は、当該移動速度または行列位置との距離が所定の閾値以上となる人物を、行列に並ばない人物(以下、「移動人物」という。)と判定する。 The determination unit 33 determines a person whose moving speed and distance from the matrix position are smaller than a predetermined threshold as a person arranged in a matrix (hereinafter referred to as a “matrix person”). The determination unit 33 determines that the person whose moving speed or the distance to the matrix position is equal to or more than a predetermined threshold is a person who is not lined up in the matrix (hereinafter, referred to as “moving person”).

判定部33は、検出部31が特定部位として頭部を検出した場合、カメラパラメータを用いて、頭部の位置から人物の足元に相当する下端位置を推定し、推定した下端位置と行列位置との距離に基づいて、人物が行列に並んでいるか否かを判定してもよい。これにより、足元を直接検出することが困難な場合にも、比較的検出が容易な頭部を検出し、そこから足元を推定するとこで、判定部33は、精度よく行列人物か否かを判定することができる。判定部33は、人物が大人である可能性や子供である可能性を考慮してもよい。具体的には、例えば、判定部33は、頭部の世界座標系における高さを複数のバリエーションで仮定し、カメラパラメータを用いて、仮定した複数の高さから複数の下端位置を推定する。判定部33は、推定した複数の下端位置と行列位置との最短距離に基づいて、対象物が行列に並んでいるか否かを判定してもよい。 When the detection unit 31 detects the head as the specific part, the determination unit 33 uses the camera parameters to estimate the lower end position corresponding to the foot of the person from the position of the head, and the estimated lower end position and the matrix position. Based on the distance of, it may be determined whether or not the people are lined up in a matrix. With this, even when it is difficult to directly detect the feet, the determination unit 33 detects the head that is relatively easy to detect and estimates the feet from the head. Can be judged. The determination unit 33 may consider the possibility that the person is an adult or the child. Specifically, for example, the determination unit 33 assumes a plurality of variations of the height of the head in the world coordinate system, and uses camera parameters to estimate a plurality of lower end positions from the plurality of assumed heights. The determination unit 33 may determine whether or not the objects are lined up in a matrix based on the estimated shortest distances between the lower end positions and the matrix position.

判定部33は、追跡中の各人物IDが、行列人物と移動人物のどちらであるかを示す行列人物IDリストを保持しておく。行列人物IDリストとは、追跡中の人物の人物IDと、当該人物が行列人物または移動人物のどちらであるかを表す情報と、の組を管理しているリストである。 The determination unit 33 holds a queue person ID list indicating whether each person ID being tracked is a queue person or a moving person. The queuing person ID list is a list that manages a set of person IDs of the person being tracked and information indicating whether the person is a queuing person or a moving person.

判定部33は、追跡中の各人物IDについて、移動速度と行列位置との距離に基づく判定結果を用いて、行列人物IDリストを更新する。 The determination unit 33 updates the matrix person ID list by using the determination result based on the distance between the moving speed and the matrix position for each person ID being tracked.

判定部33は、行列人物であると判定した人物の情報を出力する。判定部33は、例えば、行列人物であると判定した人物の人物IDと、時刻と、位置座標とを紐付けた情報を出力する。 The determination unit 33 outputs information on the person who is determined to be the line-up person. The determination unit 33 outputs, for example, information in which the person ID of a person who is determined to be a matrix person, time, and position coordinates are associated with each other.

生成部34は、判定部33から入力される行列人物の情報と、行列情報入力部2から入力される行列位置の情報とに基づいて、欠損のない全体の行列情報を生成する。すなわち、生成部34は、未検出領域を推定し、行列人物の情報から未検出領域に並ぶ人物の情報を補完して、行列情報を生成する。 The generation unit 34 generates the entire matrix information having no defects, based on the matrix person information input from the determination unit 33 and the matrix position information input from the matrix information input unit 2. That is, the generation unit 34 estimates the undetected area, complements the information of the person lined up in the undetected area from the information of the matrix person, and generates the matrix information.

具体的には、生成部34は、行列人物の位置座標と、行列位置と、に基づいてオクルージョンの発生状況(オクルージョンの影響による人物の未検出領域)を推定する。生成部34は、推定したオクルージョンの発生状況と、未検出領域前後の行列人物の検出状況等から、オクルージョンの影響により検出されなかった人物の存在を推定する。また、生成部34は、見えが小さすぎることにより人物が検出できない領域(見えの影響による人物の未検出領域)を推定する。生成部34は、見えの影響による未検出の可能性と、行列人物の検出状況とから、検出されなかった人物の存在を推定する。生成部34は、未検出だが存在すると推定された人物の情報を補完することで、欠損のない全体の行列情報を生成する。生成部34は、欠損のない全体の行列情報として、例えば、行列に並ぶ人数、行列の長さ、行列に並ぶ各人の累積待ち時間、行列の進行速度、行列に並び始めてから行列を抜けるまでの推定待ち時間などの情報を生成してもよい。 Specifically, the generation unit 34 estimates the occurrence status of occlusion (undetected area of a person due to the influence of occlusion) based on the position coordinates of the matrix person and the matrix position. The generation unit 34 estimates the presence of a person who is not detected due to the influence of occlusion from the estimated occlusion occurrence status, the detection status of the matrix people before and after the undetected area, and the like. Further, the generation unit 34 estimates an area in which a person cannot be detected because the appearance is too small (a non-detected area of the person due to the influence of the appearance). The generation unit 34 estimates the presence of a person who has not been detected from the undetected possibility due to the effect of appearance and the detection status of the line-shaped person. The generation unit 34 generates the entire matrix information having no defect by complementing the information of the person who is not detected but is estimated to exist. The generation unit 34 uses, as the entire matrix information having no deficiency, for example, the number of people in a line, the length of the line, the cumulative waiting time of each person in the line, the progress speed of the line, from the time the line starts to leave the line. Information such as the estimated waiting time may be generated.

オクルージョンの発生状況の推定方法として、図4、図5を用いて説明する。 A method of estimating the occurrence state of occlusion will be described with reference to FIGS. 4 and 5.

図4は、折り返しのある行列を撮影した画像を示す図である。図4は、画像中の左上が行列の始点(先頭)となり、途中で2回折り返し、右下が行列の終点(最後尾)となっている様子を示す。 FIG. 4 is a diagram showing an image obtained by photographing a lined-up matrix. FIG. 4 shows that the upper left corner of the image is the starting point (top) of the matrix, the curve is folded twice in the middle, and the lower right corner is the ending point (tail) of the matrix.

斜め下を見下ろす画角で撮影された映像は、カメラからの距離が遠い場所ほど俯角が浅くなる。そのため、人物が等間隔に並んだ行列においても、カメラから遠い人物ほど手前の人物に隠れやすくなってしまう。また、カメラから離れるほど人物の見えが小さくなる。そのため、カメラから遠くに存在する人物は、人物を検出可能な最小画素数を下回ることで、検出されなくなることがある。具体例として、図4では、網掛けで示した領域で、オクルージョンや人物の見えが小さすぎることにより未検出となったことを示している。 Images shot at an angle of view looking down diagonally have a shallower depression angle as the distance from the camera increases. Therefore, even in a matrix in which people are arranged at equal intervals, a person farther from the camera is more likely to be hidden by a person in front. Also, the further the distance from the camera, the less visible the person. Therefore, a person present far from the camera may not be detected because the number of pixels is less than the minimum number of pixels that can detect the person. As a specific example, FIG. 4 shows that unoccluded areas are undetected in the shaded area because the occlusion and the appearance of the person are too small.

このような状況において、例えば行列全体の待ち人数を算出する場合は、生成部34は、例えば以下のような方法で算出する。生成部34は、判定部33により行列人物と判定された人物の位置座標と、行列情報入力部2から入力された行列位置とに基づいて、途切れた行列長を算出する。また、生成部34は、人物位置が得られている領域から人口密度(所定の距離内で並ぶ人数)を推定する。生成部34は、推定した人口密度に基づいて途切れた行列長に存在する人数を推定し、検出できた人数と合算して待ち人数を算出する。生成部34は、例えば上述の方法で待ち人数を算出する。 In such a situation, for example, when calculating the number of people waiting in the queue, the generating unit 34 calculates, for example, by the following method. The generation unit 34 calculates the discontinuous matrix length based on the position coordinates of the person determined to be the matrix person by the determination unit 33 and the matrix position input from the matrix information input unit 2. In addition, the generation unit 34 estimates the population density (the number of people lined up within a predetermined distance) from the area where the person position is obtained. The generation unit 34 estimates the number of people present in the interrupted matrix length based on the estimated population density, and adds up the number of people who have been detected to calculate the waiting number of people. The generation unit 34 calculates the number of waiting persons, for example, by the method described above.

また、各人の累積待ち時間を算出する場合は、生成部34は、例えば以下のような方法で算出する。生成部34は、上述の方法でオクルージョン領域に存在する人数を推定する。生成部34は、オクルージョン領域の直前及び直後で検出された人物について、行列に並び始めてからの累積待ち時間を算出する。生成部34は、算出した2つの累積待ち時間の時間差をオクルージョン領域に存在する推定人数で除算する。生成部34は、除算することで算出した時間差を、オクルージョン領域に存在する先頭の人物から順に、前に並んでいる人物の累積待ち時間に加算していくことで、累積待ち時間の補間処理を行う。 When calculating the cumulative waiting time of each person, the generation unit 34 calculates, for example, by the following method. The generation unit 34 estimates the number of people existing in the occlusion area by the method described above. The generation unit 34 calculates the cumulative waiting time after the start of being arranged in a matrix for the persons detected immediately before and immediately after the occlusion area. The generation unit 34 divides the calculated time difference between the two cumulative waiting times by the estimated number of people present in the occlusion area. The generation unit 34 adds the time difference calculated by the division to the cumulative waiting time of the persons in the front in the occlusion area in order, thereby performing the interpolation processing of the cumulative waiting time. To do.

出力部4は、行列検出部3から入力される行列情報を出力する。出力部4の出力様態は、例えば、表示出力である。この場合、出力部4は、外部に備えられたディスプレイ装置に表示を行えばよい。ただし、出力部4の出力態様は表示に限定されず、他の態様であってもよい。 The output unit 4 outputs the matrix information input from the matrix detection unit 3. The output mode of the output unit 4 is, for example, display output. In this case, the output unit 4 may display on a display device provided outside. However, the output mode of the output unit 4 is not limited to the display, and may be another mode.

次に、本実施形態に係る行列検出システムの動作について、図6及び図7のフローチャートを参照して説明する。図6は、ユーザが行列位置を入力する際の処理フローの一例を示す。図7は、行列位置が入力されたのち、行列を検出し、欠損のない全体の行列情報を生成する際の処理フローの一例を示す。 Next, the operation of the matrix detection system according to this embodiment will be described with reference to the flowcharts of FIGS. 6 and 7. FIG. 6 shows an example of a processing flow when the user inputs the matrix position. FIG. 7 shows an example of a processing flow when the matrix is detected and the matrix information of the entire matrix having no defect is generated after the matrix position is input.

なお、後述の各処理ステップは、処理内容に矛盾を生じない範囲で、任意に順番を変更してもしくは並列に実行してもよく、また、各処理ステップ間に他のステップを追加しても良い。更に、便宜上1つのステップとして記載されているステップは複数のステップに分けて実行してもよく、便宜上複数に分けて記載されているステップを1ステップとして実行してもよい。 The processing steps described below may be arbitrarily changed in order or executed in parallel as long as the processing content does not conflict, and other steps may be added between the processing steps. good. Further, the step described as one step for convenience may be divided into a plurality of steps and executed, and the step described for a plurality of steps may be executed as one step for convenience.

はじめに、ユーザが行列位置を入力する際の処理について、図6のフローチャートを参照して説明する。 First, the processing when the user inputs the matrix position will be described with reference to the flowchart in FIG.

行列情報入力部2は、所定の監視領域を撮影した画像を取得し、行列位置を設定するための画面上に表示する(ステップSA1)。 The matrix information input unit 2 acquires an image of a predetermined monitoring area and displays it on the screen for setting the matrix position (step SA1).

次に、ユーザは、表示された画面上に、未設定である行列が存在するかどうかを確認する。行列の設定が完了しておらず未設定の行列が存在する場合、行列情報入力部2は、所定の入力装置を介してユーザによる行列位置の入力の開始を受け付ける(ステップSA2のno)。入力装置としては、例えばマウスやタッチパネルが該当し、タッチパネルであれば、ユーザはタッチペンや指などを使用して入力すればよい。 Next, the user confirms whether or not there is an unset matrix on the displayed screen. When the matrix setting is not completed and there is an unset matrix, the matrix information input unit 2 receives the start of the input of the matrix position by the user via a predetermined input device (no in step SA2). As the input device, for example, a mouse or a touch panel is applicable, and in the case of a touch panel, the user may use a touch pen or a finger to input.

行列情報入力部2は、ユーザによる行列の始点の入力を受け付ける(ステップSA3)。ユーザが設定しようとしている行列に始点が複数存在する場合は、行列情報入力部2は、ステップSA3ですべての始点の入力を受け付ける。 The matrix information input unit 2 receives the input of the starting point of the matrix by the user (step SA3). When the matrix to be set by the user has a plurality of starting points, the matrix information input unit 2 accepts input of all the starting points in step SA3.

次に、行列情報入力部2は、ユーザによる行列の分岐や経由地点を表す中継点の入力を受け付ける(ステップSA4)。もし行列が始点と終点を結ぶ直線で表すことができる場合は、中継点の入力は必要ないため、ステップSA4の処理は省略される。また、ユーザが設定しようとしている行列に中継点が複数存在する場合は、行列情報入力部2は、ステップSA4ですべての中継点の入力を受け付ける。 Next, the matrix information input unit 2 receives input of a relay point representing a branch of the matrix or a waypoint by the user (step SA4). If the matrix can be represented by a straight line connecting the start point and the end point, the input of the relay point is not necessary and the process of step SA4 is omitted. In addition, when there are a plurality of relay points in the matrix to be set by the user, the matrix information input unit 2 accepts the input of all the relay points in step SA4.

次に、行列情報入力部2は、行列の終点の入力を受け付ける(ステップSA5)。ユーザが設定しようとしている行列に終点が複数存在する場合は、行列情報入力部2は、ステップSA5ですべての終点の入力を受け付ける。 Next, the matrix information input unit 2 receives the input of the end point of the matrix (step SA5). When the matrix to be set by the user has a plurality of end points, the matrix information input unit 2 accepts input of all end points in step SA5.

なお、ステップSA3、SA4及びSA5で入力した始点、中継点及び終点は、入力される都度、ステップSA1で取得した画像上に表示され、ユーザは入力された各点を確認できるものとしてもよい。 The start point, the relay point, and the end point input in steps SA3, SA4, and SA5 may be displayed on the image acquired in step SA1 every time they are input, and the user may be able to check each input point.

次に、ユーザは、入力した始点、中継点及び終点の地点間を結ぶ各線分に対し、列の数(横に並ぶ人数)の入力が未設定である線分が存在するかどうかを確認する。列数の設定が完了しておらず未設定の線分が存在する場合、行列情報入力部2は、未設定の線分に対し、上述した入力装置を介してユーザによる列の数の入力の開始を受け付ける(ステップSA6のno)。行列情報入力部2は、ユーザによる列の数の入力を受け付ける(ステップSA7)。 Next, the user confirms, for each line segment connecting the input start point, relay point, and end point, whether or not there is a line segment for which the number of rows (the number of people who are lined up horizontally) is not set. .. When the setting of the number of columns is not completed and there is an unset line segment, the matrix information input unit 2 inputs the number of columns by the user via the above-mentioned input device for the unset line segment. The start is accepted (no in step SA6). The matrix information input unit 2 receives an input of the number of columns by the user (step SA7).

なお、ステップSA7で入力した地点間を結ぶ各線分及び列の数は、入力される都度、ステップSA1で取得した画像上に表示され、ユーザは入力された各線分の人数を確認できるものとしてもよい。 It should be noted that the number of each line segment and column connecting the points input in step SA7 is displayed on the image acquired in step SA1 each time it is input, and the user may confirm the number of each input line segment. Good.

行列情報入力部2は、ユーザによるすべての線分に対する列の数の入力が完了する(ステップSA6のyes)と、ステップSA2に戻り、次の行列に関する入力の受付を開始する。行列情報入力部2は、ユーザによるすべての線分に対する列の数の入力が完了したことを、例えば、その旨のユーザによる入力を受け付けることにより、又はユーザの入力の開始がないまま所定時間が経過することにより判定してもよい。 When the input of the number of columns for all the line segments by the user is completed (yes in step SA6), the matrix information input unit 2 returns to step SA2 and starts accepting the input for the next matrix. The matrix information input unit 2 confirms that the user has completed the input of the number of columns for all the line segments, for example, by receiving an input by the user to that effect, or for a predetermined time without the user starting input. You may judge by progressing.

行列情報入力部2は、ユーザによるすべての行列の入力が完了したことを判定すると(ステップSA2のyes)、行列情報入力部2における行列情報の入力は完了となる。行列情報入力部2は、ユーザによるすべての行列の入力が完了したことを、例えば、その旨のユーザによる入力を受け付けることにより、又はユーザの入力の開始がないまま所定時間が経過することにより判定してもよい。 When the matrix information input unit 2 determines that the input of all the matrices by the user is completed (Yes in step SA2), the input of the matrix information in the matrix information input unit 2 is completed. The matrix information input unit 2 determines that the input of all the matrix by the user is completed, for example, by accepting the input by the user to that effect, or by the lapse of a predetermined time without the input of the user being started. You may.

次に、行列を検出し行列待ち情報を生成する際の処理について、図7のフローチャートを参照して説明する。 Next, a process of detecting a queue and generating queue waiting information will be described with reference to the flowchart of FIG.

検出部31は、入力部1から、撮影画像とその撮影時刻を取得する(ステップSB1)。検出部31は、画像中に存在するすべての人物を検出し、時刻及び検出した人物の位置座標を出力する(ステップSB2)。 The detection unit 31 acquires a captured image and its capturing time from the input unit 1 (step SB1). The detection unit 31 detects all the persons existing in the image, and outputs the time and the position coordinates of the detected persons (step SB2).

次に、追跡部32の追跡結果を受け、判定部33は、前フレーム画像に対する処理結果として得られた追跡人物に関して、行列人物IDリストを参照し(ステップSB3)、行列人物であるかどうかを判定する(ステップSB4)。なお、行列人物IDリストとは、追跡中の人物の人物IDと、当該人物が行列人物または移動人物のどちらであるかを表す情報との組を管理しているリストである。 Next, receiving the tracking result of the tracking unit 32, the determination unit 33 refers to the matrix person ID list regarding the tracking person obtained as the processing result for the previous frame image (step SB3), and determines whether the person is a matrix person. The determination is made (step SB4). The queue person ID list is a list that manages a pair of a person ID of a person who is being tracked and information indicating whether the person is a queue person or a moving person.

行列人物である場合(ステップSB4のyes)、判定部33は、行列人物用の移動モデルを用いて、現フレーム画像における位置座標を予測する。判定部33は、予測した位置座標とステップSB2で得られた人物位置座標を用いて、現フレーム画像における追跡人物の位置座標を算出する(ステップSB5a)。判定部33は、行列人物用の移動モデルとして、例えば、行列が静止している状態を表す移動モデルと、行列が進む状態を表す移動モデルの2状態モデルを用いてもよい。具体的には、静止状態を表す移動モデルでは、判定部33は、前フレーム画像と現フレーム画像でほとんど位置の変化がないという予測を行う。一方、進む状態を表す移動モデルでは、判定部33は、前フレーム画像と現フレーム画像とで、行列情報入力部2から得られる行列位置の情報に基づいて移動方向を限定した予測を行う。 When it is a line-up person (yes in step SB4), the determination unit 33 predicts the position coordinates in the current frame image using the movement model for line-up person. The determination unit 33 calculates the position coordinates of the tracking person in the current frame image using the predicted position coordinates and the person position coordinates obtained in step SB2 (step SB5a). The determination unit 33 may use, as the movement model for the matrix person, for example, a two-state model of a movement model that represents a state in which the matrix is stationary and a movement model that represents a state in which the matrix advances. Specifically, in the moving model representing the stationary state, the determination unit 33 predicts that there is almost no change in position between the previous frame image and the current frame image. On the other hand, in the movement model representing the state of progress, the determination unit 33 performs prediction in which the movement direction is limited between the previous frame image and the current frame image based on the matrix position information obtained from the matrix information input unit 2.

一方、移動人物である場合(ステップSB4のno)、判定部33は、移動人物用の移動モデルを用いて、現フレーム画像における位置座標を予測する。判定部33は、予測した位置座標とステップSB2で得られた人物位置座標を用いて、現フレーム画像における追跡人物の位置座標を算出する(ステップSB5b)。判定部33は、移動人物用の移動モデルとして、例えば、移動方向に制限がないため、所定範囲の移動速度で全方位に移動することを想定したモデルを用いてもよい。 On the other hand, when the person is a moving person (no in step SB4), the determination unit 33 uses the movement model for the moving person to predict the position coordinates in the current frame image. The determination unit 33 calculates the position coordinate of the tracking person in the current frame image using the predicted position coordinate and the person position coordinate obtained in step SB2 (step SB5b). As the movement model for the moving person, the determination unit 33 may use, for example, a model that is assumed to move in all directions at a movement speed within a predetermined range because the movement direction is not limited.

次に、判定部33は、ステップSB5a及びステップSB5bにて算出した、現在から過去数フレーム分の人物位置座標及び各時刻情報を用いて、人物の移動速度を算出する(ステップSB6)。 Next, the determination unit 33 calculates the moving speed of the person by using the person position coordinates and each time information for the past several frames from the present calculated in step SB5a and step SB5b (step SB6).

判定部33は、現フレームにおける人物位置座標と、行列情報入力部2から得られる行列位置との最短距離等適切な距離を算出する(ステップSB7)。 The determination unit 33 calculates an appropriate distance such as the shortest distance between the person position coordinates in the current frame and the matrix position obtained from the matrix information input unit 2 (step SB7).

判定部33は、ステップSB6で算出した移動速度と、ステップSB7で算出した距離とを用い、移動速度があらかじめ定めた閾値よりも小さく、かつ、距離があらかじめ定めた閾値よりも小さいかどうかを判定する(ステップSB8)。前記条件を満たす場合(ステップSB8のyes)は、当該人物は行列人物であると判定する(ステップSB9a)。一方、前記条件を満たさない場合(ステップSB8のno)は、当該人物は、移動人物であると判定する(ステップSB9b)。 The determination unit 33 uses the moving speed calculated in step SB6 and the distance calculated in step SB7 to determine whether the moving speed is smaller than a predetermined threshold and the distance is smaller than a predetermined threshold. (Step SB8). If the condition is satisfied (yes in step SB8), it is determined that the person is a matrix person (step SB9a). On the other hand, if the above conditions are not satisfied (No in step SB8), it is determined that the person is a moving person (step SB9b).

判定部33は、ステップSB9a及びステップSB9bにおける行列に並ぶ人物か否かの判定結果を用いて、判定部33が管理している行列人物IDリストを更新する(ステップSB10)。 The determination unit 33 updates the queue person ID list managed by the determination unit 33, using the determination result of whether or not the person is in line in the matrix in steps SB9a and SB9b (step SB10).

次に、生成部34は、ステップSB9aで行列人物と判定された人物の人物位置と、行列情報入力部2から取得した行列位置とに基づいて、オクルージョンの発生状況を推定する。生成部34は、オクルージョン領域に存在する行列情報の補間処理を行う(ステップSB11)。具体的には、行列情報として待ち人数を算出する場合、生成部34は、ステップSB9aで行列人物と判定された人物の位置情報と、行列情報入力部2から得られる行列位置情報とを用いて、オクルージョンにより途切れた未検出領域の行列長を算出する。また、生成部34は、行列人物の人口密度(所定の距離内で並ぶ人数)を算出する。生成部34は、算出した人口密度に基づいて途切れた未検出領域の行列長に存在する人数を推定し、検出できている行列人物と合算して待ち人数を算出する。 Next, the generation unit 34 estimates the occurrence state of occlusion based on the person position of the person who is determined to be the matrix person in step SB9a and the matrix position acquired from the matrix information input unit 2. The generation unit 34 performs interpolation processing of matrix information existing in the occlusion area (step SB11). Specifically, when calculating the waiting number as the queue information, the generation unit 34 uses the position information of the person determined to be the queue person in step SB9a and the queue position information obtained from the queue information input unit 2. , Calculate the matrix length of the undetected area that is interrupted by occlusion. In addition, the generation unit 34 calculates the population density of the line-up persons (the number of people lined up within a predetermined distance). The generation unit 34 estimates the number of people present in the matrix length of the undetected region that has been interrupted based on the calculated population density, and adds up with the number of people who can be detected to calculate the waiting number of people.

出力部4は、生成部34から出力される行列情報を、例えばアプリケーションや記憶媒体などの外部モジュールに対して出力する(ステップSB12)。 The output unit 4 outputs the matrix information output from the generation unit 34 to an external module such as an application or a storage medium (step SB12).

また、図6に示す行列情報の入力処理は、図7に示す行列検出処理を開始する前にあらかじめ行われていてもよい。あるいは、図7に示す行列検出処理が実行中の任意のタイミングで、図6に示す処理が行われて行列情報が更新され、更新された行列情報を用いて図7に示す行列検出処理が再開されるようにしてもよい。 The matrix information input process shown in FIG. 6 may be performed in advance before the matrix detection process shown in FIG. 7 is started. Alternatively, the matrix detection process shown in FIG. 7 is restarted using the updated matrix information by performing the process shown in FIG. 6 at an arbitrary timing during execution of the matrix detection process shown in FIG. It may be done.

実施形態1に係るプログラムは、上記の一連の処理をコンピュータに実行させるプログラムであれば良い。 The program according to the first embodiment may be any program that causes a computer to execute the series of processes described above.

以上説明したように実施形態1に係る行列検出システムによれば、行列に並ぶつもりではなく単に滞留しているだけ等の人物であっても、その人物を行列に並ぶ人として処理してしまう場合がある、という課題が解決される。 As described above, according to the matrix detection system according to the first embodiment, even when a person who does not intend to be in a queue but simply stays, is processed as a person who is in a queue. The problem that there is is solved.

また、オクルージョンが発生する環境においても、隠れている領域の行列の長さを推定することで、人数の補間処理が可能になる。また、行列形状が複雑な場合でも、場所ごとの進行方向が既知となるため、行列人物追跡時の移動モデルに進行方向を活用することで、追跡の頑健性が向上する。そのため、実施形態1に係る行列検出システムによれば、行列に並ぶ人物を検出し、人数や待ち時間等の行列情報を好適に推定することができる。 In addition, even in an environment where occlusion occurs, by estimating the length of the matrix of the hidden area, it becomes possible to perform the interpolation processing of the number of people. In addition, even when the matrix shape is complicated, the traveling direction for each location is known. Therefore, by utilizing the traveling direction in the moving model at the time of tracking a person in a matrix, tracking robustness is improved. Therefore, according to the matrix detection system according to the first embodiment, it is possible to detect persons arranged in a matrix and appropriately estimate matrix information such as the number of people and waiting time.

また、行列に並ぶことを意図していない人物が行列の付近に立ち止まった場合にも、人物と行列位置との距離の閾値を適切に設定することで、行列に並ぶ人物ではないと判定することが可能になる。さらに、行列に並ぶ人物か否かの判定に、人物と行列位置との距離を考慮するのみではなく、人物の移動速度も考慮することで、行列の間を横切って通過する人物についての行列位置付近での判定において、当該人物は行列に並ぶ人物ではない、と精度よく判定することが可能になる。 In addition, even when a person who is not intended to be in a queue stops near the queue, it is possible to determine that the person is not in a queue by setting the threshold value of the distance between the person and the queue position appropriately. Will be possible. Furthermore, in determining whether or not a person is in a line, not only the distance between the line and the line position is considered, but also the moving speed of the line is taken into consideration. In the determination in the vicinity, it is possible to accurately determine that the person is not a person in a line.

<実施形態2>
次に図8を参照して、本発明の実施形態2に係る行列検出システムの機能構成を説明する。
<Embodiment 2>
Next, a functional configuration of the matrix detection system according to the second exemplary embodiment of the present invention will be described with reference to FIG.

図8は本発明の実施形態2の構成例を示すブロック図である。 FIG. 8 is a block diagram showing a configuration example of the second embodiment of the present invention.

図8に示すように、本実施形態に係る行列検出システムは、行列情報入力部51と、検出部52と、判定部53とを含む。 As shown in FIG. 8, the matrix detection system according to this embodiment includes a matrix information input unit 51, a detection unit 52, and a determination unit 53.

行列情報入力部51は、行列位置の入力を受け付ける。 The matrix information input unit 51 receives input of matrix positions.

検出部52は、入力画像から対象物を検出する。 The detection unit 52 detects an object from the input image.

判定部53は、対象物と行列位置との距離に基づいて、対象物が行列に並んでいるか否かを判定する。 The determination unit 53 determines whether or not the objects are arranged in a matrix based on the distance between the objects and the matrix position.

図9は実施形態2に係る行列検出システムの動作を示すフローチャート図である。 FIG. 9 is a flowchart showing the operation of the matrix detection system according to the second embodiment.

行列情報入力部51は、行列位置の入力を受け付ける(ステップSC1)。 The matrix information input unit 51 receives the input of the matrix position (step SC1).

検出部52は、入力画像から対象物を検出する(ステップSC2)。 The detection unit 52 detects an object from the input image (step SC2).

判定部53は、対象物と行列位置との距離に基づいて、対象物が行列に並んでいるか否かを判定する(ステップSC3)。 The determination unit 53 determines whether or not the objects are arranged in a matrix based on the distance between the objects and the matrix position (step SC3).

以上説明したように、実施形態2に係る行列検出システムによれば、行列に並ぶつもりではなく単に滞留しているだけ等の人物であっても、その人物を行列に並ぶ人として処理してしまう場合がある、という課題が解決される。 As described above, according to the matrix detection system of the second embodiment, even a person who does not intend to be in a queue but simply stays in the queue will process the person as a person in a queue. In some cases, the problem is solved.

<ハードウェア構成例>
上述の各実施形態の行列検出システムを構成する各部は、制御部、メモリ、メモリにロードされたプログラム、プログラムを格納するハードディスク等の記憶ユニット、ネットワーク接続用インターフェース等からなり、ハードウェアとソフトウェアの任意の組合せによって実現される。
<Hardware configuration example>
Each unit constituting the matrix detection system of each of the above-described embodiments includes a control unit, a memory, a program loaded in the memory, a storage unit such as a hard disk for storing the program, a network connection interface, and the like. It is realized by any combination.

図10は、実施形態1又は実施形態2に係る行列検出システムのハードウェア構成の一例を示すブロック図である。 FIG. 10 is a block diagram showing an example of the hardware configuration of the matrix detection system according to the first or second embodiment.

図10に示すように、行列検出システムは、CPU11(Central Processing Unit)と、ネットワーク接続用の通信IF12(通信インターフェース12)と、メモリ13と、プログラムを格納するハードディスク等の記憶装置14とを含む、コンピュータ装置によって実現される。ただし、行列検出システムの構成は、図10に示す構成に限定されない。 As shown in FIG. 10, the matrix detection system includes a CPU 11 (Central Processing Unit), a communication IF 12 (communication interface 12) for network connection, a memory 13, and a storage device 14 such as a hard disk for storing a program. , Realized by a computer device. However, the configuration of the matrix detection system is not limited to the configuration shown in FIG.

CPU11は、オペレーティングシステムを動作させて行列検出システムの全体を制御する。また、CPU11は、例えばドライブ装置などに装着された記録媒体からメモリ13にプログラムやデータを読み出す。CPU11がメモリ13にプログラムやデータを読み出すことで、画像入力部1、行列情報入力部2、行列検出部3(検出部31、追跡部32、判定部33及び生成部34)及び出力部4の各機能部が実現される。 The CPU 11 operates the operating system to control the entire matrix detection system. Further, the CPU 11 reads programs and data from the recording medium mounted in, for example, a drive device into the memory 13. The CPU 11 reads out programs and data to the memory 13 so that the image input unit 1, the matrix information input unit 2, the matrix detection unit 3 (the detection unit 31, the tracking unit 32, the determination unit 33, and the generation unit 34) and the output unit 4 are provided. Each functional unit is realized.

行列検出システムは、例えば通信IF12を介して他のコンピュータである画像入力装置と接続されても良い。 The matrix detection system may be connected to an image input device, which is another computer, via the communication IF 12, for example.

記録装置14は、例えば光ディスク、フレキシブルディスク、磁気光ディスク、外付けハードディスク、半導体メモリ等であって、コンピュータプログラムをコンピュータ読み取り可能に記録する。記憶装置14は、例えば、統合したデータを格納するデータ格納部でも良い。また、コンピュータプログラムは、通信網に接続されている図示しない外部コンピュータからダウンロードされても良い。 The recording device 14 is, for example, an optical disk, a flexible disk, a magnetic optical disk, an external hard disk, a semiconductor memory, or the like, and records a computer program in a computer-readable manner. The storage device 14 may be, for example, a data storage unit that stores integrated data. Further, the computer program may be downloaded from an external computer (not shown) connected to the communication network.

行列検出システムは、入力装置15又は出力装置16と接続されていても良い。入力装置15は、例えばキーボード、マウス等である。出力装置16は、例えばディスプレイ等でも良く、出力部4が出力する行列情報をディスプレイ上に表示しても良い。 The matrix detection system may be connected to the input device 15 or the output device 16. The input device 15 is, for example, a keyboard, a mouse, or the like. The output device 16 may be, for example, a display or the like, and may display the matrix information output by the output unit 4 on the display.

なお、図1及び図8の機能ブロック図においては、各実施形態の構成部は物理的に結合した一つの装置により実現されるよう記載されているが、その実現手段は特に限定されない。すなわち、二つ以上の物理的に分離した装置を有線または無線で接続し、これら複数の装置により、各実施形態のシステムを実現しても良い。 In addition, in the functional block diagrams of FIGS. 1 and 8, the components of each embodiment are described as being realized by one physically connected device, but the realizing means is not particularly limited. That is, two or more physically separated devices may be connected by wire or wirelessly, and the system of each embodiment may be realized by the plurality of devices.

以上、各実施形態及び実施例を参照して本発明を説明したが、本発明は以上の実施形態及び実施例に限定されるものではない。本発明の構成や詳細には、本発明のスコープ内で同業者が理解し得る様々な変更をすることができる。 Although the present invention has been described with reference to the exemplary embodiments and examples, the present invention is not limited to the exemplary embodiments and examples described above. Various modifications that can be understood by those skilled in the art can be made to the configuration and details of the present invention within the scope of the present invention.

<実施形態の他の表現>
上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
<Other expressions of the embodiment>
The whole or part of the exemplary embodiments disclosed above can be described as, but not limited to, the following supplementary notes.

(付記1)
行列位置の入力を受け付ける行列情報入力手段と、
入力画像から対象物を検出する検出手段と、
前記対象物と前記行列位置との距離に基づいて、前記対象物が行列に並んでいるか否かを判定する判定手段と、
を含む行列検出システム。
(Appendix 1)
Matrix information input means for receiving the input of the matrix position,
Detection means for detecting the object from the input image,
Based on the distance between the object and the matrix position, determination means for determining whether the object is lined up in a matrix,
Matrix detection system including.

(付記2)
前記行列位置と、前記判定手段により行列に並ぶと判定された対象物の位置とに基づいて、対象物が未検出となっている領域を推定し、前記行列に並ぶと判定された対象物から未検出領域の対象物を補完し、行列情報を生成する生成手段、
をさらに含む付記1に記載の行列検出システム。
(Appendix 2)
Based on the matrix position and the position of the target object determined to be lined up in the matrix by the determination means, the region in which the target object is undetected is estimated, and from the target object determined to be lined up in the matrix A generation unit that complements the object in the undetected area and generates matrix information,
The matrix detection system according to appendix 1, further comprising:

(付記3)
前記生成手段は、前記判定手段により前記行列に並ぶと判定された対象物の密度に基づいて前記未検出領域の対象物を補完する
付記2に記載の行列検出システム。
(Appendix 3)
The matrix detection system according to appendix 2, wherein the generation unit complements the target object in the undetected region based on the density of the target object determined to be lined up in the matrix by the determination unit.

(付記4)
前記生成手段は、
前記判定手段により行列に並ぶと判定された対象物の待ち時間を算出し、
前記未検出領域の前後の領域で検出された対象物の待ち時間に基づいて、前記未検出領域の対象物の待ち時間を算出する
付記3に記載の行列検出システム。
(Appendix 4)
The generating means is
The waiting time of the objects determined to be lined up in a queue by the determination means is calculated,
The matrix detection system according to appendix 3, wherein the waiting time of the object in the undetected area is calculated based on the waiting times of the object detected in the areas before and after the undetected area.

(付記5)
前記判定手段は、前記対象物の移動速度と、前記対象物と前記行列位置との距離と、に基づいて、前記対象物が行列に並んでいるか否かを判定する
付記1〜4のいずれかに記載の行列検出システム。
(Appendix 5)
The determination means determines whether or not the target objects are lined up in a matrix based on the moving speed of the target object and the distance between the target object and the matrix position. The matrix detection system described in 1.

(付記6)
対象物が行列に並んでいるか否かに応じて異なる移動モデルを使用し、検出した対象物の位置を追跡する追跡手段、
をさらに含み、
前記判定手段は、前記追跡手段による追跡結果から前記移動速度を算出する
付記5に記載の行列検出システム。
(Appendix 6)
Tracking means for tracking the position of the detected object using different movement models depending on whether the object is lined up or not,
Further including,
The matrix detection system according to appendix 5, wherein the determination unit calculates the moving speed from the tracking result of the tracking unit.

(付記7)
前記追跡手段は、
前記判定手段により行列待ちと判定された対象物に対し、行列の待ち状態と移動状態を表す2つの移動モデルと、前記行列情報入力手段から取得した行列位置及び進行方向とに基づいて、前フレームから現フレームへの移動状態を予測し、また、
前記判定手段により行列待ちと判定されなかった対象物に対し、所定の範囲の速度で全方位に移動することを想定した移動モデルに基づいて、前フレームから現フレームへの移動状態を予測する
付記6に記載の行列検出システム。
(Appendix 7)
The tracking means is
For the object determined to be waiting in line by the determination unit, based on the two movement models representing the waiting state and the movement state of the line, and the line position and traveling direction acquired from the line information input unit, the previous frame From the current frame to the current frame,
Predicting the movement state from the previous frame to the current frame based on a movement model assuming that the object that has not been determined to wait in line by the determination means moves in all directions at a speed within a predetermined range. 6. The matrix detection system according to 6.

(付記8)
前記行列情報入力手段は、少なくとも1つ以上の行列の始点と、少なくとも1つ以上の行列の終点と、行列の経由点又は分岐点を表すための0個以上の中継点との入力を受け付け、隣接する各始点、中継点、終点との間を結ぶ線分に対して、対象物が横並びになる列数の入力を受け付ける
付記1〜7のいずれかに記載の行列検出システム。
(Appendix 8)
The matrix information input means receives inputs of at least one or more matrix start points, at least one or more matrix end points, and zero or more relay points for representing matrix waypoints or branch points, 8. The matrix detection system according to any one of appendices 1 to 7, which receives an input of the number of columns in which the objects are arranged side by side with respect to the line segment connecting the adjacent start point, relay point, and end point.

(付記9)
前記行列情報入力手段は、
入力画像上に前記始点、中継点、終点及び各地点間の列数を描画したものを入力情報として用い、任意のタイミングで前記行列位置として反映させる
付記8に記載の行列検出システム。
(Appendix 9)
The matrix information input means,
The matrix detection system according to appendix 8, wherein the starting point, the relay point, the ending point, and the number of columns between the points are drawn as input information and reflected as the matrix position at an arbitrary timing.

(付記10)
前記検出手段は、前記対象物の特定部位を検出し、
前記判定手段は、カメラパラメータを用いて、前記特定部位の位置から前記対象物の下端位置を推定し、推定した下端位置と前記行列位置との距離に基づいて、対象物が行列に並んでいるか否かを判定する
付記1〜9のいずれかに記載の行列検出システム。
(Appendix 10)
The detection means detects a specific portion of the object,
The determination means estimates the lower end position of the target object from the position of the specific part by using a camera parameter, and the target objects are arranged in a matrix based on the distance between the estimated lower end position and the matrix position. The matrix detection system according to any one of appendices 1 to 9.

(付記11)
前記判定手段は、前記特定部位の世界座標系における高さを複数のバリエーションで仮定し、前記カメラパラメータを用いて、仮定した複数の高さから複数の下端位置を推定し、推定した複数の下端位置と前記行列位置との最短距離に基づいて、対象物が行列に並んでいるか否かを判定する
付記10に記載の行列検出システム。
(Appendix 11)
The determining unit assumes a plurality of variations of the height of the specific portion in the world coordinate system, estimates a plurality of lower end positions from the plurality of assumed heights by using the camera parameters, and estimates a plurality of lower ends. The matrix detection system according to supplementary note 10, wherein it is determined whether or not the objects are arranged in a matrix based on the shortest distance between the position and the matrix position.

(付記12)
行列位置の入力を受け付け、
入力画像から対象物を検出し、
前記対象物と前記行列位置との距離に基づいて、前記対象物が行列に並んでいるか否かを判定する、
行列検出方法。
(Appendix 12)
Accepts input of matrix position,
Detect the object from the input image,
Based on the distance between the object and the matrix position, it is determined whether the object is lined up in a matrix,
Matrix detection method.

(付記13)
行列位置の入力を受け付ける行列情報入力処理と、
入力画像から対象物を検出する検出処理と、
前記対象物と前記行列位置との距離に基づいて、前記対象物が行列に並んでいるか否かを判定する判定処理と、
をコンピュータに実行させるプログラム。
(Appendix 13)
Matrix information input processing that accepts input of matrix position,
Detection processing to detect the object from the input image,
Based on the distance between the object and the matrix position, determination processing for determining whether the object is lined up in a matrix,
A program that causes a computer to execute.

この出願は、2015年9月14日に出願された日本出願特願2015−180260を基礎とする優先権を主張し、その開示の全てをここに取り込む。 This application claims the priority on the basis of Japanese application Japanese Patent Application No. 2015-180260 for which it applied on September 14, 2015, and takes in those the indications of all here.

本発明によれば、精度の良い行列監視システムを提供でき、監視領域内で発生する行列を検出し、待ち人数や待ち時間を提示するシステムに好適に適用することができる。 According to the present invention, it is possible to provide a highly accurate queue monitoring system, which can be suitably applied to a system that detects a queue generated in a monitoring area and presents the number of people waiting and the waiting time.

また、本発明では、あらかじめ入力した行列の発生位置情報を活用することにより、棚や柱や人物同士の重なりによるオクルージョンが発生しやすい環境においても、特殊なカメラの設置条件を必要とせずに、欠損なく待ち人数や待ち時間を推定することができるため、行列検出システムの導入が容易になる。 Further, in the present invention, by utilizing the occurrence position information of the matrix input in advance, even in an environment where occlusion is likely to occur due to overlapping of shelves, pillars, or people, without requiring special camera installation conditions, Since it is possible to estimate the number of people waiting and the waiting time without loss, it becomes easy to introduce a queue detection system.

1 画像入力部
2、51 行列情報入力部
3 行列検出部
4 出力部
31、52 検出部
32 追跡部
33、53 判定部
34 生成部
11 CPU
12 通信IF
13 メモリ
14 記憶装置
15 入力装置
16 出力装置
1 Image Input Section 2, 51 Matrix Information Input Section 3 Matrix Detection Section 4 Output Section 31, 52 Detection Section 32 Tracking Section 33, 53 Judgment Section 34 Generation Section 11 CPU
12 Communication IF
13 memory 14 storage device 15 input device 16 output device

Claims (10)

行列位置の入力を受け付ける行列情報入力手段と、
入力画像から対象物を検出する検出手段と、
前記対象物と前記行列位置との距離に基づいて、前記対象物が行列に並んでいるか否かを判定する判定手段と、
を含む行列検出システム。
Matrix information input means for receiving the input of the matrix position,
Detection means for detecting the object from the input image,
Based on the distance between the object and the matrix position, determination means for determining whether the object is lined up in a matrix,
Matrix detection system including.
前記行列位置と、前記判定手段により行列に並ぶと判定された対象物の位置とに基づいて、対象物が未検出となっている領域を推定し、前記行列に並ぶと判定された対象物から未検出領域の対象物を補完し、行列情報を生成する生成手段、
をさらに含む請求項1に記載の行列検出システム。
Based on the matrix position and the position of the target object determined to be lined up in the matrix by the determination means, the region in which the target object is undetected is estimated, and from the target object determined to be lined up in the matrix A generation unit that complements the object in the undetected area and generates matrix information,
The matrix detection system of claim 1, further comprising:
前記生成手段は、前記判定手段により前記行列に並ぶと判定された対象物の密度に基づいて前記未検出領域の対象物を補完する
請求項2に記載の行列検出システム。
The matrix detection system according to claim 2, wherein the generation unit complements the target objects in the undetected region based on the density of the target objects determined to be lined up in the matrix by the determination unit.
前記生成手段は、
前記判定手段により行列に並ぶと判定された対象物の待ち時間を算出し、
前記未検出領域の前後の領域で検出された対象物の待ち時間に基づいて、前記未検出領域の対象物の待ち時間を算出する
請求項3に記載の行列検出システム。
The generating means is
The waiting time of the objects determined to be lined up in a queue by the determination means is calculated,
The matrix detection system according to claim 3, wherein the waiting time of the object in the undetected region is calculated based on the waiting time of the object detected in the regions before and after the undetected region.
前記判定手段は、前記対象物の移動速度と、前記対象物と前記行列位置との距離と、に基づいて、前記対象物が行列に並んでいるか否かを判定する
請求項1〜4のいずれかに記載の行列検出システム。
The determination unit determines whether or not the target objects are lined up in a matrix based on a moving speed of the target object and a distance between the target object and the matrix position. The matrix detection system according to Crab.
対象物が行列に並んでいるか否かに応じて異なる移動モデルを使用し、検出した対象物の位置を追跡する追跡手段、
をさらに含み、
前記判定手段は、前記追跡手段による追跡結果から前記移動速度を算出する
請求項5に記載の行列検出システム。
Tracking means for tracking the position of the detected object using different movement models depending on whether the object is lined up or not,
Further including,
The matrix detection system according to claim 5, wherein the determination unit calculates the moving speed from a tracking result by the tracking unit.
前記追跡手段は、
前記判定手段により行列待ちと判定された対象物に対し、行列の待ち状態と移動状態を表す2つの移動モデルと、前記行列情報入力手段から取得した行列位置及び進行方向とに基づいて、前フレームから現フレームへの移動状態を予測し、また、
前記判定手段により行列待ちと判定されなかった対象物に対し、所定の範囲の速度で全方位に移動することを想定した移動モデルに基づいて、前フレームから現フレームへの移動状態を予測する
請求項6に記載の行列検出システム。
The tracking means is
For the object determined to be waiting in line by the determination unit, based on the two movement models representing the waiting state and the movement state of the line, and the line position and traveling direction acquired from the line information input unit, the previous frame From the current frame to the current frame,
A movement state from the previous frame to the current frame is predicted based on a movement model assuming that the object that has not been determined to be in the queue by the determination means moves in all directions at a speed within a predetermined range. Item 6. The matrix detection system according to Item 6.
前記行列情報入力手段は、少なくとも1つ以上の行列の始点と、少なくとも1つ以上の行列の終点と、行列の経由点又は分岐点を表すための0個以上の中継点との入力を受け付け、隣接する各始点、中継点、終点との間を結ぶ線分に対して、対象物が横並びになる列数の入力を受け付ける
請求項1〜7のいずれかに記載の行列検出システム。
The matrix information input unit receives inputs of at least one or more matrix start points, at least one or more matrix end points, and zero or more relay points for representing waypoints or branch points of the matrix, The matrix detection system according to any one of claims 1 to 7, wherein an input of the number of columns in which objects are arranged side by side is received for a line segment that connects between each adjacent start point, relay point, and end point.
行列位置の入力を受け付け、
入力画像から対象物を検出し、
前記対象物と前記行列位置との距離に基づいて、前記対象物が行列に並んでいるか否かを判定する、
行列検出方法。
Accepts input of matrix position,
Detect the object from the input image,
Based on the distance between the object and the matrix position, it is determined whether the object is lined up in a matrix,
Matrix detection method.
行列位置の入力を受け付ける行列情報入力処理と、
入力画像から対象物を検出する検出処理と、
前記対象物と前記行列位置との距離に基づいて、前記対象物が行列に並んでいるか否かを判定する判定処理と、
をコンピュータに実行させるプログラム。
Matrix information input processing that accepts input of matrix position,
Detection processing to detect the object from the input image,
Based on the distance between the object and the matrix position, determination processing for determining whether the object is lined up in a matrix,
A program that causes a computer to execute.
JP2020043673A 2015-09-14 2020-03-13 Matrix detection system, method and program Active JP7036138B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015180260 2015-09-14
JP2015180260 2015-09-14

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017540493A Division JP6852675B2 (en) 2015-09-14 2016-09-12 Matrix detection system, method and program

Publications (2)

Publication Number Publication Date
JP2020113300A true JP2020113300A (en) 2020-07-27
JP7036138B2 JP7036138B2 (en) 2022-03-15

Family

ID=58288534

Family Applications (4)

Application Number Title Priority Date Filing Date
JP2017540493A Active JP6852675B2 (en) 2015-09-14 2016-09-12 Matrix detection system, method and program
JP2020043673A Active JP7036138B2 (en) 2015-09-14 2020-03-13 Matrix detection system, method and program
JP2021033283A Active JP7060126B2 (en) 2015-09-14 2021-03-03 Matrix detection system, method and program
JP2022064304A Pending JP2022101591A (en) 2015-09-14 2022-04-08 Queue detection system, method, and program

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2017540493A Active JP6852675B2 (en) 2015-09-14 2016-09-12 Matrix detection system, method and program

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2021033283A Active JP7060126B2 (en) 2015-09-14 2021-03-03 Matrix detection system, method and program
JP2022064304A Pending JP2022101591A (en) 2015-09-14 2022-04-08 Queue detection system, method, and program

Country Status (2)

Country Link
JP (4) JP6852675B2 (en)
WO (1) WO2017047060A1 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019003709A1 (en) * 2017-06-30 2019-01-03 日本電気株式会社 Information processing device, control method, and program
JP7129209B2 (en) * 2018-05-16 2022-09-01 キヤノン株式会社 Information processing device, information processing method and program
CN110503284B (en) * 2018-05-18 2022-08-05 杭州海康威视数字技术股份有限公司 Statistical method and device based on queuing data
CN110505438B (en) * 2018-05-18 2021-03-26 杭州海康威视数字技术股份有限公司 Queuing data acquisition method and camera
KR102040218B1 (en) 2018-06-11 2019-11-04 엘지전자 주식회사 Moving robot capable of recognizing waiting line and method for controlling the moving robot
JP7445906B1 (en) 2022-12-02 2024-03-08 パナソニックIpマネジメント株式会社 Installation support device, installation support method, and installation support program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008519567A (en) * 2004-11-02 2008-06-05 センサーマティック・エレクトロニクス・コーポレーション System and method for matrix monitoring
JP2015069639A (en) * 2014-04-28 2015-04-13 パナソニックIpマネジメント株式会社 Stay-time measurement apparatus,stay-time measurement system and stay-time measurement method

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3480847B2 (en) * 2003-02-03 2003-12-22 株式会社東芝 Elevator control device using image monitoring device
US7171024B2 (en) * 2003-12-01 2007-01-30 Brickstream Corporation Systems and methods for determining if objects are in a queue
JP2007317052A (en) * 2006-05-29 2007-12-06 Japan Airlines International Co Ltd System for measuring waiting time for lines
US9247211B2 (en) * 2012-01-17 2016-01-26 Avigilon Fortress Corporation System and method for video content analysis using depth sensing
GB201306313D0 (en) * 2013-04-08 2013-05-22 Vision Semantics Ltd Queue analysis
JP6276519B2 (en) * 2013-05-22 2018-02-07 株式会社 日立産業制御ソリューションズ Person counting device and human flow line analyzing device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008519567A (en) * 2004-11-02 2008-06-05 センサーマティック・エレクトロニクス・コーポレーション System and method for matrix monitoring
JP2015069639A (en) * 2014-04-28 2015-04-13 パナソニックIpマネジメント株式会社 Stay-time measurement apparatus,stay-time measurement system and stay-time measurement method

Also Published As

Publication number Publication date
JP2022101591A (en) 2022-07-06
JP7060126B2 (en) 2022-04-26
JP6852675B2 (en) 2021-03-31
JPWO2017047060A1 (en) 2018-06-28
JP2021093205A (en) 2021-06-17
WO2017047060A1 (en) 2017-03-23
JP7036138B2 (en) 2022-03-15

Similar Documents

Publication Publication Date Title
JP2020113300A (en) Queue detecting system, method, and program
US10082879B2 (en) Head mounted display device and control method
JP5885398B2 (en) Image processing apparatus and image processing method
JP6639091B2 (en) Display control device and display control method
US8644553B2 (en) Image display device, image display method, and image display program
US9348465B2 (en) Input method, input device, and storage medium
JPWO2014050432A1 (en) Information processing system, information processing method, and program
KR101956275B1 (en) Method and apparatus for detecting information of body skeleton and body region from image
JP2012191354A (en) Information processing apparatus, information processing method, and program
JP6828708B2 (en) Control device, surveillance system, and surveillance camera control method
JP6575845B2 (en) Image processing system, image processing method, and program
JP2014238674A (en) Information processing system, information processing method, and program
JP6219101B2 (en) Video surveillance system, video surveillance method, video surveillance system construction method
US20220012514A1 (en) Identification information assignment apparatus, identification information assignment method, and program
JP2017027197A (en) Monitoring program, monitoring device and monitoring method
JP2017147689A (en) Video editing device, video editing method, and computer program for editing video
JP2021089778A (en) Information processing apparatus, information processing method, and program
WO2014112407A1 (en) Information processing system, information processing method, and program
TWI448918B (en) Optical panel touch system
KR101051390B1 (en) Apparatus and method for estimating object information of surveillance camera
JP6736348B2 (en) Image processing apparatus, image processing method and program
JP2018055685A (en) Information processing device, control method thereof, program, and storage medium
KR20140061164A (en) Apparatus and method for detecting finger using depth image
JP6723822B2 (en) Image processing apparatus, image processing method and program
US10475221B2 (en) Image processing device, image processing method and program for detected objects

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200407

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200407

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210528

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210622

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210819

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20211021

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220214

R151 Written notification of patent or utility model registration

Ref document number: 7036138

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151