JP6852675B2 - Matrix detection system, method and program - Google Patents

Matrix detection system, method and program Download PDF

Info

Publication number
JP6852675B2
JP6852675B2 JP2017540493A JP2017540493A JP6852675B2 JP 6852675 B2 JP6852675 B2 JP 6852675B2 JP 2017540493 A JP2017540493 A JP 2017540493A JP 2017540493 A JP2017540493 A JP 2017540493A JP 6852675 B2 JP6852675 B2 JP 6852675B2
Authority
JP
Japan
Prior art keywords
matrix
input
person
unit
objects
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017540493A
Other languages
Japanese (ja)
Other versions
JPWO2017047060A1 (en
Inventor
有紀江 海老山
有紀江 海老山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2017047060A1 publication Critical patent/JPWO2017047060A1/en
Application granted granted Critical
Publication of JP6852675B2 publication Critical patent/JP6852675B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02EREDUCTION OF GREENHOUSE GAS [GHG] EMISSIONS, RELATED TO ENERGY GENERATION, TRANSMISSION OR DISTRIBUTION
    • Y02E40/00Technologies for an efficient electrical power generation, transmission or distribution
    • Y02E40/30Reactive power compensation

Description

本発明は、本発明は、映像から行列を検出するためのシステム、方法及びプログラムに関する。 The present invention relates to a system, method and program for detecting a matrix from an image.

カメラ映像から行列を検出する方法、及び、行列を成す人数や長さ、待ち時間等を解析する方法が種々提案されている。 Various methods have been proposed for detecting a matrix from a camera image and for analyzing the number of people forming a matrix, the length, the waiting time, and the like.

特許文献1に記載された技術は、入力画像に対し、背景差分を用いて人物領域の面積を求め、その面積をあらかじめ定めた一人あたりの単位面積で除算して人数を推定する。特許文献1に記載された技術は、推定した人数に対し、別途所定の方法で集計した単位時間当たりの入場者数で除算することにより、待ち時間を推定する。 The technique described in Patent Document 1 obtains the area of a person area using background subtraction from an input image, and divides the area by a predetermined unit area per person to estimate the number of people. The technique described in Patent Document 1 estimates the waiting time by dividing the estimated number of people by the number of visitors per unit time separately calculated by a predetermined method.

特許文献2に記載された技術は、天井に設置したカメラで行列を真上から撮影し、背景差分及びオプティカルフローを用いて、滞留及び移動中の個々の人物領域を抽出する。特許文献2に記載された技術は、抽出した個々の人物領域を順に結んで行列線を生成し、各行列の総延長及び長さに基づく待ち時間を算出する。 In the technique described in Patent Document 2, a procession is photographed from directly above with a camera installed on the ceiling, and individual human areas that are staying and moving are extracted by using background subtraction and optical flow. The technique described in Patent Document 2 sequentially connects the extracted individual person regions to generate a matrix line, and calculates the waiting time based on the total length and length of each matrix.

特開2002−329196号公報Japanese Unexamined Patent Publication No. 2002-329196 特開2007−317052号公報Japanese Unexamined Patent Publication No. 2007-317502

しかしながら、上述の特許文献1及び2に記載の技術では、行列に並ぶつもりではなく単に滞留しているだけ等の人物であっても、その人物を行列に並ぶ人として処理してしまう場合がある。 However, in the techniques described in Patent Documents 1 and 2 described above, even a person who does not intend to line up in a line but merely stays in the line may be treated as a person lined up in a line. ..

本発明の目的は、上述の課題を解決可能な技術を提供することである。 An object of the present invention is to provide a technique capable of solving the above-mentioned problems.

本発明に係る行列検出システムは、行列位置の入力を受け付ける行列情報入力部と、入力画像から対象物を検出する検出部と、対象物と行列位置との距離に基づいて、対象物が行列に並んでいるか否かを判定する判定部と、を含む。 In the matrix detection system according to the present invention, the objects are arranged in a matrix based on the distance between the matrix information input unit that accepts the input of the matrix position, the detection unit that detects the object from the input image, and the object and the matrix position. Includes a determination unit for determining whether or not they are lined up.

本発明に係る行列検出方法は、行列位置の入力を受け付け、入力画像から対象物を検出し、対象物と行列位置との距離に基づいて、対象物が行列に並んでいるか否かを判定する。 The matrix detection method according to the present invention accepts an input of a matrix position, detects an object from the input image, and determines whether or not the objects are lined up in a matrix based on the distance between the object and the matrix position. ..

本発明に係るプログラムは、行列位置の入力を受け付ける行列情報入力処理と、入力画像から対象物を検出する検出処理と、対象物と行列位置との距離に基づいて、対象物が行列に並んでいるか否かを判定する判定処理と、をコンピュータに実行させる。 In the program according to the present invention, the objects are arranged in a matrix based on the matrix information input process that accepts the input of the matrix position, the detection process that detects the object from the input image, and the distance between the object and the matrix position. and determination processing of determining dolphin not, Ru cause the computer to execute.

本発明によれば、行列に並ぶつもりではなく単に滞留しているだけ等の人物であっても、誤ってその人物を行列に並ぶ人として処理してしまう場合がある、という課題が解決される。 According to the present invention, there is a problem that even a person who does not intend to line up in a line but simply stays in the line may be mistakenly treated as a person in line. ..

本発明の実施形態1の構成例を示す機能ブロック図である。It is a functional block diagram which shows the structural example of Embodiment 1 of this invention. 行列情報の入力方法の例を示す説明図である。It is explanatory drawing which shows the example of the input method of the matrix information. 行列情報の入力方法の例を示す説明図である。It is explanatory drawing which shows the example of the input method of the matrix information. 行列待ち情報の生成過程の例を示す説明図である。It is explanatory drawing which shows the example of the generation process of the queue waiting information. 行列待ち情報の生成過程の例を示す説明図である。It is explanatory drawing which shows the example of the generation process of the queue waiting information. 本発明の実施形態1の処理経過の例を示すフローチャートである。It is a flowchart which shows the example of the processing progress of Embodiment 1 of this invention. 本発明の実施形態1の処理経過の例を示すフローチャートである。It is a flowchart which shows the example of the processing progress of Embodiment 1 of this invention. 本発明の実施形態2の構成例を示す機能ブロック図である。It is a functional block diagram which shows the structural example of Embodiment 2 of this invention. 本発明の実施形態2の処理経過の例を示すフローチャートである。It is a flowchart which shows the example of the processing progress of Embodiment 2 of this invention. 本発明の各実施形態を実現可能なコンピュータのハードウェア構成例を説明する図である。It is a figure explaining the hardware configuration example of the computer which can realize each embodiment of this invention.

まず、本発明の実施形態の理解を容易にするために、本発明の背景を説明する。 First, the background of the present invention will be described in order to facilitate understanding of the embodiments of the present invention.

上述の特許文献1及び2に記載の技術では、行列に並ぶつもりではなく単に滞留しているだけ等の人物であっても、その人物を行列に並ぶ人として処理してしまう場合がある。 In the techniques described in Patent Documents 1 and 2 described above, even a person who does not intend to line up in a line but merely stays in the line may be treated as a person lined up in a line.

例えば、特許文献1に記載の技術は、入力画像に対し、背景差分を用いて人物領域の面積を求めるため、行列に並ぶつもりではない人が行列の付近に立ち止まった場合、その単に滞留している人も含めて人物領域の面積を求めることになる。また、本来の行列から離れた位置に複数の滞留者がいた場合、特許文献1に記載の技術はその複数の滞留者が行列を構成する人々であると認識しうる。特許文献1に記載の技術には、その他の課題として、オクルージョンの発生による未検出等がある。特許文献1のような背景差分に基づく手法では、人物の体格の違い、荷物等付帯物の有無、及び、人物同士の重なりや遮蔽物による隠れによって、実際の人物と差分ベースで取得する人物領域との関係に容易に誤差が生じる。また、この手法では、個々の人物やその並び順を認識しないため、人物ごとの待ち時間を算出することができない。 For example, the technique described in Patent Document 1 obtains the area of a person area using background subtraction for an input image. Therefore, when a person who does not intend to line up in a line stops near the line, the person simply stays there. The area of the person area including the person who is there will be calculated. Further, when there are a plurality of resident persons at positions away from the original procession, the technique described in Patent Document 1 can recognize that the plurality of resident persons are people who form the procession. Another problem with the technique described in Patent Document 1 is that it has not been detected due to the occurrence of occlusion. In the method based on background subtraction as in Patent Document 1, the person area acquired based on the difference between the actual person and the actual person due to the difference in the physique of the person, the presence or absence of incidental items such as luggage, and the overlap between the persons and the hiding by the shield. An error easily occurs in the relationship with. In addition, since this method does not recognize individual persons and their order, it is not possible to calculate the waiting time for each person.

また、特許文献2に記載の技術においても、特許文献1と同様に単なる滞留者を行列に並ぶ人であるとする誤処理が生じうる。また、その他の課題として、特許文献2に記載の手法は、人物の検出及び追跡が良好に行えることを前提としているが、実環境においては、カメラの設置位置や建物の構造等により、人物同士の重なりや遮蔽物によるオクルージョンの発生が想定される。これにより、オクルージョン領域において人物の検出漏れが生じ、その結果行列に並ぶ人物を正しく繋ぐことに失敗し、誤った人数及び待ち時間を推定してしまう。特許文献2では、このようなオクルージョンの問題を解決するために、高い位置にカメラを設置し人物を真上から撮影することを提案している。しかし、一般的な屋内施設または屋外において必ずしも高い位置にカメラを設置できる環境が整っているとは限らない。また、一般的な監視カメラとも設置位置及び画角が異なるため、行列検出専用のカメラとして新たに設置する必要があり、導入コストの増大につながる。したがって、特殊な設置条件のカメラを使用するのではなく、人物を斜め上から撮影するような既設の監視カメラ映像を使用し、オクルージョンの問題を解決することが望ましい。 Further, also in the technique described in Patent Document 2, an erroneous process may occur in which a mere resident is regarded as a person in a line as in Patent Document 1. Further, as another problem, the method described in Patent Document 2 is based on the premise that the detection and tracking of a person can be performed well, but in an actual environment, the persons may be different from each other depending on the installation position of the camera, the structure of the building, and the like. Occurrence of occlusion due to overlapping or shielding is expected. As a result, the detection of the person is omitted in the occlusion area, and as a result, it fails to correctly connect the people in the queue, and the wrong number of people and the waiting time are estimated. Patent Document 2 proposes to install a camera at a high position and take a picture of a person from directly above in order to solve such an occlusion problem. However, it is not always possible to install the camera at a high position in a general indoor facility or outdoors. In addition, since the installation position and angle of view are different from those of general surveillance cameras, it is necessary to newly install it as a camera dedicated to matrix detection, which leads to an increase in introduction cost. Therefore, it is desirable to solve the occlusion problem by using an existing surveillance camera image that captures a person from diagonally above, instead of using a camera with special installation conditions.

以下に説明される本発明の実施形態によれば、上述の課題が解決され、行列に並ぶ意図でない人物の誤検出が防止され、また、天井設置型等特殊なカメラでなくても、オクルージョンに頑健に行列を検出することができる。 According to the embodiment of the present invention described below, the above-mentioned problems are solved, false detection of unintended persons in a line is prevented, and even if the camera is not a special camera such as a ceiling-mounted type, it can be used for occlusion. The matrix can be detected robustly.

以下、本発明の実施形態を、図面を参照して説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.

<実施形態1>
図1は本発明の実施形態1の構成例を示すブロック図である。
<Embodiment 1>
FIG. 1 is a block diagram showing a configuration example of the first embodiment of the present invention.

図1に示すように、本実施形態に係る行列検出システムは、画像入力部1と、行列情報入力部2と、行列検出部3と、出力部4とを含む。 As shown in FIG. 1, the matrix detection system according to the present embodiment includes an image input unit 1, a matrix information input unit 2, a matrix detection unit 3, and an output unit 4.

画像入力部1は、所定の監視領域を撮影した時系列の画像と撮影時刻との組を、行列検出部3に逐次入力する。画像入力部1が行列検出部3に入力する画像は、例えば監視カメラなどの撮影装置を用いて取得されてもよい。または、画像入力部1は、記憶装置(図示せず)に記憶された映像データを読み出して得られる時系列の画像を行列検出部3に入力してもよい。 The image input unit 1 sequentially inputs a set of a time-series image of a predetermined monitoring area and a shooting time to the matrix detection unit 3. The image input by the image input unit 1 to the matrix detection unit 3 may be acquired by using a photographing device such as a surveillance camera. Alternatively, the image input unit 1 may input a time-series image obtained by reading the video data stored in the storage device (not shown) into the matrix detection unit 3.

なお、本実施形態において検出対象とする物体の種別は特に限定されず、人物、動物、車、ロボット、又は物であってもよい。以下では、人物の検出を例にして説明する。 The type of object to be detected in this embodiment is not particularly limited, and may be a person, an animal, a car, a robot, or an object. In the following, the detection of a person will be described as an example.

行列情報入力部2は、解析対象となる行列の発生位置(以下「行列位置」という。)を入力する。行列情報入力部2は、例えばマウスや、タブレット端末のタッチパネルを介してユーザによる行列の発生位置の入力を受け付ける。行列情報入力部2は、ユーザによるマウス操作や、タッチペンや指などによるタッチパネル操作に基づき、監視カメラ映像が表示された画面上に行列の発生位置を入力してもよい。具体的には、行列情報入力部2は、画面上に、行列発生時の人物の足元位置の始点、中継点及び終点を描画して、行列の経路及び進行方向を入力してもよい。この時、ユーザは、始点及び終点を少なくともそれぞれ1点以上指定する必要があるが、中継点の指定は0点であってもよい。また、分岐や合流を含む行列を表現するために、ユーザは、始点又は終点の少なくともいずれかについて2つ以上入力してもよい。また、行列情報入力部2は、始点、中継点、終点間を結ぶ行列線ごとに、横に並ぶ人数の指定を、ユーザから受け付けるようにしてもよい。 The matrix information input unit 2 inputs the generation position of the matrix to be analyzed (hereinafter referred to as "matrix position"). The matrix information input unit 2 receives input of a matrix generation position by a user via, for example, a mouse or a touch panel of a tablet terminal. The matrix information input unit 2 may input the position where the matrix is generated on the screen on which the surveillance camera image is displayed, based on the mouse operation by the user or the touch panel operation by a touch pen, a finger, or the like. Specifically, the matrix information input unit 2 may draw the start point, the relay point, and the end point of the foot position of the person when the matrix is generated on the screen, and input the path and the traveling direction of the matrix. At this time, the user needs to specify at least one start point and one end point, respectively, but the relay point may be specified as 0 point. Further, in order to represent a matrix including branching and merging, the user may input two or more for at least one of the start point and the end point. Further, the matrix information input unit 2 may accept from the user the designation of the number of people arranged side by side for each matrix line connecting the start point, the relay point, and the end point.

また、入力された始点、中継点、終点及び横に並ぶ人数を、監視カメラ映像が表示された画面上に重畳して描画することで、ユーザが入力内容を容易に確認できるようにしてもよい。また、行列情報の入力は、行列検出処理を開始する前にあらかじめ行われていてもよいし、行列検出処理を実行中の任意のタイミングで、変更した行列情報が反映されるようにしてもよい。 Further, the input contents may be easily confirmed by the user by superimposing and drawing the input start point, relay point, end point and the number of people lined up side by side on the screen on which the surveillance camera image is displayed. .. Further, the matrix information may be input in advance before starting the matrix detection process, or the changed matrix information may be reflected at an arbitrary timing during the execution of the matrix detection process. ..

なお、行列情報の入力方法は、上述のものに限定されない。例えば、行列発生時の人物の足元位置の始点、中継点及び終点の入力が行われるのではなく、ユーザがタッチパネル上に直接、直線や曲線をなぞることで行列位置を入力するようにしてもよい。または、行列情報入力部2は、ユーザによる入力に基づくのではなく、装置内外で格納されている所定の書式で行列位置が記述されたファイルを読み込む等の方法により自動的に行列位置を入力するようにしてもよい。 The method of inputting matrix information is not limited to the above. For example, instead of inputting the start point, relay point, and end point of the foot position of the person when the matrix is generated, the user may input the matrix position by tracing a straight line or a curve directly on the touch panel. .. Alternatively, the matrix information input unit 2 automatically inputs the matrix position by a method such as reading a file in which the matrix position is described in a predetermined format stored inside or outside the device, instead of being based on the input by the user. You may do so.

ここで、行列情報の入力について具体的に説明する。図2は行列に並ぶ人物を監視カメラで撮影した画像を示す図である図2は、奥から手前方向に人物が並んでいる様子を示す。また、図2は、行列の最後尾では二股に分かれているが、途中で合流し、2列の行列となって先頭まで続いている様子を示している。図3は、行列情報として、行列の最後尾である2つの終点(終点1及び終点2)と、2つの中継点(中継点1及び中継点2)と、行列の先頭である1つの始点(始点1)とが入力された様子を示す。また、図3は、終点1及び2から中継点1までは1列の行列、中継点1から始点1までは2列の行列として入力された様子を示す。 Here, the input of matrix information will be specifically described. FIG. 2 is a diagram showing an image of people lined up in a line taken by a surveillance camera. FIG. 2 shows a state in which people are lined up from the back to the front. Further, FIG. 2 shows a state in which the matrix is bifurcated at the end, but merges in the middle to form a two-row matrix and continues to the beginning. FIG. 3 shows, as matrix information, two end points (end point 1 and end point 2) at the end of the matrix, two relay points (relay point 1 and relay point 2), and one start point (relay point 1 and relay point 2) at the beginning of the matrix. It shows how the start point 1) and is input. Further, FIG. 3 shows a state in which the ending points 1 and 2 to the relay point 1 are input as a one-row matrix, and the relay points 1 to the start point 1 are input as a two-row matrix.

行列情報入力部2は、上述のようにして入力された始点、中継点、終点及び各地点間の情報を、任意のタイミングで行列位置として反映させる。例えば、入力情報を反映させるための「反映」ボタンを表示画面上に表示しておき、ユーザによるそのボタンの押下を検出すると、行列情報入力部2は、入力情報を反映させてもよい。これにより反映された行列情報が、判定部33の判定等に用いられることになる。 The matrix information input unit 2 reflects the information input as described above at the start point, the relay point, the end point, and between the points as the matrix position at an arbitrary timing. For example, when a "reflect" button for reflecting the input information is displayed on the display screen and the user's pressing of the button is detected, the matrix information input unit 2 may reflect the input information. The matrix information reflected by this will be used for the determination of the determination unit 33 and the like.

行列検出部3は、画像入力部1から逐次入力される画像を解析し、画像中の行列を検出する。行列検出部3は、検出部31と、追跡部32と、判定部33と、生成部34とを備える。 The matrix detection unit 3 analyzes the images sequentially input from the image input unit 1 and detects the matrix in the image. The matrix detection unit 3 includes a detection unit 31, a tracking unit 32, a determination unit 33, and a generation unit 34.

検出部31は、画像入力部1から取得した画像中に存在するすべての、又は一部の人物を検出する。検出部31は、例えば、あらかじめ人物の頭部、上半身など特定部位の人体領域のパターンを認識するために構築された識別器を利用し入力画像から人物を検出する処理を行ってもよい。識別器を利用する方法に限定されず、検出部31は、人物の検出方法としてパターン認識における公知の手法を用いればよい。 The detection unit 31 detects all or a part of the persons present in the image acquired from the image input unit 1. For example, the detection unit 31 may perform a process of detecting a person from an input image by using a classifier constructed in advance for recognizing a pattern of a human body region of a specific part such as the head and upper body of the person. The detection unit 31 is not limited to the method using the classifier, and the detection unit 31 may use a known method in pattern recognition as a method for detecting a person.

また、検出部31は、行列位置の近辺に存在する人物のみを検出対象とするために、行列情報入力部2から入力される行列位置に基づいて、検出対象領域を限定して検出処理を行うようにしてもよい。すなわち、検出部31は、入力された行列位置の近傍の領域に対してのみ検出処理を行うようにしてもよい。 Further, the detection unit 31 performs detection processing by limiting the detection target area based on the matrix position input from the matrix information input unit 2 in order to detect only the person existing in the vicinity of the matrix position. You may do so. That is, the detection unit 31 may perform the detection process only on the region near the input matrix position.

検出部31は、検出結果として、画像入力部1から取得した画像の時刻と、検出した人物の位置座標を出力する。入力画像を撮影したカメラのキャリブレーション情報について、あらかじめ算出されている等によりわかっている場合、検出部31は、キャリブレーション情報を用いて、人物の検出結果である画面上の位置座標を世界座標に変換して出力してもよい。 The detection unit 31 outputs the time of the image acquired from the image input unit 1 and the position coordinates of the detected person as the detection result. When the calibration information of the camera that captured the input image is known by being calculated in advance, the detection unit 31 uses the calibration information to set the position coordinates on the screen, which is the detection result of the person, to the world coordinates. It may be converted to and output.

追跡部32は、検出部31により各フレーム画像から検出された人物を対象に、複数フレーム間に渡って人物の追跡を行う。追跡部32は、例えば、パーティクルフィルタなどの公知のアルゴリズムを用いて、人物の追跡処理を行うようにしてもよい。 The tracking unit 32 tracks the person detected from each frame image by the detection unit 31 over a plurality of frames. The tracking unit 32 may perform the tracking process of the person by using a known algorithm such as a particle filter.

追跡部32は、追跡対象の人物の位置を更新するために用いる移動モデルに関し、対象が行列に並ぶ人物か否かによって、異なる移動モデルを使用してもよい。追跡部32は、行列に並ぶ人物であるかどうかにつき、例えば判定部33が管理する行列人物ID(IDentifier)リストを参照してもよい。その場合、追跡部32は、追跡対象の人物IDが行列人物IDリストに登録されていれば行列に並ぶ人物であると判定し、登録されていなければ行列に並んでいない人物であると判定しても良い。 The tracking unit 32 may use a different movement model depending on whether or not the target is a person in a line with respect to the movement model used to update the position of the person to be tracked. The tracking unit 32 may refer to, for example, a matrix person ID (Identifier) list managed by the determination unit 33 regarding whether or not the person is in a line. In that case, the tracking unit 32 determines that the person ID to be tracked is a person in the queue if it is registered in the queue person ID list, and determines that the person is not in the queue if it is not registered. You may.

行列に並ぶ人物に関し、並んでいる時間の多くは静止状態である。そのため、多くの時間で静止状態を表す(すなわち、ほとんど移動しない)移動モデルを適用することが適切である。また、行列情報入力部2から得られる行列位置情報により、場所ごとの進行方向は既知である。そのため、進行方向を限定した移動モデルを適用することができる。つまり、追跡部32は、行列に並ぶ人物に対して、移動状態と静止状態を表す2状態モデルを使用した追跡処理を行うことで、より頑健に追跡することが可能になる。追跡部32は、行列に並ぶ人物が静止状態か移動状態かに応じて、各状態モデルの重みを変化させるようにしてもよい。 For people in line, most of the time they are in line is stationary. Therefore, it is appropriate to apply a movement model that represents a resting state for many hours (ie, hardly moves). Further, the traveling direction for each place is known from the matrix position information obtained from the matrix information input unit 2. Therefore, it is possible to apply a movement model in which the traveling direction is limited. That is, the tracking unit 32 can track the persons in the line more robustly by performing the tracking process using the two-state model representing the moving state and the stationary state. The tracking unit 32 may change the weight of each state model according to whether the persons in the line are in a stationary state or a moving state.

一方で、行列に並んでいない人物は、移動方向に制限がない。そのため、追跡部32は、行列に並んでいない人物に対しては、所定範囲の移動速度で全方位に移動することを想定した移動モデルを適用してもよい。 On the other hand, people who are not in line have no restrictions on the direction of movement. Therefore, the tracking unit 32 may apply a movement model that assumes movement in all directions at a movement speed within a predetermined range to people who are not in line.

入力された人物の位置情報が画像上の平面座標である場合で、あらかじめ算出されている等の事情により入力画像を撮影したカメラのキャリブレーション情報をわかっている場合、追跡部32は、世界座標系で追跡処理を行ってもよい。すなわち、追跡部32は、キャリブレーション情報を用いて、画面上の座標系を世界座標系に変換してから追跡処理を行ってもよい。人物の位置情報が世界座標系で入力される場合は、追跡部32は、そのまま世界座標系にて追跡処理を行ってもよい。 When the input position information of the person is the plane coordinates on the image and the calibration information of the camera that captured the input image is known due to circumstances such as being calculated in advance, the tracking unit 32 uses the world coordinates. The tracking process may be performed in the system. That is, the tracking unit 32 may perform the tracking process after converting the coordinate system on the screen into the world coordinate system by using the calibration information. When the position information of the person is input in the world coordinate system, the tracking unit 32 may perform the tracking process in the world coordinate system as it is.

追跡部32は、追跡結果を出力する。追跡部32は、例えば、追跡結果として、追跡対象の人物毎の人物IDと、時刻と、位置座標とを紐付けた情報を出力する。 The tracking unit 32 outputs the tracking result. For example, the tracking unit 32 outputs information as a tracking result in which a person ID for each person to be tracked, a time, and position coordinates are associated with each other.

判定部33は、追跡部32から出力される時刻ごとの人物の位置座標をもとに、各人物の移動速度を算出する。判定部33は、人物の位置座標と、行列情報入力部2から入力される行列位置の座標とを比較し、各人物と行列位置との距離を算出する。 The determination unit 33 calculates the moving speed of each person based on the position coordinates of the person for each time output from the tracking unit 32. The determination unit 33 compares the position coordinates of the person with the coordinates of the matrix position input from the matrix information input unit 2, and calculates the distance between each person and the matrix position.

判定部33は、移動速度及び行列位置との距離が所定の閾値よりも小さくなる人物を、行列に並ぶ人物(以下、「行列人物」という。)と判定する。判定部33は、当該移動速度または行列位置との距離が所定の閾値以上となる人物を、行列に並ばない人物(以下、「移動人物」という。)と判定する。 The determination unit 33 determines a person whose movement speed and distance from the matrix position are smaller than a predetermined threshold value as a person who is lined up in a matrix (hereinafter, referred to as a "matrix person"). The determination unit 33 determines a person whose movement speed or distance from the matrix position is equal to or greater than a predetermined threshold value as a person who does not line up in the matrix (hereinafter, referred to as "moving person").

判定部33は、検出部31が特定部位として頭部を検出した場合、カメラパラメータを用いて、頭部の位置から人物の足元に相当する下端位置を推定し、推定した下端位置と行列位置との距離に基づいて、人物が行列に並んでいるか否かを判定してもよい。これにより、足元を直接検出することが困難な場合にも、比較的検出が容易な頭部を検出し、そこから足元を推定するとこで、判定部33は、精度よく行列人物か否かを判定することができる。判定部33は、人物が大人である可能性や子供である可能性を考慮してもよい。具体的には、例えば、判定部33は、頭部の世界座標系における高さを複数のバリエーションで仮定し、カメラパラメータを用いて、仮定した複数の高さから複数の下端位置を推定する。判定部33は、推定した複数の下端位置と行列位置との最短距離に基づいて、対象物が行列に並んでいるか否かを判定してもよい。 When the detection unit 31 detects the head as a specific part, the determination unit 33 estimates the lower end position corresponding to the foot of the person from the position of the head by using the camera parameters, and determines the estimated lower end position and the matrix position. It may be determined whether or not the persons are in a line based on the distance of. As a result, even when it is difficult to directly detect the feet, the head, which is relatively easy to detect, is detected and the feet are estimated from the head, so that the determination unit 33 accurately determines whether or not the person is in line. Can be determined. The determination unit 33 may consider the possibility that the person is an adult or a child. Specifically, for example, the determination unit 33 assumes the height of the head in the world coordinate system with a plurality of variations, and estimates a plurality of lower end positions from the assumed heights by using the camera parameters. The determination unit 33 may determine whether or not the objects are lined up in a matrix based on the shortest distance between the estimated plurality of lower end positions and the matrix positions.

判定部33は、追跡中の各人物IDが、行列人物と移動人物のどちらであるかを示す行列人物IDリストを保持しておく。行列人物IDリストとは、追跡中の人物の人物IDと、当該人物が行列人物または移動人物のどちらであるかを表す情報と、の組を管理しているリストである。 The determination unit 33 holds a matrix person ID list indicating whether each person ID being tracked is a procession person or a moving person. The procession person ID list is a list that manages a set of a person ID of a person being tracked and information indicating whether the person is a procession person or a moving person.

判定部33は、追跡中の各人物IDについて、移動速度と行列位置との距離に基づく判定結果を用いて、行列人物IDリストを更新する。 The determination unit 33 updates the matrix person ID list for each person ID being tracked by using the determination result based on the distance between the moving speed and the matrix position.

判定部33は、行列人物であると判定した人物の情報を出力する。判定部33は、例えば、行列人物であると判定した人物の人物IDと、時刻と、位置座標とを紐付けた情報を出力する。 The determination unit 33 outputs information on a person who has been determined to be a queue person. The determination unit 33 outputs, for example, information in which the person ID of the person determined to be a queue person, the time, and the position coordinates are associated with each other.

生成部34は、判定部33から入力される行列人物の情報と、行列情報入力部2から入力される行列位置の情報とに基づいて、欠損のない全体の行列情報を生成する。すなわち、生成部34は、未検出領域を推定し、行列人物の情報から未検出領域に並ぶ人物の情報を補完して、行列情報を生成する。 The generation unit 34 generates the entire matrix information without any loss based on the information of the matrix person input from the determination unit 33 and the information of the matrix position input from the matrix information input unit 2. That is, the generation unit 34 estimates the undetected area, complements the information of the persons lined up in the undetected area from the information of the person in the matrix, and generates the matrix information.

具体的には、生成部34は、行列人物の位置座標と、行列位置と、に基づいてオクルージョンの発生状況(オクルージョンの影響による人物の未検出領域)を推定する。生成部34は、推定したオクルージョンの発生状況と、未検出領域前後の行列人物の検出状況等から、オクルージョンの影響により検出されなかった人物の存在を推定する。また、生成部34は、見えが小さすぎることにより人物が検出できない領域(見えの影響による人物の未検出領域)を推定する。生成部34は、見えの影響による未検出の可能性と、行列人物の検出状況とから、検出されなかった人物の存在を推定する。生成部34は、未検出だが存在すると推定された人物の情報を補完することで、欠損のない全体の行列情報を生成する。生成部34は、欠損のない全体の行列情報として、例えば、行列に並ぶ人数、行列の長さ、行列に並ぶ各人の累積待ち時間、行列の進行速度、行列に並び始めてから行列を抜けるまでの推定待ち時間などの情報を生成してもよい。 Specifically, the generation unit 34 estimates the occurrence status of occlusion (the undetected area of the person due to the influence of occlusion) based on the position coordinates of the person in the procession and the position of the person in the procession. The generation unit 34 estimates the existence of a person who has not been detected due to the influence of the occlusion from the estimated occurrence state of occlusion and the detection state of the matrix person before and after the undetected area. In addition, the generation unit 34 estimates a region where a person cannot be detected because the visibility is too small (a region where the person is not detected due to the influence of the visibility). The generation unit 34 estimates the existence of an undetected person from the possibility of undetection due to the influence of appearance and the detection status of the queue person. The generation unit 34 generates the entire matrix information without any loss by supplementing the information of the person who has not been detected but is presumed to exist. The generation unit 34 provides the entire matrix information without any loss, for example, the number of people in the matrix, the length of the matrix, the cumulative waiting time of each person in the matrix, the progress speed of the matrix, and the time from the start of the matrix to the exit of the matrix. Information such as the estimated waiting time of may be generated.

オクルージョンの発生状況の推定方法として、図4、図5を用いて説明する。 A method for estimating the occurrence of occlusion will be described with reference to FIGS. 4 and 5.

図4は、折り返しのある行列を撮影した画像を示す図である。図4は、画像中の左上が行列の始点(先頭)となり、途中で2回折り返し、右下が行列の終点(最後尾)となっている様子を示す。 FIG. 4 is a diagram showing an image of a matrix with folds. FIG. 4 shows a state in which the upper left of the image is the start point (beginning) of the matrix, is folded back twice in the middle, and the lower right is the end point (end) of the matrix.

斜め下を見下ろす画角で撮影された映像は、カメラからの距離が遠い場所ほど俯角が浅くなる。そのため、人物が等間隔に並んだ行列においても、カメラから遠い人物ほど手前の人物に隠れやすくなってしまう。また、カメラから離れるほど人物の見えが小さくなる。そのため、カメラから遠くに存在する人物は、人物を検出可能な最小画素数を下回ることで、検出されなくなることがある。具体例として、図4では、網掛けで示した領域で、オクルージョンや人物の見えが小さすぎることにより未検出となったことを示している。 An image shot with an angle of view looking down diagonally has a shallower depression angle as the distance from the camera increases. Therefore, even in a procession in which people are lined up at equal intervals, the farther the person is from the camera, the easier it is to hide in the person in front. Also, the farther away from the camera, the smaller the visibility of the person. Therefore, a person who is far from the camera may not be detected if the number of pixels is less than the minimum number of pixels that can detect the person. As a specific example, FIG. 4 shows that in the shaded area, occlusion and the visibility of a person are too small to be detected.

このような状況において、例えば行列全体の待ち人数を算出する場合は、生成部34は、例えば以下のような方法で算出する。生成部34は、判定部33により行列人物と判定された人物の位置座標と、行列情報入力部2から入力された行列位置とに基づいて、途切れた行列長を算出する。また、生成部34は、人物位置が得られている領域から人口密度(所定の距離内で並ぶ人数)を推定する。生成部34は、推定した人口密度に基づいて途切れた行列長に存在する人数を推定し、検出できた人数と合算して待ち人数を算出する。生成部34は、例えば上述の方法で待ち人数を算出する。 In such a situation, for example, when calculating the number of people waiting for the entire queue, the generation unit 34 calculates by, for example, the following method. The generation unit 34 calculates the interrupted matrix length based on the position coordinates of the person determined to be the matrix person by the determination unit 33 and the matrix position input from the matrix information input unit 2. In addition, the generation unit 34 estimates the population density (the number of people lined up within a predetermined distance) from the area where the person position is obtained. The generation unit 34 estimates the number of people existing in the interrupted queue length based on the estimated population density, and adds up the number of people that can be detected to calculate the number of people waiting. The generation unit 34 calculates the number of people waiting, for example, by the method described above.

また、各人の累積待ち時間を算出する場合は、生成部34は、例えば以下のような方法で算出する。生成部34は、上述の方法でオクルージョン領域に存在する人数を推定する。生成部34は、オクルージョン領域の直前及び直後で検出された人物について、行列に並び始めてからの累積待ち時間を算出する。生成部34は、算出した2つの累積待ち時間の時間差をオクルージョン領域に存在する推定人数で除算する。生成部34は、除算することで算出した時間差を、オクルージョン領域に存在する先頭の人物から順に、前に並んでいる人物の累積待ち時間に加算していくことで、累積待ち時間の補間処理を行う。 Further, when calculating the cumulative waiting time of each person, the generation unit 34 calculates by, for example, the following method. The generation unit 34 estimates the number of people existing in the occlusion region by the method described above. The generation unit 34 calculates the cumulative waiting time from the start of lining up for the persons detected immediately before and after the occlusion area. The generation unit 34 divides the calculated time difference between the two cumulative waiting times by the estimated number of people existing in the occlusion area. The generation unit 34 performs the interpolation processing of the cumulative waiting time by adding the time difference calculated by division to the cumulative waiting time of the people lined up in front in order from the first person existing in the occlusion area. Do.

出力部4は、行列検出部3から入力される行列情報を出力する。出力部4の出力様態は、例えば、表示出力である。この場合、出力部4は、外部に備えられたディスプレイ装置に表示を行えばよい。ただし、出力部4の出力態様は表示に限定されず、他の態様であってもよい。 The output unit 4 outputs the matrix information input from the matrix detection unit 3. The output mode of the output unit 4 is, for example, a display output. In this case, the output unit 4 may display on an external display device. However, the output mode of the output unit 4 is not limited to the display, and may be another mode.

次に、本実施形態に係る行列検出システムの動作について、図6及び図7のフローチャートを参照して説明する。図6は、ユーザが行列位置を入力する際の処理フローの一例を示す。図7は、行列位置が入力されたのち、行列を検出し、欠損のない全体の行列情報を生成する際の処理フローの一例を示す。 Next, the operation of the matrix detection system according to the present embodiment will be described with reference to the flowcharts of FIGS. 6 and 7. FIG. 6 shows an example of a processing flow when the user inputs a matrix position. FIG. 7 shows an example of a processing flow when the matrix is detected after the matrix position is input and the entire matrix information without defects is generated.

なお、後述の各処理ステップは、処理内容に矛盾を生じない範囲で、任意に順番を変更してもしくは並列に実行してもよく、また、各処理ステップ間に他のステップを追加しても良い。更に、便宜上1つのステップとして記載されているステップは複数のステップに分けて実行してもよく、便宜上複数に分けて記載されているステップを1ステップとして実行してもよい。 Each processing step described later may be arbitrarily changed in order or executed in parallel as long as the processing contents do not conflict with each other, or another step may be added between each processing step. good. Further, the step described as one step for convenience may be executed in a plurality of steps, or the step described in a plurality of steps may be executed as one step for convenience.

はじめに、ユーザが行列位置を入力する際の処理について、図6のフローチャートを参照して説明する。 First, the process when the user inputs the matrix position will be described with reference to the flowchart of FIG.

行列情報入力部2は、所定の監視領域を撮影した画像を取得し、行列位置を設定するための画面上に表示する(ステップSA1)。 The matrix information input unit 2 acquires an image of a predetermined monitoring area and displays it on a screen for setting a matrix position (step SA1).

次に、ユーザは、表示された画面上に、未設定である行列が存在するかどうかを確認する。行列の設定が完了しておらず未設定の行列が存在する場合、行列情報入力部2は、所定の入力装置を介してユーザによる行列位置の入力の開始を受け付ける(ステップSA2のno)。入力装置としては、例えばマウスやタッチパネルが該当し、タッチパネルであれば、ユーザはタッチペンや指などを使用して入力すればよい。 Next, the user checks whether there is an unconfigured matrix on the displayed screen. When the matrix setting is not completed and there is an unset matrix, the matrix information input unit 2 accepts the start of input of the matrix position by the user via a predetermined input device (no in step SA2). The input device corresponds to, for example, a mouse or a touch panel, and if it is a touch panel, the user may input using a touch pen, a finger, or the like.

行列情報入力部2は、ユーザによる行列の始点の入力を受け付ける(ステップSA3)。ユーザが設定しようとしている行列に始点が複数存在する場合は、行列情報入力部2は、ステップSA3ですべての始点の入力を受け付ける。 The matrix information input unit 2 accepts the input of the start point of the matrix by the user (step SA3). When there are a plurality of start points in the matrix to be set by the user, the matrix information input unit 2 accepts the input of all the start points in step SA3.

次に、行列情報入力部2は、ユーザによる行列の分岐や経由地点を表す中継点の入力を受け付ける(ステップSA4)。もし行列が始点と終点を結ぶ直線で表すことができる場合は、中継点の入力は必要ないため、ステップSA4の処理は省略される。また、ユーザが設定しようとしている行列に中継点が複数存在する場合は、行列情報入力部2は、ステップSA4ですべての中継点の入力を受け付ける。 Next, the matrix information input unit 2 accepts the input of the relay point representing the branch of the matrix and the waypoint by the user (step SA4). If the matrix can be represented by a straight line connecting the start point and the end point, the process of step SA4 is omitted because the input of the relay point is not necessary. If there are a plurality of relay points in the matrix to be set by the user, the matrix information input unit 2 accepts the inputs of all the relay points in step SA4.

次に、行列情報入力部2は、行列の終点の入力を受け付ける(ステップSA5)。ユーザが設定しようとしている行列に終点が複数存在する場合は、行列情報入力部2は、ステップSA5ですべての終点の入力を受け付ける。 Next, the matrix information input unit 2 receives the input of the end point of the matrix (step SA5). When there are a plurality of end points in the matrix to be set by the user, the matrix information input unit 2 accepts the inputs of all the end points in step SA5.

なお、ステップSA3、SA4及びSA5で入力した始点、中継点及び終点は、入力される都度、ステップSA1で取得した画像上に表示され、ユーザは入力された各点を確認できるものとしてもよい。 The start point, relay point, and end point input in steps SA3, SA4, and SA5 may be displayed on the image acquired in step SA1 each time they are input, and the user may be able to confirm each input point.

次に、ユーザは、入力した始点、中継点及び終点の地点間を結ぶ各線分に対し、列の数(横に並ぶ人数)の入力が未設定である線分が存在するかどうかを確認する。列数の設定が完了しておらず未設定の線分が存在する場合、行列情報入力部2は、未設定の線分に対し、上述した入力装置を介してユーザによる列の数の入力の開始を受け付ける(ステップSA6のno)。行列情報入力部2は、ユーザによる列の数の入力を受け付ける(ステップSA7)。 Next, the user confirms whether or not there is a line segment for which the number of columns (the number of people lined up side by side) has not been set for each line segment connecting the input start point, relay point, and end point. .. When the setting of the number of columns is not completed and there is an unset line segment, the matrix information input unit 2 inputs the number of columns by the user to the unset line segment via the above-mentioned input device. Accept the start (no in step SA6). The matrix information input unit 2 accepts the input of the number of columns by the user (step SA7).

なお、ステップSA7で入力した地点間を結ぶ各線分及び列の数は、入力される都度、ステップSA1で取得した画像上に表示され、ユーザは入力された各線分の人数を確認できるものとしてもよい。 It should be noted that the number of lines and columns connecting the points input in step SA7 is displayed on the image acquired in step SA1 each time the input is made, and the user can confirm the number of people in each input line. Good.

行列情報入力部2は、ユーザによるすべての線分に対する列の数の入力が完了する(ステップSA6のyes)と、ステップSA2に戻り、次の行列に関する入力の受付を開始する。行列情報入力部2は、ユーザによるすべての線分に対する列の数の入力が完了したことを、例えば、その旨のユーザによる入力を受け付けることにより、又はユーザの入力の開始がないまま所定時間が経過することにより判定してもよい。 When the user completes the input of the number of columns for all the line segments (yes in step SA6), the matrix information input unit 2 returns to step SA2 and starts accepting input regarding the next matrix. The matrix information input unit 2 indicates that the user has completed the input of the number of columns for all the line segments, for example, by accepting the input by the user to that effect, or by accepting the input by the user, or for a predetermined time without the start of the input by the user. It may be determined by the passage of time.

行列情報入力部2は、ユーザによるすべての行列の入力が完了したことを判定すると(ステップSA2のyes)、行列情報入力部2における行列情報の入力は完了となる。行列情報入力部2は、ユーザによるすべての行列の入力が完了したことを、例えば、その旨のユーザによる入力を受け付けることにより、又はユーザの入力の開始がないまま所定時間が経過することにより判定してもよい。 When the matrix information input unit 2 determines that the input of all the matrices by the user is completed (yes in step SA2), the input of the matrix information in the matrix information input unit 2 is completed. The matrix information input unit 2 determines that all the matrix inputs by the user have been completed, for example, by accepting the input by the user to that effect, or by the elapse of a predetermined time without the start of the user's input. You may.

次に、行列を検出し行列待ち情報を生成する際の処理について、図7のフローチャートを参照して説明する。 Next, the process for detecting the matrix and generating the queue waiting information will be described with reference to the flowchart of FIG. 7.

検出部31は、入力部1から、撮影画像とその撮影時刻を取得する(ステップSB1)。検出部31は、画像中に存在するすべての人物を検出し、時刻及び検出した人物の位置座標を出力する(ステップSB2)。 The detection unit 31 acquires a captured image and a captured time thereof from the input unit 1 (step SB1). The detection unit 31 detects all the persons existing in the image and outputs the time and the position coordinates of the detected persons (step SB2).

次に、追跡部32の追跡結果を受け、判定部33は、前フレーム画像に対する処理結果として得られた追跡人物に関して、行列人物IDリストを参照し(ステップSB3)、行列人物であるかどうかを判定する(ステップSB4)。なお、行列人物IDリストとは、追跡中の人物の人物IDと、当該人物が行列人物または移動人物のどちらであるかを表す情報との組を管理しているリストである。 Next, upon receiving the tracking result of the tracking unit 32, the determination unit 33 refers to the matrix person ID list with respect to the tracking person obtained as the processing result for the previous frame image (step SB3), and determines whether or not the tracking person is a matrix person. Determine (step SB4). The procession person ID list is a list that manages a set of a person ID of a person being tracked and information indicating whether the person is a procession person or a moving person.

行列人物である場合(ステップSB4のyes)、判定部33は、行列人物用の移動モデルを用いて、現フレーム画像における位置座標を予測する。判定部33は、予測した位置座標とステップSB2で得られた人物位置座標を用いて、現フレーム画像における追跡人物の位置座標を算出する(ステップSB5a)。判定部33は、行列人物用の移動モデルとして、例えば、行列が静止している状態を表す移動モデルと、行列が進む状態を表す移動モデルの2状態モデルを用いてもよい。具体的には、静止状態を表す移動モデルでは、判定部33は、前フレーム画像と現フレーム画像でほとんど位置の変化がないという予測を行う。一方、進む状態を表す移動モデルでは、判定部33は、前フレーム画像と現フレーム画像とで、行列情報入力部2から得られる行列位置の情報に基づいて移動方向を限定した予測を行う。 In the case of a matrix person (yes in step SB4), the determination unit 33 predicts the position coordinates in the current frame image using the movement model for the matrix person. The determination unit 33 calculates the position coordinates of the tracked person in the current frame image by using the predicted position coordinates and the person position coordinates obtained in step SB2 (step SB5a). As the movement model for the matrix person, the determination unit 33 may use, for example, a two-state model of a movement model representing a state in which the matrix is stationary and a movement model representing a state in which the matrix advances. Specifically, in the moving model representing the stationary state, the determination unit 33 predicts that there is almost no change in position between the previous frame image and the current frame image. On the other hand, in the movement model representing the advancing state, the determination unit 33 makes a prediction in which the movement direction is limited based on the matrix position information obtained from the matrix information input unit 2 in the previous frame image and the current frame image.

一方、移動人物である場合(ステップSB4のno)、判定部33は、移動人物用の移動モデルを用いて、現フレーム画像における位置座標を予測する。判定部33は、予測した位置座標とステップSB2で得られた人物位置座標を用いて、現フレーム画像における追跡人物の位置座標を算出する(ステップSB5b)。判定部33は、移動人物用の移動モデルとして、例えば、移動方向に制限がないため、所定範囲の移動速度で全方位に移動することを想定したモデルを用いてもよい。 On the other hand, in the case of a moving person (no in step SB4), the determination unit 33 predicts the position coordinates in the current frame image by using the moving model for the moving person. The determination unit 33 calculates the position coordinates of the tracked person in the current frame image by using the predicted position coordinates and the person position coordinates obtained in step SB2 (step SB5b). As a movement model for a moving person, the determination unit 33 may use, for example, a model that assumes movement in all directions at a movement speed within a predetermined range because there is no limitation on the movement direction.

次に、判定部33は、ステップSB5a及びステップSB5bにて算出した、現在から過去数フレーム分の人物位置座標及び各時刻情報を用いて、人物の移動速度を算出する(ステップSB6)。 Next, the determination unit 33 calculates the moving speed of the person using the person position coordinates for the past several frames from the present and each time information calculated in steps SB5a and SB5b (step SB6).

判定部33は、現フレームにおける人物位置座標と、行列情報入力部2から得られる行列位置との最短距離等適切な距離を算出する(ステップSB7)。 The determination unit 33 calculates an appropriate distance such as the shortest distance between the person position coordinates in the current frame and the matrix position obtained from the matrix information input unit 2 (step SB7).

判定部33は、ステップSB6で算出した移動速度と、ステップSB7で算出した距離とを用い、移動速度があらかじめ定めた閾値よりも小さく、かつ、距離があらかじめ定めた閾値よりも小さいかどうかを判定する(ステップSB8)。前記条件を満たす場合(ステップSB8のyes)は、当該人物は行列人物であると判定する(ステップSB9a)。一方、前記条件を満たさない場合(ステップSB8のno)は、当該人物は、移動人物であると判定する(ステップSB9b)。 The determination unit 33 uses the movement speed calculated in step SB6 and the distance calculated in step SB7 to determine whether the movement speed is smaller than the predetermined threshold value and the distance is smaller than the predetermined threshold value. (Step SB8). When the above conditions are satisfied (yes in step SB8), it is determined that the person is a procession person (step SB9a). On the other hand, when the above condition is not satisfied (no in step SB8), it is determined that the person is a moving person (step SB9b).

判定部33は、ステップSB9a及びステップSB9bにおける行列に並ぶ人物か否かの判定結果を用いて、判定部33が管理している行列人物IDリストを更新する(ステップSB10)。 The determination unit 33 updates the matrix person ID list managed by the determination unit 33 by using the determination result of whether or not the persons are in line in the procession in steps SB9a and SB9b (step SB10).

次に、生成部34は、ステップSB9aで行列人物と判定された人物の人物位置と、行列情報入力部2から取得した行列位置とに基づいて、オクルージョンの発生状況を推定する。生成部34は、オクルージョン領域に存在する行列情報の補間処理を行う(ステップSB11)。具体的には、行列情報として待ち人数を算出する場合、生成部34は、ステップSB9aで行列人物と判定された人物の位置情報と、行列情報入力部2から得られる行列位置情報とを用いて、オクルージョンにより途切れた未検出領域の行列長を算出する。また、生成部34は、行列人物の人口密度(所定の距離内で並ぶ人数)を算出する。生成部34は、算出した人口密度に基づいて途切れた未検出領域の行列長に存在する人数を推定し、検出できている行列人物と合算して待ち人数を算出する。 Next, the generation unit 34 estimates the occurrence status of occlusion based on the person position of the person determined to be the matrix person in step SB9a and the matrix position acquired from the matrix information input unit 2. The generation unit 34 performs interpolation processing of the matrix information existing in the occlusion region (step SB11). Specifically, when calculating the number of people waiting as matrix information, the generation unit 34 uses the position information of the person determined to be the matrix person in step SB9a and the matrix position information obtained from the matrix information input unit 2. , Calculate the matrix length of the undetected region interrupted by occlusion. In addition, the generation unit 34 calculates the population density (the number of people lined up within a predetermined distance) of the people in line. The generation unit 34 estimates the number of people existing in the queue length of the interrupted undetected area based on the calculated population density, and calculates the number of people waiting by adding up with the detected queue people.

出力部4は、生成部34から出力される行列情報を、例えばアプリケーションや記憶媒体などの外部モジュールに対して出力する(ステップSB12)。 The output unit 4 outputs the matrix information output from the generation unit 34 to an external module such as an application or a storage medium (step SB12).

また、図6に示す行列情報の入力処理は、図7に示す行列検出処理を開始する前にあらかじめ行われていてもよい。あるいは、図7に示す行列検出処理が実行中の任意のタイミングで、図6に示す処理が行われて行列情報が更新され、更新された行列情報を用いて図7に示す行列検出処理が再開されるようにしてもよい。 Further, the matrix information input process shown in FIG. 6 may be performed in advance before the matrix detection process shown in FIG. 7 is started. Alternatively, at an arbitrary timing during the execution of the matrix detection process shown in FIG. 7, the process shown in FIG. 6 is performed to update the matrix information, and the matrix detection process shown in FIG. 7 is restarted using the updated matrix information. It may be done.

実施形態1に係るプログラムは、上記の一連の処理をコンピュータに実行させるプログラムであれば良い。 The program according to the first embodiment may be any program that causes a computer to execute the above series of processes.

以上説明したように実施形態1に係る行列検出システムによれば、行列に並ぶつもりではなく単に滞留しているだけ等の人物であっても、その人物を行列に並ぶ人として処理してしまう場合がある、という課題が解決される。 As described above, according to the matrix detection system according to the first embodiment, even if a person does not intend to line up in a line but simply stays in the line, the person is treated as a person in line. The problem that there is is solved.

また、オクルージョンが発生する環境においても、隠れている領域の行列の長さを推定することで、人数の補間処理が可能になる。また、行列形状が複雑な場合でも、場所ごとの進行方向が既知となるため、行列人物追跡時の移動モデルに進行方向を活用することで、追跡の頑健性が向上する。そのため、実施形態1に係る行列検出システムによれば、行列に並ぶ人物を検出し、人数や待ち時間等の行列情報を好適に推定することができる。 Further, even in an environment where occlusion occurs, the number of people can be interpolated by estimating the length of the matrix in the hidden area. Further, even when the matrix shape is complicated, the traveling direction for each place is known. Therefore, by utilizing the traveling direction for the movement model at the time of tracking the person in the matrix, the robustness of the tracking is improved. Therefore, according to the matrix detection system according to the first embodiment, it is possible to detect people in a queue and preferably estimate matrix information such as the number of people and the waiting time.

また、行列に並ぶことを意図していない人物が行列の付近に立ち止まった場合にも、人物と行列位置との距離の閾値を適切に設定することで、行列に並ぶ人物ではないと判定することが可能になる。さらに、行列に並ぶ人物か否かの判定に、人物と行列位置との距離を考慮するのみではなく、人物の移動速度も考慮することで、行列の間を横切って通過する人物についての行列位置付近での判定において、当該人物は行列に並ぶ人物ではない、と精度よく判定することが可能になる。 In addition, even if a person who is not intended to line up in a line stops near the line, it is determined that the person is not lined up in a line by appropriately setting the threshold value of the distance between the person and the line position. Becomes possible. Furthermore, in determining whether or not a person is in a line, not only the distance between the person and the line position is taken into consideration, but also the movement speed of the person is taken into consideration, so that the line position of the person passing across the line is taken into consideration. In the determination in the vicinity, it is possible to accurately determine that the person is not a person in a line.

<実施形態2>
次に図8を参照して、本発明の実施形態2に係る行列検出システムの機能構成を説明する。
<Embodiment 2>
Next, with reference to FIG. 8, the functional configuration of the matrix detection system according to the second embodiment of the present invention will be described.

図8は本発明の実施形態2の構成例を示すブロック図である。 FIG. 8 is a block diagram showing a configuration example of the second embodiment of the present invention.

図8に示すように、本実施形態に係る行列検出システムは、行列情報入力部51と、検出部52と、判定部53とを含む。 As shown in FIG. 8, the matrix detection system according to the present embodiment includes a matrix information input unit 51, a detection unit 52, and a determination unit 53.

行列情報入力部51は、行列位置の入力を受け付ける。 The matrix information input unit 51 accepts the input of the matrix position.

検出部52は、入力画像から対象物を検出する。 The detection unit 52 detects an object from the input image.

判定部53は、対象物と行列位置との距離に基づいて、対象物が行列に並んでいるか否かを判定する。 The determination unit 53 determines whether or not the objects are lined up in a matrix based on the distance between the object and the matrix position.

図9は実施形態2に係る行列検出システムの動作を示すフローチャート図である。 FIG. 9 is a flowchart showing the operation of the matrix detection system according to the second embodiment.

行列情報入力部51は、行列位置の入力を受け付ける(ステップSC1)。 The matrix information input unit 51 accepts the input of the matrix position (step SC1).

検出部52は、入力画像から対象物を検出する(ステップSC2)。 The detection unit 52 detects an object from the input image (step SC2).

判定部53は、対象物と行列位置との距離に基づいて、対象物が行列に並んでいるか否かを判定する(ステップSC3)。 The determination unit 53 determines whether or not the objects are lined up in a matrix based on the distance between the object and the matrix position (step SC3).

以上説明したように、実施形態2に係る行列検出システムによれば、行列に並ぶつもりではなく単に滞留しているだけ等の人物であっても、その人物を行列に並ぶ人として処理してしまう場合がある、という課題が解決される。 As described above, according to the matrix detection system according to the second embodiment, even a person who does not intend to line up in a line but simply stays in the line is treated as a person lined up in the line. The problem that there are cases is solved.

<ハードウェア構成例>
上述の各実施形態の行列検出システムを構成する各部は、制御部、メモリ、メモリにロードされたプログラム、プログラムを格納するハードディスク等の記憶ユニット、ネットワーク接続用インターフェース等からなり、ハードウェアとソフトウェアの任意の組合せによって実現される。
<Hardware configuration example>
Each part constituting the matrix detection system of each of the above-described embodiments includes a control unit, a memory, a program loaded in the memory, a storage unit such as a hard disk for storing the program, an interface for network connection, and the like, and consists of hardware and software. It is realized by any combination.

図10は、実施形態1又は実施形態2に係る行列検出システムのハードウェア構成の一例を示すブロック図である。 FIG. 10 is a block diagram showing an example of the hardware configuration of the matrix detection system according to the first embodiment or the second embodiment.

図10に示すように、行列検出システムは、CPU11(Central Processing Unit)と、ネットワーク接続用の通信IF12(通信インターフェース12)と、メモリ13と、プログラムを格納するハードディスク等の記憶装置14とを含む、コンピュータ装置によって実現される。ただし、行列検出システムの構成は、図10に示す構成に限定されない。 As shown in FIG. 10, the matrix detection system includes a CPU 11 (Central Processing Unit), a communication IF 12 (communication interface 12) for network connection, a memory 13, and a storage device 14 such as a hard disk for storing a program. , Realized by computer equipment. However, the configuration of the matrix detection system is not limited to the configuration shown in FIG.

CPU11は、オペレーティングシステムを動作させて行列検出システムの全体を制御する。また、CPU11は、例えばドライブ装置などに装着された記録媒体からメモリ13にプログラムやデータを読み出す。CPU11がメモリ13にプログラムやデータを読み出すことで、画像入力部1、行列情報入力部2、行列検出部3(検出部31、追跡部32、判定部33及び生成部34)及び出力部4の各機能部が実現される。 The CPU 11 operates the operating system to control the entire matrix detection system. Further, the CPU 11 reads a program or data into the memory 13 from a recording medium mounted on, for example, a drive device. When the CPU 11 reads a program or data into the memory 13, the image input unit 1, the matrix information input unit 2, the matrix detection unit 3 (detection unit 31, tracking unit 32, determination unit 33 and generation unit 34) and output unit 4 Each functional part is realized.

行列検出システムは、例えば通信IF12を介して他のコンピュータである画像入力装置と接続されても良い。 The matrix detection system may be connected to an image input device which is another computer, for example, via a communication IF12.

記録装置14は、例えば光ディスク、フレキシブルディスク、磁気光ディスク、外付けハードディスク、半導体メモリ等であって、コンピュータプログラムをコンピュータ読み取り可能に記録する。記憶装置14は、例えば、統合したデータを格納するデータ格納部でも良い。また、コンピュータプログラムは、通信網に接続されている図示しない外部コンピュータからダウンロードされても良い。 The recording device 14 is, for example, an optical disk, a flexible disk, a magnetic optical disk, an external hard disk, a semiconductor memory, or the like, and records a computer program in a computer-readable manner. The storage device 14 may be, for example, a data storage unit that stores integrated data. Further, the computer program may be downloaded from an external computer (not shown) connected to the communication network.

行列検出システムは、入力装置15又は出力装置16と接続されていても良い。入力装置15は、例えばキーボード、マウス等である。出力装置16は、例えばディスプレイ等でも良く、出力部4が出力する行列情報をディスプレイ上に表示しても良い。 The matrix detection system may be connected to the input device 15 or the output device 16. The input device 15 is, for example, a keyboard, a mouse, or the like. The output device 16 may be, for example, a display or the like, and the matrix information output by the output unit 4 may be displayed on the display.

なお、図1及び図8の機能ブロック図においては、各実施形態の構成部は物理的に結合した一つの装置により実現されるよう記載されているが、その実現手段は特に限定されない。すなわち、二つ以上の物理的に分離した装置を有線または無線で接続し、これら複数の装置により、各実施形態のシステムを実現しても良い。 In the functional block diagrams of FIGS. 1 and 8, the constituent parts of each embodiment are described to be realized by one physically connected device, but the means for realizing the components is not particularly limited. That is, two or more physically separated devices may be connected by wire or wirelessly, and the system of each embodiment may be realized by these plurality of devices.

以上、各実施形態及び実施例を参照して本発明を説明したが、本発明は以上の実施形態及び実施例に限定されるものではない。本発明の構成や詳細には、本発明のスコープ内で同業者が理解し得る様々な変更をすることができる。 Although the present invention has been described above with reference to the respective embodiments and examples, the present invention is not limited to the above embodiments and examples. The configuration and details of the present invention may be modified in various ways within the scope of the present invention as may be understood by those skilled in the art.

<実施形態の他の表現>
上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
<Other expressions of the embodiment>
Some or all of the above embodiments may also be described, but not limited to:

(付記1)
行列位置の入力を受け付ける行列情報入力手段と、
入力画像から対象物を検出する検出手段と、
前記対象物と前記行列位置との距離に基づいて、前記対象物が行列に並んでいるか否かを判定する判定手段と、
を含む行列検出システム。
(Appendix 1)
Matrix information input means that accepts matrix position input,
A detection means that detects an object from an input image,
A determination means for determining whether or not the objects are lined up in a matrix based on the distance between the object and the matrix position.
Matrix detection system including.

(付記2)
前記行列位置と、前記判定手段により行列に並ぶと判定された対象物の位置とに基づいて、対象物が未検出となっている領域を推定し、前記行列に並ぶと判定された対象物から未検出領域の対象物を補完し、行列情報を生成する生成手段、
をさらに含む付記1に記載の行列検出システム。
(Appendix 2)
Based on the matrix position and the position of the object determined to be lined up by the determination means, the region where the object is not detected is estimated, and from the object determined to be lined up in the matrix. A generation means that complements an object in an undetected region and generates matrix information,
The matrix detection system according to Appendix 1, further comprising.

(付記3)
前記生成手段は、前記判定手段により前記行列に並ぶと判定された対象物の密度に基づいて前記未検出領域の対象物を補完する
付記2に記載の行列検出システム。
(Appendix 3)
The matrix detection system according to Appendix 2, wherein the generation means complements the objects in the undetected region based on the density of the objects determined to be lined up in the matrix by the determination means.

(付記4)
前記生成手段は、
前記判定手段により行列に並ぶと判定された対象物の待ち時間を算出し、
前記未検出領域の前後の領域で検出された対象物の待ち時間に基づいて、前記未検出領域の対象物の待ち時間を算出する
付記3に記載の行列検出システム。
(Appendix 4)
The generation means
The waiting time of the objects determined to be in line by the determination means is calculated, and the waiting time is calculated.
The matrix detection system according to Appendix 3, which calculates the waiting time of an object in the undetected region based on the waiting time of the object detected in the regions before and after the undetected region.

(付記5)
前記判定手段は、前記対象物の移動速度と、前記対象物と前記行列位置との距離と、に基づいて、前記対象物が行列に並んでいるか否かを判定する
付記1〜4のいずれかに記載の行列検出システム。
(Appendix 5)
The determination means determines whether or not the objects are lined up in a matrix based on the moving speed of the object and the distance between the object and the matrix position. The matrix detection system described in.

(付記6)
対象物が行列に並んでいるか否かに応じて異なる移動モデルを使用し、検出した対象物の位置を追跡する追跡手段、
をさらに含み、
前記判定手段は、前記追跡手段による追跡結果から前記移動速度を算出する
付記5に記載の行列検出システム。
(Appendix 6)
A tracking means that tracks the location of detected objects using different movement models depending on whether the objects are in a matrix or not.
Including
The matrix detection system according to Appendix 5, wherein the determination means calculates the movement speed from the tracking result by the tracking means.

(付記7)
前記追跡手段は、
前記判定手段により行列待ちと判定された対象物に対し、行列の待ち状態と移動状態を表す2つの移動モデルと、前記行列情報入力手段から取得した行列位置及び進行方向とに基づいて、前フレームから現フレームへの移動状態を予測し、また、
前記判定手段により行列待ちと判定されなかった対象物に対し、所定の範囲の速度で全方位に移動することを想定した移動モデルに基づいて、前フレームから現フレームへの移動状態を予測する
付記6に記載の行列検出システム。
(Appendix 7)
The tracking means
For an object determined to be waiting in a queue by the determination means, the previous frame is based on two movement models representing the waiting state and the moving state of the matrix, and the matrix position and the traveling direction acquired from the matrix information input means. Predicts the movement state from to the current frame, and also
Addendum that predicts the movement state from the previous frame to the current frame based on a movement model that assumes that the object that is not determined to be waiting in line by the determination means moves in all directions at a speed within a predetermined range. 6. The matrix detection system according to 6.

(付記8)
前記行列情報入力手段は、少なくとも1つ以上の行列の始点と、少なくとも1つ以上の行列の終点と、行列の経由点又は分岐点を表すための0個以上の中継点との入力を受け付け、隣接する各始点、中継点、終点との間を結ぶ線分に対して、対象物が横並びになる列数の入力を受け付ける
付記1〜7のいずれかに記載の行列検出システム。
(Appendix 8)
The matrix information input means accepts inputs of at least one or more matrix start points, at least one or more matrix end points, and zero or more relay points for representing matrix waypoints or branch points. The matrix detection system according to any one of Supplementary note 1 to 7, which accepts an input of the number of columns in which objects are arranged side by side with respect to a line segment connecting adjacent start points, relay points, and end points.

(付記9)
前記行列情報入力手段は、
入力画像上に前記始点、中継点、終点及び各地点間の列数を描画したものを入力情報として用い、任意のタイミングで前記行列位置として反映させる
付記8に記載の行列検出システム。
(Appendix 9)
The matrix information input means
The matrix detection system according to Appendix 8, wherein the start point, the relay point, the end point, and the number of columns between the points are drawn on the input image as input information and reflected as the matrix position at an arbitrary timing.

(付記10)
前記検出手段は、前記対象物の特定部位を検出し、
前記判定手段は、カメラパラメータを用いて、前記特定部位の位置から前記対象物の下端位置を推定し、推定した下端位置と前記行列位置との距離に基づいて、対象物が行列に並んでいるか否かを判定する
付記1〜9のいずれかに記載の行列検出システム。
(Appendix 10)
The detection means detects a specific part of the object and
The determination means estimates the lower end position of the object from the position of the specific portion using camera parameters, and whether the objects are lined up in a matrix based on the distance between the estimated lower end position and the matrix position. The matrix detection system according to any one of Appendix 1 to 9.

(付記11)
前記判定手段は、前記特定部位の世界座標系における高さを複数のバリエーションで仮定し、前記カメラパラメータを用いて、仮定した複数の高さから複数の下端位置を推定し、推定した複数の下端位置と前記行列位置との最短距離に基づいて、対象物が行列に並んでいるか否かを判定する
付記10に記載の行列検出システム。
(Appendix 11)
The determination means assumes the height of the specific part in the world coordinate system with a plurality of variations, estimates a plurality of lower end positions from the assumed plurality of heights using the camera parameters, and estimates the plurality of lower ends. The matrix detection system according to Appendix 10, which determines whether or not objects are lined up in a matrix based on the shortest distance between the position and the matrix position.

(付記12)
行列位置の入力を受け付け、
入力画像から対象物を検出し、
前記対象物と前記行列位置との距離に基づいて、前記対象物が行列に並んでいるか否かを判定する、
行列検出方法。
(Appendix 12)
Accepts matrix position input,
Detects an object from the input image and
It is determined whether or not the objects are lined up in a matrix based on the distance between the object and the matrix position.
Matrix detection method.

(付記13)
行列位置の入力を受け付ける行列情報入力処理と、
入力画像から対象物を検出する検出処理と、
前記対象物と前記行列位置との距離に基づいて、前記対象物が行列に並んでいるか否かを判定する判定処理と、
をコンピュータに実行させるプログラム。
(Appendix 13)
Matrix information input processing that accepts matrix position input and
Detection processing to detect an object from the input image and
Judgment processing for determining whether or not the objects are lined up in a matrix based on the distance between the object and the matrix position, and
A program that causes a computer to run.

この出願は、2015年9月14日に出願された日本出願特願2015−180260を基礎とする優先権を主張し、その開示の全てをここに取り込む。 This application claims priority on the basis of Japanese application Japanese Patent Application No. 2015-180260 filed on September 14, 2015, and the entire disclosure thereof is incorporated herein by reference.

本発明によれば、精度の良い行列監視システムを提供でき、監視領域内で発生する行列を検出し、待ち人数や待ち時間を提示するシステムに好適に適用することができる。 According to the present invention, it is possible to provide a highly accurate matrix monitoring system, and it can be suitably applied to a system that detects a matrix generated in a monitoring area and presents the number of people waiting and the waiting time.

また、本発明では、あらかじめ入力した行列の発生位置情報を活用することにより、棚や柱や人物同士の重なりによるオクルージョンが発生しやすい環境においても、特殊なカメラの設置条件を必要とせずに、欠損なく待ち人数や待ち時間を推定することができるため、行列検出システムの導入が容易になる。 Further, in the present invention, by utilizing the generation position information of the matrix input in advance, even in an environment where occlusion is likely to occur due to overlapping of shelves, pillars, or people, no special camera installation conditions are required. Since the number of people waiting and the waiting time can be estimated without any loss, the introduction of a matrix detection system becomes easy.

1 画像入力部
2、51 行列情報入力部
3 行列検出部
4 出力部
31、52 検出部
32 追跡部
33、53 判定部
34 生成部
11 CPU
12 通信IF
13 メモリ
14 記憶装置
15 入力装置
16 出力装置
1 Image input unit 2, 51 Matrix information input unit 3 Matrix detection unit 4 Output unit 31, 52 Detection unit 32 Tracking unit 33, 53 Judgment unit 34 Generation unit 11 CPU
12 Communication IF
13 Memory 14 Storage device 15 Input device 16 Output device

Claims (9)

ユーザによる行列位置の入力を受け付ける行列情報入力手段と、
入力画像から対象物を検出する検出手段と、
前記対象物と前記ユーザにより入力された前記行列位置との距離に基づいて、前記対象物が行列に並んでいるか否かを判定する判定手段と、
を含み、
前記行列情報入力手段は、少なくとも1つ以上の行列の始点と、少なくとも1つ以上の行列の終点と、行列の経由点又は分岐点を表すための0個以上の中継点との入力を受け付け、隣接する各始点、中継点、終点との間を結ぶ線分に対して、対象物が横並びになる列数の入力を受け付ける
行列検出システム。
Matrix information input means that accepts user input of matrix position,
A detection means that detects an object from an input image,
A determination means for determining whether or not the objects are arranged in a matrix based on the distance between the object and the matrix position input by the user.
Only including,
The matrix information input means accepts inputs of at least one or more matrix start points, at least one or more matrix end points, and zero or more relay points for representing matrix waypoints or branch points. A matrix detection system that accepts inputs for the number of columns in which objects are arranged side by side for a line connecting between adjacent start points, relay points, and end points.
前記行列位置と、前記判定手段により行列に並ぶと判定された対象物の位置とに基づいて、対象物が未検出となっている領域を推定し、前記行列に並ぶと判定された対象物から未検出領域の対象物を補完し、行列情報を生成する生成手段、
をさらに含む請求項1に記載の行列検出システム。
Based on the matrix position and the position of the object determined to be lined up by the determination means, the region where the object is not detected is estimated, and from the object determined to be lined up in the matrix. A generation means that complements an object in an undetected region and generates matrix information,
The matrix detection system according to claim 1, further comprising.
前記生成手段は、前記判定手段により前記行列に並ぶと判定された対象物の密度に基づいて前記未検出領域の対象物を補完する
請求項2に記載の行列検出システム。
The matrix detection system according to claim 2, wherein the generation means complements the objects in the undetected region based on the density of the objects determined to be lined up in the matrix by the determination means.
前記生成手段は、
前記判定手段により行列に並ぶと判定された対象物の待ち時間を算出し、
前記未検出領域の前後の領域で検出された対象物の待ち時間に基づいて、前記未検出領域の対象物の待ち時間を算出する
請求項3に記載の行列検出システム。
The generation means
The waiting time of the objects determined to be in line by the determination means is calculated, and the waiting time is calculated.
The matrix detection system according to claim 3, wherein the waiting time of the object in the undetected region is calculated based on the waiting time of the object detected in the regions before and after the undetected region.
前記判定手段は、前記対象物の移動速度と、前記対象物と前記行列位置との距離と、に基づいて、前記対象物が行列に並んでいるか否かを判定する
請求項1〜4のいずれか1つに記載の行列検出システム。
Any of claims 1 to 4, wherein the determination means determines whether or not the objects are lined up in a matrix based on the moving speed of the object and the distance between the object and the matrix position. The matrix detection system according to one.
対象物が行列に並んでいるか否かに応じて異なる移動モデルを使用し、検出した対象物の位置を追跡する追跡手段、
をさらに含み、
前記判定手段は、前記追跡手段による追跡結果から前記移動速度を算出する
請求項5に記載の行列検出システム。
A tracking means that tracks the location of detected objects using different movement models depending on whether the objects are in a matrix or not.
Including
The matrix detection system according to claim 5, wherein the determination means calculates the movement speed from the tracking result by the tracking means.
前記追跡手段は、
前記判定手段により行列待ちと判定された対象物に対し、行列の待ち状態と移動状態を表す2つの移動モデルと、前記行列情報入力手段から取得した行列位置及び進行方向とに基づいて、前フレームから現フレームへの移動状態を予測し、また、
前記判定手段により行列待ちと判定されなかった対象物に対し、所定の範囲の速度で全方位に移動することを想定した移動モデルに基づいて、前フレームから現フレームへの移動状態を予測する
請求項6に記載の行列検出システム。
The tracking means
For an object determined to be waiting in a queue by the determination means, the previous frame is based on two movement models representing the waiting state and the moving state of the matrix, and the matrix position and the traveling direction acquired from the matrix information input means. Predicts the movement state from to the current frame, and also
A claim that predicts the movement state from the previous frame to the current frame based on a movement model that assumes that an object that is not determined to be waiting in line by the determination means moves in all directions at a speed within a predetermined range. Item 6. The matrix detection system according to item 6.
ユーザによる行列位置の入力を受け付け、
入力画像から対象物を検出し、
前記対象物と前記ユーザにより入力された前記行列位置との距離に基づいて、前記対象物が行列に並んでいるか否かを判定し、
前記行列位置の受け付けにおいて、少なくとも1つ以上の行列の始点と、少なくとも1つ以上の行列の終点と、行列の経由点又は分岐点を表すための0個以上の中継点との入力を受け付け、隣接する各始点、中継点、終点との間を結ぶ線分に対して、対象物が横並びになる列数の入力を受け付ける、
行列検出方法。
Accepts user input of matrix position
Detects an object from the input image and
Based on the distance between the object and the matrix position input by the user, it is determined whether or not the object is lined up in the matrix .
In accepting the matrix position, input of at least one or more matrix start points, at least one or more matrix end points, and zero or more relay points for representing a matrix waypoint or a branch point is accepted. Accepts the input of the number of columns in which the objects are arranged side by side for the line segment connecting each adjacent start point, relay point, and end point.
Matrix detection method.
ユーザによる行列位置の入力を受け付ける行列情報入力処理と、
入力画像から対象物を検出する検出処理と、
前記対象物と前記ユーザにより入力された前記行列位置との距離に基づいて、前記対象物が行列に並んでいるか否かを判定する判定処理と、
をコンピュータに実行させ、
前記行列情報入力処理は、少なくとも1つ以上の行列の始点と、少なくとも1つ以上の行列の終点と、行列の経由点又は分岐点を表すための0個以上の中継点との入力を受け付け、隣接する各始点、中継点、終点との間を結ぶ線分に対して、対象物が横並びになる列数の入力を受け付ける
プログラム。
Matrix information input processing that accepts input of matrix position by the user,
Detection processing to detect an object from the input image and
A determination process for determining whether or not the objects are lined up in a matrix based on the distance between the object and the matrix position input by the user.
Let the computer run
The matrix information input process accepts inputs of at least one or more matrix start points, at least one or more matrix end points, and zero or more relay points for representing matrix waypoints or branch points. A program that accepts input for the number of columns in which objects are arranged side by side for a line segment connecting adjacent start points, relay points, and end points.
JP2017540493A 2015-09-14 2016-09-12 Matrix detection system, method and program Active JP6852675B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2015180260 2015-09-14
JP2015180260 2015-09-14
PCT/JP2016/004126 WO2017047060A1 (en) 2015-09-14 2016-09-12 Queue detecting system, method and recording medium

Related Child Applications (2)

Application Number Title Priority Date Filing Date
JP2020043673A Division JP7036138B2 (en) 2015-09-14 2020-03-13 Matrix detection system, method and program
JP2021033283A Division JP7060126B2 (en) 2015-09-14 2021-03-03 Matrix detection system, method and program

Publications (2)

Publication Number Publication Date
JPWO2017047060A1 JPWO2017047060A1 (en) 2018-06-28
JP6852675B2 true JP6852675B2 (en) 2021-03-31

Family

ID=58288534

Family Applications (4)

Application Number Title Priority Date Filing Date
JP2017540493A Active JP6852675B2 (en) 2015-09-14 2016-09-12 Matrix detection system, method and program
JP2020043673A Active JP7036138B2 (en) 2015-09-14 2020-03-13 Matrix detection system, method and program
JP2021033283A Active JP7060126B2 (en) 2015-09-14 2021-03-03 Matrix detection system, method and program
JP2022064304A Pending JP2022101591A (en) 2015-09-14 2022-04-08 Queue detection system, method, and program

Family Applications After (3)

Application Number Title Priority Date Filing Date
JP2020043673A Active JP7036138B2 (en) 2015-09-14 2020-03-13 Matrix detection system, method and program
JP2021033283A Active JP7060126B2 (en) 2015-09-14 2021-03-03 Matrix detection system, method and program
JP2022064304A Pending JP2022101591A (en) 2015-09-14 2022-04-08 Queue detection system, method, and program

Country Status (2)

Country Link
JP (4) JP6852675B2 (en)
WO (1) WO2017047060A1 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6852791B2 (en) * 2017-06-30 2021-03-31 日本電気株式会社 Information processing equipment, control methods, and programs
JP7129209B2 (en) * 2018-05-16 2022-09-01 キヤノン株式会社 Information processing device, information processing method and program
CN110503284B (en) * 2018-05-18 2022-08-05 杭州海康威视数字技术股份有限公司 Statistical method and device based on queuing data
CN110505438B (en) * 2018-05-18 2021-03-26 杭州海康威视数字技术股份有限公司 Queuing data acquisition method and camera
KR102040218B1 (en) * 2018-06-11 2019-11-04 엘지전자 주식회사 Moving robot capable of recognizing waiting line and method for controlling the moving robot
JP7445906B1 (en) 2022-12-02 2024-03-08 パナソニックIpマネジメント株式会社 Installation support device, installation support method, and installation support program

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3480847B2 (en) * 2003-02-03 2003-12-22 株式会社東芝 Elevator control device using image monitoring device
US7171024B2 (en) * 2003-12-01 2007-01-30 Brickstream Corporation Systems and methods for determining if objects are in a queue
WO2006052545A2 (en) * 2004-11-02 2006-05-18 Sensormatic Electronics Corporation Line monitoring system and method
JP2007317052A (en) * 2006-05-29 2007-12-06 Japan Airlines International Co Ltd System for measuring waiting time for lines
US9740937B2 (en) * 2012-01-17 2017-08-22 Avigilon Fortress Corporation System and method for monitoring a retail environment using video content analysis with depth sensing
GB201306313D0 (en) * 2013-04-08 2013-05-22 Vision Semantics Ltd Queue analysis
JP6276519B2 (en) * 2013-05-22 2018-02-07 株式会社 日立産業制御ソリューションズ Person counting device and human flow line analyzing device
JP5789776B2 (en) * 2014-04-28 2015-10-07 パナソニックIpマネジメント株式会社 Residence time measuring device, residence time measuring system, and residence time measuring method

Also Published As

Publication number Publication date
WO2017047060A1 (en) 2017-03-23
JP2020113300A (en) 2020-07-27
JP7060126B2 (en) 2022-04-26
JP2022101591A (en) 2022-07-06
JPWO2017047060A1 (en) 2018-06-28
JP2021093205A (en) 2021-06-17
JP7036138B2 (en) 2022-03-15

Similar Documents

Publication Publication Date Title
JP7036138B2 (en) Matrix detection system, method and program
JP7004017B2 (en) Object tracking system, object tracking method, program
US10082879B2 (en) Head mounted display device and control method
US10893207B2 (en) Object tracking apparatus, object tracking method, and non-transitory computer-readable storage medium for storing program
JP6561830B2 (en) Information processing system, information processing method, and program
JP5885398B2 (en) Image processing apparatus and image processing method
JP6525545B2 (en) INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND COMPUTER PROGRAM
JP6347211B2 (en) Information processing system, information processing method, and program
JP5754990B2 (en) Information processing apparatus, information processing method, and program
JP6210234B2 (en) Image processing system, image processing method, and program
US11082634B2 (en) Image processing system, image processing method, and program
JP6444573B2 (en) Work recognition device and work recognition method
US8644553B2 (en) Image display device, image display method, and image display program
WO2014050432A1 (en) Information processing system, information processing method and program
JP6629139B2 (en) Control device, control method, and program
JP6789421B2 (en) Information processing equipment, tracking method, and tracking program
JP2006236184A (en) Human body detection method by image processing
JP2014186547A (en) Moving object tracking system, method and program
JP2017147689A (en) Video editing device, video editing method, and computer program for editing video
KR102344227B1 (en) Moving body detecting device, moving body detecting method, and moving body detecting program
JP2018055685A (en) Information processing device, control method thereof, program, and storage medium
JP6723822B2 (en) Image processing apparatus, image processing method and program
JP5893400B2 (en) Image monitoring device
JP2023082590A (en) Image processing apparatus and image processing method
CN115937730A (en) Estimation device, estimation method, and storage medium

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180307

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190820

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200825

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201016

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210209

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210222

R150 Certificate of patent or registration of utility model

Ref document number: 6852675

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150