JPWO2017047060A1 - Matrix detection system, method and recording medium - Google Patents

Matrix detection system, method and recording medium Download PDF

Info

Publication number
JPWO2017047060A1
JPWO2017047060A1 JP2017540493A JP2017540493A JPWO2017047060A1 JP WO2017047060 A1 JPWO2017047060 A1 JP WO2017047060A1 JP 2017540493 A JP2017540493 A JP 2017540493A JP 2017540493 A JP2017540493 A JP 2017540493A JP WO2017047060 A1 JPWO2017047060 A1 JP WO2017047060A1
Authority
JP
Japan
Prior art keywords
matrix
person
input
detection system
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017540493A
Other languages
Japanese (ja)
Other versions
JP6852675B2 (en
Inventor
有紀江 海老山
有紀江 海老山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2017047060A1 publication Critical patent/JPWO2017047060A1/en
Application granted granted Critical
Publication of JP6852675B2 publication Critical patent/JP6852675B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02EREDUCTION OF GREENHOUSE GAS [GHG] EMISSIONS, RELATED TO ENERGY GENERATION, TRANSMISSION OR DISTRIBUTION
    • Y02E40/00Technologies for an efficient electrical power generation, transmission or distribution
    • Y02E40/30Reactive power compensation

Abstract

行列に並ぶつもりではなく単に滞留しているだけ等の人物であっても、その人物を行列に並ぶ人として処理してしまう場合がある。本発明に係る行列検出システムは、行列位置の入力を受け付ける行列情報入力部と、入力画像から対象物を検出する検出部と、対象物と行列位置との距離に基づいて、対象物が行列に並んでいるか否かを判定する判定部と、を含む。  Even a person who is not intending to line up but is merely staying in the line may be treated as a person lined up in the line. The matrix detection system according to the present invention includes a matrix information input unit that receives an input of a matrix position, a detection unit that detects an object from an input image, and a distance between the object and the matrix position. And a determination unit that determines whether or not they are arranged.

Description

本発明は、映像から行列を検出するためのシステム、方法及び記録媒体に関する。   The present invention relates to a system, a method, and a recording medium for detecting a matrix from an image.

カメラ映像から行列を検出する方法、及び、行列を成す人数や長さ、待ち時間等を解析する方法が種々提案されている。   Various methods for detecting a matrix from a camera image and methods for analyzing the number of people forming the matrix, their length, waiting time, and the like have been proposed.

特許文献1に記載された技術は、入力画像に対し、背景差分を用いて人物領域の面積を求め、その面積をあらかじめ定めた一人あたりの単位面積で除算して人数を推定する。特許文献1に記載された技術は、推定した人数に対し、別途所定の方法で集計した単位時間当たりの入場者数で除算することにより、待ち時間を推定する。   In the technique described in Patent Document 1, the area of a person region is obtained from an input image using a background difference, and the number of persons is estimated by dividing the area by a predetermined unit area per person. The technique described in Patent Literature 1 estimates the waiting time by dividing the estimated number of persons by the number of visitors per unit time separately counted by a predetermined method.

特許文献2に記載された技術は、天井に設置したカメラで行列を真上から撮影し、背景差分及びオプティカルフローを用いて、滞留及び移動中の個々の人物領域を抽出する。特許文献2に記載された技術は、抽出した個々の人物領域を順に結んで行列線を生成し、各行列の総延長及び長さに基づく待ち時間を算出する。   The technique described in Patent Document 2 captures a matrix from directly above with a camera installed on a ceiling, and extracts individual person areas that are staying and moving using background difference and optical flow. The technique described in Patent Document 2 generates a matrix line by sequentially connecting the extracted individual person regions, and calculates a waiting time based on the total extension and length of each matrix.

特開2002−329196号公報JP 2002-329196 A 特開2007−317052号公報JP 2007-317052 A

しかしながら、上述の特許文献1及び2に記載の技術では、行列に並ぶつもりではなく単に滞留しているだけ等の人物であっても、その人物を行列に並ぶ人として処理してしまう場合がある。   However, in the techniques described in Patent Documents 1 and 2 described above, even a person who is not intending to line up in a queue but is simply staying may be processed as a person in line. .

本発明の目的は、上述の課題を解決可能な技術を提供することである。   The objective of this invention is providing the technique which can solve the above-mentioned subject.

本発明に係る行列検出システムは、行列位置の入力を受け付ける行列情報入力部と、入力画像から対象物を検出する検出部と、対象物と行列位置との距離に基づいて、対象物が行列に並んでいるか否かを判定する判定部と、を含む。   The matrix detection system according to the present invention includes a matrix information input unit that receives an input of a matrix position, a detection unit that detects an object from an input image, and a distance between the object and the matrix position. And a determination unit that determines whether or not they are arranged.

本発明に係る行列検出方法は、行列位置の入力を受け付け、入力画像から対象物を検出し、対象物と行列位置との距離に基づいて、対象物が行列に並んでいるか否かを判定する。   The matrix detection method according to the present invention receives an input of a matrix position, detects an object from an input image, and determines whether or not the object is arranged in a matrix based on a distance between the object and the matrix position. .

本発明に係るコンピュータ読み取り可能な記録媒体は、行列位置の入力を受け付ける行列情報入力処理と、入力画像から対象物を検出する検出処理と、対象物と行列位置との距離に基づいて、対象物が行列に並んでいるか否かを判定する判定処理と、をコンピュータに実行させるプログラムを記憶する。   The computer-readable recording medium according to the present invention includes a matrix information input process that receives an input of a matrix position, a detection process that detects an object from an input image, and a distance between the object and the matrix position. A program for causing a computer to execute determination processing for determining whether or not are arranged in a matrix is stored.

本発明によれば、行列に並ぶつもりではなく単に滞留しているだけ等の人物であっても、誤ってその人物を行列に並ぶ人として処理してしまう場合がある、という課題が解決される。   According to the present invention, there is a problem that even if a person does not intend to line up in a queue but is simply staying, the person may be mistakenly processed as a person in line. .

本発明の実施形態1の構成例を示す機能ブロック図である。It is a functional block diagram which shows the structural example of Embodiment 1 of this invention. 行列情報の入力方法の例を示す説明図である。It is explanatory drawing which shows the example of the input method of matrix information. 行列情報の入力方法の例を示す説明図である。It is explanatory drawing which shows the example of the input method of matrix information. 行列待ち情報の生成過程の例を示す説明図である。It is explanatory drawing which shows the example of the production | generation process of queue waiting information. 行列待ち情報の生成過程の例を示す説明図である。It is explanatory drawing which shows the example of the production | generation process of queue waiting information. 本発明の実施形態1の処理経過の例を示すフローチャートである。It is a flowchart which shows the example of the process progress of Embodiment 1 of this invention. 本発明の実施形態1の処理経過の例を示すフローチャートである。It is a flowchart which shows the example of the process progress of Embodiment 1 of this invention. 本発明の実施形態2の構成例を示す機能ブロック図である。It is a functional block diagram which shows the structural example of Embodiment 2 of this invention. 本発明の実施形態2の処理経過の例を示すフローチャートである。It is a flowchart which shows the example of process progress of Embodiment 2 of this invention. 本発明の各実施形態を実現可能なコンピュータのハードウェア構成例を説明する図である。It is a figure explaining the hardware structural example of the computer which can implement | achieve each embodiment of this invention.

まず、本発明の実施形態の理解を容易にするために、本発明の背景を説明する。   First, in order to facilitate understanding of the embodiments of the present invention, the background of the present invention will be described.

上述の特許文献1及び2に記載の技術では、行列に並ぶつもりではなく単に滞留しているだけ等の人物であっても、その人物を行列に並ぶ人として処理してしまう場合がある。   In the techniques described in Patent Documents 1 and 2 described above, even a person who is not intending to line up in a queue but is simply staying may be processed as a person in line.

例えば、特許文献1に記載の技術は、入力画像に対し、背景差分を用いて人物領域の面積を求めるため、行列に並ぶつもりではない人が行列の付近に立ち止まった場合、その単に滞留している人も含めて人物領域の面積を求めることになる。また、本来の行列から離れた位置に複数の滞留者がいた場合、特許文献1に記載の技術はその複数の滞留者が行列を構成する人々であると認識しうる。特許文献1に記載の技術には、その他の課題として、オクルージョンの発生による未検出等がある。特許文献1のような背景差分に基づく手法では、人物の体格の違い、荷物等付帯物の有無、及び、人物同士の重なりや遮蔽物による隠れによって、実際の人物と差分ベースで取得する人物領域との関係に容易に誤差が生じる。また、この手法では、個々の人物やその並び順を認識しないため、人物ごとの待ち時間を算出することができない。   For example, the technique described in Patent Document 1 uses the background difference to determine the area of the person area for the input image. Therefore, if a person who is not going to line up in the matrix stops near the matrix, the technique simply stays there. The area of the person area including those who are present is obtained. Further, when there are a plurality of staying persons at positions away from the original procession, the technique described in Patent Document 1 can recognize that the plurality of staying persons are people who form the procession. The technique described in Patent Document 1 includes undetected due to occurrence of occlusion as other problems. In a method based on background difference as in Patent Document 1, a person area acquired based on a difference from an actual person due to a difference in the physique of the person, the presence / absence of an accessory such as luggage, and the overlap between persons or hiding by a shield An error is easily generated in the relationship. In addition, this method does not recognize individual persons and their arrangement order, and therefore cannot calculate the waiting time for each person.

また、特許文献2に記載の技術においても、特許文献1と同様に単なる滞留者を行列に並ぶ人であるとする誤処理が生じうる。また、その他の課題として、特許文献2に記載の手法は、人物の検出及び追跡が良好に行えることを前提としているが、実環境においては、カメラの設置位置や建物の構造等により、人物同士の重なりや遮蔽物によるオクルージョンの発生が想定される。これにより、オクルージョン領域において人物の検出漏れが生じ、その結果行列に並ぶ人物を正しく繋ぐことに失敗し、誤った人数及び待ち時間を推定してしまう。特許文献2では、このようなオクルージョンの問題を解決するために、高い位置にカメラを設置し人物を真上から撮影することを提案している。しかし、一般的な屋内施設または屋外において必ずしも高い位置にカメラを設置できる環境が整っているとは限らない。また、一般的な監視カメラとも設置位置及び画角が異なるため、行列検出専用のカメラとして新たに設置する必要があり、導入コストの増大につながる。したがって、特殊な設置条件のカメラを使用するのではなく、人物を斜め上から撮影するような既設の監視カメラ映像を使用し、オクルージョンの問題を解決することが望ましい。   Further, in the technique described in Patent Document 2, similarly to Patent Document 1, an erroneous process may be performed in which a mere staying person is a person lining up in a queue. In addition, as another problem, the method described in Patent Document 2 is based on the premise that human detection and tracking can be performed well. However, in an actual environment, depending on the installation position of the camera, the structure of the building, and the like, Occlusion due to overlapping and shielding is assumed. As a result, a person detection omission occurs in the occlusion area, and as a result, it fails to correctly connect the persons lined up in the matrix, and the wrong number of persons and waiting time are estimated. Patent Document 2 proposes that a camera is installed at a high position and a person is photographed from directly above in order to solve such an occlusion problem. However, an environment where a camera can be installed at a high position in a general indoor facility or outdoors is not always prepared. Further, since the installation position and the angle of view are different from those of a general monitoring camera, it is necessary to newly install as a camera dedicated to matrix detection, leading to an increase in introduction cost. Therefore, it is desirable to solve the problem of occlusion by using an existing surveillance camera image that captures a person from diagonally above rather than using a camera with special installation conditions.

以下に説明される本発明の実施形態によれば、上述の課題が解決され、行列に並ぶ意図でない人物の誤検出が防止され、また、天井設置型等特殊なカメラでなくても、オクルージョンに頑健に行列を検出することができる。   According to the embodiments of the present invention described below, the above-described problems are solved, erroneous detection of unintended persons in a queue is prevented, and even if the camera is not a special camera such as a ceiling-mounted camera, occlusion can be achieved. A matrix can be detected robustly.

以下、本発明の実施形態を、図面を参照して説明する。   Embodiments of the present invention will be described below with reference to the drawings.

<実施形態1>
図1は本発明の実施形態1の構成例を示すブロック図である。
<Embodiment 1>
FIG. 1 is a block diagram showing a configuration example of Embodiment 1 of the present invention.

図1に示すように、本実施形態に係る行列検出システムは、画像入力部1と、行列情報入力部2と、行列検出部3と、出力部4とを含む。   As shown in FIG. 1, the matrix detection system according to the present embodiment includes an image input unit 1, a matrix information input unit 2, a matrix detection unit 3, and an output unit 4.

画像入力部1は、所定の監視領域を撮影した時系列の画像と撮影時刻との組を、行列検出部3に逐次入力する。画像入力部1が行列検出部3に入力する画像は、例えば監視カメラなどの撮影装置を用いて取得されてもよい。または、画像入力部1は、記憶装置(図示せず)に記憶された映像データを読み出して得られる時系列の画像を行列検出部3に入力してもよい。   The image input unit 1 sequentially inputs a set of a time-series image obtained by photographing a predetermined monitoring area and a photographing time to the matrix detection unit 3. An image input by the image input unit 1 to the matrix detection unit 3 may be acquired using a photographing device such as a surveillance camera. Alternatively, the image input unit 1 may input a time-series image obtained by reading video data stored in a storage device (not shown) to the matrix detection unit 3.

なお、本実施形態において検出対象とする物体の種別は特に限定されず、人物、動物、車、ロボット、又は物であってもよい。以下では、人物の検出を例にして説明する。   Note that the type of object to be detected in the present embodiment is not particularly limited, and may be a person, an animal, a car, a robot, or an object. In the following, description will be given by taking the detection of a person as an example.

行列情報入力部2は、解析対象となる行列の発生位置(以下「行列位置」という。)を入力する。行列情報入力部2は、例えばマウスや、タブレット端末のタッチパネルを介してユーザによる行列の発生位置の入力を受け付ける。行列情報入力部2は、ユーザによるマウス操作や、タッチペンや指などによるタッチパネル操作に基づき、監視カメラ映像が表示された画面上に行列の発生位置を入力してもよい。具体的には、行列情報入力部2は、画面上に、行列発生時の人物の足元位置の始点、中継点及び終点を描画して、行列の経路及び進行方向を入力してもよい。この時、ユーザは、始点及び終点を少なくともそれぞれ1点以上指定する必要があるが、中継点の指定は0点であってもよい。また、分岐や合流を含む行列を表現するために、ユーザは、始点又は終点の少なくともいずれかについて2つ以上入力してもよい。また、行列情報入力部2は、始点、中継点、終点間を結ぶ行列線ごとに、横に並ぶ人数の指定を、ユーザから受け付けるようにしてもよい。   The matrix information input unit 2 inputs a generation position of a matrix to be analyzed (hereinafter referred to as “matrix position”). The matrix information input unit 2 accepts input of a matrix generation position by a user via, for example, a mouse or a touch panel of a tablet terminal. The matrix information input unit 2 may input the generation position of the matrix on the screen on which the monitoring camera video is displayed based on the mouse operation by the user or the touch panel operation with a touch pen or a finger. Specifically, the matrix information input unit 2 may draw the start point, the relay point, and the end point of the person's foot position when the matrix is generated on the screen, and input the matrix path and the traveling direction. At this time, the user needs to designate at least one start point and one end point, but the relay point may be designated as 0 points. Further, in order to express a matrix including branching and merging, the user may input two or more of at least one of the start point and the end point. Further, the matrix information input unit 2 may accept designation of the number of people lined up horizontally for each matrix line connecting the start point, the relay point, and the end point.

また、入力された始点、中継点、終点及び横に並ぶ人数を、監視カメラ映像が表示された画面上に重畳して描画することで、ユーザが入力内容を容易に確認できるようにしてもよい。また、行列情報の入力は、行列検出処理を開始する前にあらかじめ行われていてもよいし、行列検出処理を実行中の任意のタイミングで、変更した行列情報が反映されるようにしてもよい。   Also, the input start point, relay point, end point, and number of people lined up side by side may be drawn on the screen on which the surveillance camera video is displayed so that the user can easily check the input content. . Further, the input of the matrix information may be performed in advance before starting the matrix detection process, or the changed matrix information may be reflected at an arbitrary timing during the execution of the matrix detection process. .

なお、行列情報の入力方法は、上述のものに限定されない。例えば、行列発生時の人物の足元位置の始点、中継点及び終点の入力が行われるのではなく、ユーザがタッチパネル上に直接、直線や曲線をなぞることで行列位置を入力するようにしてもよい。または、行列情報入力部2は、ユーザによる入力に基づくのではなく、装置内外で格納されている所定の書式で行列位置が記述されたファイルを読み込む等の方法により自動的に行列位置を入力するようにしてもよい。   Note that the matrix information input method is not limited to the above-described one. For example, instead of inputting the start point, relay point, and end point of the person's foot position when the matrix is generated, the user may input the matrix position by tracing a straight line or curve directly on the touch panel. . Alternatively, the matrix information input unit 2 automatically inputs the matrix position by a method such as reading a file in which the matrix position is described in a predetermined format stored inside or outside the apparatus, not based on an input by the user. You may do it.

ここで、行列情報の入力について具体的に説明する。図2は行列に並ぶ人物を監視カメラで撮影した画像を示す図である図2は、奥から手前方向に人物が並んでいる様子を示す。また、図2は、行列の最後尾では二股に分かれているが、途中で合流し、2列の行列となって先頭まで続いている様子を示している。図3は、行列情報として、行列の最後尾である2つの終点(終点1及び終点2)と、2つの中継点(中継点1及び中継点2)と、行列の先頭である1つの始点(始点1)とが入力された様子を示す。また、図3は、終点1及び2から中継点1までは1列の行列、中継点1から始点1までは2列の行列として入力された様子を示す。   Here, the input of matrix information will be specifically described. FIG. 2 is a diagram showing an image obtained by photographing the people lined up in the matrix with the monitoring camera. FIG. 2 shows a state in which the people are lined up from the back toward the front. In addition, FIG. 2 shows a state in which the last part of the matrix is divided into two branches, but merges in the middle to form a two-column matrix that continues to the top. FIG. 3 shows, as matrix information, two end points (end point 1 and end point 2) that are the end of the matrix, two relay points (relay point 1 and relay point 2), and one start point that is the head of the matrix ( A state in which the start point 1) is input is shown. FIG. 3 shows a state where the end points 1 and 2 to the relay point 1 are input as a one-column matrix, and the relay point 1 to the start point 1 are input as a two-column matrix.

行列情報入力部2は、上述のようにして入力された始点、中継点、終点及び各地点間の情報を、任意のタイミングで行列位置として反映させる。例えば、入力情報を反映させるための「反映」ボタンを表示画面上に表示しておき、ユーザによるそのボタンの押下を検出すると、行列情報入力部2は、入力情報を反映させてもよい。これにより反映された行列情報が、判定部33の判定等に用いられることになる。   The matrix information input unit 2 reflects the start point, the relay point, the end point, and information between each point input as described above as a matrix position at an arbitrary timing. For example, a “reflect” button for reflecting the input information may be displayed on the display screen, and when the user presses the button, the matrix information input unit 2 may reflect the input information. Thus, the reflected matrix information is used for determination by the determination unit 33 and the like.

行列検出部3は、画像入力部1から逐次入力される画像を解析し、画像中の行列を検出する。行列検出部3は、検出部31と、追跡部32と、判定部33と、生成部34とを備える。   The matrix detection unit 3 analyzes images sequentially input from the image input unit 1 and detects a matrix in the image. The matrix detection unit 3 includes a detection unit 31, a tracking unit 32, a determination unit 33, and a generation unit 34.

検出部31は、画像入力部1から取得した画像中に存在するすべての、又は一部の人物を検出する。検出部31は、例えば、あらかじめ人物の頭部、上半身など特定部位の人体領域のパターンを認識するために構築された識別器を利用し入力画像から人物を検出する処理を行ってもよい。識別器を利用する方法に限定されず、検出部31は、人物の検出方法としてパターン認識における公知の手法を用いればよい。   The detection unit 31 detects all or some of the persons present in the image acquired from the image input unit 1. For example, the detection unit 31 may perform processing for detecting a person from an input image using a discriminator constructed in advance to recognize a pattern of a human body region of a specific part such as a person's head or upper body. It is not limited to the method using a discriminator, The detection part 31 should just use the well-known method in pattern recognition as a person detection method.

また、検出部31は、行列位置の近辺に存在する人物のみを検出対象とするために、行列情報入力部2から入力される行列位置に基づいて、検出対象領域を限定して検出処理を行うようにしてもよい。すなわち、検出部31は、入力された行列位置の近傍の領域に対してのみ検出処理を行うようにしてもよい。   In addition, the detection unit 31 performs detection processing by limiting the detection target region based on the matrix position input from the matrix information input unit 2 in order to target only persons existing in the vicinity of the matrix position. You may do it. That is, the detection unit 31 may perform the detection process only on a region near the input matrix position.

検出部31は、検出結果として、画像入力部1から取得した画像の時刻と、検出した人物の位置座標を出力する。入力画像を撮影したカメラのキャリブレーション情報について、あらかじめ算出されている等によりわかっている場合、検出部31は、キャリブレーション情報を用いて、人物の検出結果である画面上の位置座標を世界座標に変換して出力してもよい。   The detection unit 31 outputs the time of the image acquired from the image input unit 1 and the position coordinates of the detected person as detection results. If the calibration information of the camera that captured the input image is known in advance, the detection unit 31 uses the calibration information to determine the position coordinates on the screen as a person detection result using the world coordinates. May be output after being converted to.

追跡部32は、検出部31により各フレーム画像から検出された人物を対象に、複数フレーム間に渡って人物の追跡を行う。追跡部32は、例えば、パーティクルフィルタなどの公知のアルゴリズムを用いて、人物の追跡処理を行うようにしてもよい。   The tracking unit 32 tracks a person over a plurality of frames for a person detected from each frame image by the detection unit 31. The tracking unit 32 may perform a person tracking process using a known algorithm such as a particle filter.

追跡部32は、追跡対象の人物の位置を更新するために用いる移動モデルに関し、対象が行列に並ぶ人物か否かによって、異なる移動モデルを使用してもよい。追跡部32は、行列に並ぶ人物であるかどうかにつき、例えば判定部33が管理する行列人物ID(IDentifier)リストを参照してもよい。その場合、追跡部32は、追跡対象の人物IDが行列人物IDリストに登録されていれば行列に並ぶ人物であると判定し、登録されていなければ行列に並んでいない人物であると判定しても良い。   The tracking unit 32 may use a different movement model regarding the movement model used for updating the position of the person to be tracked depending on whether the object is a person arranged in a matrix. The tracking unit 32 may refer to, for example, a procession person ID (IDentifier) list managed by the determination unit 33 as to whether or not the person is in line. In that case, the tracking unit 32 determines that the person ID to be tracked is registered in the matrix person ID list, and determines that the person is not aligned in the matrix if not registered. May be.

行列に並ぶ人物に関し、並んでいる時間の多くは静止状態である。そのため、多くの時間で静止状態を表す(すなわち、ほとんど移動しない)移動モデルを適用することが適切である。また、行列情報入力部2から得られる行列位置情報により、場所ごとの進行方向は既知である。そのため、進行方向を限定した移動モデルを適用することができる。つまり、追跡部32は、行列に並ぶ人物に対して、移動状態と静止状態を表す2状態モデルを使用した追跡処理を行うことで、より頑健に追跡することが可能になる。追跡部32は、行列に並ぶ人物が静止状態か移動状態かに応じて、各状態モデルの重みを変化させるようにしてもよい。   Most of the people who are in line are in a stationary state. Therefore, it is appropriate to apply a movement model that represents a stationary state (that is, hardly moves) in many times. Further, the traveling direction for each place is known from the matrix position information obtained from the matrix information input unit 2. Therefore, a movement model with a limited traveling direction can be applied. In other words, the tracking unit 32 can perform tracking more robustly by performing tracking processing using the two-state model representing the moving state and the stationary state for the persons arranged in the matrix. The tracking unit 32 may change the weight of each state model depending on whether the people lined up in the matrix are stationary or moving.

一方で、行列に並んでいない人物は、移動方向に制限がない。そのため、追跡部32は、行列に並んでいない人物に対しては、所定範囲の移動速度で全方位に移動することを想定した移動モデルを適用してもよい。   On the other hand, there are no restrictions on the direction of movement of persons who are not in the queue. For this reason, the tracking unit 32 may apply a movement model assuming that the person moves in all directions at a moving speed within a predetermined range for persons who are not arranged in a matrix.

入力された人物の位置情報が画像上の平面座標である場合で、あらかじめ算出されている等の事情により入力画像を撮影したカメラのキャリブレーション情報をわかっている場合、追跡部32は、世界座標系で追跡処理を行ってもよい。すなわち、追跡部32は、キャリブレーション情報を用いて、画面上の座標系を世界座標系に変換してから追跡処理を行ってもよい。人物の位置情報が世界座標系で入力される場合は、追跡部32は、そのまま世界座標系にて追跡処理を行ってもよい。   When the position information of the input person is a plane coordinate on the image, and the calibration information of the camera that has captured the input image is known due to circumstances such as being calculated in advance, the tracking unit 32 uses the world coordinates. The tracking process may be performed in the system. That is, the tracking unit 32 may perform the tracking process after converting the coordinate system on the screen to the world coordinate system using the calibration information. When the position information of the person is input in the world coordinate system, the tracking unit 32 may perform the tracking process in the world coordinate system as it is.

追跡部32は、追跡結果を出力する。追跡部32は、例えば、追跡結果として、追跡対象の人物毎の人物IDと、時刻と、位置座標とを紐付けた情報を出力する。   The tracking unit 32 outputs a tracking result. For example, the tracking unit 32 outputs information in which a person ID for each person to be tracked, time, and position coordinates are linked as a tracking result.

判定部33は、追跡部32から出力される時刻ごとの人物の位置座標をもとに、各人物の移動速度を算出する。判定部33は、人物の位置座標と、行列情報入力部2から入力される行列位置の座標とを比較し、各人物と行列位置との距離を算出する。   The determination unit 33 calculates the movement speed of each person based on the position coordinates of the person for each time output from the tracking unit 32. The determination unit 33 compares the position coordinates of the person with the coordinates of the matrix position input from the matrix information input unit 2, and calculates the distance between each person and the matrix position.

判定部33は、移動速度及び行列位置との距離が所定の閾値よりも小さくなる人物を、行列に並ぶ人物(以下、「行列人物」という。)と判定する。判定部33は、当該移動速度または行列位置との距離が所定の閾値以上となる人物を、行列に並ばない人物(以下、「移動人物」という。)と判定する。   The determination unit 33 determines a person whose distance from the moving speed and the matrix position is smaller than a predetermined threshold as a person arranged in a matrix (hereinafter referred to as “matrix person”). The determination unit 33 determines a person whose distance from the moving speed or the matrix position is equal to or greater than a predetermined threshold as a person who is not in the matrix (hereinafter referred to as “moving person”).

判定部33は、検出部31が特定部位として頭部を検出した場合、カメラパラメータを用いて、頭部の位置から人物の足元に相当する下端位置を推定し、推定した下端位置と行列位置との距離に基づいて、人物が行列に並んでいるか否かを判定してもよい。これにより、足元を直接検出することが困難な場合にも、比較的検出が容易な頭部を検出し、そこから足元を推定するとこで、判定部33は、精度よく行列人物か否かを判定することができる。判定部33は、人物が大人である可能性や子供である可能性を考慮してもよい。具体的には、例えば、判定部33は、頭部の世界座標系における高さを複数のバリエーションで仮定し、カメラパラメータを用いて、仮定した複数の高さから複数の下端位置を推定する。判定部33は、推定した複数の下端位置と行列位置との最短距離に基づいて、対象物が行列に並んでいるか否かを判定してもよい。   When the detection unit 31 detects the head as the specific part, the determination unit 33 uses the camera parameters to estimate the lower end position corresponding to the person's feet from the position of the head, and the estimated lower end position and the matrix position Based on the distance, it may be determined whether or not people are arranged in a matrix. Thereby, even when it is difficult to directly detect the feet, the head 33 that is relatively easy to detect is detected, and the feet are estimated from the detected heads. Can be determined. The determination unit 33 may consider the possibility that the person is an adult or a child. Specifically, for example, the determination unit 33 assumes the height of the head in the world coordinate system with a plurality of variations, and estimates a plurality of lower end positions from the assumed plurality of heights using camera parameters. The determination unit 33 may determine whether or not the objects are arranged in a matrix based on the estimated shortest distances between the plurality of lower end positions and the matrix positions.

判定部33は、追跡中の各人物IDが、行列人物と移動人物のどちらであるかを示す行列人物IDリストを保持しておく。行列人物IDリストとは、追跡中の人物の人物IDと、当該人物が行列人物または移動人物のどちらであるかを表す情報と、の組を管理しているリストである。   The determination unit 33 holds a matrix person ID list indicating whether each person ID being tracked is a queue person or a moving person. The procession person ID list is a list that manages a set of a person ID of a person being tracked and information indicating whether the person is a procession person or a moving person.

判定部33は、追跡中の各人物IDについて、移動速度と行列位置との距離に基づく判定結果を用いて、行列人物IDリストを更新する。   The determination unit 33 updates the matrix person ID list for each person ID being tracked using a determination result based on the distance between the moving speed and the matrix position.

判定部33は、行列人物であると判定した人物の情報を出力する。判定部33は、例えば、行列人物であると判定した人物の人物IDと、時刻と、位置座標とを紐付けた情報を出力する。   The determination unit 33 outputs information on the person who is determined to be a procession person. For example, the determination unit 33 outputs information in which a person ID of a person determined to be a procession person, time, and position coordinates are associated with each other.

生成部34は、判定部33から入力される行列人物の情報と、行列情報入力部2から入力される行列位置の情報とに基づいて、欠損のない全体の行列情報を生成する。すなわち、生成部34は、未検出領域を推定し、行列人物の情報から未検出領域に並ぶ人物の情報を補完して、行列情報を生成する。   The generation unit 34 generates the entire matrix information having no deficiency based on the matrix person information input from the determination unit 33 and the matrix position information input from the matrix information input unit 2. In other words, the generation unit 34 estimates the undetected area, complements the information of the persons lined up in the undetected area from the information of the matrix person, and generates the matrix information.

具体的には、生成部34は、行列人物の位置座標と、行列位置と、に基づいてオクルージョンの発生状況(オクルージョンの影響による人物の未検出領域)を推定する。生成部34は、推定したオクルージョンの発生状況と、未検出領域前後の行列人物の検出状況等から、オクルージョンの影響により検出されなかった人物の存在を推定する。また、生成部34は、見えが小さすぎることにより人物が検出できない領域(見えの影響による人物の未検出領域)を推定する。生成部34は、見えの影響による未検出の可能性と、行列人物の検出状況とから、検出されなかった人物の存在を推定する。生成部34は、未検出だが存在すると推定された人物の情報を補完することで、欠損のない全体の行列情報を生成する。生成部34は、欠損のない全体の行列情報として、例えば、行列に並ぶ人数、行列の長さ、行列に並ぶ各人の累積待ち時間、行列の進行速度、行列に並び始めてから行列を抜けるまでの推定待ち時間などの情報を生成してもよい。   Specifically, the generation unit 34 estimates the occurrence state of an occlusion (an undetected region of a person due to the influence of occlusion) based on the position coordinates of the matrix person and the matrix position. The generation unit 34 estimates the presence of a person that has not been detected due to the influence of the occlusion, based on the estimated occurrence state of occlusion and the detection situation of matrix people before and after the undetected area. In addition, the generation unit 34 estimates a region in which a person cannot be detected because the appearance is too small (an undetected region of a person due to the influence of appearance). The generation unit 34 estimates the presence of a person who has not been detected from the possibility of undetection due to the influence of appearance and the detection state of the matrix person. The generation unit 34 generates the entire matrix information having no defect by complementing the information of the person that has not been detected but is estimated to exist. The generation unit 34 includes, for example, the number of people lined up in the matrix, the length of the matrix, the accumulated waiting time of each person lined up in the matrix, the speed of progression of the matrix, the time from starting to line up in the matrix until the exit of the matrix Information such as the estimated waiting time may be generated.

オクルージョンの発生状況の推定方法として、図4、図5を用いて説明する。   A method for estimating the occurrence state of occlusion will be described with reference to FIGS.

図4は、折り返しのある行列を撮影した画像を示す図である。図4は、画像中の左上が行列の始点(先頭)となり、途中で2回折り返し、右下が行列の終点(最後尾)となっている様子を示す。   FIG. 4 is a diagram illustrating an image obtained by photographing a matrix with wrapping. FIG. 4 shows a state in which the upper left corner of the image is the starting point (top) of the matrix, it is folded twice in the middle, and the lower right corner is the end point (last tail) of the matrix.

斜め下を見下ろす画角で撮影された映像は、カメラからの距離が遠い場所ほど俯角が浅くなる。そのため、人物が等間隔に並んだ行列においても、カメラから遠い人物ほど手前の人物に隠れやすくなってしまう。また、カメラから離れるほど人物の見えが小さくなる。そのため、カメラから遠くに存在する人物は、人物を検出可能な最小画素数を下回ることで、検出されなくなることがある。具体例として、図4では、網掛けで示した領域で、オクルージョンや人物の見えが小さすぎることにより未検出となったことを示している。   Images taken with an angle of view looking down diagonally have a smaller depression angle as the distance from the camera increases. For this reason, even in a matrix in which people are arranged at equal intervals, the person farther from the camera is more likely to be hidden by the person in front. Also, the further away from the camera, the smaller the appearance of the person. For this reason, a person who is far away from the camera may not be detected if the person is below the minimum number of pixels that can detect the person. As a specific example, FIG. 4 shows that in the shaded area, the occlusion and the appearance of the person are too small to be detected.

このような状況において、例えば行列全体の待ち人数を算出する場合は、生成部34は、例えば以下のような方法で算出する。生成部34は、判定部33により行列人物と判定された人物の位置座標と、行列情報入力部2から入力された行列位置とに基づいて、途切れた行列長を算出する。また、生成部34は、人物位置が得られている領域から人口密度(所定の距離内で並ぶ人数)を推定する。生成部34は、推定した人口密度に基づいて途切れた行列長に存在する人数を推定し、検出できた人数と合算して待ち人数を算出する。生成部34は、例えば上述の方法で待ち人数を算出する。   In such a situation, for example, when calculating the waiting number of the entire queue, the generation unit 34 calculates, for example, by the following method. The generation unit 34 calculates the interrupted matrix length based on the position coordinates of the person determined as the matrix person by the determination unit 33 and the matrix position input from the matrix information input unit 2. Further, the generation unit 34 estimates the population density (number of people lined up within a predetermined distance) from the area where the person position is obtained. Based on the estimated population density, the generation unit 34 estimates the number of people present in the interrupted matrix length, and adds the number of detected people to calculate the waiting number. The generation unit 34 calculates the waiting number by the above-described method, for example.

また、各人の累積待ち時間を算出する場合は、生成部34は、例えば以下のような方法で算出する。生成部34は、上述の方法でオクルージョン領域に存在する人数を推定する。生成部34は、オクルージョン領域の直前及び直後で検出された人物について、行列に並び始めてからの累積待ち時間を算出する。生成部34は、算出した2つの累積待ち時間の時間差をオクルージョン領域に存在する推定人数で除算する。生成部34は、除算することで算出した時間差を、オクルージョン領域に存在する先頭の人物から順に、前に並んでいる人物の累積待ち時間に加算していくことで、累積待ち時間の補間処理を行う。   Moreover, when calculating the accumulated waiting time of each person, the generation unit 34 calculates, for example, by the following method. The generation unit 34 estimates the number of people existing in the occlusion area by the method described above. The generation unit 34 calculates the accumulated waiting time after the person detected immediately before and after the occlusion area starts to be arranged in the matrix. The generation unit 34 divides the calculated time difference between the two accumulated waiting times by the estimated number of persons existing in the occlusion area. The generation unit 34 adds the time difference calculated by the division to the accumulated waiting time of the persons arranged in order from the first person existing in the occlusion region, thereby performing interpolation processing of the accumulated waiting time. Do.

出力部4は、行列検出部3から入力される行列情報を出力する。出力部4の出力様態は、例えば、表示出力である。この場合、出力部4は、外部に備えられたディスプレイ装置に表示を行えばよい。ただし、出力部4の出力態様は表示に限定されず、他の態様であってもよい。   The output unit 4 outputs the matrix information input from the matrix detection unit 3. The output mode of the output unit 4 is, for example, display output. In this case, the output unit 4 may perform display on a display device provided outside. However, the output mode of the output unit 4 is not limited to display, and may be other modes.

次に、本実施形態に係る行列検出システムの動作について、図6及び図7のフローチャートを参照して説明する。図6は、ユーザが行列位置を入力する際の処理フローの一例を示す。図7は、行列位置が入力されたのち、行列を検出し、欠損のない全体の行列情報を生成する際の処理フローの一例を示す。   Next, the operation of the matrix detection system according to the present embodiment will be described with reference to the flowcharts of FIGS. FIG. 6 shows an example of a processing flow when the user inputs a matrix position. FIG. 7 shows an example of a processing flow for detecting a matrix after generating a matrix position and generating the entire matrix information without a defect.

なお、後述の各処理ステップは、処理内容に矛盾を生じない範囲で、任意に順番を変更してもしくは並列に実行してもよく、また、各処理ステップ間に他のステップを追加しても良い。更に、便宜上1つのステップとして記載されているステップは複数のステップに分けて実行してもよく、便宜上複数に分けて記載されているステップを1ステップとして実行してもよい。   Each processing step to be described later may be executed in any order or in parallel as long as there is no contradiction in processing contents, and other steps may be added between the processing steps. good. Further, a step described as one step for convenience may be executed by being divided into a plurality of steps, and a step described as being divided into a plurality of steps for convenience may be executed as one step.

はじめに、ユーザが行列位置を入力する際の処理について、図6のフローチャートを参照して説明する。   First, processing when a user inputs a matrix position will be described with reference to the flowchart of FIG.

行列情報入力部2は、所定の監視領域を撮影した画像を取得し、行列位置を設定するための画面上に表示する(ステップSA1)。   The matrix information input unit 2 acquires an image obtained by photographing a predetermined monitoring area and displays it on a screen for setting the matrix position (step SA1).

次に、ユーザは、表示された画面上に、未設定である行列が存在するかどうかを確認する。行列の設定が完了しておらず未設定の行列が存在する場合、行列情報入力部2は、所定の入力装置を介してユーザによる行列位置の入力の開始を受け付ける(ステップSA2のno)。入力装置としては、例えばマウスやタッチパネルが該当し、タッチパネルであれば、ユーザはタッチペンや指などを使用して入力すればよい。   Next, the user confirms whether or not an unset matrix exists on the displayed screen. When the matrix setting is not completed and there is an unset matrix, the matrix information input unit 2 accepts the start of input of the matrix position by the user via a predetermined input device (no in step SA2). As the input device, for example, a mouse or a touch panel is applicable, and if it is a touch panel, the user may input using a touch pen or a finger.

行列情報入力部2は、ユーザによる行列の始点の入力を受け付ける(ステップSA3)。ユーザが設定しようとしている行列に始点が複数存在する場合は、行列情報入力部2は、ステップSA3ですべての始点の入力を受け付ける。   The matrix information input unit 2 accepts an input of a matrix starting point by the user (step SA3). If there are a plurality of start points in the matrix to be set by the user, the matrix information input unit 2 accepts input of all start points in step SA3.

次に、行列情報入力部2は、ユーザによる行列の分岐や経由地点を表す中継点の入力を受け付ける(ステップSA4)。もし行列が始点と終点を結ぶ直線で表すことができる場合は、中継点の入力は必要ないため、ステップSA4の処理は省略される。また、ユーザが設定しようとしている行列に中継点が複数存在する場合は、行列情報入力部2は、ステップSA4ですべての中継点の入力を受け付ける。   Next, the matrix information input unit 2 accepts an input of a relay point representing a branch of a matrix or a waypoint by a user (step SA4). If the matrix can be represented by a straight line connecting the start point and the end point, it is not necessary to input a relay point, so the process of step SA4 is omitted. If there are a plurality of relay points in the matrix to be set by the user, the matrix information input unit 2 accepts input of all the relay points in step SA4.

次に、行列情報入力部2は、行列の終点の入力を受け付ける(ステップSA5)。ユーザが設定しようとしている行列に終点が複数存在する場合は、行列情報入力部2は、ステップSA5ですべての終点の入力を受け付ける。   Next, the matrix information input unit 2 accepts input of the end point of the matrix (step SA5). If there are a plurality of end points in the matrix to be set by the user, the matrix information input unit 2 accepts input of all end points in step SA5.

なお、ステップSA3、SA4及びSA5で入力した始点、中継点及び終点は、入力される都度、ステップSA1で取得した画像上に表示され、ユーザは入力された各点を確認できるものとしてもよい。   Note that the start point, the relay point, and the end point input in steps SA3, SA4, and SA5 may be displayed on the image acquired in step SA1 each time they are input, and the user may be able to confirm each input point.

次に、ユーザは、入力した始点、中継点及び終点の地点間を結ぶ各線分に対し、列の数(横に並ぶ人数)の入力が未設定である線分が存在するかどうかを確認する。列数の設定が完了しておらず未設定の線分が存在する場合、行列情報入力部2は、未設定の線分に対し、上述した入力装置を介してユーザによる列の数の入力の開始を受け付ける(ステップSA6のno)。行列情報入力部2は、ユーザによる列の数の入力を受け付ける(ステップSA7)。   Next, the user confirms whether or not there is a line segment for which the input of the number of columns (number of people lined up) is not set for each line segment connecting the input start point, relay point, and end point. . When the setting of the number of columns is not completed and there is an unset line segment, the matrix information input unit 2 inputs the number of columns by the user via the input device described above for the unset line segment. The start is accepted (step SA6: no). The matrix information input unit 2 accepts input of the number of columns by the user (step SA7).

なお、ステップSA7で入力した地点間を結ぶ各線分及び列の数は、入力される都度、ステップSA1で取得した画像上に表示され、ユーザは入力された各線分の人数を確認できるものとしてもよい。   Each line segment and the number of columns connecting the points input in step SA7 are displayed on the image acquired in step SA1 each time they are input, and the user can check the number of input line segments. Good.

行列情報入力部2は、ユーザによるすべての線分に対する列の数の入力が完了する(ステップSA6のyes)と、ステップSA2に戻り、次の行列に関する入力の受付を開始する。行列情報入力部2は、ユーザによるすべての線分に対する列の数の入力が完了したことを、例えば、その旨のユーザによる入力を受け付けることにより、又はユーザの入力の開始がないまま所定時間が経過することにより判定してもよい。   When the input of the number of columns for all the line segments by the user is completed by the user (Yes in step SA6), the matrix information input unit 2 returns to step SA2 and starts accepting input regarding the next matrix. The matrix information input unit 2 confirms that the input of the number of columns for all the line segments by the user has been completed, for example, by accepting an input by the user to that effect, or for a predetermined time without starting the user's input. You may determine by passing.

行列情報入力部2は、ユーザによるすべての行列の入力が完了したことを判定すると(ステップSA2のyes)、行列情報入力部2における行列情報の入力は完了となる。行列情報入力部2は、ユーザによるすべての行列の入力が完了したことを、例えば、その旨のユーザによる入力を受け付けることにより、又はユーザの入力の開始がないまま所定時間が経過することにより判定してもよい。   When the matrix information input unit 2 determines that the input of all matrices by the user is completed (yes in step SA2), the matrix information input in the matrix information input unit 2 is completed. The matrix information input unit 2 determines that the input of all the matrices by the user has been completed, for example, by accepting an input by the user to that effect, or by elapse of a predetermined time without starting the user's input May be.

次に、行列を検出し行列待ち情報を生成する際の処理について、図7のフローチャートを参照して説明する。   Next, a process for detecting a queue and generating queue wait information will be described with reference to the flowchart of FIG.

検出部31は、入力部1から、撮影画像とその撮影時刻を取得する(ステップSB1)。検出部31は、画像中に存在するすべての人物を検出し、時刻及び検出した人物の位置座標を出力する(ステップSB2)。   The detection unit 31 acquires a captured image and its shooting time from the input unit 1 (step SB1). The detection unit 31 detects all persons existing in the image, and outputs the time and the position coordinates of the detected person (step SB2).

次に、追跡部32の追跡結果を受け、判定部33は、前フレーム画像に対する処理結果として得られた追跡人物に関して、行列人物IDリストを参照し(ステップSB3)、行列人物であるかどうかを判定する(ステップSB4)。なお、行列人物IDリストとは、追跡中の人物の人物IDと、当該人物が行列人物または移動人物のどちらであるかを表す情報との組を管理しているリストである。   Next, upon receiving the tracking result of the tracking unit 32, the determination unit 33 refers to the matrix person ID list for the traced person obtained as the processing result for the previous frame image (step SB3), and determines whether or not the person is a matrix person. Determine (step SB4). The matrix person ID list is a list that manages a pair of a person ID of a person being tracked and information indicating whether the person is a queue person or a moving person.

行列人物である場合(ステップSB4のyes)、判定部33は、行列人物用の移動モデルを用いて、現フレーム画像における位置座標を予測する。判定部33は、予測した位置座標とステップSB2で得られた人物位置座標を用いて、現フレーム画像における追跡人物の位置座標を算出する(ステップSB5a)。判定部33は、行列人物用の移動モデルとして、例えば、行列が静止している状態を表す移動モデルと、行列が進む状態を表す移動モデルの2状態モデルを用いてもよい。具体的には、静止状態を表す移動モデルでは、判定部33は、前フレーム画像と現フレーム画像でほとんど位置の変化がないという予測を行う。一方、進む状態を表す移動モデルでは、判定部33は、前フレーム画像と現フレーム画像とで、行列情報入力部2から得られる行列位置の情報に基づいて移動方向を限定した予測を行う。   When it is a procession person (yes in step SB4), the determination unit 33 predicts the position coordinates in the current frame image using the process model for procession person. The determination unit 33 calculates the position coordinates of the tracking person in the current frame image using the predicted position coordinates and the person position coordinates obtained in Step SB2 (Step SB5a). The determination unit 33 may use, for example, a two-state model, which is a movement model representing a state in which the matrix is stationary and a movement model representing a state in which the matrix advances, as the movement model for the matrix person. Specifically, in the movement model representing the stationary state, the determination unit 33 predicts that there is almost no change in position between the previous frame image and the current frame image. On the other hand, in the movement model representing the advancing state, the determination unit 33 performs prediction in which the movement direction is limited based on the matrix position information obtained from the matrix information input unit 2 between the previous frame image and the current frame image.

一方、移動人物である場合(ステップSB4のno)、判定部33は、移動人物用の移動モデルを用いて、現フレーム画像における位置座標を予測する。判定部33は、予測した位置座標とステップSB2で得られた人物位置座標を用いて、現フレーム画像における追跡人物の位置座標を算出する(ステップSB5b)。判定部33は、移動人物用の移動モデルとして、例えば、移動方向に制限がないため、所定範囲の移動速度で全方位に移動することを想定したモデルを用いてもよい。   On the other hand, when it is a moving person (no in step SB4), the determination unit 33 predicts position coordinates in the current frame image using a moving model for the moving person. The determination unit 33 calculates the position coordinates of the tracking person in the current frame image using the predicted position coordinates and the person position coordinates obtained in Step SB2 (Step SB5b). The determination unit 33 may use, for example, a model that is assumed to move in all directions at a moving speed within a predetermined range because the moving direction is not limited as a moving model for a moving person.

次に、判定部33は、ステップSB5a及びステップSB5bにて算出した、現在から過去数フレーム分の人物位置座標及び各時刻情報を用いて、人物の移動速度を算出する(ステップSB6)。   Next, the determination unit 33 calculates the movement speed of the person by using the person position coordinates and time information for the past several frames from the present time calculated in Step SB5a and Step SB5b (Step SB6).

判定部33は、現フレームにおける人物位置座標と、行列情報入力部2から得られる行列位置との最短距離等適切な距離を算出する(ステップSB7)。   The determination unit 33 calculates an appropriate distance such as the shortest distance between the human position coordinates in the current frame and the matrix position obtained from the matrix information input unit 2 (step SB7).

判定部33は、ステップSB6で算出した移動速度と、ステップSB7で算出した距離とを用い、移動速度があらかじめ定めた閾値よりも小さく、かつ、距離があらかじめ定めた閾値よりも小さいかどうかを判定する(ステップSB8)。前記条件を満たす場合(ステップSB8のyes)は、当該人物は行列人物であると判定する(ステップSB9a)。一方、前記条件を満たさない場合(ステップSB8のno)は、当該人物は、移動人物であると判定する(ステップSB9b)。   The determination unit 33 uses the movement speed calculated in step SB6 and the distance calculated in step SB7 to determine whether the movement speed is smaller than a predetermined threshold and whether the distance is smaller than a predetermined threshold. (Step SB8). When the condition is satisfied (yes in step SB8), it is determined that the person is a procession person (step SB9a). On the other hand, if the condition is not satisfied (no in step SB8), the person is determined to be a moving person (step SB9b).

判定部33は、ステップSB9a及びステップSB9bにおける行列に並ぶ人物か否かの判定結果を用いて、判定部33が管理している行列人物IDリストを更新する(ステップSB10)。   The determination unit 33 updates the matrix person ID list managed by the determination unit 33 using the determination result of whether or not the person is in the matrix in step SB9a and step SB9b (step SB10).

次に、生成部34は、ステップSB9aで行列人物と判定された人物の人物位置と、行列情報入力部2から取得した行列位置とに基づいて、オクルージョンの発生状況を推定する。生成部34は、オクルージョン領域に存在する行列情報の補間処理を行う(ステップSB11)。具体的には、行列情報として待ち人数を算出する場合、生成部34は、ステップSB9aで行列人物と判定された人物の位置情報と、行列情報入力部2から得られる行列位置情報とを用いて、オクルージョンにより途切れた未検出領域の行列長を算出する。また、生成部34は、行列人物の人口密度(所定の距離内で並ぶ人数)を算出する。生成部34は、算出した人口密度に基づいて途切れた未検出領域の行列長に存在する人数を推定し、検出できている行列人物と合算して待ち人数を算出する。   Next, the generation unit 34 estimates the occurrence state of occlusion based on the person position of the person determined to be a matrix person in step SB9a and the matrix position acquired from the matrix information input unit 2. The generation unit 34 performs interpolation processing of matrix information existing in the occlusion area (step SB11). Specifically, when calculating the waiting number as the queue information, the generation unit 34 uses the position information of the person determined to be a queue person in step SB9a and the matrix position information obtained from the matrix information input unit 2. The matrix length of the undetected area interrupted by occlusion is calculated. Further, the generation unit 34 calculates the population density (number of people lined up within a predetermined distance) of the procession figures. The generation unit 34 estimates the number of persons existing in the matrix length of the undetected region that has been interrupted based on the calculated population density, and calculates the number of waiting persons by adding the detected matrix persons.

出力部4は、生成部34から出力される行列情報を、例えばアプリケーションや記憶媒体などの外部モジュールに対して出力する(ステップSB12)。   The output unit 4 outputs the matrix information output from the generation unit 34 to an external module such as an application or a storage medium (Step SB12).

また、図6に示す行列情報の入力処理は、図7に示す行列検出処理を開始する前にあらかじめ行われていてもよい。あるいは、図7に示す行列検出処理が実行中の任意のタイミングで、図6に示す処理が行われて行列情報が更新され、更新された行列情報を用いて図7に示す行列検出処理が再開されるようにしてもよい。   Further, the matrix information input process shown in FIG. 6 may be performed in advance before the matrix detection process shown in FIG. 7 is started. Alternatively, at any timing when the matrix detection process shown in FIG. 7 is being executed, the process shown in FIG. 6 is performed to update the matrix information, and the matrix detection process shown in FIG. 7 is resumed using the updated matrix information. You may be made to do.

実施形態1に係るプログラムは、上記の一連の処理をコンピュータに実行させるプログラムであれば良い。   The program according to the first embodiment may be a program that causes a computer to execute the series of processes described above.

以上説明したように実施形態1に係る行列検出システムによれば、行列に並ぶつもりではなく単に滞留しているだけ等の人物であっても、その人物を行列に並ぶ人として処理してしまう場合がある、という課題が解決される。   As described above, according to the matrix detection system according to the first embodiment, even if a person is not intended to line up in a line but is merely staying, the person is processed as a person lined up in the line The problem that there is is solved.

また、オクルージョンが発生する環境においても、隠れている領域の行列の長さを推定することで、人数の補間処理が可能になる。また、行列形状が複雑な場合でも、場所ごとの進行方向が既知となるため、行列人物追跡時の移動モデルに進行方向を活用することで、追跡の頑健性が向上する。そのため、実施形態1に係る行列検出システムによれば、行列に並ぶ人物を検出し、人数や待ち時間等の行列情報を好適に推定することができる。   Further, even in an environment where occlusion occurs, the number of persons can be interpolated by estimating the length of a hidden region matrix. Further, even when the matrix shape is complicated, the traveling direction for each place is known, so that the robustness of tracking is improved by utilizing the traveling direction for the movement model at the time of matrix person tracking. Therefore, according to the matrix detection system according to the first embodiment, it is possible to detect the persons lined up in the matrix and to appropriately estimate the matrix information such as the number of people and the waiting time.

また、行列に並ぶことを意図していない人物が行列の付近に立ち止まった場合にも、人物と行列位置との距離の閾値を適切に設定することで、行列に並ぶ人物ではないと判定することが可能になる。さらに、行列に並ぶ人物か否かの判定に、人物と行列位置との距離を考慮するのみではなく、人物の移動速度も考慮することで、行列の間を横切って通過する人物についての行列位置付近での判定において、当該人物は行列に並ぶ人物ではない、と精度よく判定することが可能になる。   Also, even when a person who is not intended to line up in the queue stops near the line, it is determined that the person is not lined up in the line by appropriately setting the threshold of the distance between the person and the line position Is possible. Furthermore, in determining whether or not a person is in a matrix, not only the distance between the person and the matrix position, but also the movement speed of the person, the matrix position for the person passing across the matrix In the determination in the vicinity, it is possible to accurately determine that the person is not a person in a queue.

<実施形態2>
次に図8を参照して、本発明の実施形態2に係る行列検出システムの機能構成を説明する。
<Embodiment 2>
Next, a functional configuration of the matrix detection system according to the second embodiment of the present invention will be described with reference to FIG.

図8は本発明の実施形態2の構成例を示すブロック図である。   FIG. 8 is a block diagram showing a configuration example of the second embodiment of the present invention.

図8に示すように、本実施形態に係る行列検出システムは、行列情報入力部51と、検出部52と、判定部53とを含む。   As shown in FIG. 8, the matrix detection system according to the present embodiment includes a matrix information input unit 51, a detection unit 52, and a determination unit 53.

行列情報入力部51は、行列位置の入力を受け付ける。   The matrix information input unit 51 receives an input of a matrix position.

検出部52は、入力画像から対象物を検出する。   The detection unit 52 detects an object from the input image.

判定部53は、対象物と行列位置との距離に基づいて、対象物が行列に並んでいるか否かを判定する。   The determination unit 53 determines whether or not the objects are arranged in a matrix based on the distance between the object and the matrix position.

図9は実施形態2に係る行列検出システムの動作を示すフローチャート図である。   FIG. 9 is a flowchart showing the operation of the matrix detection system according to the second embodiment.

行列情報入力部51は、行列位置の入力を受け付ける(ステップSC1)。   The matrix information input unit 51 receives an input of a matrix position (step SC1).

検出部52は、入力画像から対象物を検出する(ステップSC2)。   The detection unit 52 detects an object from the input image (step SC2).

判定部53は、対象物と行列位置との距離に基づいて、対象物が行列に並んでいるか否かを判定する(ステップSC3)。   The determination unit 53 determines whether or not the objects are arranged in a matrix based on the distance between the object and the matrix position (step SC3).

以上説明したように、実施形態2に係る行列検出システムによれば、行列に並ぶつもりではなく単に滞留しているだけ等の人物であっても、その人物を行列に並ぶ人として処理してしまう場合がある、という課題が解決される。   As described above, according to the matrix detection system according to the second embodiment, even a person who is not intending to line up in a queue but merely stays in the line is processed as a person lined up in the line. The problem that there is a case is solved.

<ハードウェア構成例>
上述の各実施形態の行列検出システムを構成する各部は、制御部、メモリ、メモリにロードされたプログラム、プログラムを格納するハードディスク等の記憶ユニット、ネットワーク接続用インターフェース等からなり、ハードウェアとソフトウェアの任意の組合せによって実現される。
<Hardware configuration example>
Each unit constituting the matrix detection system of each of the above embodiments includes a control unit, a memory, a program loaded in the memory, a storage unit such as a hard disk for storing the program, a network connection interface, and the like. Realized by any combination.

図10は、実施形態1又は実施形態2に係る行列検出システムのハードウェア構成の一例を示すブロック図である。   FIG. 10 is a block diagram illustrating an example of a hardware configuration of the matrix detection system according to the first embodiment or the second embodiment.

図10に示すように、行列検出システムは、CPU11(Central Processing Unit)と、ネットワーク接続用の通信IF12(通信インターフェース12)と、メモリ13と、プログラムを格納するハードディスク等の記憶装置14とを含む、コンピュータ装置によって実現される。ただし、行列検出システムの構成は、図10に示す構成に限定されない。   As shown in FIG. 10, the matrix detection system includes a CPU 11 (Central Processing Unit), a network connection communication IF 12 (communication interface 12), a memory 13, and a storage device 14 such as a hard disk for storing a program. It is realized by a computer device. However, the configuration of the matrix detection system is not limited to the configuration shown in FIG.

CPU11は、オペレーティングシステムを動作させて行列検出システムの全体を制御する。また、CPU11は、例えばドライブ装置などに装着された記録媒体からメモリ13にプログラムやデータを読み出す。CPU11がメモリ13にプログラムやデータを読み出すことで、画像入力部1、行列情報入力部2、行列検出部3(検出部31、追跡部32、判定部33及び生成部34)及び出力部4の各機能部が実現される。   The CPU 11 operates the operating system to control the entire matrix detection system. Further, the CPU 11 reads a program and data into the memory 13 from a recording medium mounted on, for example, a drive device. The CPU 11 reads the program and data into the memory 13, so that the image input unit 1, the matrix information input unit 2, the matrix detection unit 3 (the detection unit 31, the tracking unit 32, the determination unit 33, and the generation unit 34) and the output unit 4 Each functional unit is realized.

行列検出システムは、例えば通信IF12を介して他のコンピュータである画像入力装置と接続されても良い。   The matrix detection system may be connected to an image input device which is another computer via the communication IF 12, for example.

記録装置14は、例えば光ディスク、フレキシブルディスク、磁気光ディスク、外付けハードディスク、半導体メモリ等であって、コンピュータプログラムをコンピュータ読み取り可能に記録する。記憶装置14は、例えば、統合したデータを格納するデータ格納部でも良い。また、コンピュータプログラムは、通信網に接続されている図示しない外部コンピュータからダウンロードされても良い。   The recording device 14 is, for example, an optical disk, a flexible disk, a magnetic optical disk, an external hard disk, a semiconductor memory, or the like, and records a computer program so that it can be read by a computer. The storage device 14 may be, for example, a data storage unit that stores integrated data. The computer program may be downloaded from an external computer (not shown) connected to the communication network.

行列検出システムは、入力装置15又は出力装置16と接続されていても良い。入力装置15は、例えばキーボード、マウス等である。出力装置16は、例えばディスプレイ等でも良く、出力部4が出力する行列情報をディスプレイ上に表示しても良い。   The matrix detection system may be connected to the input device 15 or the output device 16. The input device 15 is, for example, a keyboard or a mouse. The output device 16 may be a display, for example, and may display the matrix information output by the output unit 4 on the display.

なお、図1及び図8の機能ブロック図においては、各実施形態の構成部は物理的に結合した一つの装置により実現されるよう記載されているが、その実現手段は特に限定されない。すなわち、二つ以上の物理的に分離した装置を有線または無線で接続し、これら複数の装置により、各実施形態のシステムを実現しても良い。   In the functional block diagrams of FIG. 1 and FIG. 8, the components of each embodiment are described as being realized by one physically coupled device, but the means for realizing it is not particularly limited. That is, two or more physically separated devices may be connected by wire or wirelessly, and the system of each embodiment may be realized by the plurality of devices.

以上、各実施形態及び実施例を参照して本発明を説明したが、本発明は以上の実施形態及び実施例に限定されるものではない。本発明の構成や詳細には、本発明のスコープ内で同業者が理解し得る様々な変更をすることができる。   As mentioned above, although this invention was demonstrated with reference to each embodiment and an Example, this invention is not limited to the above embodiment and Example. Various changes that can be understood by those skilled in the art can be made to the configuration and details of the present invention within the scope of the present invention.

<実施形態の他の表現>
上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
<Other expressions of the embodiment>
A part or all of the above-described embodiment can be described as in the following supplementary notes, but is not limited thereto.

(付記1)
行列位置の入力を受け付ける行列情報入力手段と、
入力画像から対象物を検出する検出手段と、
前記対象物と前記行列位置との距離に基づいて、前記対象物が行列に並んでいるか否かを判定する判定手段と、
を含む行列検出システム。
(Appendix 1)
Matrix information input means for receiving an input of a matrix position;
Detection means for detecting an object from an input image;
Determination means for determining whether or not the objects are arranged in a matrix based on a distance between the objects and the matrix position;
Matrix detection system including

(付記2)
前記行列位置と、前記判定手段により行列に並ぶと判定された対象物の位置とに基づいて、対象物が未検出となっている領域を推定し、前記行列に並ぶと判定された対象物から未検出領域の対象物を補完し、行列情報を生成する生成手段、
をさらに含む付記1に記載の行列検出システム。
(Appendix 2)
Based on the matrix position and the position of the target object determined to be aligned in the matrix by the determination means, the region where the target object is not detected is estimated, and from the target object determined to be aligned in the matrix Generating means for complementing the object in the undetected area and generating matrix information;
The matrix detection system according to claim 1, further comprising:

(付記3)
前記生成手段は、前記判定手段により前記行列に並ぶと判定された対象物の密度に基づいて前記未検出領域の対象物を補完する
付記2に記載の行列検出システム。
(Appendix 3)
The matrix detection system according to claim 2, wherein the generation unit supplements the object in the undetected region based on the density of the object determined to be arranged in the matrix by the determination unit.

(付記4)
前記生成手段は、
前記判定手段により行列に並ぶと判定された対象物の待ち時間を算出し、
前記未検出領域の前後の領域で検出された対象物の待ち時間に基づいて、前記未検出領域の対象物の待ち時間を算出する
付記3に記載の行列検出システム。
(Appendix 4)
The generating means includes
Calculating the waiting time of the objects determined to be arranged in a matrix by the determining means;
The matrix detection system according to claim 3, wherein the waiting time of the object in the undetected area is calculated based on the waiting time of the object detected in the areas before and after the undetected area.

(付記5)
前記判定手段は、前記対象物の移動速度と、前記対象物と前記行列位置との距離と、に基づいて、前記対象物が行列に並んでいるか否かを判定する
付記1〜4のいずれかに記載の行列検出システム。
(Appendix 5)
The determination means determines whether or not the objects are arranged in a matrix based on a moving speed of the object and a distance between the object and the matrix position. The matrix detection system described in 1.

(付記6)
対象物が行列に並んでいるか否かに応じて異なる移動モデルを使用し、検出した対象物の位置を追跡する追跡手段、
をさらに含み、
前記判定手段は、前記追跡手段による追跡結果から前記移動速度を算出する
付記5に記載の行列検出システム。
(Appendix 6)
A tracking means for tracking the position of the detected object using different movement models depending on whether or not the object is in a matrix;
Further including
The matrix detection system according to claim 5, wherein the determination unit calculates the moving speed from a tracking result obtained by the tracking unit.

(付記7)
前記追跡手段は、
前記判定手段により行列待ちと判定された対象物に対し、行列の待ち状態と移動状態を表す2つの移動モデルと、前記行列情報入力手段から取得した行列位置及び進行方向とに基づいて、前フレームから現フレームへの移動状態を予測し、また、
前記判定手段により行列待ちと判定されなかった対象物に対し、所定の範囲の速度で全方位に移動することを想定した移動モデルに基づいて、前フレームから現フレームへの移動状態を予測する
付記6に記載の行列検出システム。
(Appendix 7)
The tracking means includes
Based on the two movement models representing the waiting state and the moving state of the queue and the queue position and the traveling direction obtained from the queue information input means for the object determined to be queued by the judging means, the previous frame Predict the movement state from to the current frame,
Predict the movement state from the previous frame to the current frame based on a movement model assuming that the object that has not been determined to be queued by the determination means moves in all directions at a speed within a predetermined range. 7. The matrix detection system according to 6.

(付記8)
前記行列情報入力手段は、少なくとも1つ以上の行列の始点と、少なくとも1つ以上の行列の終点と、行列の経由点又は分岐点を表すための0個以上の中継点との入力を受け付け、隣接する各始点、中継点、終点との間を結ぶ線分に対して、対象物が横並びになる列数の入力を受け付ける
付記1〜7のいずれかに記載の行列検出システム。
(Appendix 8)
The matrix information input means accepts input of at least one or more matrix start points, at least one or more matrix end points, and zero or more relay points for representing the waypoints or branch points of the matrix, The matrix detection system according to any one of appendices 1 to 7, which receives an input of the number of columns in which the object is arranged side by side with respect to a line segment connecting each adjacent start point, relay point, and end point.

(付記9)
前記行列情報入力手段は、
入力画像上に前記始点、中継点、終点及び各地点間の列数を描画したものを入力情報として用い、任意のタイミングで前記行列位置として反映させる
付記8に記載の行列検出システム。
(Appendix 9)
The matrix information input means includes
The matrix detection system according to appendix 8, wherein the start point, the relay point, the end point, and the number of columns between the points on the input image are used as input information and reflected as the matrix position at an arbitrary timing.

(付記10)
前記検出手段は、前記対象物の特定部位を検出し、
前記判定手段は、カメラパラメータを用いて、前記特定部位の位置から前記対象物の下端位置を推定し、推定した下端位置と前記行列位置との距離に基づいて、対象物が行列に並んでいるか否かを判定する
付記1〜9のいずれかに記載の行列検出システム。
(Appendix 10)
The detecting means detects a specific part of the object;
The determination means estimates the lower end position of the object from the position of the specific part using camera parameters, and based on the distance between the estimated lower end position and the matrix position, whether the object is arranged in a matrix The matrix detection system according to any one of appendices 1 to 9, which determines whether or not.

(付記11)
前記判定手段は、前記特定部位の世界座標系における高さを複数のバリエーションで仮定し、前記カメラパラメータを用いて、仮定した複数の高さから複数の下端位置を推定し、推定した複数の下端位置と前記行列位置との最短距離に基づいて、対象物が行列に並んでいるか否かを判定する
付記10に記載の行列検出システム。
(Appendix 11)
The determination means assumes the height of the specific part in the world coordinate system in a plurality of variations, uses the camera parameters to estimate a plurality of lower end positions from the assumed plurality of heights, and estimates the plurality of estimated lower ends The matrix detection system according to claim 10, wherein it is determined whether or not the objects are arranged in a matrix based on a shortest distance between the position and the matrix position.

(付記12)
行列位置の入力を受け付け、
入力画像から対象物を検出し、
前記対象物と前記行列位置との距離に基づいて、前記対象物が行列に並んでいるか否かを判定する、
行列検出方法。
(Appendix 12)
Accepts matrix position input,
Detect the object from the input image,
Determining whether the objects are arranged in a matrix based on the distance between the objects and the matrix position;
Matrix detection method.

(付記13)
行列位置の入力を受け付ける行列情報入力処理と、
入力画像から対象物を検出する検出処理と、
前記対象物と前記行列位置との距離に基づいて、前記対象物が行列に並んでいるか否かを判定する判定処理と、
をコンピュータに実行させるプログラム。
(Appendix 13)
Matrix information input processing for receiving input of matrix positions;
A detection process for detecting an object from an input image;
A determination process for determining whether or not the objects are arranged in a matrix based on a distance between the object and the matrix position;
A program that causes a computer to execute.

この出願は、2015年9月14日に出願された日本出願特願2015−180260を基礎とする優先権を主張し、その開示の全てをここに取り込む。   This application claims the priority on the basis of Japanese application Japanese Patent Application No. 2015-180260 for which it applied on September 14, 2015, and takes in those the indications of all here.

本発明によれば、精度の良い行列監視システムを提供でき、監視領域内で発生する行列を検出し、待ち人数や待ち時間を提示するシステムに好適に適用することができる。   ADVANTAGE OF THE INVENTION According to this invention, an accurate queue monitoring system can be provided, and it can apply suitably for the system which detects the queue which generate | occur | produces in a monitoring area | region, and shows waiting number of persons and waiting time.

また、本発明では、あらかじめ入力した行列の発生位置情報を活用することにより、棚や柱や人物同士の重なりによるオクルージョンが発生しやすい環境においても、特殊なカメラの設置条件を必要とせずに、欠損なく待ち人数や待ち時間を推定することができるため、行列検出システムの導入が容易になる。   Further, in the present invention, by utilizing the occurrence position information of the matrix input in advance, even in an environment where occlusion due to overlapping of shelves, pillars, and people is likely to occur, without requiring special camera installation conditions, Since the waiting number and waiting time can be estimated without loss, it is easy to introduce a matrix detection system.

1 画像入力部
2、51 行列情報入力部
3 行列検出部
4 出力部
31、52 検出部
32 追跡部
33、53 判定部
34 生成部
11 CPU
12 通信IF
13 メモリ
14 記憶装置
15 入力装置
16 出力装置
DESCRIPTION OF SYMBOLS 1 Image input part 2, 51 Matrix information input part 3 Matrix detection part 4 Output part 31, 52 Detection part 32 Tracking part 33, 53 Determination part 34 Generation part 11 CPU
12 Communication IF
13 Memory 14 Storage Device 15 Input Device 16 Output Device

Claims (13)

行列位置の入力を受け付ける行列情報入力手段と、
入力画像から対象物を検出する検出手段と、
前記対象物と前記行列位置との距離に基づいて、前記対象物が行列に並んでいるか否かを判定する判定手段と、
を含む行列検出システム。
Matrix information input means for receiving an input of a matrix position;
Detection means for detecting an object from an input image;
Determination means for determining whether or not the objects are arranged in a matrix based on a distance between the objects and the matrix position;
Matrix detection system including
前記行列位置と、前記判定手段により行列に並ぶと判定された対象物の位置とに基づいて、対象物が未検出となっている領域を推定し、前記行列に並ぶと判定された対象物から未検出領域の対象物を補完し、行列情報を生成する生成手段、
をさらに含む請求項1に記載の行列検出システム。
Based on the matrix position and the position of the target object determined to be aligned in the matrix by the determination means, the region where the target object is not detected is estimated, and from the target object determined to be aligned in the matrix Generating means for complementing the object in the undetected area and generating matrix information;
The matrix detection system according to claim 1, further comprising:
前記生成手段は、前記判定手段により前記行列に並ぶと判定された対象物の密度に基づいて前記未検出領域の対象物を補完する
請求項2に記載の行列検出システム。
The matrix detection system according to claim 2, wherein the generation unit supplements the object in the undetected region based on the density of the objects determined to be arranged in the matrix by the determination unit.
前記生成手段は、
前記判定手段により行列に並ぶと判定された対象物の待ち時間を算出し、
前記未検出領域の前後の領域で検出された対象物の待ち時間に基づいて、前記未検出領域の対象物の待ち時間を算出する
請求項3に記載の行列検出システム。
The generating means includes
Calculating the waiting time of the objects determined to be arranged in a matrix by the determining means;
The matrix detection system according to claim 3, wherein the waiting time of the object in the undetected area is calculated based on the waiting time of the object detected in the areas before and after the undetected area.
前記判定手段は、前記対象物の移動速度と、前記対象物と前記行列位置との距離と、に基づいて、前記対象物が行列に並んでいるか否かを判定する
請求項1〜4のいずれかに記載の行列検出システム。
The said determination means determines whether the said target object is located in a matrix based on the moving speed of the said target object, and the distance of the said target object and the said matrix position. The matrix detection system described in Crab.
対象物が行列に並んでいるか否かに応じて異なる移動モデルを使用し、検出した対象物の位置を追跡する追跡手段、
をさらに含み、
前記判定手段は、前記追跡手段による追跡結果から前記移動速度を算出する
請求項5に記載の行列検出システム。
A tracking means for tracking the position of the detected object using different movement models depending on whether or not the object is in a matrix;
Further including
The matrix detection system according to claim 5, wherein the determination unit calculates the moving speed from a tracking result obtained by the tracking unit.
前記追跡手段は、
前記判定手段により行列待ちと判定された対象物に対し、行列の待ち状態と移動状態を表す2つの移動モデルと、前記行列情報入力手段から取得した行列位置及び進行方向とに基づいて、前フレームから現フレームへの移動状態を予測し、また、
前記判定手段により行列待ちと判定されなかった対象物に対し、所定の範囲の速度で全方位に移動することを想定した移動モデルに基づいて、前フレームから現フレームへの移動状態を予測する
請求項6に記載の行列検出システム。
The tracking means includes
Based on the two movement models representing the waiting state and the moving state of the queue and the queue position and the traveling direction obtained from the queue information input means for the object determined to be queued by the judging means, the previous frame Predict the movement state from to the current frame,
The movement state from the previous frame to the current frame is predicted based on a movement model that is assumed to move in all directions at a speed within a predetermined range for an object that has not been determined to be queued by the determination unit. Item 7. The matrix detection system according to Item 6.
前記行列情報入力手段は、少なくとも1つ以上の行列の始点と、少なくとも1つ以上の行列の終点と、行列の経由点又は分岐点を表すための0個以上の中継点との入力を受け付け、隣接する各始点、中継点、終点との間を結ぶ線分に対して、対象物が横並びになる列数の入力を受け付ける
請求項1〜7のいずれかに記載の行列検出システム。
The matrix information input means accepts input of at least one or more matrix start points, at least one or more matrix end points, and zero or more relay points for representing the waypoints or branch points of the matrix, The matrix detection system according to any one of claims 1 to 7, wherein an input of the number of columns in which the object is arranged side by side is received for a line segment connecting each adjacent start point, relay point, and end point.
前記行列情報入力手段は、
入力画像上に前記始点、中継点、終点及び各地点間の列数を描画したものを入力情報として用い、任意のタイミングで前記行列位置として反映させる
請求項8に記載の行列検出システム。
The matrix information input means includes
The matrix detection system according to claim 8, wherein the start point, the relay point, the end point, and the number of columns between each point are drawn on the input image as input information and reflected as the matrix position at an arbitrary timing.
前記検出手段は、前記対象物の特定部位を検出し、
前記判定手段は、カメラパラメータを用いて、前記特定部位の位置から前記対象物の下端位置を推定し、推定した下端位置と前記行列位置との距離に基づいて、対象物が行列に並んでいるか否かを判定する
請求項1〜9のいずれかに記載の行列検出システム。
The detecting means detects a specific part of the object;
The determination means estimates the lower end position of the object from the position of the specific part using camera parameters, and based on the distance between the estimated lower end position and the matrix position, whether the object is arranged in a matrix The matrix detection system according to any one of claims 1 to 9.
前記判定手段は、前記特定部位の世界座標系における高さを複数のバリエーションで仮定し、前記カメラパラメータを用いて、仮定した複数の高さから複数の下端位置を推定し、推定した複数の下端位置と前記行列位置との最短距離に基づいて、対象物が行列に並んでいるか否かを判定する
請求項10に記載の行列検出システム。
The determination means assumes the height of the specific part in the world coordinate system in a plurality of variations, uses the camera parameters to estimate a plurality of lower end positions from the assumed plurality of heights, and estimates the plurality of estimated lower ends The matrix detection system according to claim 10, wherein it is determined whether or not the objects are arranged in a matrix based on a shortest distance between the position and the matrix position.
行列位置の入力を受け付け、
入力画像から対象物を検出し、
前記対象物と前記行列位置との距離に基づいて、前記対象物が行列に並んでいるか否かを判定する、
行列検出方法。
Accepts matrix position input,
Detect the object from the input image,
Determining whether the objects are arranged in a matrix based on the distance between the objects and the matrix position;
Matrix detection method.
行列位置の入力を受け付ける行列情報入力処理と、
入力画像から対象物を検出する検出処理と、
前記対象物と前記行列位置との距離に基づいて、前記対象物が行列に並んでいるか否かを判定する判定処理と、
をコンピュータに実行させるプログラムを記憶する、コンピュータ読み取り可能な記録媒体。
Matrix information input processing for receiving input of matrix positions;
A detection process for detecting an object from an input image;
A determination process for determining whether or not the objects are arranged in a matrix based on a distance between the object and the matrix position;
A computer-readable recording medium that stores a program for causing a computer to execute the program.
JP2017540493A 2015-09-14 2016-09-12 Matrix detection system, method and program Active JP6852675B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2015180260 2015-09-14
JP2015180260 2015-09-14
PCT/JP2016/004126 WO2017047060A1 (en) 2015-09-14 2016-09-12 Queue detecting system, method and recording medium

Related Child Applications (2)

Application Number Title Priority Date Filing Date
JP2020043673A Division JP7036138B2 (en) 2015-09-14 2020-03-13 Matrix detection system, method and program
JP2021033283A Division JP7060126B2 (en) 2015-09-14 2021-03-03 Matrix detection system, method and program

Publications (2)

Publication Number Publication Date
JPWO2017047060A1 true JPWO2017047060A1 (en) 2018-06-28
JP6852675B2 JP6852675B2 (en) 2021-03-31

Family

ID=58288534

Family Applications (4)

Application Number Title Priority Date Filing Date
JP2017540493A Active JP6852675B2 (en) 2015-09-14 2016-09-12 Matrix detection system, method and program
JP2020043673A Active JP7036138B2 (en) 2015-09-14 2020-03-13 Matrix detection system, method and program
JP2021033283A Active JP7060126B2 (en) 2015-09-14 2021-03-03 Matrix detection system, method and program
JP2022064304A Pending JP2022101591A (en) 2015-09-14 2022-04-08 Queue detection system, method, and program

Family Applications After (3)

Application Number Title Priority Date Filing Date
JP2020043673A Active JP7036138B2 (en) 2015-09-14 2020-03-13 Matrix detection system, method and program
JP2021033283A Active JP7060126B2 (en) 2015-09-14 2021-03-03 Matrix detection system, method and program
JP2022064304A Pending JP2022101591A (en) 2015-09-14 2022-04-08 Queue detection system, method, and program

Country Status (2)

Country Link
JP (4) JP6852675B2 (en)
WO (1) WO2017047060A1 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019003709A1 (en) * 2017-06-30 2019-01-03 日本電気株式会社 Information processing device, control method, and program
JP7129209B2 (en) * 2018-05-16 2022-09-01 キヤノン株式会社 Information processing device, information processing method and program
CN110503284B (en) * 2018-05-18 2022-08-05 杭州海康威视数字技术股份有限公司 Statistical method and device based on queuing data
CN110505438B (en) * 2018-05-18 2021-03-26 杭州海康威视数字技术股份有限公司 Queuing data acquisition method and camera
KR102040218B1 (en) 2018-06-11 2019-11-04 엘지전자 주식회사 Moving robot capable of recognizing waiting line and method for controlling the moving robot
JP7445906B1 (en) 2022-12-02 2024-03-08 パナソニックIpマネジメント株式会社 Installation support device, installation support method, and installation support program

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050117778A1 (en) * 2003-12-01 2005-06-02 Crabtree Ralph N. Systems and methods for determining if objects are in a queue
JP2008519567A (en) * 2004-11-02 2008-06-05 センサーマティック・エレクトロニクス・コーポレーション System and method for matrix monitoring
US20130182114A1 (en) * 2012-01-17 2013-07-18 Objectvideo, Inc. System and method for monitoring a retail environment using video content analysis with depth sensing
US20140301602A1 (en) * 2013-04-08 2014-10-09 Vision Semantics Limited Queue Analysis
JP2014229068A (en) * 2013-05-22 2014-12-08 株式会社 日立産業制御ソリューションズ People counting device and person flow line analysis apparatus
JP2015069639A (en) * 2014-04-28 2015-04-13 パナソニックIpマネジメント株式会社 Stay-time measurement apparatus,stay-time measurement system and stay-time measurement method

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3480847B2 (en) * 2003-02-03 2003-12-22 株式会社東芝 Elevator control device using image monitoring device
JP2007317052A (en) * 2006-05-29 2007-12-06 Japan Airlines International Co Ltd System for measuring waiting time for lines

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050117778A1 (en) * 2003-12-01 2005-06-02 Crabtree Ralph N. Systems and methods for determining if objects are in a queue
JP2008519567A (en) * 2004-11-02 2008-06-05 センサーマティック・エレクトロニクス・コーポレーション System and method for matrix monitoring
US20130182114A1 (en) * 2012-01-17 2013-07-18 Objectvideo, Inc. System and method for monitoring a retail environment using video content analysis with depth sensing
US20140301602A1 (en) * 2013-04-08 2014-10-09 Vision Semantics Limited Queue Analysis
JP2014229068A (en) * 2013-05-22 2014-12-08 株式会社 日立産業制御ソリューションズ People counting device and person flow line analysis apparatus
JP2015069639A (en) * 2014-04-28 2015-04-13 パナソニックIpマネジメント株式会社 Stay-time measurement apparatus,stay-time measurement system and stay-time measurement method

Also Published As

Publication number Publication date
JP2022101591A (en) 2022-07-06
JP2020113300A (en) 2020-07-27
JP7060126B2 (en) 2022-04-26
JP6852675B2 (en) 2021-03-31
JP2021093205A (en) 2021-06-17
WO2017047060A1 (en) 2017-03-23
JP7036138B2 (en) 2022-03-15

Similar Documents

Publication Publication Date Title
JP7036138B2 (en) Matrix detection system, method and program
JP7004017B2 (en) Object tracking system, object tracking method, program
KR102364993B1 (en) Gesture recognition method, apparatus and device
US10082879B2 (en) Head mounted display device and control method
JP5885398B2 (en) Image processing apparatus and image processing method
US20190191098A1 (en) Object tracking apparatus, object tracking method, and non-transitory computer-readable storage medium for storing program
JP6639091B2 (en) Display control device and display control method
JP5754990B2 (en) Information processing apparatus, information processing method, and program
JP5665401B2 (en) Image processing apparatus, image processing method, and program
US8644553B2 (en) Image display device, image display method, and image display program
US9348465B2 (en) Input method, input device, and storage medium
JPWO2014050432A1 (en) Information processing system, information processing method, and program
KR101956275B1 (en) Method and apparatus for detecting information of body skeleton and body region from image
US20220012514A1 (en) Identification information assignment apparatus, identification information assignment method, and program
JP6219101B2 (en) Video surveillance system, video surveillance method, video surveillance system construction method
JP2017027197A (en) Monitoring program, monitoring device and monitoring method
JP7115579B2 (en) Information processing device, information processing method, and program
JP5930808B2 (en) Image processing apparatus, image processing apparatus control method, and program
JP2020126383A (en) Moving object detection device, moving object detection method, and moving body detection program
TWI448918B (en) Optical panel touch system
JP2018055685A (en) Information processing device, control method thereof, program, and storage medium
JP2017207972A (en) Image processing device, image processing method, and program
JP5854098B2 (en) Information display device and information display program
JP5893400B2 (en) Image monitoring device
US20220414278A1 (en) Architectural model data assistance system and architectural model data assistance method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180307

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190820

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200825

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201016

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210209

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210222

R150 Certificate of patent or registration of utility model

Ref document number: 6852675

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150