JP2022101591A - Queue detection system, method, and program - Google Patents

Queue detection system, method, and program Download PDF

Info

Publication number
JP2022101591A
JP2022101591A JP2022064304A JP2022064304A JP2022101591A JP 2022101591 A JP2022101591 A JP 2022101591A JP 2022064304 A JP2022064304 A JP 2022064304A JP 2022064304 A JP2022064304 A JP 2022064304A JP 2022101591 A JP2022101591 A JP 2022101591A
Authority
JP
Japan
Prior art keywords
matrix
person
input
unit
detection system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022064304A
Other languages
Japanese (ja)
Inventor
有紀江 海老山
Yukie Ebiyama
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JP2022101591A publication Critical patent/JP2022101591A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02EREDUCTION OF GREENHOUSE GAS [GHG] EMISSIONS, RELATED TO ENERGY GENERATION, TRANSMISSION OR DISTRIBUTION
    • Y02E40/00Technologies for an efficient electrical power generation, transmission or distribution
    • Y02E40/30Reactive power compensation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Geometry (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a queue detection system, method, and a recording medium that do not mistakenly treat a person as a person in a queue, even if the person does not intend to line up in a queue but simply stays.
SOLUTION: A queue detection system includes: a queue information input unit 2 that accepts input of a queue position by a user; a determination unit 33 that determines whether or not an object is lined up in a queue based on distance between the object detected from an input image and the queue position; and a tracking unit 32 that tracks the position of the object by using a different movement model depending on whether the object is lined up in the queue.
SELECTED DRAWING: Figure 1
COPYRIGHT: (C)2022,JPO&INPIT

Description

本発明は、映像から行列を検出するためのシステム、方法及び記録媒体に関する。 The present invention relates to a system, a method and a recording medium for detecting a matrix from an image.

カメラ映像から行列を検出する方法、及び、行列を成す人数や長さ、待ち時間等を解析する方法が種々提案されている。 Various methods have been proposed for detecting a matrix from a camera image and for analyzing the number of people forming a matrix, the length, the waiting time, and the like.

特許文献1に記載された技術は、入力画像に対し、背景差分を用いて人物領域の面積を求め、その面積をあらかじめ定めた一人あたりの単位面積で除算して人数を推定する。特許文献1に記載された技術は、推定した人数に対し、別途所定の方法で集計した単位時間当たりの入場者数で除算することにより、待ち時間を推定する。 In the technique described in Patent Document 1, the area of a person area is obtained from the input image by using background subtraction, and the area is divided by a predetermined unit area per person to estimate the number of people. The technique described in Patent Document 1 estimates the waiting time by dividing the estimated number of people by the number of visitors per unit time separately calculated by a predetermined method.

特許文献2に記載された技術は、天井に設置したカメラで行列を真上から撮影し、背景差分及びオプティカルフローを用いて、滞留及び移動中の個々の人物領域を抽出する。特許文献2に記載された技術は、抽出した個々の人物領域を順に結んで行列線を生成し、各行列の総延長及び長さに基づく待ち時間を算出する。 The technique described in Patent Document 2 captures a matrix from directly above with a camera installed on the ceiling, and uses background subtraction and optical flow to extract individual human areas that are staying and moving. The technique described in Patent Document 2 sequentially connects the extracted individual person regions to generate a matrix line, and calculates the waiting time based on the total length and length of each matrix.

特開2002-329196号公報Japanese Unexamined Patent Publication No. 2002-329196. 特開2007-317052号公報Japanese Unexamined Patent Publication No. 2007-317502

しかしながら、上述の特許文献1及び2に記載の技術では、行列に並ぶつもりではなく単に滞留しているだけ等の人物であっても、その人物を行列に並ぶ人として処理してしまう場合がある。 However, in the techniques described in Patent Documents 1 and 2 described above, even a person who does not intend to line up in a line but simply stays in the line may be treated as a person lined up in a line. ..

本発明の目的は、上述の課題を解決可能な技術を提供することである。 An object of the present invention is to provide a technique capable of solving the above-mentioned problems.

本開示の一態様に係る行列検出システムは、ユーザによる行列位置の入力を受け付ける行列情報入力手段と、入力画像から検出された対象物と前記行列位置との距離に基づいて、前記対象物が行列に並んでいるか否かを判定する判定手段と、前記対象物が行列に並んでいるか否かに応じて異なる移動モデルを使用し、前記対象物の位置を追跡する追跡手段と、を含む。 In the matrix detection system according to one aspect of the present disclosure, the object is a matrix based on the matrix information input means that accepts the input of the matrix position by the user and the distance between the object detected from the input image and the matrix position. It includes a determination means for determining whether or not the objects are lined up in a matrix, and a tracking means for tracking the position of the objects by using different movement models depending on whether or not the objects are lined up in a matrix.

本開示の一態様に係る行列検出方法は、ユーザによる行列位置の入力を受け付け、入力画像から検出された対象物と前記行列位置との距離に基づいて、前記対象物が行列に並んでいるか否かを判定し、前記対象物が行列に並んでいるか否かに応じて異なる移動モデルを使用し、前記対象物の位置を追跡する。 The matrix detection method according to one aspect of the present disclosure accepts input of a matrix position by a user, and whether or not the objects are lined up in a matrix based on the distance between the object detected from the input image and the matrix position. The position of the object is tracked by using a different movement model depending on whether the object is in a matrix or not.

本開示の一態様に係るプログラムは、コンピュータに、ユーザによる行列位置の入力を受け付ける処理、入力画像から検出された対象物と前記行列位置との距離に基づいて、前記対象物が行列に並んでいるか否かを判定する処理、前記対象物が行列に並んでいるか否かに応じて異なる移動モデルを使用し、前記対象物の位置を追跡する処理、を実行させる。 In the program according to one aspect of the present disclosure, the objects are arranged in a matrix based on a process of receiving input of a matrix position by a user in a computer and a distance between an object detected from an input image and the matrix position. A process of determining whether or not the object is present, and a process of tracking the position of the object by using a different movement model depending on whether or not the object is lined up in a matrix are executed.

本発明によれば、行列に並ぶつもりではなく単に滞留しているだけ等の人物であっても、誤ってその人物を行列に並ぶ人として処理してしまう場合がある、という課題が解決される。 According to the present invention, there is a problem that even a person who does not intend to line up in a line but simply stays in the line may be mistakenly treated as a person in line. ..

本発明の実施形態1の構成例を示す機能ブロック図である。It is a functional block diagram which shows the structural example of Embodiment 1 of this invention. 行列情報の入力方法の例を示す説明図である。It is explanatory drawing which shows the example of the input method of the matrix information. 行列情報の入力方法の例を示す説明図である。It is explanatory drawing which shows the example of the input method of the matrix information. 行列待ち情報の生成過程の例を示す説明図である。It is explanatory drawing which shows the example of the generation process of the queue waiting information. 行列待ち情報の生成過程の例を示す説明図である。It is explanatory drawing which shows the example of the generation process of the queue waiting information. 本発明の実施形態1の処理経過の例を示すフローチャートである。It is a flowchart which shows the example of the processing progress of Embodiment 1 of this invention. 本発明の実施形態1の処理経過の例を示すフローチャートである。It is a flowchart which shows the example of the processing progress of Embodiment 1 of this invention. 本発明の実施形態2の構成例を示す機能ブロック図である。It is a functional block diagram which shows the structural example of Embodiment 2 of this invention. 本発明の実施形態2の処理経過の例を示すフローチャートである。It is a flowchart which shows the example of the processing progress of Embodiment 2 of this invention. 本発明の各実施形態を実現可能なコンピュータのハードウェア構成例を説明する図である。It is a figure explaining the hardware configuration example of the computer which can realize each embodiment of this invention.

まず、本発明の実施形態の理解を容易にするために、本発明の背景を説明する。 First, the background of the present invention will be described in order to facilitate understanding of the embodiments of the present invention.

上述の特許文献1及び2に記載の技術では、行列に並ぶつもりではなく単に滞留しているだけ等の人物であっても、その人物を行列に並ぶ人として処理してしまう場合がある。 In the techniques described in Patent Documents 1 and 2 described above, even a person who does not intend to line up in a line but simply stays in the line may be treated as a person in line.

例えば、特許文献1に記載の技術は、入力画像に対し、背景差分を用いて人物領域の面積を求めるため、行列に並ぶつもりではない人が行列の付近に立ち止まった場合、その単に滞留している人も含めて人物領域の面積を求めることになる。また、本来の行列から離れた位置に複数の滞留者がいた場合、特許文献1に記載の技術はその複数の滞留者が行列を構成する人々であると認識しうる。特許文献1に記載の技術には、その他の課題として、オクルージョンの発生による未検出等がある。特許文献1のような背景差分に基づく手法では、人物の体格の違い、荷物等付帯物の有無、及び、人物同士の重なりや遮蔽物による隠れによって、実際の人物と差分ベースで取得する人物領域との関係に容易に誤差が生じる。また、この手法では、個々の人物やその並び順を認識しないため、人物ごとの待ち時間を算出することができない。 For example, the technique described in Patent Document 1 obtains the area of a person area for an input image by using background subtraction. Therefore, when a person who does not intend to line up in a line stops near the line, he / she simply stays. The area of the person area including the person who is there will be calculated. Further, when there are a plurality of resident persons at positions away from the original matrix, the technique described in Patent Document 1 can recognize that the plurality of resident persons are people forming the matrix. Another problem with the technique described in Patent Document 1 is that it has not been detected due to the occurrence of occlusion. In the method based on background subtraction as in Patent Document 1, the person area acquired based on the difference between the actual person and the actual person due to the difference in the physique of the person, the presence or absence of incidental items such as luggage, and the overlap between the persons and the hiding by the shield. An error easily occurs in the relationship with. In addition, since this method does not recognize individual persons and their order, it is not possible to calculate the waiting time for each person.

また、特許文献2に記載の技術においても、特許文献1と同様に単なる滞留者を行列に並ぶ人であるとする誤処理が生じうる。また、その他の課題として、特許文献2に記載の手法は、人物の検出及び追跡が良好に行えることを前提としているが、実環境においては、カメラの設置位置や建物の構造等により、人物同士の重なりや遮蔽物によるオクルージョンの発生が想定される。これにより、オクルージョン領域において人物の検出漏れが生じ、その結果行列に並ぶ人物を正しく繋ぐことに失敗し、誤った人数及び待ち時間を推定してしまう。特許文献2では、このようなオクルージョンの問題を解決するために、高い位置にカメラを設置し人物を真上から撮影することを提案している。しかし、一般的な屋内施設または屋外において必ずしも高い位置にカメラを設置できる環境が整っているとは限らない。また、一般的な監視カメラとも設置位置及び画角が異なるため、行列検出専用のカメラとして新たに設置する必要があり、導入コストの増大につながる。したがって、特殊な設置条件のカメラを使用するのではなく、人物を斜め上から撮影するような既設の監視カメラ映像を使用し、オクルージョンの問題を解決することが望ましい。 Further, also in the technique described in Patent Document 2, an erroneous process may occur in which a mere resident is regarded as a person in a line, as in Patent Document 1. As another problem, the method described in Patent Document 2 is based on the premise that the detection and tracking of a person can be performed well, but in an actual environment, depending on the installation position of the camera, the structure of the building, etc., the persons may be connected to each other. Occurrence of occlusion due to overlapping and shielding is expected. As a result, the detection of the person is omitted in the occlusion area, and as a result, it fails to correctly connect the people in the line, and the wrong number of people and the waiting time are estimated. In Patent Document 2, in order to solve such an occlusion problem, it is proposed to install a camera at a high position and take a picture of a person from directly above. However, it is not always possible to install the camera in a high position in a general indoor facility or outdoors. In addition, since the installation position and angle of view are different from those of general surveillance cameras, it is necessary to newly install it as a camera dedicated to matrix detection, which leads to an increase in introduction cost. Therefore, it is desirable to solve the occlusion problem by using an existing surveillance camera image that captures a person from diagonally above, instead of using a camera with special installation conditions.

以下に説明される本発明の実施形態によれば、上述の課題が解決され、行列に並ぶ意図でない人物の誤検出が防止され、また、天井設置型等特殊なカメラでなくても、オクルージョンに頑健に行列を検出することができる。 According to the embodiment of the present invention described below, the above-mentioned problems are solved, false detection of unintended persons in a line is prevented, and even if the camera is not a special camera such as a ceiling-mounted type, it can be used for occlusion. The matrix can be detected robustly.

以下、本発明の実施形態を、図面を参照して説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.

<実施形態1>
図1は本発明の実施形態1の構成例を示すブロック図である。
<Embodiment 1>
FIG. 1 is a block diagram showing a configuration example of the first embodiment of the present invention.

図1に示すように、本実施形態に係る行列検出システムは、画像入力部1と、行列情報入力部2と、行列検出部3と、出力部4とを含む。 As shown in FIG. 1, the matrix detection system according to the present embodiment includes an image input unit 1, a matrix information input unit 2, a matrix detection unit 3, and an output unit 4.

画像入力部1は、所定の監視領域を撮影した時系列の画像と撮影時刻との組を、行列検出部3に逐次入力する。画像入力部1が行列検出部3に入力する画像は、例えば監視カメラなどの撮影装置を用いて取得されてもよい。または、画像入力部1は、記憶装置(図示せず)に記憶された映像データを読み出して得られる時系列の画像を行列検出部3に入力してもよい。 The image input unit 1 sequentially inputs to the matrix detection unit 3 a set of a time-series image obtained by photographing a predetermined monitoring area and an imaging time. The image input by the image input unit 1 to the matrix detection unit 3 may be acquired by using a photographing device such as a surveillance camera. Alternatively, the image input unit 1 may input a time-series image obtained by reading the video data stored in the storage device (not shown) to the matrix detection unit 3.

なお、本実施形態において検出対象とする物体の種別は特に限定されず、人物、動物、車、ロボット、又は物であってもよい。以下では、人物の検出を例にして説明する。 The type of the object to be detected in this embodiment is not particularly limited, and may be a person, an animal, a car, a robot, or an object. In the following, the detection of a person will be described as an example.

行列情報入力部2は、解析対象となる行列の発生位置(以下「行列位置」という。)を入力する。行列情報入力部2は、例えばマウスや、タブレット端末のタッチパネルを介してユーザによる行列の発生位置の入力を受け付ける。行列情報入力部2は、ユーザによるマウス操作や、タッチペンや指などによるタッチパネル操作に基づき、監視カメラ映像が表示された画面上に行列の発生位置を入力してもよい。具体的には、行列情報入力部2は、画面上に、行列発生時の人物の足元位置の始点、中継点及び終点を描画して、行列の経路及び進行方向を入力してもよい。この時、ユーザは、始点及び終点を少なくともそれぞれ1点以上指定する必要があるが、中継点の指定は0点であってもよい。また、分岐や合流を含む行列を表現するために、ユーザは、始点又は終点の少なくともいずれかについて2つ以上入力してもよい。また、行列情報入力部2は、始点、中継点、終点間を結ぶ行列線ごとに、横に並ぶ人数の指定を、ユーザから受け付けるようにしてもよい。 The matrix information input unit 2 inputs the generation position (hereinafter referred to as "matrix position") of the matrix to be analyzed. The matrix information input unit 2 receives input of a matrix generation position by a user via, for example, a mouse or a touch panel of a tablet terminal. The matrix information input unit 2 may input the position where the matrix is generated on the screen on which the surveillance camera image is displayed, based on the mouse operation by the user or the touch panel operation by a touch pen, a finger, or the like. Specifically, the matrix information input unit 2 may draw the start point, relay point, and end point of the foot position of the person at the time of occurrence of the matrix on the screen, and input the path and the traveling direction of the matrix. At this time, the user needs to specify at least one start point and one end point, respectively, but the relay point may be specified as 0 point. Further, in order to represent a matrix including branching and merging, the user may input two or more at least one of the start point and the end point. Further, the matrix information input unit 2 may accept from the user the designation of the number of people arranged side by side for each matrix line connecting the start point, the relay point, and the end point.

また、入力された始点、中継点、終点及び横に並ぶ人数を、監視カメラ映像が表示された画面上に重畳して描画することで、ユーザが入力内容を容易に確認できるようにしてもよい。また、行列情報の入力は、行列検出処理を開始する前にあらかじめ行われていてもよいし、行列検出処理を実行中の任意のタイミングで、変更した行列情報が反映されるようにしてもよい。 Further, the input contents may be easily confirmed by the user by superimposing and drawing the input start point, relay point, end point and the number of people lined up side by side on the screen on which the surveillance camera image is displayed. .. Further, the input of the matrix information may be performed in advance before starting the matrix detection process, or the changed matrix information may be reflected at an arbitrary timing during the execution of the matrix detection process. ..

なお、行列情報の入力方法は、上述のものに限定されない。例えば、行列発生時の人物の足元位置の始点、中継点及び終点の入力が行われるのではなく、ユーザがタッチパネル上に直接、直線や曲線をなぞることで行列位置を入力するようにしてもよい。または、行列情報入力部2は、ユーザによる入力に基づくのではなく、装置内外で格納されている所定の書式で行列位置が記述されたファイルを読み込む等の方法により自動的に行列位置を入力するようにしてもよい。 The method of inputting matrix information is not limited to the above. For example, instead of inputting the start point, relay point, and end point of the foot position of the person when the matrix is generated, the user may input the matrix position by tracing a straight line or a curve directly on the touch panel. .. Alternatively, the matrix information input unit 2 automatically inputs the matrix position by a method such as reading a file in which the matrix position is described in a predetermined format stored inside or outside the device, instead of being based on the input by the user. You may do so.

ここで、行列情報の入力について具体的に説明する。図2は行列に並ぶ人物を監視カメラで撮影した画像を示す図である図2は、奥から手前方向に人物が並んでいる様子を示す。また、図2は、行列の最後尾では二股に分かれているが、途中で合流し、2列の行列となって先頭まで続いている様子を示している。図3は、行列情報として、行列の最後尾である2つの終点(終点1及び終点2)と、2つの中継点(中継点1及び中継点2)と、行列の先頭である1つの始点(始点1)とが入力された様子を示す。また、図3は、終点1及び2から中継点1までは1列の行列、中継点1から始点1までは2列の行列として入力された様子を示す。 Here, the input of matrix information will be specifically described. FIG. 2 is a diagram showing an image of people lined up in a line taken by a surveillance camera. FIG. 2 shows a state in which people are lined up from the back to the front. Further, FIG. 2 shows a state in which the matrix is bifurcated at the end, but merges in the middle to form a two-row matrix and continues to the beginning. FIG. 3 shows, as matrix information, two end points (end point 1 and end point 2) at the end of the matrix, two relay points (relay point 1 and relay point 2), and one start point (relay point 1 and relay point 2) at the beginning of the matrix. It shows how the start point 1) and is input. Further, FIG. 3 shows a state in which the input is input as a one-row matrix from the end points 1 and 2 to the relay point 1 and a two-row matrix from the relay point 1 to the start point 1.

行列情報入力部2は、上述のようにして入力された始点、中継点、終点及び各地点間の情報を、任意のタイミングで行列位置として反映させる。例えば、入力情報を反映させるための「反映」ボタンを表示画面上に表示しておき、ユーザによるそのボタンの押下を検出すると、行列情報入力部2は、入力情報を反映させてもよい。これにより反映された行列情報が、判定部33の判定等に用いられることになる。 The matrix information input unit 2 reflects the information input as described above at the start point, the relay point, the end point, and between the points as the matrix position at an arbitrary timing. For example, if a "reflect" button for reflecting the input information is displayed on the display screen and the user's pressing of the button is detected, the matrix information input unit 2 may reflect the input information. The matrix information reflected by this will be used for the determination of the determination unit 33 and the like.

行列検出部3は、画像入力部1から逐次入力される画像を解析し、画像中の行列を検出する。行列検出部3は、検出部31と、追跡部32と、判定部33と、生成部34とを備える。 The matrix detection unit 3 analyzes the images sequentially input from the image input unit 1 and detects the matrix in the image. The matrix detection unit 3 includes a detection unit 31, a tracking unit 32, a determination unit 33, and a generation unit 34.

検出部31は、画像入力部1から取得した画像中に存在するすべての、又は一部の人物を検出する。検出部31は、例えば、あらかじめ人物の頭部、上半身など特定部位の人体領域のパターンを認識するために構築された識別器を利用し入力画像から人物を検出する処理を行ってもよい。識別器を利用する方法に限定されず、検出部31は、人物の検出方法としてパターン認識における公知の手法を用いればよい。 The detection unit 31 detects all or some of the people present in the image acquired from the image input unit 1. For example, the detection unit 31 may perform a process of detecting a person from an input image by using a classifier constructed in advance for recognizing a pattern of a human body region of a specific portion such as a person's head or upper body. The detection unit 31 is not limited to the method using the classifier, and the detection unit 31 may use a known method in pattern recognition as a method for detecting a person.

また、検出部31は、行列位置の近辺に存在する人物のみを検出対象とするために、行列情報入力部2から入力される行列位置に基づいて、検出対象領域を限定して検出処理を行うようにしてもよい。すなわち、検出部31は、入力された行列位置の近傍の領域に対してのみ検出処理を行うようにしてもよい。 Further, the detection unit 31 performs detection processing by limiting the detection target area based on the matrix position input from the matrix information input unit 2 in order to detect only the person existing in the vicinity of the matrix position. You may do so. That is, the detection unit 31 may perform the detection process only on the region near the input matrix position.

検出部31は、検出結果として、画像入力部1から取得した画像の時刻と、検出した人物の位置座標を出力する。入力画像を撮影したカメラのキャリブレーション情報について、あらかじめ算出されている等によりわかっている場合、検出部31は、キャリブレーション情報を用いて、人物の検出結果である画面上の位置座標を世界座標に変換して出力してもよい。 The detection unit 31 outputs the time of the image acquired from the image input unit 1 and the position coordinates of the detected person as the detection result. If the calibration information of the camera that captured the input image is known by being calculated in advance, the detection unit 31 uses the calibration information to set the position coordinates on the screen, which is the detection result of the person, to the world coordinates. It may be converted to and output.

追跡部32は、検出部31により各フレーム画像から検出された人物を対象に、複数フレーム間に渡って人物の追跡を行う。追跡部32は、例えば、パーティクルフィルタなどの公知のアルゴリズムを用いて、人物の追跡処理を行うようにしてもよい。 The tracking unit 32 tracks a person detected from each frame image by the detection unit 31 over a plurality of frames. The tracking unit 32 may perform tracking processing of a person by using a known algorithm such as a particle filter.

追跡部32は、追跡対象の人物の位置を更新するために用いる移動モデルに関し、対象が行列に並ぶ人物か否かによって、異なる移動モデルを使用してもよい。追跡部32は、行列に並ぶ人物であるかどうかにつき、例えば判定部33が管理する行列人物ID(IDentifier)リストを参照してもよい。その場合、追跡部32は、追跡対象の人物IDが行列人物IDリストに登録されていれば行列に並ぶ人物であると判定し、登録されていなければ行列に並んでいない人物であると判定しても良い。 The tracking unit 32 may use a different movement model depending on whether or not the target is a person in a line with respect to the movement model used to update the position of the person to be tracked. The tracking unit 32 may refer to, for example, a matrix person ID (Identifier) list managed by the determination unit 33 regarding whether or not the person is in a line. In that case, the tracking unit 32 determines that the person ID to be tracked is a person in a line if it is registered in the line person ID list, and determines that the person is not in a line if it is not registered. May be.

行列に並ぶ人物に関し、並んでいる時間の多くは静止状態である。そのため、多くの時間で静止状態を表す(すなわち、ほとんど移動しない)移動モデルを適用することが適切である。また、行列情報入力部2から得られる行列位置情報により、場所ごとの進行方向は既知である。そのため、進行方向を限定した移動モデルを適用することができる。つまり、追跡部32は、行列に並ぶ人物に対して、移動状態と静止状態を表す2状態モデルを使用した追跡処理を行うことで、より頑健に追跡することが可能になる。追跡部32は、行列に並ぶ人物が静止状態か移動状態かに応じて、各状態モデルの重みを変化させるようにしてもよい。 For people in line, most of the time they are in line is stationary. Therefore, it is appropriate to apply a movement model that represents a resting state for many hours (ie, hardly moves). Further, the traveling direction for each place is known from the matrix position information obtained from the matrix information input unit 2. Therefore, it is possible to apply a movement model in which the traveling direction is limited. That is, the tracking unit 32 can track the people in the line more robustly by performing the tracking process using the two-state model representing the moving state and the stationary state. The tracking unit 32 may change the weight of each state model depending on whether the people in the line are in a stationary state or a moving state.

一方で、行列に並んでいない人物は、移動方向に制限がない。そのため、追跡部32は、行列に並んでいない人物に対しては、所定範囲の移動速度で全方位に移動することを想定した移動モデルを適用してもよい。 On the other hand, people who are not in line have no restrictions on the direction of movement. Therefore, the tracking unit 32 may apply a movement model assuming that the person does not line up in the line to move in all directions at a movement speed within a predetermined range.

入力された人物の位置情報が画像上の平面座標である場合で、あらかじめ算出されている等の事情により入力画像を撮影したカメラのキャリブレーション情報をわかっている場合、追跡部32は、世界座標系で追跡処理を行ってもよい。すなわち、追跡部32は、キャリブレーション情報を用いて、画面上の座標系を世界座標系に変換してから追跡処理を行ってもよい。人物の位置情報が世界座標系で入力される場合は、追跡部32は、そのまま世界座標系にて追跡処理を行ってもよい。 When the input position information of the person is the plane coordinates on the image and the calibration information of the camera that took the input image is known due to circumstances such as being calculated in advance, the tracking unit 32 uses the world coordinates. The tracking process may be performed in the system. That is, the tracking unit 32 may perform the tracking process after converting the coordinate system on the screen into the world coordinate system by using the calibration information. When the position information of a person is input in the world coordinate system, the tracking unit 32 may perform the tracking process in the world coordinate system as it is.

追跡部32は、追跡結果を出力する。追跡部32は、例えば、追跡結果として、追跡対象の人物毎の人物IDと、時刻と、位置座標とを紐付けた情報を出力する。 The tracking unit 32 outputs the tracking result. For example, the tracking unit 32 outputs information as a tracking result in which a person ID for each person to be tracked, a time, and a position coordinate are associated with each other.

判定部33は、追跡部32から出力される時刻ごとの人物の位置座標をもとに、各人物の移動速度を算出する。判定部33は、人物の位置座標と、行列情報入力部2から入力される行列位置の座標とを比較し、各人物と行列位置との距離を算出する。 The determination unit 33 calculates the movement speed of each person based on the position coordinates of the person for each time output from the tracking unit 32. The determination unit 33 compares the position coordinates of the person with the coordinates of the matrix position input from the matrix information input unit 2, and calculates the distance between each person and the matrix position.

判定部33は、移動速度及び行列位置との距離が所定の閾値よりも小さくなる人物を、行列に並ぶ人物(以下、「行列人物」という。)と判定する。判定部33は、当該移動速度または行列位置との距離が所定の閾値以上となる人物を、行列に並ばない人物(以下、「移動人物」という。)と判定する。 The determination unit 33 determines a person whose movement speed and distance from the matrix position are smaller than a predetermined threshold value as a person who is lined up in a matrix (hereinafter, referred to as a "matrix person"). The determination unit 33 determines a person whose movement speed or distance from the matrix position is equal to or greater than a predetermined threshold value as a person who does not line up in the matrix (hereinafter referred to as "moving person").

判定部33は、検出部31が特定部位として頭部を検出した場合、カメラパラメータを用いて、頭部の位置から人物の足元に相当する下端位置を推定し、推定した下端位置と行列位置との距離に基づいて、人物が行列に並んでいるか否かを判定してもよい。これにより、足元を直接検出することが困難な場合にも、比較的検出が容易な頭部を検出し、そこから足元を推定するとこで、判定部33は、精度よく行列人物か否かを判定することができる。判定部33は、人物が大人である可能性や子供である可能性を考慮してもよい。具体的には、例えば、判定部33は、頭部の世界座標系における高さを複数のバリエーションで仮定し、カメラパラメータを用いて、仮定した複数の高さから複数の下端位置を推定する。判定部33は、推定した複数の下端位置と行列位置との最短距離に基づいて、対象物が行列に並んでいるか否かを判定してもよい。 When the detection unit 31 detects the head as a specific part, the determination unit 33 estimates the lower end position corresponding to the foot of the person from the position of the head using the camera parameters, and determines the estimated lower end position and the matrix position. It may be determined whether or not the persons are in a line based on the distance of. As a result, even when it is difficult to directly detect the feet, the head, which is relatively easy to detect, is detected and the feet are estimated from the head, and the determination unit 33 accurately determines whether or not the person is in a line. It can be determined. The determination unit 33 may consider the possibility that the person is an adult or a child. Specifically, for example, the determination unit 33 assumes the height of the head in the world coordinate system with a plurality of variations, and estimates a plurality of lower end positions from the assumed heights by using the camera parameters. The determination unit 33 may determine whether or not the objects are lined up in a matrix based on the shortest distance between the estimated plurality of lower end positions and the matrix positions.

判定部33は、追跡中の各人物IDが、行列人物と移動人物のどちらであるかを示す行列人物IDリストを保持しておく。行列人物IDリストとは、追跡中の人物の人物IDと、当該人物が行列人物または移動人物のどちらであるかを表す情報と、の組を管理しているリストである。 The determination unit 33 holds a matrix person ID list indicating whether each person ID being tracked is a matrix person or a moving person. The procession person ID list is a list that manages a set of a person ID of a person being tracked and information indicating whether the person is a procession person or a moving person.

判定部33は、追跡中の各人物IDについて、移動速度と行列位置との距離に基づく判定結果を用いて、行列人物IDリストを更新する。 The determination unit 33 updates the matrix person ID list for each person ID being tracked by using the determination result based on the distance between the movement speed and the matrix position.

判定部33は、行列人物であると判定した人物の情報を出力する。判定部33は、例えば、行列人物であると判定した人物の人物IDと、時刻と、位置座標とを紐付けた情報を出力する。 The determination unit 33 outputs information on a person who has been determined to be a matrix person. The determination unit 33 outputs, for example, information in which the person ID of the person determined to be a matrix person, the time, and the position coordinates are associated with each other.

生成部34は、判定部33から入力される行列人物の情報と、行列情報入力部2から入力される行列位置の情報とに基づいて、欠損のない全体の行列情報を生成する。すなわち、生成部34は、未検出領域を推定し、行列人物の情報から未検出領域に並ぶ人物の情報を補完して、行列情報を生成する。 The generation unit 34 generates the entire matrix information without defects based on the information of the matrix person input from the determination unit 33 and the information of the matrix position input from the matrix information input unit 2. That is, the generation unit 34 estimates the undetected area, complements the information of the persons lined up in the undetected area from the information of the matrix person, and generates the matrix information.

具体的には、生成部34は、行列人物の位置座標と、行列位置と、に基づいてオクルージョンの発生状況(オクルージョンの影響による人物の未検出領域)を推定する。生成部34は、推定したオクルージョンの発生状況と、未検出領域前後の行列人物の検出状況等から、オクルージョンの影響により検出されなかった人物の存在を推定する。また、生成部34は、見えが小さすぎることにより人物が検出できない領域(見えの影響による人物の未検出領域)を推定する。生成部34は、見えの影響による未検出の可能性と、行列人物の検出状況とから、検出されなかった人物の存在を推定する。生成部34は、未検出だが存在すると推定された人物の情報を補完することで、欠損のない全体の行列情報を生成する。生成部34は、欠損のない全体の行列情報として、例えば、行列に並ぶ人数、行列の長さ、行列に並ぶ各人の累積待ち時間、行列の進行速度、行列に並び始めてから行列を抜けるまでの推定待ち時間などの情報を生成してもよい。 Specifically, the generation unit 34 estimates the occurrence status of occlusion (the undetected area of the person due to the influence of occlusion) based on the position coordinates of the person in the procession and the position of the procession. The generation unit 34 estimates the existence of a person who is not detected due to the influence of the occlusion from the estimated occurrence state of occlusion and the detection state of the matrix person before and after the undetected area. In addition, the generation unit 34 estimates a region where a person cannot be detected because the visibility is too small (a region where the person has not been detected due to the influence of the appearance). The generation unit 34 estimates the existence of an undetected person from the possibility of undetection due to the influence of appearance and the detection status of the matrix person. The generation unit 34 generates the entire matrix information without defects by supplementing the information of the person who has not been detected but is presumed to exist. The generation unit 34 provides the entire matrix information without defects, for example, the number of people in the matrix, the length of the matrix, the cumulative waiting time of each person in the matrix, the progress speed of the matrix, and the procession from the start to the exit of the matrix. Information such as the estimated waiting time of may be generated.

オクルージョンの発生状況の推定方法として、図4、図5を用いて説明する。 As a method of estimating the occurrence state of occlusion, FIGS. 4 and 5 will be described.

図4は、折り返しのある行列を撮影した画像を示す図である。図4は、画像中の左上が行列の始点(先頭)となり、途中で2回折り返し、右下が行列の終点(最後尾)となっている様子を示す。 FIG. 4 is a diagram showing an image of a matrix with folds. FIG. 4 shows a state in which the upper left of the image is the start point (beginning) of the matrix, the image is folded back twice in the middle, and the lower right is the end point (end) of the matrix.

斜め下を見下ろす画角で撮影された映像は、カメラからの距離が遠い場所ほど俯角が浅くなる。そのため、人物が等間隔に並んだ行列においても、カメラから遠い人物ほど手前の人物に隠れやすくなってしまう。また、カメラから離れるほど人物の見えが小さくなる。そのため、カメラから遠くに存在する人物は、人物を検出可能な最小画素数を下回ることで、検出されなくなることがある。具体例として、図4では、網掛けで示した領域で、オクルージョンや人物の見えが小さすぎることにより未検出となったことを示している。 An image shot with an angle of view looking down diagonally has a shallower depression angle as the distance from the camera increases. Therefore, even in a procession in which people are lined up at equal intervals, the farther the person is from the camera, the easier it is to hide in the person in front. Also, the farther away from the camera, the smaller the visibility of the person. Therefore, a person who is far from the camera may not be detected if the number of pixels is less than the minimum number of pixels that can detect the person. As a specific example, FIG. 4 shows that in the shaded area, occlusion and the appearance of a person are too small to be detected.

このような状況において、例えば行列全体の待ち人数を算出する場合は、生成部34は、例えば以下のような方法で算出する。生成部34は、判定部33により行列人物と判定された人物の位置座標と、行列情報入力部2から入力された行列位置とに基づいて、途切れた行列長を算出する。また、生成部34は、人物位置が得られている領域から人口密度(所定の距離内で並ぶ人数)を推定する。生成部34は、推定した人口密度に基づいて途切れた行列長に存在する人数を推定し、検出できた人数と合算して待ち人数を算出する。生成部34は、例えば上述の方法で待ち人数を算出する。 In such a situation, for example, when calculating the number of people waiting for the entire matrix, the generation unit 34 calculates by, for example, the following method. The generation unit 34 calculates the interrupted matrix length based on the position coordinates of the person determined to be the matrix person by the determination unit 33 and the matrix position input from the matrix information input unit 2. In addition, the generation unit 34 estimates the population density (the number of people lined up within a predetermined distance) from the area where the person position is obtained. The generation unit 34 estimates the number of people existing in the interrupted matrix length based on the estimated population density, and calculates the number of people waiting by adding up with the number of people that can be detected. The generation unit 34 calculates the number of people waiting, for example, by the method described above.

また、各人の累積待ち時間を算出する場合は、生成部34は、例えば以下のような方法で算出する。生成部34は、上述の方法でオクルージョン領域に存在する人数を推定する。生成部34は、オクルージョン領域の直前及び直後で検出された人物について、行列に並び始めてからの累積待ち時間を算出する。生成部34は、算出した2つの累積待ち時間の時間差をオクルージョン領域に存在する推定人数で除算する。生成部34は、除算することで算出した時間差を、オクルージョン領域に存在する先頭の人物から順に、前に並んでいる人物の累積待ち時間に加算していくことで、累積待ち時間の補間処理を行う。 Further, when calculating the cumulative waiting time of each person, the generation unit 34 calculates by, for example, the following method. The generation unit 34 estimates the number of people existing in the occlusion region by the above method. The generation unit 34 calculates the cumulative waiting time from the start of lining up for the persons detected immediately before and after the occlusion area. The generation unit 34 divides the calculated time difference between the two cumulative waiting times by the estimated number of people existing in the occlusion area. The generation unit 34 performs the interpolation processing of the cumulative waiting time by adding the time difference calculated by division to the cumulative waiting time of the people lined up in front in order from the first person existing in the occlusion area. conduct.

出力部4は、行列検出部3から入力される行列情報を出力する。出力部4の出力様態は、例えば、表示出力である。この場合、出力部4は、外部に備えられたディスプレイ装置に表示を行えばよい。ただし、出力部4の出力態様は表示に限定されず、他の態様であってもよい。 The output unit 4 outputs the matrix information input from the matrix detection unit 3. The output mode of the output unit 4 is, for example, a display output. In this case, the output unit 4 may display on an external display device. However, the output mode of the output unit 4 is not limited to the display, and may be another mode.

次に、本実施形態に係る行列検出システムの動作について、図6及び図7のフローチャートを参照して説明する。図6は、ユーザが行列位置を入力する際の処理フローの一例を示す。図7は、行列位置が入力されたのち、行列を検出し、欠損のない全体の行列情報を生成する際の処理フローの一例を示す。 Next, the operation of the matrix detection system according to the present embodiment will be described with reference to the flowcharts of FIGS. 6 and 7. FIG. 6 shows an example of a processing flow when a user inputs a matrix position. FIG. 7 shows an example of a processing flow in which a matrix is detected after the matrix position is input and the entire matrix information without defects is generated.

なお、後述の各処理ステップは、処理内容に矛盾を生じない範囲で、任意に順番を変更してもしくは並列に実行してもよく、また、各処理ステップ間に他のステップを追加しても良い。更に、便宜上1つのステップとして記載されているステップは複数のステップに分けて実行してもよく、便宜上複数に分けて記載されているステップを1ステップとして実行してもよい。 It should be noted that each processing step described later may be arbitrarily changed in order or executed in parallel as long as the processing contents do not conflict with each other, or another step may be added between each processing step. good. Further, the step described as one step for convenience may be executed by being divided into a plurality of steps, or the step described as being divided into a plurality of steps may be executed as one step for convenience.

はじめに、ユーザが行列位置を入力する際の処理について、図6のフローチャートを参照して説明する。 First, the process when the user inputs the matrix position will be described with reference to the flowchart of FIG.

行列情報入力部2は、所定の監視領域を撮影した画像を取得し、行列位置を設定するための画面上に表示する(ステップSA1)。 The matrix information input unit 2 acquires an image of a predetermined monitoring area and displays it on a screen for setting a matrix position (step SA1).

次に、ユーザは、表示された画面上に、未設定である行列が存在するかどうかを確認する。行列の設定が完了しておらず未設定の行列が存在する場合、行列情報入力部2は、所定の入力装置を介してユーザによる行列位置の入力の開始を受け付ける(ステップSA2のno)。入力装置としては、例えばマウスやタッチパネルが該当し、タッチパネルであれば、ユーザはタッチペンや指などを使用して入力すればよい。 Next, the user checks whether there is an unconfigured matrix on the displayed screen. When the matrix setting is not completed and there is an unset matrix, the matrix information input unit 2 accepts the start of input of the matrix position by the user via a predetermined input device (no in step SA2). The input device corresponds to, for example, a mouse or a touch panel, and if it is a touch panel, the user may input using a stylus, a finger, or the like.

行列情報入力部2は、ユーザによる行列の始点の入力を受け付ける(ステップSA3)。ユーザが設定しようとしている行列に始点が複数存在する場合は、行列情報入力部2は、ステップSA3ですべての始点の入力を受け付ける。 The matrix information input unit 2 accepts the input of the start point of the matrix by the user (step SA3). If there are a plurality of start points in the matrix to be set by the user, the matrix information input unit 2 accepts the input of all the start points in step SA3.

次に、行列情報入力部2は、ユーザによる行列の分岐や経由地点を表す中継点の入力を受け付ける(ステップSA4)。もし行列が始点と終点を結ぶ直線で表すことができる場合は、中継点の入力は必要ないため、ステップSA4の処理は省略される。また、ユーザが設定しようとしている行列に中継点が複数存在する場合は、行列情報入力部2は、ステップSA4ですべての中継点の入力を受け付ける。 Next, the matrix information input unit 2 accepts the input of the relay point representing the branch of the matrix and the waypoint by the user (step SA4). If the matrix can be represented by a straight line connecting the start point and the end point, the processing of step SA4 is omitted because the input of the relay point is not necessary. If there are a plurality of relay points in the matrix to be set by the user, the matrix information input unit 2 accepts the inputs of all the relay points in step SA4.

次に、行列情報入力部2は、行列の終点の入力を受け付ける(ステップSA5)。ユーザが設定しようとしている行列に終点が複数存在する場合は、行列情報入力部2は、ステップSA5ですべての終点の入力を受け付ける。 Next, the matrix information input unit 2 receives the input of the end point of the matrix (step SA5). If there are a plurality of end points in the matrix to be set by the user, the matrix information input unit 2 accepts the input of all the end points in step SA5.

なお、ステップSA3、SA4及びSA5で入力した始点、中継点及び終点は、入力される都度、ステップSA1で取得した画像上に表示され、ユーザは入力された各点を確認できるものとしてもよい。 The start point, relay point, and end point input in steps SA3, SA4, and SA5 may be displayed on the image acquired in step SA1 each time they are input, and the user may be able to confirm each input point.

次に、ユーザは、入力した始点、中継点及び終点の地点間を結ぶ各線分に対し、列の数(横に並ぶ人数)の入力が未設定である線分が存在するかどうかを確認する。列数の設定が完了しておらず未設定の線分が存在する場合、行列情報入力部2は、未設定の線分に対し、上述した入力装置を介してユーザによる列の数の入力の開始を受け付ける(ステップSA6のno)。行列情報入力部2は、ユーザによる列の数の入力を受け付ける(ステップSA7)。 Next, the user confirms whether or not there is a line segment for which the number of columns (the number of people arranged side by side) has not been set for each line segment connecting the input start point, relay point, and end point. .. When the setting of the number of columns is not completed and there is an unset line segment, the matrix information input unit 2 inputs the number of columns to the unset line segment by the user via the above-mentioned input device. Accept the start (no in step SA6). The matrix information input unit 2 accepts the input of the number of columns by the user (step SA7).

なお、ステップSA7で入力した地点間を結ぶ各線分及び列の数は、入力される都度、ステップSA1で取得した画像上に表示され、ユーザは入力された各線分の人数を確認できるものとしてもよい。 It should be noted that the number of lines and columns connecting the points input in step SA7 is displayed on the image acquired in step SA1 each time the input is made, and the user can confirm the number of input lines. good.

行列情報入力部2は、ユーザによるすべての線分に対する列の数の入力が完了する(ステップSA6のyes)と、ステップSA2に戻り、次の行列に関する入力の受付を開始する。行列情報入力部2は、ユーザによるすべての線分に対する列の数の入力が完了したことを、例えば、その旨のユーザによる入力を受け付けることにより、又はユーザの入力の開始がないまま所定時間が経過することにより判定してもよい。 When the user completes the input of the number of columns for all the line segments (yes in step SA6), the matrix information input unit 2 returns to step SA2 and starts accepting input regarding the next matrix. The matrix information input unit 2 indicates that the input of the number of columns for all the lines by the user has been completed, for example, by accepting the input by the user to that effect, or by accepting the input by the user, or for a predetermined time without the start of the input by the user. It may be determined by the passage of time.

行列情報入力部2は、ユーザによるすべての行列の入力が完了したことを判定すると(ステップSA2のyes)、行列情報入力部2における行列情報の入力は完了となる。行列情報入力部2は、ユーザによるすべての行列の入力が完了したことを、例えば、その旨のユーザによる入力を受け付けることにより、又はユーザの入力の開始がないまま所定時間が経過することにより判定してもよい。 When the matrix information input unit 2 determines that the input of all the matrices by the user is completed (yes in step SA2), the input of the matrix information in the matrix information input unit 2 is completed. The matrix information input unit 2 determines that the input of all the matrices by the user has been completed, for example, by accepting the input by the user to that effect, or by the elapse of a predetermined time without the start of the input by the user. You may.

次に、行列を検出し行列待ち情報を生成する際の処理について、図7のフローチャートを参照して説明する。 Next, the process for detecting the matrix and generating the queue waiting information will be described with reference to the flowchart of FIG. 7.

検出部31は、入力部1から、撮影画像とその撮影時刻を取得する(ステップSB1)。検出部31は、画像中に存在するすべての人物を検出し、時刻及び検出した人物の位置座標を出力する(ステップSB2)。 The detection unit 31 acquires a captured image and a captured time thereof from the input unit 1 (step SB1). The detection unit 31 detects all the persons existing in the image, and outputs the time and the position coordinates of the detected persons (step SB2).

次に、追跡部32の追跡結果を受け、判定部33は、前フレーム画像に対する処理結果として得られた追跡人物に関して、行列人物IDリストを参照し(ステップSB3)、行列人物であるかどうかを判定する(ステップSB4)。なお、行列人物IDリストとは、追跡中の人物の人物IDと、当該人物が行列人物または移動人物のどちらであるかを表す情報との組を管理しているリストである。 Next, upon receiving the tracking result of the tracking unit 32, the determination unit 33 refers to the matrix person ID list with respect to the tracking person obtained as the processing result for the previous frame image (step SB3), and determines whether or not the tracking person is a matrix person. Determination (step SB4). The procession person ID list is a list that manages a set of a person ID of a person being tracked and information indicating whether the person is a procession person or a moving person.

行列人物である場合(ステップSB4のyes)、判定部33は、行列人物用の移動モデルを用いて、現フレーム画像における位置座標を予測する。判定部33は、予測した位置座標とステップSB2で得られた人物位置座標を用いて、現フレーム画像における追跡人物の位置座標を算出する(ステップSB5a)。判定部33は、行列人物用の移動モデルとして、例えば、行列が静止している状態を表す移動モデルと、行列が進む状態を表す移動モデルの2状態モデルを用いてもよい。具体的には、静止状態を表す移動モデルでは、判定部33は、前フレーム画像と現フレーム画像でほとんど位置の変化がないという予測を行う。一方、進む状態を表す移動モデルでは、判定部33は、前フレーム画像と現フレーム画像とで、行列情報入力部2から得られる行列位置の情報に基づいて移動方向を限定した予測を行う。 In the case of a matrix person (yes in step SB4), the determination unit 33 predicts the position coordinates in the current frame image using the movement model for the matrix person. The determination unit 33 calculates the position coordinates of the tracked person in the current frame image by using the predicted position coordinates and the person position coordinates obtained in step SB2 (step SB5a). As the movement model for the matrix person, the determination unit 33 may use, for example, a two-state model of a movement model representing a state in which the matrix is stationary and a movement model representing a state in which the matrix advances. Specifically, in the moving model representing the stationary state, the determination unit 33 predicts that there is almost no change in the position between the previous frame image and the current frame image. On the other hand, in the movement model representing the advancing state, the determination unit 33 makes a prediction in which the movement direction is limited based on the information of the matrix position obtained from the matrix information input unit 2 in the front frame image and the current frame image.

一方、移動人物である場合(ステップSB4のno)、判定部33は、移動人物用の移動モデルを用いて、現フレーム画像における位置座標を予測する。判定部33は、予測した位置座標とステップSB2で得られた人物位置座標を用いて、現フレーム画像における追跡人物の位置座標を算出する(ステップSB5b)。判定部33は、移動人物用の移動モデルとして、例えば、移動方向に制限がないため、所定範囲の移動速度で全方位に移動することを想定したモデルを用いてもよい。 On the other hand, in the case of a moving person (no in step SB4), the determination unit 33 predicts the position coordinates in the current frame image by using the moving model for the moving person. The determination unit 33 calculates the position coordinates of the tracked person in the current frame image by using the predicted position coordinates and the person position coordinates obtained in step SB2 (step SB5b). As a movement model for a moving person, the determination unit 33 may use, for example, a model that assumes movement in all directions at a movement speed within a predetermined range because there are no restrictions on the movement direction.

次に、判定部33は、ステップSB5a及びステップSB5bにて算出した、現在から過去数フレーム分の人物位置座標及び各時刻情報を用いて、人物の移動速度を算出する(ステップSB6)。 Next, the determination unit 33 calculates the movement speed of the person using the person position coordinates for the past several frames from the present and each time information calculated in steps SB5a and SB5b (step SB6).

判定部33は、現フレームにおける人物位置座標と、行列情報入力部2から得られる行列位置との最短距離等適切な距離を算出する(ステップSB7)。 The determination unit 33 calculates an appropriate distance such as the shortest distance between the person position coordinates in the current frame and the matrix position obtained from the matrix information input unit 2 (step SB7).

判定部33は、ステップSB6で算出した移動速度と、ステップSB7で算出した距離とを用い、移動速度があらかじめ定めた閾値よりも小さく、かつ、距離があらかじめ定めた閾値よりも小さいかどうかを判定する(ステップSB8)。前記条件を満たす場合(ステップSB8のyes)は、当該人物は行列人物であると判定する(ステップSB9a)。一方、前記条件を満たさない場合(ステップSB8のno)は、当該人物は、移動人物であると判定する(ステップSB9b)。 The determination unit 33 uses the movement speed calculated in step SB6 and the distance calculated in step SB7 to determine whether the movement speed is smaller than the predetermined threshold value and the distance is smaller than the predetermined threshold value. (Step SB8). When the above conditions are satisfied (yes in step SB8), it is determined that the person is a matrix person (step SB9a). On the other hand, when the above condition is not satisfied (no in step SB8), it is determined that the person is a moving person (step SB9b).

判定部33は、ステップSB9a及びステップSB9bにおける行列に並ぶ人物か否かの判定結果を用いて、判定部33が管理している行列人物IDリストを更新する(ステップSB10)。 The determination unit 33 updates the matrix person ID list managed by the determination unit 33 by using the determination result of whether or not the person is in line in the matrix in steps SB9a and SB9b (step SB10).

次に、生成部34は、ステップSB9aで行列人物と判定された人物の人物位置と、行列情報入力部2から取得した行列位置とに基づいて、オクルージョンの発生状況を推定する。生成部34は、オクルージョン領域に存在する行列情報の補間処理を行う(ステップSB11)。具体的には、行列情報として待ち人数を算出する場合、生成部34は、ステップSB9aで行列人物と判定された人物の位置情報と、行列情報入力部2から得られる行列位置情報とを用いて、オクルージョンにより途切れた未検出領域の行列長を算出する。また、生成部34は、行列人物の人口密度(所定の距離内で並ぶ人数)を算出する。生成部34は、算出した人口密度に基づいて途切れた未検出領域の行列長に存在する人数を推定し、検出できている行列人物と合算して待ち人数を算出する。 Next, the generation unit 34 estimates the occurrence status of occlusion based on the person position of the person determined to be the matrix person in step SB9a and the matrix position acquired from the matrix information input unit 2. The generation unit 34 performs interpolation processing of the matrix information existing in the occlusion region (step SB11). Specifically, when calculating the number of people waiting as matrix information, the generation unit 34 uses the position information of the person determined to be the matrix person in step SB9a and the matrix position information obtained from the matrix information input unit 2. , Calculate the matrix length of the undetected area interrupted by occlusion. In addition, the generation unit 34 calculates the population density (the number of people lined up within a predetermined distance) of the people in the procession. The generation unit 34 estimates the number of people existing in the matrix length of the interrupted undetected area based on the calculated population density, and calculates the number of people waiting by adding up with the detected matrix people.

出力部4は、生成部34から出力される行列情報を、例えばアプリケーションや記憶媒体などの外部モジュールに対して出力する(ステップSB12)。 The output unit 4 outputs the matrix information output from the generation unit 34 to an external module such as an application or a storage medium (step SB12).

また、図6に示す行列情報の入力処理は、図7に示す行列検出処理を開始する前にあらかじめ行われていてもよい。あるいは、図7に示す行列検出処理が実行中の任意のタイミングで、図6に示す処理が行われて行列情報が更新され、更新された行列情報を用いて図7に示す行列検出処理が再開されるようにしてもよい。 Further, the matrix information input process shown in FIG. 6 may be performed in advance before the matrix detection process shown in FIG. 7 is started. Alternatively, at any time during the execution of the matrix detection process shown in FIG. 7, the process shown in FIG. 6 is performed to update the matrix information, and the matrix detection process shown in FIG. 7 is restarted using the updated matrix information. It may be done.

実施形態1に係るプログラムは、上記の一連の処理をコンピュータに実行させるプログラムであれば良い。 The program according to the first embodiment may be any program as long as it causes a computer to execute the above series of processes.

以上説明したように実施形態1に係る行列検出システムによれば、行列に並ぶつもりではなく単に滞留しているだけ等の人物であっても、その人物を行列に並ぶ人として処理してしまう場合がある、という課題が解決される。 As described above, according to the matrix detection system according to the first embodiment, even if a person does not intend to line up in a line but simply stays, the person is treated as a person lined up in a line. The problem that there is is solved.

また、オクルージョンが発生する環境においても、隠れている領域の行列の長さを推定することで、人数の補間処理が可能になる。また、行列形状が複雑な場合でも、場所ごとの進行方向が既知となるため、行列人物追跡時の移動モデルに進行方向を活用することで、追跡の頑健性が向上する。そのため、実施形態1に係る行列検出システムによれば、行列に並ぶ人物を検出し、人数や待ち時間等の行列情報を好適に推定することができる。 In addition, even in an environment where occlusion occurs, it is possible to interpolate the number of people by estimating the length of the matrix in the hidden area. Further, even if the matrix shape is complicated, the traveling direction for each place is known. Therefore, by utilizing the traveling direction for the movement model at the time of tracking the matrix person, the robustness of the tracking is improved. Therefore, according to the matrix detection system according to the first embodiment, it is possible to detect people in a queue and preferably estimate matrix information such as the number of people and the waiting time.

また、行列に並ぶことを意図していない人物が行列の付近に立ち止まった場合にも、人物と行列位置との距離の閾値を適切に設定することで、行列に並ぶ人物ではないと判定することが可能になる。さらに、行列に並ぶ人物か否かの判定に、人物と行列位置との距離を考慮するのみではなく、人物の移動速度も考慮することで、行列の間を横切って通過する人物についての行列位置付近での判定において、当該人物は行列に並ぶ人物ではない、と精度よく判定することが可能になる。 Also, even if a person who is not intended to line up in a line stops near the line, it is determined that the person is not lined up by setting the threshold of the distance between the person and the line position appropriately. Will be possible. Furthermore, in determining whether or not a person is in a line, not only the distance between the person and the line position is taken into consideration, but also the movement speed of the person is taken into consideration, so that the line position of the person passing across the line is taken into consideration. In the determination in the vicinity, it is possible to accurately determine that the person is not a person in a line.

<実施形態2>
次に図8を参照して、本発明の実施形態2に係る行列検出システムの機能構成を説明する。
<Embodiment 2>
Next, with reference to FIG. 8, the functional configuration of the matrix detection system according to the second embodiment of the present invention will be described.

図8は本発明の実施形態2の構成例を示すブロック図である。 FIG. 8 is a block diagram showing a configuration example of the second embodiment of the present invention.

図8に示すように、本実施形態に係る行列検出システムは、行列情報入力部51と、検出部52と、判定部53とを含む。 As shown in FIG. 8, the matrix detection system according to the present embodiment includes a matrix information input unit 51, a detection unit 52, and a determination unit 53.

行列情報入力部51は、行列位置の入力を受け付ける。 The matrix information input unit 51 accepts the input of the matrix position.

検出部52は、入力画像から対象物を検出する。 The detection unit 52 detects an object from the input image.

判定部53は、対象物と行列位置との距離に基づいて、対象物が行列に並んでいるか否かを判定する。 The determination unit 53 determines whether or not the objects are lined up in a matrix based on the distance between the object and the matrix position.

図9は実施形態2に係る行列検出システムの動作を示すフローチャート図である。 FIG. 9 is a flowchart showing the operation of the matrix detection system according to the second embodiment.

行列情報入力部51は、行列位置の入力を受け付ける(ステップSC1)。 The matrix information input unit 51 accepts the input of the matrix position (step SC1).

検出部52は、入力画像から対象物を検出する(ステップSC2)。 The detection unit 52 detects an object from the input image (step SC2).

判定部53は、対象物と行列位置との距離に基づいて、対象物が行列に並んでいるか否かを判定する(ステップSC3)。 The determination unit 53 determines whether or not the objects are lined up in a matrix based on the distance between the object and the matrix position (step SC3).

以上説明したように、実施形態2に係る行列検出システムによれば、行列に並ぶつもりではなく単に滞留しているだけ等の人物であっても、その人物を行列に並ぶ人として処理してしまう場合がある、という課題が解決される。 As described above, according to the matrix detection system according to the second embodiment, even a person who does not intend to line up in a line but simply stays in the line is treated as a person lined up in the line. The problem that there are cases is solved.

<ハードウェア構成例>
上述の各実施形態の行列検出システムを構成する各部は、制御部、メモリ、メモリにロードされたプログラム、プログラムを格納するハードディスク等の記憶ユニット、ネットワーク接続用インターフェース等からなり、ハードウェアとソフトウェアの任意の組合せによって実現される。
<Hardware configuration example>
Each part constituting the matrix detection system of each of the above-described embodiments includes a control unit, a memory, a program loaded in the memory, a storage unit such as a hard disk for storing the program, an interface for network connection, and the like, and includes hardware and software. It is realized by any combination.

図10は、実施形態1又は実施形態2に係る行列検出システムのハードウェア構成の一例を示すブロック図である。 FIG. 10 is a block diagram showing an example of the hardware configuration of the matrix detection system according to the first embodiment or the second embodiment.

図10に示すように、行列検出システムは、CPU11(Central Processing Unit)と、ネットワーク接続用の通信IF12(通信インターフェース12)と、メモリ13と、プログラムを格納するハードディスク等の記憶装置14とを含む、コンピュータ装置によって実現される。ただし、行列検出システムの構成は、図10に示す構成に限定されない。 As shown in FIG. 10, the matrix detection system includes a CPU 11 (Central Processing Unit), a communication IF 12 (communication interface 12) for network connection, a memory 13, and a storage device 14 such as a hard disk for storing a program. , Realized by computer equipment. However, the configuration of the matrix detection system is not limited to the configuration shown in FIG.

CPU11は、オペレーティングシステムを動作させて行列検出システムの全体を制御する。また、CPU11は、例えばドライブ装置などに装着された記録媒体からメモリ13にプログラムやデータを読み出す。CPU11がメモリ13にプログラムやデータを読み出すことで、画像入力部1、行列情報入力部2、行列検出部3(検出部31、追跡部32、判定部33及び生成部34)及び出力部4の各機能部が実現される。 The CPU 11 operates an operating system to control the entire matrix detection system. Further, the CPU 11 reads a program or data into the memory 13 from a recording medium mounted on, for example, a drive device. When the CPU 11 reads a program or data into the memory 13, the image input unit 1, the matrix information input unit 2, the matrix detection unit 3 (detection unit 31, tracking unit 32, determination unit 33 and generation unit 34) and the output unit 4 Each functional part is realized.

行列検出システムは、例えば通信IF12を介して他のコンピュータである画像入力装置と接続されても良い。 The matrix detection system may be connected to an image input device which is another computer, for example, via a communication IF12.

記録装置14は、例えば光ディスク、フレキシブルディスク、磁気光ディスク、外付けハードディスク、半導体メモリ等であって、コンピュータプログラムをコンピュータ読み取り可能に記録する。記憶装置14は、例えば、統合したデータを格納するデータ格納部でも良い。また、コンピュータプログラムは、通信網に接続されている図示しない外部コンピュータからダウンロードされても良い。 The recording device 14 is, for example, an optical disk, a flexible disk, a magnetic optical disk, an external hard disk, a semiconductor memory, or the like, and records a computer program in a computer-readable manner. The storage device 14 may be, for example, a data storage unit that stores integrated data. Further, the computer program may be downloaded from an external computer (not shown) connected to the communication network.

行列検出システムは、入力装置15又は出力装置16と接続されていても良い。入力装置15は、例えばキーボード、マウス等である。出力装置16は、例えばディスプレイ等でも良く、出力部4が出力する行列情報をディスプレイ上に表示しても良い。 The matrix detection system may be connected to the input device 15 or the output device 16. The input device 15 is, for example, a keyboard, a mouse, or the like. The output device 16 may be, for example, a display or the like, and the matrix information output by the output unit 4 may be displayed on the display.

なお、図1及び図8の機能ブロック図においては、各実施形態の構成部は物理的に結合した一つの装置により実現されるよう記載されているが、その実現手段は特に限定されない。すなわち、二つ以上の物理的に分離した装置を有線または無線で接続し、これら複数の装置により、各実施形態のシステムを実現しても良い。 In the functional block diagrams of FIGS. 1 and 8, the components of each embodiment are described to be realized by one physically connected device, but the means for realizing the components is not particularly limited. That is, two or more physically separated devices may be connected by wire or wirelessly, and the system of each embodiment may be realized by these plurality of devices.

以上、各実施形態及び実施例を参照して本発明を説明したが、本発明は以上の実施形態及び実施例に限定されるものではない。本発明の構成や詳細には、本発明のスコープ内で同業者が理解し得る様々な変更をすることができる。 Although the present invention has been described above with reference to each embodiment and examples, the present invention is not limited to the above embodiments and examples. The configuration and details of the invention may be modified in various ways within the scope of the invention as may be understood by peers.

<実施形態の他の表現>
上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
<Other expressions of the embodiment>
Some or all of the above embodiments may also be described, but not limited to:

(付記1)
行列位置の入力を受け付ける行列情報入力手段と、
入力画像から対象物を検出する検出手段と、
前記対象物と前記行列位置との距離に基づいて、前記対象物が行列に並んでいるか否かを判定する判定手段と、
を含む行列検出システム。
(Appendix 1)
Matrix information input means that accepts matrix position input,
A detection means that detects an object from an input image,
A determination means for determining whether or not the objects are lined up in a matrix based on the distance between the object and the matrix position.
Matrix detection system including.

(付記2)
前記行列位置と、前記判定手段により行列に並ぶと判定された対象物の位置とに基づいて、対象物が未検出となっている領域を推定し、前記行列に並ぶと判定された対象物から未検出領域の対象物を補完し、行列情報を生成する生成手段、
をさらに含む付記1に記載の行列検出システム。
(Appendix 2)
Based on the matrix position and the position of the object determined to be lined up by the determination means, the region where the object is not detected is estimated, and from the object determined to be lined up in the matrix. A generation means that complements an object in an undetected area and generates matrix information,
The matrix detection system according to Appendix 1, further comprising.

(付記3)
前記生成手段は、前記判定手段により前記行列に並ぶと判定された対象物の密度に基づいて前記未検出領域の対象物を補完する
付記2に記載の行列検出システム。
(Appendix 3)
The matrix detection system according to Appendix 2, wherein the generation means complements an object in the undetected region based on the density of the objects determined to be lined up in the matrix by the determination means.

(付記4)
前記生成手段は、
前記判定手段により行列に並ぶと判定された対象物の待ち時間を算出し、
前記未検出領域の前後の領域で検出された対象物の待ち時間に基づいて、前記未検出領域の対象物の待ち時間を算出する
付記3に記載の行列検出システム。
(Appendix 4)
The generation means is
The waiting time of the objects determined to be in line by the determination means is calculated, and the waiting time is calculated.
The matrix detection system according to Appendix 3, which calculates the waiting time of an object in the undetected region based on the waiting time of the object detected in the regions before and after the undetected region.

(付記5)
前記判定手段は、前記対象物の移動速度と、前記対象物と前記行列位置との距離と、に基づいて、前記対象物が行列に並んでいるか否かを判定する
付記1~4のいずれかに記載の行列検出システム。
(Appendix 5)
The determination means is any one of Supplementary note 1 to 4 for determining whether or not the object is lined up in a matrix based on the moving speed of the object and the distance between the object and the matrix position. The matrix detection system described in.

(付記6)
対象物が行列に並んでいるか否かに応じて異なる移動モデルを使用し、検出した対象物の位置を追跡する追跡手段、
をさらに含み、
前記判定手段は、前記追跡手段による追跡結果から前記移動速度を算出する
付記5に記載の行列検出システム。
(Appendix 6)
A tracking means that tracks the location of detected objects using different movement models depending on whether the objects are in a matrix or not.
Including
The matrix detection system according to Appendix 5, wherein the determination means calculates the movement speed from the tracking result by the tracking means.

(付記7)
前記追跡手段は、
前記判定手段により行列待ちと判定された対象物に対し、行列の待ち状態と移動状態を表す2つの移動モデルと、前記行列情報入力手段から取得した行列位置及び進行方向とに基づいて、前フレームから現フレームへの移動状態を予測し、また、
前記判定手段により行列待ちと判定されなかった対象物に対し、所定の範囲の速度で全方位に移動することを想定した移動モデルに基づいて、前フレームから現フレームへの移動状態を予測する
付記6に記載の行列検出システム。
(Appendix 7)
The tracking means
For an object determined to be waiting in a matrix by the determination means, the previous frame is based on two movement models representing the waiting state and the moving state of the matrix, and the matrix position and the traveling direction acquired from the matrix information input means. Predicts the movement state from to the current frame, and also
Addendum that predicts the movement state from the previous frame to the current frame based on the movement model assuming that the object that is not determined to be waiting in line by the determination means moves in all directions at a speed within a predetermined range. 6. The matrix detection system according to 6.

(付記8)
前記行列情報入力手段は、少なくとも1つ以上の行列の始点と、少なくとも1つ以上の行列の終点と、行列の経由点又は分岐点を表すための0個以上の中継点との入力を受け付け、隣接する各始点、中継点、終点との間を結ぶ線分に対して、対象物が横並びになる列数の入力を受け付ける
付記1~7のいずれかに記載の行列検出システム。
(Appendix 8)
The matrix information input means receives input of at least one matrix start point, at least one matrix end point, and zero or more relay points for representing a matrix waypoint or branch point. The matrix detection system according to any one of Supplementary note 1 to 7, which accepts an input of the number of columns in which an object is arranged side by side for a line segment connecting adjacent start points, relay points, and end points.

(付記9)
前記行列情報入力手段は、
入力画像上に前記始点、中継点、終点及び各地点間の列数を描画したものを入力情報として用い、任意のタイミングで前記行列位置として反映させる
付記8に記載の行列検出システム。
(Appendix 9)
The matrix information input means is
The matrix detection system according to Appendix 8, wherein the start point, the relay point, the end point, and the number of columns between the points are drawn on the input image as input information and reflected as the matrix position at an arbitrary timing.

(付記10)
前記検出手段は、前記対象物の特定部位を検出し、
前記判定手段は、カメラパラメータを用いて、前記特定部位の位置から前記対象物の下端位置を推定し、推定した下端位置と前記行列位置との距離に基づいて、対象物が行列に並んでいるか否かを判定する
付記1~9のいずれかに記載の行列検出システム。
(Appendix 10)
The detection means detects a specific part of the object and
The determination means estimates the lower end position of the object from the position of the specific portion using a camera parameter, and whether the objects are lined up in a matrix based on the distance between the estimated lower end position and the matrix position. The matrix detection system according to any one of Supplementary Provisions 1 to 9 for determining whether or not.

(付記11)
前記判定手段は、前記特定部位の世界座標系における高さを複数のバリエーションで仮定し、前記カメラパラメータを用いて、仮定した複数の高さから複数の下端位置を推定し、推定した複数の下端位置と前記行列位置との最短距離に基づいて、対象物が行列に並んでいるか否かを判定する
付記10に記載の行列検出システム。
(Appendix 11)
The determination means assumes the height of the specific part in the world coordinate system with a plurality of variations, estimates a plurality of lower end positions from the assumed plurality of heights using the camera parameters, and estimates a plurality of lower ends. The matrix detection system according to Appendix 10, which determines whether or not objects are lined up in a matrix based on the shortest distance between the position and the matrix position.

(付記12)
行列位置の入力を受け付け、
入力画像から対象物を検出し、
前記対象物と前記行列位置との距離に基づいて、前記対象物が行列に並んでいるか否かを判定する、
行列検出方法。
(Appendix 12)
Accepts input of matrix position,
Detects an object from the input image and
It is determined whether or not the object is lined up in a matrix based on the distance between the object and the matrix position.
Matrix detection method.

(付記13)
行列位置の入力を受け付ける行列情報入力処理と、
入力画像から対象物を検出する検出処理と、
前記対象物と前記行列位置との距離に基づいて、前記対象物が行列に並んでいるか否かを判定する判定処理と、
をコンピュータに実行させるプログラム。
(Appendix 13)
Matrix information input processing that accepts matrix position input and
Detection processing to detect an object from the input image and
A determination process for determining whether or not the objects are lined up in a matrix based on the distance between the object and the matrix position.
A program that causes a computer to run.

この出願は、2015年9月14日に出願された日本出願特願2015-180260を基礎とする優先権を主張し、その開示の全てをここに取り込む。 This application claims priority on the basis of Japanese application Japanese Patent Application No. 2015-180260 filed on September 14, 2015, and incorporates all of its disclosures herein.

本発明によれば、精度の良い行列監視システムを提供でき、監視領域内で発生する行列を検出し、待ち人数や待ち時間を提示するシステムに好適に適用することができる。 According to the present invention, it is possible to provide a highly accurate matrix monitoring system, and it can be suitably applied to a system that detects a matrix generated in a monitoring area and presents the number of people waiting and the waiting time.

また、本発明では、あらかじめ入力した行列の発生位置情報を活用することにより、棚や柱や人物同士の重なりによるオクルージョンが発生しやすい環境においても、特殊なカメラの設置条件を必要とせずに、欠損なく待ち人数や待ち時間を推定することができるため、行列検出システムの導入が容易になる。 Further, in the present invention, by utilizing the generation position information of the matrix input in advance, even in an environment where occlusion is likely to occur due to the overlap of shelves, pillars, or people, no special camera installation conditions are required. Since the number of people waiting and the waiting time can be estimated without any loss, the introduction of a matrix detection system becomes easy.

1 画像入力部
2、51 行列情報入力部
3 行列検出部
4 出力部
31、52 検出部
32 追跡部
33、53 判定部
34 生成部
11 CPU
12 通信IF
13 メモリ
14 記憶装置
15 入力装置
16 出力装置
1 Image input unit 2, 51 Matrix information input unit 3 Matrix detection unit 4 Output unit 31, 52 Detection unit 32 Tracking unit 33, 53 Judgment unit 34 Generation unit 11 CPU
12 Communication IF
13 Memory 14 Storage device 15 Input device 16 Output device

Claims (10)

ユーザによる行列位置の入力を受け付ける行列情報入力手段と、
入力画像から検出された対象物と前記行列位置との距離に基づいて、前記対象物が行列に並んでいるか否かを判定する判定手段と、
前記対象物が行列に並んでいるか否かに応じて異なる移動モデルを使用し、前記対象物の位置を追跡する追跡手段と、
を含む行列検出システム。
Matrix information input means that accepts input of matrix position by the user,
A determination means for determining whether or not the objects are lined up in a matrix based on the distance between the object detected from the input image and the matrix position.
A tracking means that tracks the position of the object using different movement models depending on whether the object is in a matrix or not.
Matrix detection system including.
前記判定手段は、前記対象物の移動速度と、前記対象物と前記行列位置との距離と、に基づいて、前記対象物が行列に並んでいるか否かを判定する、請求項1に記載の行列検出システム。 The determination means according to claim 1, wherein the determination means determines whether or not the objects are lined up in a matrix based on the moving speed of the object and the distance between the object and the matrix position. Matrix detection system. 前記判定手段は、前記追跡手段による追跡結果から前記移動速度を算出する、請求項2に記載の行列検出システム。 The matrix detection system according to claim 2, wherein the determination means calculates the movement speed from the tracking result by the tracking means. 前記行列位置と、前記判定手段により行列に並ぶと判定された対象物の位置とに基づいて、対象物が未検出となっている領域を推定し、前記行列に並ぶと判定された対象物から未検出領域の対象物を補完し、行列情報を生成する生成手段、
をさらに含む請求項1から3のいずれか1項に記載の行列検出システム。
Based on the matrix position and the position of the object determined to be lined up by the determination means, the region where the object is not detected is estimated, and from the object determined to be lined up in the matrix. A generation means that complements an object in an undetected area and generates matrix information,
The matrix detection system according to any one of claims 1 to 3, further comprising.
前記生成手段は、前記判定手段により前記行列に並ぶと判定された対象物の密度に基づいて前記未検出領域の対象物を補完する
請求項4に記載の行列検出システム。
The matrix detection system according to claim 4, wherein the generation means complements an object in the undetected region based on the density of the objects determined to be lined up in the matrix by the determination means.
前記生成手段は、
前記判定手段により行列に並ぶと判定された対象物の待ち時間を算出し、
前記未検出領域の前後の領域で検出された対象物の待ち時間に基づいて、前記未検出領域の対象物の待ち時間を算出する
請求項5に記載の行列検出システム。
The generation means is
The waiting time of the objects determined to be in line by the determination means is calculated, and the waiting time is calculated.
The matrix detection system according to claim 5, wherein the waiting time of the object in the undetected region is calculated based on the waiting time of the object detected in the regions before and after the undetected region.
前記追跡手段は、
前記判定手段により行列待ちと判定された対象物に対し、行列の待ち状態と移動状態を表す2つの移動モデルと、前記行列情報入力手段から取得した行列位置及び進行方向とに基づいて、前フレームから現フレームへの移動状態を予測し、また、
前記判定手段により行列待ちと判定されなかった対象物に対し、所定の範囲の速度で全方位に移動することを想定した移動モデルに基づいて、前フレームから現フレームへの移動状態を予測する
請求項1から6のいずれか1項に記載の行列検出システム。
The tracking means
For an object determined to be waiting in a matrix by the determination means, the previous frame is based on two movement models representing the waiting state and the moving state of the matrix, and the matrix position and the traveling direction acquired from the matrix information input means. Predicts the movement state from to the current frame, and also
A claim that predicts the movement state from the previous frame to the current frame based on a movement model that assumes that an object that is not determined to be waiting in line by the determination means moves in all directions at a speed within a predetermined range. Item 6. The matrix detection system according to any one of Items 1 to 6.
前記行列情報入力手段は、少なくとも1つ以上の行列の始点と、少なくとも1つ以上の行列の終点と、行列の経由点又は分岐点を表すための0個以上の中継点との入力を受け付け、隣接する各始点、中継点、終点との間を結ぶ線分に対して、対象物が横並びになる列数の入力を受け付ける
請求項1から7のいずれかに1つ記載の行列検出システム。
The matrix information input means receives input of at least one matrix start point, at least one matrix end point, and zero or more relay points for representing a matrix waypoint or branch point. The matrix detection system according to any one of claims 1 to 7, which accepts an input of the number of columns in which an object is arranged side by side with respect to a line segment connecting adjacent start points, relay points, and end points.
ユーザによる行列位置の入力を受け付け、
入力画像から検出された対象物と前記行列位置との距離に基づいて、前記対象物が行列に並んでいるか否かを判定し、
前記対象物が行列に並んでいるか否かに応じて異なる移動モデルを使用し、前記対象物の位置を追跡する、
行列検出方法。
Accepts user input of matrix position
Based on the distance between the object detected from the input image and the matrix position, it is determined whether or not the object is lined up in the matrix.
Tracking the position of the object using different movement models depending on whether the object is in a matrix or not.
Matrix detection method.
コンピュータに、
ユーザによる行列位置の入力を受け付ける処理、
入力画像から検出された対象物と前記行列位置との距離に基づいて、前記対象物が行列に並んでいるか否かを判定する処理、
前記対象物が行列に並んでいるか否かに応じて異なる移動モデルを使用し、前記対象物の位置を追跡する処理、
を実行させるプログラム。
On the computer
Processing that accepts input of matrix position by the user,
A process of determining whether or not the objects are lined up in a matrix based on the distance between the object detected from the input image and the matrix position.
A process of tracking the position of an object using a different movement model depending on whether the object is in a matrix or not.
A program to execute.
JP2022064304A 2015-09-14 2022-04-08 Queue detection system, method, and program Pending JP2022101591A (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2015180260 2015-09-14
JP2015180260 2015-09-14
JP2021033283A JP7060126B2 (en) 2015-09-14 2021-03-03 Matrix detection system, method and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2021033283A Division JP7060126B2 (en) 2015-09-14 2021-03-03 Matrix detection system, method and program

Publications (1)

Publication Number Publication Date
JP2022101591A true JP2022101591A (en) 2022-07-06

Family

ID=58288534

Family Applications (4)

Application Number Title Priority Date Filing Date
JP2017540493A Active JP6852675B2 (en) 2015-09-14 2016-09-12 Matrix detection system, method and program
JP2020043673A Active JP7036138B2 (en) 2015-09-14 2020-03-13 Matrix detection system, method and program
JP2021033283A Active JP7060126B2 (en) 2015-09-14 2021-03-03 Matrix detection system, method and program
JP2022064304A Pending JP2022101591A (en) 2015-09-14 2022-04-08 Queue detection system, method, and program

Family Applications Before (3)

Application Number Title Priority Date Filing Date
JP2017540493A Active JP6852675B2 (en) 2015-09-14 2016-09-12 Matrix detection system, method and program
JP2020043673A Active JP7036138B2 (en) 2015-09-14 2020-03-13 Matrix detection system, method and program
JP2021033283A Active JP7060126B2 (en) 2015-09-14 2021-03-03 Matrix detection system, method and program

Country Status (2)

Country Link
JP (4) JP6852675B2 (en)
WO (1) WO2017047060A1 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6852791B2 (en) * 2017-06-30 2021-03-31 日本電気株式会社 Information processing equipment, control methods, and programs
JP7129209B2 (en) * 2018-05-16 2022-09-01 キヤノン株式会社 Information processing device, information processing method and program
CN110503284B (en) * 2018-05-18 2022-08-05 杭州海康威视数字技术股份有限公司 Statistical method and device based on queuing data
CN110505438B (en) * 2018-05-18 2021-03-26 杭州海康威视数字技术股份有限公司 Queuing data acquisition method and camera
KR102040218B1 (en) 2018-06-11 2019-11-04 엘지전자 주식회사 Moving robot capable of recognizing waiting line and method for controlling the moving robot
JP7195367B2 (en) * 2021-04-22 2022-12-23 三菱電機株式会社 Waiting person guidance device, waiting person guidance method and waiting person guidance program
JP7445906B1 (en) 2022-12-02 2024-03-08 パナソニックIpマネジメント株式会社 Installation support device, installation support method, and installation support program

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003276963A (en) * 2003-02-03 2003-10-02 Toshiba Corp Elevator controller by use of image monitoring device
US20050117778A1 (en) * 2003-12-01 2005-06-02 Crabtree Ralph N. Systems and methods for determining if objects are in a queue
JP2008519567A (en) * 2004-11-02 2008-06-05 センサーマティック・エレクトロニクス・コーポレーション System and method for matrix monitoring
US20130182114A1 (en) * 2012-01-17 2013-07-18 Objectvideo, Inc. System and method for monitoring a retail environment using video content analysis with depth sensing
US20140301602A1 (en) * 2013-04-08 2014-10-09 Vision Semantics Limited Queue Analysis
JP2014229068A (en) * 2013-05-22 2014-12-08 株式会社 日立産業制御ソリューションズ People counting device and person flow line analysis apparatus
JP2015069639A (en) * 2014-04-28 2015-04-13 パナソニックIpマネジメント株式会社 Stay-time measurement apparatus,stay-time measurement system and stay-time measurement method

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007317052A (en) * 2006-05-29 2007-12-06 Japan Airlines International Co Ltd System for measuring waiting time for lines

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003276963A (en) * 2003-02-03 2003-10-02 Toshiba Corp Elevator controller by use of image monitoring device
US20050117778A1 (en) * 2003-12-01 2005-06-02 Crabtree Ralph N. Systems and methods for determining if objects are in a queue
JP2008519567A (en) * 2004-11-02 2008-06-05 センサーマティック・エレクトロニクス・コーポレーション System and method for matrix monitoring
US20130182114A1 (en) * 2012-01-17 2013-07-18 Objectvideo, Inc. System and method for monitoring a retail environment using video content analysis with depth sensing
US20140301602A1 (en) * 2013-04-08 2014-10-09 Vision Semantics Limited Queue Analysis
JP2014229068A (en) * 2013-05-22 2014-12-08 株式会社 日立産業制御ソリューションズ People counting device and person flow line analysis apparatus
JP2015069639A (en) * 2014-04-28 2015-04-13 パナソニックIpマネジメント株式会社 Stay-time measurement apparatus,stay-time measurement system and stay-time measurement method

Also Published As

Publication number Publication date
JP2021093205A (en) 2021-06-17
JP7060126B2 (en) 2022-04-26
JP7036138B2 (en) 2022-03-15
WO2017047060A1 (en) 2017-03-23
JP6852675B2 (en) 2021-03-31
JP2020113300A (en) 2020-07-27
JPWO2017047060A1 (en) 2018-06-28

Similar Documents

Publication Publication Date Title
JP7060126B2 (en) Matrix detection system, method and program
US10893207B2 (en) Object tracking apparatus, object tracking method, and non-transitory computer-readable storage medium for storing program
US10082879B2 (en) Head mounted display device and control method
JP6950692B2 (en) People flow estimation device, people flow estimation method and program
KR101603017B1 (en) Gesture recognition device and gesture recognition device control method
JP6525545B2 (en) INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND COMPUTER PROGRAM
JP5885398B2 (en) Image processing apparatus and image processing method
JP5754990B2 (en) Information processing apparatus, information processing method, and program
KR102347248B1 (en) Method and apparatus for recognizing touch gesture
JP6210234B2 (en) Image processing system, image processing method, and program
US20210329175A1 (en) Image processing system, image processing method, and program
US8644553B2 (en) Image display device, image display method, and image display program
JP6629139B2 (en) Control device, control method, and program
JPWO2014050432A1 (en) Information processing system, information processing method, and program
JP6638723B2 (en) Image analysis device, image analysis method, and image analysis program
JP2007034525A (en) Information processor, information processing method and computer program
JP6789421B2 (en) Information processing equipment, tracking method, and tracking program
JP2006236184A (en) Human body detection method by image processing
KR102344227B1 (en) Moving body detecting device, moving body detecting method, and moving body detecting program
JP6977337B2 (en) Site recognition method, device, program, and imaging control system
JP2018055685A (en) Information processing device, control method thereof, program, and storage medium
JP6780639B2 (en) Image analysis device, image analysis method, and image analysis program
JP6723822B2 (en) Image processing apparatus, image processing method and program
JP5893400B2 (en) Image monitoring device
JP5854098B2 (en) Information display device and information display program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220422

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220422

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230523

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20231003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231226

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20240111

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20240222