JP6866950B2 - Analyzer, control method, and program - Google Patents

Analyzer, control method, and program Download PDF

Info

Publication number
JP6866950B2
JP6866950B2 JP2020116114A JP2020116114A JP6866950B2 JP 6866950 B2 JP6866950 B2 JP 6866950B2 JP 2020116114 A JP2020116114 A JP 2020116114A JP 2020116114 A JP2020116114 A JP 2020116114A JP 6866950 B2 JP6866950 B2 JP 6866950B2
Authority
JP
Japan
Prior art keywords
camera
person
captured image
time
travel time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020116114A
Other languages
Japanese (ja)
Other versions
JP2020177678A (en
Inventor
哲史 野中
哲史 野中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2020116114A priority Critical patent/JP6866950B2/en
Publication of JP2020177678A publication Critical patent/JP2020177678A/en
Application granted granted Critical
Publication of JP6866950B2 publication Critical patent/JP6866950B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は画像解析を利用した行動解析に関する。 The present invention relates to behavioral analysis using image analysis.

監視カメラの映像などを用いて人の行動を解析する技術が開発されている。特許文献1は、監視対象領域に存在する人の行動状態を表す物理量を導出し、その物理量と平均値との差分に基づいて、人の不審度を算出する技術を開示している。物理量としては、監視対象領域に滞在する時間などが挙げられている。 Technology for analyzing human behavior using images from surveillance cameras has been developed. Patent Document 1 discloses a technique of deriving a physical quantity representing a human behavior state existing in a monitored area and calculating a person's suspiciousness based on the difference between the physical quantity and the average value. Examples of physical quantities include the time spent in the monitored area.

特開2019−8831号公報JP-A-2019-8831

特許文献1では、全ての人物の不審度を、共通の平均値に基づいて算出している。しかしながら、不審人物ではない正常な人同士であっても、その行動には大きな差がありうる。例えば、若い人とお年寄りの場合、同じ場所を移動するのに要する時間が大きく異なると考えられる。 In Patent Document 1, the degree of suspicion of all persons is calculated based on a common average value. However, even normal people who are not suspicious people can make a big difference in their behavior. For example, it is thought that the time required to move to the same place differs greatly between young people and elderly people.

本発明は上記の課題に鑑みたものであり、その目的の一つは、撮像画像を用いた行動解析をより高い精度で行う技術を提供することである。 The present invention has been made in view of the above problems, and one of the objects thereof is to provide a technique for performing behavioral analysis using captured images with higher accuracy.

本発明の解析装置は、1)施設内に設置されている第1カメラによって生成される第1撮像画像と、施設内に設置されている第2カメラによって生成される第2撮像画像とのそれぞれから、同一の人物を検出する検出部と、2)検出部によって検出された人物が、第1カメラによって撮像される場所から第2カメラによって撮像される場所までの移動に要した移動時間を算出する算出部と、3)第1撮像画像及び第2撮像画像の少なくとも一方を用いて、人物の属性を特定する特定部と、4)特定された属性に対応する基準値を取得し、算出した移動時間と取得した基準値とを比較して、その比較結果に基づく出力情報を出力する比較部と、を有する。 The analyzer of the present invention has 1) a first captured image generated by a first camera installed in the facility and a second captured image generated by a second camera installed in the facility, respectively. From, the detection unit that detects the same person and 2) the movement time required for the person detected by the detection unit to move from the place where the image is captured by the first camera to the place where the person is imaged by the second camera is calculated. Using at least one of the first captured image and the second captured image, a specific unit that specifies the attribute of the person and 4) a reference value corresponding to the specified attribute are acquired and calculated. It has a comparison unit that compares the travel time with the acquired reference value and outputs output information based on the comparison result.

本発明の制御方法はコンピュータによって実行される。当該制御方法は、1)施設内に設置されている第1カメラによって生成される第1撮像画像と、施設内に設置されている第2カメラによって生成される第2撮像画像とのそれぞれから、同一の人物を検出する検出ステップと、2)検出ステップによって検出された人物が、第1カメラによって撮像される場所から第2カメラによって撮像される場所までの移動に要した移動時間を算出する算出ステップと、3)第1撮像画像及び第2撮像画像の少なくとも一方を用いて、人物の属性を特定する特定ステップと、4)特定された属性に対応する基準値を取得し、算出した移動時間と取得した基準値とを比較して、その比較結果に基づく出力情報を出力する比較ステップと、を有する。 The control method of the present invention is executed by a computer. The control method is as follows: 1) From each of the first captured image generated by the first camera installed in the facility and the second captured image generated by the second camera installed in the facility. Calculation to calculate the movement time required for the detection step to detect the same person and 2) the person detected by the detection step to move from the place imaged by the first camera to the place imaged by the second camera. Using at least one of the step, 3) the first captured image and the second captured image, a specific step for specifying the attribute of a person, and 4) a reference value corresponding to the specified attribute are acquired and calculated, and the travel time is calculated. It has a comparison step of comparing with the acquired reference value and outputting output information based on the comparison result.

本発明のプログラムは、本発明の制御方法が有する各ステップをコンピュータに実行させる。 The program of the present invention causes a computer to execute each step of the control method of the present invention.

本発明によれば、撮像画像を用いた行動解析をより高い精度で行う技術が提供される。 According to the present invention, there is provided a technique for performing behavioral analysis using captured images with higher accuracy.

実施形態1の解析装置の動作の概要を例示する図である。It is a figure which illustrates the outline of the operation of the analysis apparatus of Embodiment 1. 実施形態1の解析装置の構成を例示する図である。It is a figure which illustrates the structure of the analysis apparatus of Embodiment 1. 解析装置を実現するための計算機を例示する図である。It is a figure which illustrates the computer for realizing the analysis apparatus. 実施形態1の解析装置によって実行される処理の流れを例示するフローチャートである。It is a flowchart which illustrates the flow of the process executed by the analysis apparatus of Embodiment 1. 更新部を有する解析装置の機能構成を例示するブロック図である。It is a block diagram which illustrates the functional structure of the analysis apparatus which has an update part. 出力情報を例示する図である。It is a figure which illustrates the output information. 警告レベルをさらに含む警告画面を例示する図である。It is a figure which illustrates the warning screen including the warning level further.

以下、本発明の実施の形態について、図面を用いて説明する。尚、すべての図面において、同様な構成要素には同様の符号を付し、適宜説明を省略する。また、特に説明する場合を除き、各ブロック図において、各ブロックは、ハードウエア単位の構成ではなく、機能単位の構成を表している。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. In all drawings, similar components are designated by the same reference numerals, and description thereof will be omitted as appropriate. Further, unless otherwise specified, in each block diagram, each block represents a configuration of a functional unit, not a configuration of a hardware unit.

<概要>
図1は、本実施形態の解析装置2000の動作の概要を例示する図である。図1は、解析装置2000の動作についての理解を容易にするための概念的な説明を表す図であり、解析装置2000の動作を具体的に限定するものではない。
<Overview>
FIG. 1 is a diagram illustrating an outline of the operation of the analysis device 2000 of the present embodiment. FIG. 1 is a diagram showing a conceptual explanation for facilitating an understanding of the operation of the analysis device 2000, and does not specifically limit the operation of the analysis device 2000.

解析装置2000は、施設40に設置されているカメラから得られる撮像画像の解析を行う。施設40には、少なくとも2つのカメラ(第1カメラ10及び第2カメラ20)が設けられる。第1カメラ10と第2カメラ20は、同一施設内のそれぞれ異なる場所に設置される。なお、「施設内」とは、必ずしも1つの建物の中に限定されない。例えば施設40には、複数の建物やその周辺にある屋外の場所(庭園など)が含まれていてもよい。 The analysis device 2000 analyzes the captured image obtained from the camera installed in the facility 40. The facility 40 is provided with at least two cameras (first camera 10 and second camera 20). The first camera 10 and the second camera 20 are installed at different locations in the same facility. The term "inside the facility" is not necessarily limited to one building. For example, the facility 40 may include a plurality of buildings and outdoor places (gardens, etc.) in the vicinity thereof.

第1カメラ10と第2カメラ20はそれぞれ、繰り返し撮像を行うことで、複数の撮像画像を生成する。第1カメラ10によって生成される撮像画像を第1撮像画像12と呼び、第2カメラ20によって生成される撮像画像を第2撮像画像22と呼ぶ。第1カメラ10や第2カメラ20としては、例えば、施設40に設置されている監視カメラを利用することができる。ただし、第1カメラ10や第2カメラ20は、監視カメラとは別途設けられるカメラであってもよい。 Each of the first camera 10 and the second camera 20 repeatedly performs imaging to generate a plurality of captured images. The captured image generated by the first camera 10 is referred to as a first captured image 12, and the captured image generated by the second camera 20 is referred to as a second captured image 22. As the first camera 10 and the second camera 20, for example, a surveillance camera installed in the facility 40 can be used. However, the first camera 10 and the second camera 20 may be cameras provided separately from the surveillance camera.

解析装置2000は、第1撮像画像12と第2撮像画像22から、同一人物の検出を行う。第1撮像画像12と第2撮像画像22の双方から検出された人物を、解析対象人物と呼ぶ。解析装置2000は、解析対象人物について、第1カメラ10によって撮像される場所(第1カメラ10の撮像領域)と第2カメラ20によって撮像される場所(第2カメラ20の撮像領域)との間の移動にその人物が要した時間(移動時間)を算出する。 The analysis device 2000 detects the same person from the first captured image 12 and the second captured image 22. A person detected from both the first captured image 12 and the second captured image 22 is referred to as an analysis target person. The analysis device 2000 is between a place where the person to be analyzed is imaged by the first camera 10 (the image area of the first camera 10) and the place where the person is imaged by the second camera 20 (the image area of the second camera 20). Calculate the time (travel time) required for the person to move.

また、解析装置2000は、解析対象人物が検出された第1撮像画像12及び第2撮像画像22の少なくとも一方を利用して、解析対象人物の属性を特定する。人物の属性としては、年齢、性別、及び同伴者の有無や数など、様々な属性を採用できる。 Further, the analysis device 2000 identifies the attribute of the analysis target person by using at least one of the first captured image 12 and the second captured image 22 in which the analysis target person is detected. As the attributes of the person, various attributes such as age, gender, presence / absence and number of companions can be adopted.

解析装置2000は、特定した属性に対応する移動時間の基準値を取得する。以下、移動時間の基準値を、基準時間とも呼ぶ。属性と基準時間との対応付けは、予め用意しておく。この対応付けを示す情報を、基準情報100と呼ぶ。基準情報100は、属性102に対応づけて、その属性102を持つ人物の移動時間の基準値として、基準時間104を示す。例えば基準情報100は、解析装置2000からアクセス可能な記憶装置に記憶させておく。 The analysis device 2000 acquires a reference value of the travel time corresponding to the specified attribute. Hereinafter, the reference value of the travel time is also referred to as a reference time. The correspondence between the attribute and the reference time is prepared in advance. The information indicating this association is referred to as reference information 100. The reference information 100 indicates the reference time 104 as the reference value of the movement time of the person having the attribute 102 in association with the attribute 102. For example, the reference information 100 is stored in a storage device accessible from the analysis device 2000.

解析装置2000は、解析対象人物の属性に対応する基準時間と、その解析対象人物について算出した移動時間とを比較し、その比較結果に関する出力情報を生成する。例えば解析装置2000は、移動時間が基準時間以上であるか否かを判定し、移動時間が基準時間以上である場合に、警告を表す出力情報を生成する。ただし、移動時間と基準時間との比較方法や、比較結果に基づく出力情報は、ここで説明した例に限定されない。 The analysis device 2000 compares the reference time corresponding to the attribute of the analysis target person with the travel time calculated for the analysis target person, and generates output information regarding the comparison result. For example, the analysis device 2000 determines whether or not the travel time is equal to or longer than the reference time, and generates output information indicating a warning when the travel time is equal to or longer than the reference time. However, the method of comparing the travel time and the reference time and the output information based on the comparison result are not limited to the examples described here.

例えば図1では、解析装置2000は、時刻 t1 に生成された第1撮像画像12と時刻 t2 に生成された第2撮像画像22から同一人物を検出し、この人物を解析対象人物として扱う。解析装置2000は、解析対象人物の移動時間として、t2-t1 を算出する。また、解析装置2000は、解析対象人物の属性として a1 を特定し、基準情報100において a1 という属性102に対応付けられている基準時間104である r1 を取得する。そして、解析装置2000は、移動時間 t2-t1 と基準時間 r1 を比較することで、出力情報を生成する。 For example, in FIG. 1, the analysis device 2000 detects the same person from the first captured image 12 generated at time t1 and the second captured image 22 generated at time t2, and treats this person as the person to be analyzed. The analysis device 2000 calculates t2-t1 as the movement time of the person to be analyzed. Further, the analysis device 2000 identifies a1 as an attribute of the person to be analyzed, and acquires r1 which is the reference time 104 associated with the attribute 102 of a1 in the reference information 100. Then, the analysis device 2000 generates output information by comparing the travel time t2-t1 with the reference time r1.

<代表的な作用効果>
施設内を人が移動する時間は、様々な指標として利用することができる。例えばセキュリティ上の観点から、移動時間が長すぎる人物を要注意人物として検出するなどといったことができる。また、移動時間の長さの評価は、基準の時間との比較によって実現できる。例えば、「基準の時間よりも移動時間が長ければ、移動時間が長すぎると判断する」といった方法が考えられる。
<Typical action>
The time when a person moves in the facility can be used as various indicators. For example, from the viewpoint of security, it is possible to detect a person who travels too long as a person requiring attention. In addition, the evaluation of the length of travel time can be realized by comparison with the reference time. For example, a method such as "if the travel time is longer than the reference time, it is determined that the travel time is too long" can be considered.

しかしながら、基準の時間として全ての人に共通の値を利用すると、移動時間の長さを適切に評価することが難しい。人の移動時間の適切さは、その人の属性に依存するためである。例えば、お年寄りの移動時間は、若い人の移動時間よりも長くなることが一般的であるといえる。そのため、お年寄りの移動時間と若い人の移動時間の評価に同じ基準時間を利用すると、適切な評価が難しい。 However, if a value common to all people is used as the reference time, it is difficult to properly evaluate the length of travel time. This is because the appropriateness of a person's travel time depends on the person's attributes. For example, it can be said that the travel time of an elderly person is generally longer than the travel time of a young person. Therefore, if the same reference time is used to evaluate the travel time of the elderly and the travel time of the young, it is difficult to make an appropriate evaluation.

本実施形態の解析装置2000によれば、解析対象人物の移動時間が、その人物の属性に対応して定まる基準時間と比較される。そのため、解析人物の移動時間を全ての物に共通な基準時間と比較するケースよりも、その移動時間をより適切に評価することができる。すなわち、撮像画像の解析による人の行動解析を、より高い精度で行うことができる。 According to the analysis device 2000 of the present embodiment, the movement time of the person to be analyzed is compared with the reference time determined according to the attribute of the person. Therefore, the travel time can be evaluated more appropriately than in the case where the travel time of the analysis person is compared with the reference time common to all objects. That is, it is possible to analyze human behavior by analyzing captured images with higher accuracy.

以下、本実施形態の解析装置2000についてさらに詳細に説明する。 Hereinafter, the analysis device 2000 of the present embodiment will be described in more detail.

<解析装置2000の機能構成の例>
図2は、実施形態1の解析装置2000の構成を例示する図である。解析装置2000は、検出部2020、算出部2040、特定部2060、及び比較部2080を有する。検出部2020は、第1撮像画像12と第2撮像画像22とから、同一の人物を検出する。第1撮像画像12と第2撮像画像22の双方から検出された人物が、解析対象人物として扱われる。算出部2040は、解析対象人物が、第1カメラ10の撮像領域と第2カメラ20の撮像領域との間の移動に要した移動時間を算出する。特定部2060は、第1撮像画像12及び第2撮像画像22の少なくとも一方を用いて、解析対象人物の属性を特定する。比較部2080は、基準情報100から、解析対象人物の属性に対応する基準時間104を取得する。比較部2080は、解析対象人物の移動時間と、取得した基準時間104とを比較し、その比較結果に基づく出力情報を生成する。比較部2080は、出力情報を出力する。
<Example of functional configuration of analyzer 2000>
FIG. 2 is a diagram illustrating the configuration of the analysis device 2000 of the first embodiment. The analysis device 2000 includes a detection unit 2020, a calculation unit 2040, a specific unit 2060, and a comparison unit 2080. The detection unit 2020 detects the same person from the first captured image 12 and the second captured image 22. A person detected from both the first captured image 12 and the second captured image 22 is treated as a person to be analyzed. The calculation unit 2040 calculates the movement time required for the person to be analyzed to move between the image pickup area of the first camera 10 and the image pickup area of the second camera 20. The identification unit 2060 identifies the attributes of the person to be analyzed by using at least one of the first captured image 12 and the second captured image 22. The comparison unit 2080 acquires the reference time 104 corresponding to the attribute of the person to be analyzed from the reference information 100. The comparison unit 2080 compares the movement time of the person to be analyzed with the acquired reference time 104, and generates output information based on the comparison result. The comparison unit 2080 outputs the output information.

<解析装置2000のハードウエア構成>
解析装置2000の各機能構成部は、各機能構成部を実現するハードウエア(例:ハードワイヤードされた電子回路など)で実現されてもよいし、ハードウエアとソフトウエアとの組み合わせ(例:電子回路とそれを制御するプログラムの組み合わせなど)で実現されてもよい。以下、解析装置2000の各機能構成部がハードウエアとソフトウエアとの組み合わせで実現される場合について、さらに説明する。
<Hardware configuration of analyzer 2000>
Each functional component of the analyzer 2000 may be realized by hardware (eg, a hard-wired electronic circuit) that realizes each functional component, or a combination of hardware and software (eg, electronic). It may be realized by a combination of a circuit and a program that controls it). Hereinafter, a case where each functional component of the analysis device 2000 is realized by a combination of hardware and software will be further described.

図3は、解析装置2000を実現するための計算機1000を例示する図である。計算機1000は任意の計算機である。例えば計算機1000は、Personal Computer(PC)、サーバマシン、タブレット端末、又はスマートフォンなどである。計算機1000は、解析装置2000を実現するために設計された専用の計算機であってもよいし、汎用の計算機であってもよい。 FIG. 3 is a diagram illustrating a computer 1000 for realizing the analysis device 2000. The computer 1000 is an arbitrary computer. For example, the computer 1000 is a personal computer (PC), a server machine, a tablet terminal, a smartphone, or the like. The computer 1000 may be a dedicated computer designed to realize the analysis device 2000, or may be a general-purpose computer.

計算機1000は、バス1020、プロセッサ1040、メモリ1060、ストレージデバイス1080、入出力インタフェース1100、及びネットワークインタフェース1120を有する。バス1020は、プロセッサ1040、メモリ1060、ストレージデバイス1080、入出力インタフェース1100、及びネットワークインタフェース1120が、相互にデータを送受信するためのデータ伝送路である。ただし、プロセッサ1040などを互いに接続する方法は、バス接続に限定されない。プロセッサ1040は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、又は FPGA(Field-Programmable Gate Array)などのプロセッサである。メモリ1060は、RAM(Random Access Memory)などを用いて実現される主記憶装置である。ストレージデバイス1080は、ハードディスクドライブ、SSD(Solid State Drive)、メモリカード、又は ROM(Read Only Memory)などを用いて実現される補助記憶装置である。ただし、ストレージデバイス1080は、RAM など、主記憶装置を構成するハードウエアと同様のハードウエアで構成されてもよい。 The computer 1000 includes a bus 1020, a processor 1040, a memory 1060, a storage device 1080, an input / output interface 1100, and a network interface 1120. The bus 1020 is a data transmission line for the processor 1040, the memory 1060, the storage device 1080, the input / output interface 1100, and the network interface 1120 to transmit and receive data to and from each other. However, the method of connecting the processors 1040 and the like to each other is not limited to the bus connection. The processor 1040 is a processor such as a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), or an FPGA (Field-Programmable Gate Array). The memory 1060 is a main storage device realized by using RAM (Random Access Memory) or the like. The storage device 1080 is an auxiliary storage device realized by using a hard disk drive, an SSD (Solid State Drive), a memory card, a ROM (Read Only Memory), or the like. However, the storage device 1080 may be composed of hardware similar to the hardware constituting the main storage device, such as RAM.

入出力インタフェース1100は、計算機1000と入出力デバイスとを接続するためのインタフェースである。ネットワークインタフェース1120は、計算機1000を通信網に接続するためのインタフェースである。この通信網は、例えば LAN(Local Area Network)や WAN(Wide Area Network)である。ネットワークインタフェース1120が通信網に接続する方法は、無線接続であってもよいし、有線接続であってもよい。例えば解析装置2000は、ネットワークインタフェース1120を介して、第1カメラ10及び第2カメラ20と通信可能に接続される。 The input / output interface 1100 is an interface for connecting the computer 1000 and the input / output device. The network interface 1120 is an interface for connecting the computer 1000 to the communication network. This communication network is, for example, LAN (Local Area Network) or WAN (Wide Area Network). The method of connecting the network interface 1120 to the communication network may be a wireless connection or a wired connection. For example, the analysis device 2000 is communicably connected to the first camera 10 and the second camera 20 via the network interface 1120.

ストレージデバイス1080は、解析装置2000の機能構成部を実現するプログラムモジュールを記憶している。プロセッサ1040は、これら各プログラムモジュールをメモリ1060に読み出して実行することで、各プログラムモジュールに対応する機能を実現する。 The storage device 1080 stores a program module that realizes a functional component of the analysis device 2000. The processor 1040 realizes the function corresponding to each program module by reading each of these program modules into the memory 1060 and executing the program module.

例えば、基準情報100は、ストレージデバイス1080に記憶される。ただし、基準情報100は、解析装置2000の外部に設けられている記憶装置に記憶されてもよい。 For example, the reference information 100 is stored in the storage device 1080. However, the reference information 100 may be stored in a storage device provided outside the analysis device 2000.

<第1カメラ10と第2カメラ20について>
第1カメラ10及び第2カメラ20はそれぞれ、撮像を行ってその結果を表す画像データを生成する機能を有する。例えば第1カメラ10及び第2カメラ20はそれぞれ、動画データを生成する。この場合、第1撮像画像12と第2撮像画像22はそれぞれ、動画データを構成する動画フレームである。ただし、第1カメラ10と第2カメラ20は、静止画を繰り返し生成するように構成されたスチルカメラであってもよい。
<About the first camera 10 and the second camera 20>
Each of the first camera 10 and the second camera 20 has a function of performing imaging and generating image data representing the result. For example, the first camera 10 and the second camera 20 generate moving image data, respectively. In this case, the first captured image 12 and the second captured image 22 are moving image frames constituting the moving image data, respectively. However, the first camera 10 and the second camera 20 may be still cameras configured to repeatedly generate still images.

なお、解析装置2000によって実行される処理として説明したものの一部を、第1カメラ10や第2カメラ20が実行するようにしてもよい。例えば、第1撮像画像12から人物を検出する処理(例えば、後述する検出情報を生成する処理)は、第1カメラ10によって実行されてもよい。この場合、第1カメラ10は、検出した人物に関する情報(例えば、後述の検出情報)を解析装置2000に対して送信する。検出部2020は、この情報を受信することにより、第1撮像画像12から検出された人物に関する情報を把握する。 The first camera 10 and the second camera 20 may execute a part of the process described as the process executed by the analysis device 2000. For example, a process of detecting a person from the first captured image 12 (for example, a process of generating detection information described later) may be executed by the first camera 10. In this case, the first camera 10 transmits information about the detected person (for example, detection information described later) to the analysis device 2000. By receiving this information, the detection unit 2020 grasps the information about the person detected from the first captured image 12.

第2カメラ20についても同様である。すなわち、第2カメラ20が、第2撮像画像22から人物を検出し、検出した人物に関する情報を解析装置2000へ送信してもよい。解析装置2000は、この情報を受信することにより、第2撮像画像22から検出された人物に関する情報を把握する。 The same applies to the second camera 20. That is, the second camera 20 may detect a person from the second captured image 22 and transmit information about the detected person to the analysis device 2000. By receiving this information, the analysis device 2000 grasps the information about the person detected from the second captured image 22.

<利用シーンの例>
解析装置2000は、様々なシーンで利用することができる。例えば解析装置2000は、空港やショッピングモールなどといった様々な施設において人物監視に利用される。例えば通路を監視対象とする場合、その入り口と出口のそれぞれに、第1カメラ10と第2カメラ20を設置しておく。こうすることで、この通路を通る人物を監視することができる。
<Example of usage scene>
The analysis device 2000 can be used in various scenes. For example, the analyzer 2000 is used for person monitoring in various facilities such as airports and shopping malls. For example, when the passage is to be monitored, the first camera 10 and the second camera 20 are installed at the entrance and the exit, respectively. By doing this, it is possible to monitor the person passing through this passage.

例えば比較部2080は、解析対象人物の移動時間が基準時間より長いか否かを判定する。移動時間が基準時間より長い場合、通路の移動に時間がかかりすぎていることから、その人物が通路の途中で何らかの怪しい行動をとった可能性がある。 For example, the comparison unit 2080 determines whether or not the movement time of the analysis target person is longer than the reference time. If the travel time is longer than the reference time, it is possible that the person has taken some suspicious behavior in the middle of the passage because it took too long to move through the passage.

ここで、通路の途中に更衣スペースやトイレなどといったプライバシーの配慮が必要な場所があると、その場所については監視カメラで直接監視することが難しい。そこで、通路の移動に要した時間を基準時間と比較するという方法により、解析対象の人物が怪しい行動をとったかどうかを、間接的に把握することができる。 Here, if there is a place in the aisle that requires consideration of privacy, such as a changing space or a toilet, it is difficult to directly monitor the place with a surveillance camera. Therefore, by comparing the time required for moving the passage with the reference time, it is possible to indirectly grasp whether or not the person to be analyzed has behaved suspiciously.

<処理の流れ>
図4は、実施形態1の解析装置2000によって実行される処理の流れを例示するフローチャートである。検出部2020は、第1撮像画像12と第2撮像画像22から同一の人物を検出する(S102)。算出部2040は、解析対象人物の移動時間を算出する(S104)。特定部2060は、解析対象人物の属性を特定する(S106)。比較部2080は、基準情報100から、解析対象人物の属性に対応する基準時間104を取得する(S108)。比較部2080は、算出した移動時間と取得した基準時間104とを比較して出力情報を生成しする(S110)。比較部2080は、出力情報を出力する(S112)。
<Processing flow>
FIG. 4 is a flowchart illustrating the flow of processing executed by the analysis device 2000 of the first embodiment. The detection unit 2020 detects the same person from the first captured image 12 and the second captured image 22 (S102). The calculation unit 2040 calculates the travel time of the person to be analyzed (S104). The identification unit 2060 specifies the attributes of the person to be analyzed (S106). The comparison unit 2080 acquires the reference time 104 corresponding to the attribute of the person to be analyzed from the reference information 100 (S108). The comparison unit 2080 compares the calculated travel time with the acquired reference time 104 to generate output information (S110). The comparison unit 2080 outputs the output information (S112).

<第1撮像画像12の取得方法>
検出部2020は、第1撮像画像12を取得する。ここで、カメラによって撮像された画像を取得する技術には、既存の技術を利用することができる。例えば第1カメラ10は、新たな第1撮像画像12を生成する度に、その第1撮像画像12を解析装置2000へ送信する。そして、検出部2020は、第1カメラ10から送信された第1撮像画像12を受信することで、新たな第1撮像画像12を取得する。その他にも例えば、第1カメラ10は、解析装置2000からアクセス可能な記憶装置に第1撮像画像12を格納してもよい。この場合、例えば検出部2020は、定期的にこの記憶装置にアクセスし、実取得の第1撮像画像12を取得する。
<Acquisition method of the first captured image 12>
The detection unit 2020 acquires the first captured image 12. Here, an existing technique can be used as a technique for acquiring an image captured by the camera. For example, the first camera 10 transmits the first captured image 12 to the analysis device 2000 each time a new first captured image 12 is generated. Then, the detection unit 2020 acquires a new first captured image 12 by receiving the first captured image 12 transmitted from the first camera 10. In addition, for example, the first camera 10 may store the first captured image 12 in a storage device accessible from the analysis device 2000. In this case, for example, the detection unit 2020 periodically accesses the storage device and acquires the first captured image 12 actually acquired.

<第2撮像画像22の取得方法>
第2撮像画像22を取得する方法は、第1撮像画像12を取得する方法と同様である。
<Acquisition method of the second captured image 22>
The method of acquiring the second captured image 22 is the same as the method of acquiring the first captured image 12.

<第1撮像画像12と第2撮像画像22から同一人物を検出する方法:S102>
検出部2020は、第1撮像画像12と第2撮像画像22から同一の人物を検出する(S102)。例えば検出部2020は、第1撮像画像12に対してオブジェクト検出処理を実行することにより、第1撮像画像12から人物を検出する。そして、検出部2020は、検出した人物について、「第1カメラ10の識別子、人物識別子、検出時刻、人物の画像特徴」という対応付けを示す情報(以下、検出情報)を生成する。
<Method of detecting the same person from the first captured image 12 and the second captured image 22: S102>
The detection unit 2020 detects the same person from the first captured image 12 and the second captured image 22 (S102). For example, the detection unit 2020 detects a person from the first captured image 12 by executing an object detection process on the first captured image 12. Then, the detection unit 2020 generates information (hereinafter, detection information) indicating the association of the detected person as "identifier of the first camera 10, person identifier, detection time, image feature of the person".

ここで、人が第1カメラ10の撮像領域を通過する間に第1カメラ10が複数回撮像を行う場合、同一の人物が複数の第1撮像画像12から繰り返し検出されうる。そこで検出部2020は、同一の人物が第1撮像画像12から検出され続ける間、その人物についての検出情報を更新していく。具体的には、その人物が検出された第1撮像画像12の生成時刻及びその第1撮像画像12から検出された画像特徴を検出情報に追加することで、検出情報を更新する。 Here, when the first camera 10 takes images a plurality of times while the person passes through the imaging region of the first camera 10, the same person can be repeatedly detected from the plurality of first captured images 12. Therefore, the detection unit 2020 updates the detection information about the same person while the same person continues to be detected from the first captured image 12. Specifically, the detection information is updated by adding the generation time of the first captured image 12 in which the person is detected and the image features detected from the first captured image 12 to the detection information.

同様に、検出部2020は、第2撮像画像22から検出される人物についても、検出情報を生成する。 Similarly, the detection unit 2020 also generates detection information for the person detected from the second captured image 22.

検出部2020は、第1カメラ10と第2カメラ20の間の領域(以下、対象領域)に位置している人物の情報を記録する。この情報を候補情報と呼ぶ。候補情報には、対象領域内に位置する各人物についての検出情報が含まれる。候補情報内の検出情報が示すカメラの識別子は、その人物が第1カメラ10の撮像領域と第2カメラ20の撮像領域のどちらを通って対象領域に入ったのかを示す情報となる。 The detection unit 2020 records information on a person located in an area between the first camera 10 and the second camera 20 (hereinafter, a target area). This information is called candidate information. The candidate information includes detection information for each person located in the target area. The camera identifier indicated by the detection information in the candidate information is information indicating whether the person entered the target area through the imaging region of the first camera 10 or the imaging region of the second camera 20.

例えば検出部2020は、第1撮像画像12から検出した人物について検出情報を生成したら、その人物と同一の人物についての検出情報が候補情報に含まれているか否かを判定する。この判定は、第1撮像画像12を利用して生成した検出情報が示す画像特徴と、候補情報に含まれる各検出情報が示す画像特徴とを比較することによって実現できる。第1撮像画像12から検出された人物と同じ人物についての検出情報が候補情報に含まれていなければ、検出部2020は、第1撮像画像12から検出された人物についての検出情報を候補情報に加える。こうすることで、その人物が第1カメラ10の撮像領域を通って新たに対象領域に入ったことを記録することができる。 For example, when the detection unit 2020 generates detection information for a person detected from the first captured image 12, it determines whether or not the detection information for the same person as that person is included in the candidate information. This determination can be realized by comparing the image feature indicated by the detection information generated by using the first captured image 12 with the image feature indicated by each detection information included in the candidate information. If the candidate information does not include the detection information about the same person as the person detected from the first captured image 12, the detection unit 2020 uses the detection information about the person detected from the first captured image 12 as the candidate information. Add. By doing so, it is possible to record that the person has newly entered the target area through the imaging area of the first camera 10.

第1撮像画像12から検出された人物と同じ人物についての検出情報が候補情報に含まれているとする。この場合、検出部2020は、その検出情報が示すカメラの識別子が、第1カメラ10と第2カメラ20のどちらの識別子であるかを判定する。この識別子が第2カメラ20の識別子である場合、第1撮像画像12から検出された人物が、第2カメラ20の撮像領域から第1カメラ10の撮像領域へ移動したことを意味する。すなわち、同一人物が第1撮像画像12と第2撮像画像22の双方から検出されたことを意味する。そのため、検出部2020は、その人物を解析対象人物として特定する。なお、その人物は対象領域の外に出たため、検出部2020は、その人物の検出情報を候補情報から削除する。 It is assumed that the candidate information includes the detection information about the same person as the person detected from the first captured image 12. In this case, the detection unit 2020 determines which of the first camera 10 and the second camera 20 is the identifier of the camera indicated by the detection information. When this identifier is the identifier of the second camera 20, it means that the person detected from the first captured image 12 has moved from the imaging region of the second camera 20 to the imaging region of the first camera 10. That is, it means that the same person is detected from both the first captured image 12 and the second captured image 22. Therefore, the detection unit 2020 identifies the person as the person to be analyzed. Since the person has gone out of the target area, the detection unit 2020 deletes the detection information of the person from the candidate information.

一方、第1撮像画像12から検出された人物と同じ人物についての検出情報が候補情報に含まれているものの、その検出情報によって示されるカメラの識別子が、第1カメラ10の識別子であったとする。この場合、その人物は、第1カメラ10の撮像領域を通って対象領域へ入った後、第2カメラ20の撮像領域を通過することなく、再度第1カメラ10の撮像領域を通って対象領域から出たことになる。そのため、この人物については、移動時間の算出ができない。そのため、検出部2020は、その人物を解析対象人物としては特定せずに、その人物の検出情報を候補情報から削除する。 On the other hand, it is assumed that the candidate information includes the detection information about the same person as the person detected from the first captured image 12, but the identifier of the camera indicated by the detection information is the identifier of the first camera 10. .. In this case, the person enters the target area through the image pickup area of the first camera 10, and then passes through the image pickup area of the first camera 10 again without passing through the image pickup area of the second camera 20. It means that it came out of. Therefore, the travel time cannot be calculated for this person. Therefore, the detection unit 2020 does not specify the person as the analysis target person, but deletes the detection information of the person from the candidate information.

第2撮像画像22から人物を検出した場合にも、同様の処理が行われる。具体的には、検出部2020は、第2撮像画像22から検出した人物と同一の人物の検出情報が候補情報に含まれており、なおかつその検出情報に示されているカメラの識別子が第1カメラ10の識別子であれば、検出部2020は、その人物を解析対象人物として特定する。この場合、その人物が第1カメラ10の撮像領域を通って対象領域に入った後、第2カメラ20の撮像領域を通って対象領域から出たことを意味するためである。一方、第2撮像画像22から検出した人物と同一の人物の検出情報が候補情報に含まれているものの、その検出情報に示されているカメラの識別子が第2カメラ20の識別子であれば、検出部2020は、その人物を解析対象人物として特定せずに、その人物の検出情報を候補情報から削除する。また、第2撮像画像22から検出した人物と同一の人物の検出情報が候補情報に含まれていなければ、検出部2020は、第2撮像画像22を利用して生成した検出情報を候補情報に追加する。 The same process is performed when a person is detected from the second captured image 22. Specifically, the detection unit 2020 includes detection information of the same person as the person detected from the second captured image 22 in the candidate information, and the identifier of the camera shown in the detection information is the first. If it is the identifier of the camera 10, the detection unit 2020 identifies the person as the person to be analyzed. In this case, this is because it means that the person entered the target area through the image pickup area of the first camera 10 and then exited the target area through the image pickup area of the second camera 20. On the other hand, if the candidate information includes the detection information of the same person as the person detected from the second captured image 22, but the identifier of the camera shown in the detection information is the identifier of the second camera 20. The detection unit 2020 deletes the detection information of the person from the candidate information without specifying the person as the person to be analyzed. Further, if the candidate information does not include the detection information of the same person as the person detected from the second captured image 22, the detection unit 2020 uses the detection information generated by using the second captured image 22 as the candidate information. to add.

<移動時間の算出方法:S104>
算出部2040は、解析対象人物の移動時間を算出する(S104)。例えば解析対象人物の移動時間は、第1カメラ10の撮像範囲から解析対象人物が検出された時刻と、第2カメラ20の撮像範囲から解析対象人物が検出された時刻との差分(遅い方の時刻から早い方の時刻を引いた値)として算出することができる。なお、第1カメラ10の撮像範囲で解析対象人物が検出された時刻は、第1撮像画像12を利用して生成した検出情報に示されている。同様に、第2カメラ20の撮像範囲で解析対象の人物が検出された時刻は、第2撮像画像22を利用して生成した検出情報に示されている。
<Calculation method of travel time: S104>
The calculation unit 2040 calculates the travel time of the person to be analyzed (S104). For example, the movement time of the person to be analyzed is the difference between the time when the person to be analyzed is detected from the imaging range of the first camera 10 and the time when the person to be analyzed is detected from the imaging range of the second camera 20 (the later one). It can be calculated as the value obtained by subtracting the earlier time from the time). The time when the person to be analyzed is detected in the imaging range of the first camera 10 is shown in the detection information generated by using the first captured image 12. Similarly, the time when the person to be analyzed is detected in the imaging range of the second camera 20 is shown in the detection information generated by using the second captured image 22.

ここで、多くの場合、解析対象人物は、複数の第1撮像画像12、及び複数の第2撮像画像22に含まれる。なぜなら、解析対象の人物がカメラの撮像範囲を通過する間に、カメラが複数回撮像を行うと考えられるためである。そのため、検出情報には、複数の検出時刻が含まれている。 Here, in many cases, the person to be analyzed is included in the plurality of first captured images 12 and the plurality of second captured images 22. This is because it is considered that the camera captures images a plurality of times while the person to be analyzed passes through the imaging range of the camera. Therefore, the detection information includes a plurality of detection times.

第1撮像画像12を利用して生成した検出情報に、複数の検出時刻が含まれているとする。この場合、算出部2040は、それら複数の検出時刻に基づいて、解析対象人物が第1カメラ10の撮像範囲を通過した時刻を決定する。例えば算出部2040は、最も遅い検出時刻、最も早い検出時刻、又はこれらの平均値などを、解析対象人物が第1カメラ10の撮像範囲を通過した時刻として扱う。第2撮像画像22を利用して生成した検出情報を用いて、解析対象人物が第2カメラ20の撮像範囲を通過した時刻を決定する方法についても、同様である。 It is assumed that the detection information generated by using the first captured image 12 includes a plurality of detection times. In this case, the calculation unit 2040 determines the time when the person to be analyzed has passed the imaging range of the first camera 10 based on the plurality of detection times. For example, the calculation unit 2040 treats the latest detection time, the earliest detection time, or the average value thereof as the time when the person to be analyzed has passed the imaging range of the first camera 10. The same applies to the method of determining the time when the person to be analyzed has passed the imaging range of the second camera 20 by using the detection information generated by using the second captured image 22.

<属性の特定:S106>
特定部2060は、解析対象人物の属性を特定する(S106)。属性としては、年齢層、性別、同伴者の有無や数などといった様々なものを採用できる。なお、人物が含まれる画像を解析することで、その人物の種々の属性を特定する技術には、既存の技術を利用することができる。
<Specification of attributes: S106>
The identification unit 2060 specifies the attributes of the person to be analyzed (S106). Various attributes such as age group, gender, presence / absence and number of companions can be adopted. It should be noted that existing techniques can be used for techniques for identifying various attributes of a person by analyzing an image containing the person.

ここで、解析対象人物の属性の特定には、第1撮像画像12と第2撮像画像22の双方が利用されてもよいし、片方のみが利用されてもよい。また、複数の第1撮像画像12に解析対象人物が含まれる場合、特定部2060は、それら複数の第1撮像画像12の一部(例えば1つ)のみを用いて属性の特定を行ってもよいし、全ての第1撮像画像12を利用して属性の特定を行ってもよい。第2撮像画像22を利用する場合についても同様である。 Here, both the first captured image 12 and the second captured image 22 may be used, or only one of them may be used to specify the attributes of the person to be analyzed. Further, when a plurality of first captured images 12 include a person to be analyzed, the identification unit 2060 may specify the attributes by using only a part (for example, one) of the plurality of first captured images 12. Alternatively, the attributes may be specified by using all the first captured images 12. The same applies to the case where the second captured image 22 is used.

<基準情報100について>
基準情報100は、属性102に対応づけて基準時間104を示している。ここで、属性102に対応づけられている基準時間104は、1つの時間であってもよいし、時間の範囲であってもよい。後者の場合、例えば、基準時間104として、「10分以上15分以下」などといった時間の範囲が定められる。
<About standard information 100>
The reference information 100 indicates the reference time 104 in association with the attribute 102. Here, the reference time 104 associated with the attribute 102 may be one time or a time range. In the latter case, for example, a time range such as "10 minutes or more and 15 minutes or less" is defined as the reference time 104.

また、1つの属性102には、複数の基準時間104が対応づけられていてもよい。例えば、1つの属性102に対して「10分、20分、30分」という3つの基準時間104を対応づけておく。この場合、例えば比較部2080は、移動時間について、「10分未満」、「10分以上20分未満」、「20分以上30分未満」、「30分以上」のいずれに該当するのかを判定する。 Further, a plurality of reference times 104 may be associated with one attribute 102. For example, three reference times 104 of "10 minutes, 20 minutes, and 30 minutes" are associated with one attribute 102. In this case, for example, the comparison unit 2080 determines whether the travel time corresponds to "less than 10 minutes", "10 minutes or more and less than 20 minutes", "20 minutes or more and less than 30 minutes", or "30 minutes or more". To do.

属性102に対応する基準時間104を定める方法には、様々な方法を採用することができる。例えば、属性ごとに移動時間の実績値を蓄積し、その実績値の統計値(平均値など)として、その属性に対応する基準時間を定める。例えば、解析装置2000の運用前にテスト期間を設け、そのテスト期間において施設40を対象として解析装置2000を動作させ、各解析対象人物について移動時間の算出及び属性の特定を行う。そして、その移動時間をその属性に対応する実績値として蓄積していく。こうすることで、施設40における移動時間の実績値を、属性ごとに複数得ることができる。解析装置2000は、属性ごとの実績値の統計値を算出し、その統計値に基づいてその属性に対応する基準時間を決定し、属性と基準時間とを対応づけた基準情報100を生成する。 Various methods can be adopted as the method for determining the reference time 104 corresponding to the attribute 102. For example, the actual value of the travel time is accumulated for each attribute, and the reference time corresponding to the attribute is set as the statistical value (average value, etc.) of the actual value. For example, a test period is provided before the operation of the analysis device 2000, and the analysis device 2000 is operated for the facility 40 during the test period, and the travel time is calculated and the attributes are specified for each analysis target person. Then, the travel time is accumulated as an actual value corresponding to the attribute. By doing so, it is possible to obtain a plurality of actual values of the travel time at the facility 40 for each attribute. The analysis device 2000 calculates the statistical value of the actual value for each attribute, determines the reference time corresponding to the attribute based on the statistical value, and generates the reference information 100 in which the attribute and the reference time are associated with each other.

例えば属性に対応する基準時間は、その属性について得られた実績値の統計値として定める。その他にも例えば、属性に対応する基準時間は、その属性について得られた実績値の統計値に対して、所定のマージンを加算又は減算した値であってもよい。例えば、比較部2080は、移動時間が基準時間以上であるか否かの判定を行い、移動時間が基準時間以上である場合に警告を表す出力情報を出力するとする。この場合、基準時間として、実績値の統計値に所定のマージンを加えた値を設定することが好適である。こうすることで、移動時間が実績値の統計値よりも多少長くなることを許容することができる。 For example, the reference time corresponding to an attribute is determined as a statistical value of the actual value obtained for that attribute. In addition, for example, the reference time corresponding to the attribute may be a value obtained by adding or subtracting a predetermined margin from the statistical value of the actual value obtained for the attribute. For example, the comparison unit 2080 determines whether or not the travel time is equal to or longer than the reference time, and outputs output information indicating a warning when the travel time is equal to or longer than the reference time. In this case, it is preferable to set a value obtained by adding a predetermined margin to the statistical value of the actual value as the reference time. By doing so, it is possible to allow the travel time to be slightly longer than the actual statistical value.

ここで、前述した様に、1つの属性に対して複数の基準時間104を対応づけてもよい。この場合、例えば解析装置2000は、その属性について得られた移動時間の分布を算出し、算出した分布を複数の範囲に区切り、各範囲の境界値それぞれを基準時間104として定める。移動時間の分布を区切る方法としては、例えば、その中のサンプル数が等しくなるように移動時間の分布を所定の数に分割するという方法が考えられる。 Here, as described above, a plurality of reference times 104 may be associated with one attribute. In this case, for example, the analysis device 2000 calculates the distribution of the travel time obtained for the attribute, divides the calculated distribution into a plurality of ranges, and sets the boundary value of each range as the reference time 104. As a method of dividing the distribution of the travel time, for example, a method of dividing the distribution of the travel time into a predetermined number so that the number of samples in the sample is equal can be considered.

なお、解析装置2000は、基準情報100を生成して解析装置2000の運用を開始した後、運用時に算出された移動時間を用いて、基準情報100を更新してもよい。基準情報100の更新を行う機能構成部を、更新部と呼ぶ。図5は、更新部2100を有する解析装置2000の機能構成を例示するブロック図である。 The analysis device 2000 may update the reference information 100 by using the travel time calculated at the time of operation after the reference information 100 is generated and the operation of the analysis device 2000 is started. The functional component unit that updates the reference information 100 is called an update unit. FIG. 5 is a block diagram illustrating the functional configuration of the analysis device 2000 having the update unit 2100.

更新部2100は、特定部2060によって特定された属性とマッチする属性102に対応する基準時間104を、算出部2040によって算出された移動時間を用いて更新する。この更新を実現するため、例えば、テスト期間及び運用時に算出された属性と移動時間との対応付けを、記憶装置に記録しておく。更新部2100は、特定部2060によって特定された属性についてこれまでに算出された利用時間を記憶装置から取得する。そして、更新部2100は、取得した各利用時間と、算出部2040によって新たに算出され利用時間との統計値を算出し、その統計値で基準時間104を更新する。ただし、平均値など、サンプル数が分かれば計算可能な統計値の場合、具体的な移動時間を全て記録しておく必要はなく、属性ごとのサンプル数を記録しておけばよい。 The update unit 2100 updates the reference time 104 corresponding to the attribute 102 that matches the attribute specified by the specific unit 2060, using the travel time calculated by the calculation unit 2040. In order to realize this update, for example, the correspondence between the attributes calculated during the test period and the operation and the travel time is recorded in the storage device. The update unit 2100 acquires the usage time calculated so far for the attribute specified by the specific unit 2060 from the storage device. Then, the update unit 2100 calculates a statistical value of each acquired usage time and a usage time newly calculated by the calculation unit 2040, and updates the reference time 104 with the statistical value. However, in the case of a statistical value such as an average value that can be calculated if the number of samples is known, it is not necessary to record all the specific movement times, and the number of samples for each attribute may be recorded.

属性102に対応する基準時間104を定める方法は、移動時間の実績値を用いるものに限定されない。例えば基準時間104は、人手で設定されてもよい。 The method of determining the reference time 104 corresponding to the attribute 102 is not limited to the one using the actual value of the travel time. For example, the reference time 104 may be set manually.

<基準時間の取得:S108>
比較部2080は、特定部2060によって特定された属性に対応する基準時間を取得する(S108)。具体的には、比較部2080は、基準情報100の中から、解析対象人物の属性とマッチする属性102を示すものを特定し、その基準情報100に示されている基準時間104を取得する。ここで、解析対象の人物の属性にマッチする属性102とは、解析対象人物の属性と同一の属性102、又はその中に解析対象人物の属性を含む属性102である。後者のケースは、例えば、属性102が属性の範囲を示し、解析対象人物の属性がその範囲に含まれるケースである。
<Acquisition of reference time: S108>
The comparison unit 2080 acquires the reference time corresponding to the attribute specified by the specific unit 2060 (S108). Specifically, the comparison unit 2080 identifies an attribute 102 that matches the attribute of the person to be analyzed from the reference information 100, and acquires the reference time 104 shown in the reference information 100. Here, the attribute 102 that matches the attribute of the person to be analyzed is an attribute 102 that is the same as the attribute of the person to be analyzed, or an attribute 102 that includes the attribute of the person to be analyzed. In the latter case, for example, the attribute 102 indicates the range of the attribute, and the attribute of the person to be analyzed is included in the range.

<基準時間と移動時間の比較と出力情報の生成:S110>
比較部2080は、基準時間と移動時間の比較を行い、その結果に基づく出力情報を生成する(S110)。ここで、基準時間と移動時間の比較には、様々なものを採用できる。例えば比較部2080は、移動時間が基準時間以上であるか否かを判定する。こうすることで、移動時間が長すぎる人物を検出することができる。
<Comparison of reference time and travel time and generation of output information: S110>
The comparison unit 2080 compares the reference time and the travel time, and generates output information based on the result (S110). Here, various things can be adopted for comparing the reference time and the travel time. For example, the comparison unit 2080 determines whether or not the travel time is equal to or longer than the reference time. By doing so, it is possible to detect a person who travels for too long.

解析対象人物の移動時間が基準時間以上である場合、例えば比較部2080は、警告を表す出力情報を生成する。この出力情報には、例えば、警告メッセージや、解析対象人物の検出に関する詳細情報を含める。詳細情報には、例えば、検出時刻や解析対象人物の画像などを含める。 When the movement time of the person to be analyzed is equal to or longer than the reference time, for example, the comparison unit 2080 generates output information indicating a warning. This output information includes, for example, a warning message and detailed information regarding the detection of the person to be analyzed. The detailed information includes, for example, the detection time and the image of the person to be analyzed.

また、移動時間の算出対象となる場所が施設40の中に複数あるとする。すなわち、第1カメラ10と第2カメラ20のセットが、施設40の中に複数設けられているとする。この場合、移動時間の算出対象となる場所(すなわち、カメラのセット)に対して識別子を割り当てておく。例えばこの識別子は、その場所に割り当てた名称などである。前述した詳細情報には、この識別子をさらに含めることが好適である。 Further, it is assumed that there are a plurality of places in the facility 40 for which the travel time is calculated. That is, it is assumed that a plurality of sets of the first camera 10 and the second camera 20 are provided in the facility 40. In this case, an identifier is assigned to a place (that is, a set of cameras) for which the travel time is calculated. For example, this identifier is the name assigned to the location. It is preferable to further include this identifier in the detailed information described above.

図6は、出力情報を例示する図である。図6において、出力情報は、警告画面50である。警告画面50は、警告メッセージ52及び詳細情報54を示している。詳細情報54には、検出場所の名称、検出時刻、及び解析対象人物の画像が含まれている。 FIG. 6 is a diagram illustrating output information. In FIG. 6, the output information is the warning screen 50. The warning screen 50 shows the warning message 52 and the detailed information 54. The detailed information 54 includes the name of the detection location, the detection time, and an image of the person to be analyzed.

詳細情報54に含める情報は、図6に示したものに限定されない。例えば詳細情報54には、解析対象人物の属性をさらに含めてもよい。この際、詳細情報54には、解析対象人物の属性に加え、その属性にマッチすると判定された属性102がさらに含まれてもよい。また、詳細情報54には、解析対象人物について算出された移動時間や、その移動時間と比較された基準時間などがさらに含まれてもよい。この点については、後述する図7の例についても同様である。 The information included in the detailed information 54 is not limited to that shown in FIG. For example, the detailed information 54 may further include the attributes of the person to be analyzed. At this time, the detailed information 54 may further include an attribute 102 determined to match the attribute in addition to the attribute of the person to be analyzed. Further, the detailed information 54 may further include a travel time calculated for the person to be analyzed, a reference time compared with the travel time, and the like. This point is the same for the example of FIG. 7 described later.

ここで、移動時間が基準時間未満であった場合、比較部2080は、出力情報を出力してもよいし、出力しなくてもよい。移動時間が基準時間未満であった場合にも出力情報を出力することで、例えば、各解析対象人物についての比較結果を全て記録に残すことができる。 Here, when the travel time is less than the reference time, the comparison unit 2080 may or may not output the output information. By outputting the output information even when the travel time is less than the reference time, for example, all the comparison results for each analysis target person can be recorded.

基準時間と移動時間の比較は、「移動時間が基準時間以上であるか否か」に限定されない。例えば、比較部2080は、移動時間が基準時間以下であるか否かを判定してもよい。移動時間が基準時間以下である場合、例えば比較部2080は、前述した警告画面と同様の出力情報を出力する。移動時間が短すぎる場合、例えば施設40内での使用が禁止されている移動手段が利用されているなど、警告すべき状況である可能性があるためである。 The comparison between the reference time and the travel time is not limited to "whether or not the travel time is longer than the reference time". For example, the comparison unit 2080 may determine whether or not the travel time is equal to or less than the reference time. When the travel time is equal to or less than the reference time, for example, the comparison unit 2080 outputs the same output information as the warning screen described above. This is because if the travel time is too short, there is a possibility that a situation should be warned, for example, a transportation means prohibited from being used in the facility 40 is used.

また、基準時間が時間の範囲を示しているとする。この場合、比較部2080は、基準時間が示す時間の範囲に移動時間が含まれるか否かを判定する。基準時間が示す時間の範囲に移動時間が含まれていない場合、例えば比較部2080は、前述した警告画面と同様の出力情報を出力する。 Further, it is assumed that the reference time indicates a time range. In this case, the comparison unit 2080 determines whether or not the travel time is included in the time range indicated by the reference time. When the travel time is not included in the time range indicated by the reference time, for example, the comparison unit 2080 outputs the same output information as the warning screen described above.

さらに、1つの属性に複数の基準時間104が対応づけられているとする。この場合、比較部2080は、移動時間を、解析対象人物の属性に対応する複数の基準時間それぞれと比較してもよい。例えば比較部2080は、「移動時間が基準時間以上であるか否か」という判定を、取得した複数の基準時間を短いものから順に利用して行う。移動時間がいずれかの基準時間よりも長い場合、比較部2080は、「移動時間が基準時間以上である」と最初に判定された基準時間(すなわち、「移動時間≧基準時間」を満たす最小の基準時間)を特定する。なお、移動時間が最小の基準時間よりも短い場合、比較部2080は、移動時間がいずれの基準時間よりも短いと判定する。 Further, it is assumed that a plurality of reference times 104 are associated with one attribute. In this case, the comparison unit 2080 may compare the travel time with each of the plurality of reference times corresponding to the attributes of the person to be analyzed. For example, the comparison unit 2080 uses the acquired plurality of reference times in order from the shortest to determine "whether or not the travel time is equal to or longer than the reference time". When the travel time is longer than any of the reference times, the comparison unit 2080 is the minimum that satisfies the reference time first determined as "the travel time is equal to or longer than the reference time" (that is, "travel time ≥ reference time"). Reference time) is specified. If the travel time is shorter than the minimum reference time, the comparison unit 2080 determines that the travel time is shorter than any reference time.

このような比較を行う場合、比較部2080は、複数の基準時間との比較に基づいて、出力情報を出力する。例えば、基準時間に対して警告レベルを対応づけておく。警告レベルの高さは、「移動時間≧基準時間」を満たす最小の基準時間が大きいものであるほど、高くなるように設定しておく。こうすることで、移動時間が基準時間以上である人物について、警告すべき度合い(どの程度怪しいか)を把握することができる。 When performing such a comparison, the comparison unit 2080 outputs output information based on the comparison with a plurality of reference times. For example, the warning level is associated with the reference time. The height of the warning level is set so that the larger the minimum reference time that satisfies "travel time ≥ reference time", the higher the warning level. By doing so, it is possible to grasp the degree of warning (how suspicious) for a person whose travel time is longer than the reference time.

例えば、基準時間と警告レベルの対応付けを、「10分:警告レベル1」、「20分:警告レベル2」、及び「30分:警告レベル3」と定めておく。この場合、移動時間が25分であれば、移動時間≧基準値を満たす最小の基準値は20分である。そのため、解析対象人物の警告レベルは2となる。図7は、警告レベルをさらに含む警告画面を例示する図である。なお、基準時間と警告レベルとの対応付けは、基準情報100に予め含めておく。 For example, the correspondence between the reference time and the warning level is defined as "10 minutes: warning level 1", "20 minutes: warning level 2", and "30 minutes: warning level 3". In this case, if the travel time is 25 minutes, the minimum reference value that satisfies the travel time ≥ reference value is 20 minutes. Therefore, the warning level of the person to be analyzed is 2. FIG. 7 is a diagram illustrating a warning screen further including a warning level. The association between the reference time and the warning level is included in the reference information 100 in advance.

なお、出力情報の態様は、前述した画面に限定されない。例えば出力情報は、テキスト情報や、データベースに記録するために所定のテーブル形式に変換した情報であってもよい。 The mode of the output information is not limited to the screen described above. For example, the output information may be text information or information converted into a predetermined table format for recording in a database.

<<基準時間の補正>>
ここで、人が移動する速さは、移動する場所の混雑度合い(人の密度)によって異なることが予想される。そのため、比較部2080は、基準時間をそのまま利用する代わりに、移動する場所の混雑度合いに基づく補正を基準時間に施してもよい。例えば比較部2080は、第1カメラ10の撮像範囲と第2カメラ20の撮像範囲との間について、混雑度合いを算出し、その混雑度合いに基づく補正係数を基準時間に乗算することで、基準時間を補正する。補正係数は、1以上の実数である。そして、比較部2080は、補正後の基準時間を移動時間と比較する。
<< Correction of reference time >>
Here, the speed at which a person moves is expected to differ depending on the degree of congestion (density of people) at the place where the person moves. Therefore, the comparison unit 2080 may make a correction based on the degree of congestion of the moving place in the reference time instead of using the reference time as it is. For example, the comparison unit 2080 calculates the degree of congestion between the imaging range of the first camera 10 and the imaging range of the second camera 20, and multiplies the correction coefficient based on the degree of congestion by the reference time to obtain the reference time. To correct. The correction coefficient is a real number of 1 or more. Then, the comparison unit 2080 compares the corrected reference time with the travel time.

例えば混雑度は、第1カメラ10の撮像領域と第2カメラ20の撮像領域の間に位置している人の数で定めることができる。第1カメラ10の撮像領域と第2カメラ20の撮像領域の間に位置している人の数は、前述した候補情報に含まれている検出情報の数として把握することができる。その他にも例えば、第1カメラ10と第2カメラ20との間を俯瞰して撮像するように別のカメラを設け、そのカメラから得られた撮像画像を解析することにより、人の数を特定してもよい。 For example, the degree of congestion can be determined by the number of people located between the imaging region of the first camera 10 and the imaging region of the second camera 20. The number of people located between the imaging region of the first camera 10 and the imaging region of the second camera 20 can be grasped as the number of detection information included in the candidate information described above. In addition, for example, another camera is provided so as to take a bird's-eye view between the first camera 10 and the second camera 20, and the number of people is specified by analyzing the captured image obtained from the camera. You may.

補正係数の算出には、様々な方法を採用できる。例えば予め、基準となる混雑度(以下、基準混雑度)を定めておく。そして、比較部2080は、解析対象人物が検出された際における混雑度を基準混雑度で割った値を、補正係数として利用する。その他にも例えば、混雑度を補正係数に変換する関数を定めておき、この関数を利用して補正係数を算出してもよい。この関数には、1以上の値を出力する任意の単調非減少関数を利用することができる。 Various methods can be adopted for calculating the correction coefficient. For example, a reference congestion degree (hereinafter referred to as a reference congestion degree) is determined in advance. Then, the comparison unit 2080 uses a value obtained by dividing the degree of congestion when the person to be analyzed is detected by the reference degree of congestion as a correction coefficient. In addition, for example, a function for converting the degree of congestion into a correction coefficient may be defined, and this function may be used to calculate the correction coefficient. Any monotonous non-decreasing function that outputs a value of 1 or more can be used for this function.

なお、混雑度に応じた補正を行う場合、移動時間の実績値を利用して基準情報100を生成する際にも、混雑度を考慮することが好適である。例えば、移動時間の実績値を蓄積する際にも、前述した補正係数の算出を行う。そして、移動時間の実績値に補正係数の逆数を掛けた値の統計値を用いて、基準時間の算出を行う。こうすることで、移動時間の実績値を、基準となる混雑度合いにおける予測値に変化した上で、基準時間を定めることができる。すなわち、実績値を算出した際の混雑度合いに影響を受けないように、基準時間を定めることができる。 When making corrections according to the degree of congestion, it is preferable to consider the degree of congestion when generating the reference information 100 using the actual value of the travel time. For example, the correction coefficient described above is calculated when accumulating the actual value of the travel time. Then, the reference time is calculated using the statistical value obtained by multiplying the actual value of the travel time by the reciprocal of the correction coefficient. By doing so, it is possible to determine the reference time after changing the actual value of the travel time to the predicted value at the reference congestion degree. That is, the reference time can be set so as not to be affected by the degree of congestion when the actual value is calculated.

<出力情報の出力:S112>
比較部2080は、出力情報を出力する(S112)。出力情報は、任意の方法で出力することができる。例えば比較部2080は、解析装置2000と接続されているディスプレイ装置に表示させる。その他にも例えば、比較部2080は、出力情報を所定の記憶装置に格納する。その他にもたとえば、比較部2080は、他の装置(例えば警備員が所持している携帯端末など)に送信する。他の装置に送信された出力情報は、その装置に備えられているディスプレイ装置に表示されることが好適である。なお、他の装置に送信した情報がその装置に備えられているディスプレイ装置に表示されるようにする技術には、既存の技術を利用することができる。
<Output of output information: S112>
The comparison unit 2080 outputs the output information (S112). The output information can be output by any method. For example, the comparison unit 2080 displays on a display device connected to the analysis device 2000. In addition, for example, the comparison unit 2080 stores the output information in a predetermined storage device. In addition, for example, the comparison unit 2080 transmits to another device (for example, a mobile terminal owned by a guard). It is preferable that the output information transmitted to the other device is displayed on the display device provided in the device. An existing technique can be used as a technique for displaying information transmitted to another device on a display device provided in the device.

以上、図面を参照して本発明の実施形態について述べたが、これらは本発明の例示であり、上記以外の様々な構成を採用することもできる。 Although the embodiments of the present invention have been described above with reference to the drawings, these are examples of the present invention, and various configurations other than the above can be adopted.

例えば解析装置2000は、人物監視以外の様々な用途に利用できる。他の用途の一例として、マーケティングが挙げられる。具体的には、解析対象人物の移動時間に基づき、解析対象人物による施設40に対する興味の度合いを把握することができる。 For example, the analysis device 2000 can be used for various purposes other than person monitoring. Marketing is an example of another application. Specifically, the degree of interest of the analysis target person in the facility 40 can be grasped based on the travel time of the analysis target person.

例えば、施設がショッピングモールであるとする。この場合に、子供用品売り場や婦人服売り場などといったエリアのそれぞれについて、エリアの異なる出入り口それぞれに、第1カメラ10と第2カメラ20を設置しておく。こうすることで、解析装置2000により、解析対象人物について、エリア内の移動時間を把握することができる。 For example, suppose the facility is a shopping mall. In this case, the first camera 10 and the second camera 20 are installed at the entrances and exits of different areas in each of the areas such as the children's goods section and the women's clothing section. By doing so, the analysis device 2000 can grasp the movement time in the area for the person to be analyzed.

ここで、解析対象人物が或るエリアを長い時間かけて移動していると、その人物がそのエリアに興味を示している蓋然性が高い。一方、解析対象の人物が或るエリアを短い時間で移動していると、その人物がそのエリアに興味を示していない蓋然性が高い。そのため、移動時間と基準時間との比較により、解析対象の人物の興味の度合いを把握することができる。 Here, if the person to be analyzed moves in a certain area for a long time, it is highly probable that the person is interested in the area. On the other hand, if the person to be analyzed moves in a certain area in a short time, it is highly probable that the person is not interested in the area. Therefore, the degree of interest of the person to be analyzed can be grasped by comparing the travel time with the reference time.

なお、1つの属性102に対応して基準時間104を複数設定することで警告レベルを把握することと同様にして、解析対象人物の興味の度合いを把握できるようにしてもよい。具体的には、1つの属性102に対応する複数の基準時間について、短い基準時間ほど小さい興味レベルを対応づけておく。解析装置2000は、「移動時間≧基準時間」を満たす最小の基準時間を特定し、特定した基準時間に対応する興味レベルを、解析対象人物の興味の度合いの大きさとして特定する。 By setting a plurality of reference times 104 corresponding to one attribute 102, the degree of interest of the person to be analyzed may be grasped in the same manner as grasping the warning level. Specifically, the shorter the reference time, the smaller the interest level is associated with the plurality of reference times corresponding to one attribute 102. The analysis device 2000 specifies the minimum reference time that satisfies "travel time ≥ reference time", and specifies the level of interest corresponding to the specified reference time as the degree of interest of the person to be analyzed.

なお、エリアの区切り方は、「子供服売り場」などといった同様の品物が置かれているお店の集合に限定されない。例えば、お店ごとに1つのエリアとしてもよい。こうすることで、各人物の興味の度合いをお店単位で把握することができる。 The method of dividing the area is not limited to the set of shops where similar items such as "children's clothing section" are placed. For example, there may be one area for each store. By doing this, the degree of interest of each person can be grasped for each store.

上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
1. 施設内に設置されている第1カメラによって生成される第1撮像画像と、前記施設内に設置されている第2カメラによって生成される第2撮像画像とのそれぞれから、同一の人物を検出する検出部と、
前記検出部によって検出された人物が、前記第1カメラによって撮像される場所と前記第2カメラによって撮像される場所との間の移動に要した移動時間を算出する算出部と、
前記第1撮像画像及び前記第2撮像画像の少なくとも一方を用いて、前記人物の属性を特定する特定部と、
前記特定された属性に対応する基準値を取得し、前記算出した移動時間と前記取得した基準値とを比較して、その比較結果に基づく出力情報を出力する比較部と、を有する解析装置。
2. 前記属性に対応する前記基準値は、前記第1カメラによって撮像される場所と前記第2カメラによって撮像される場所との間の移動にその属性を持つ複数の人物が要した移動時間の統計値である、1.に記載の解析装置。
3. 前記特定された属性に対応する前記基準値を、前記算出された移動時間を用いて更新する更新部を有する、1.又は2.に記載の解析装置。
4. 前記比較部は、
前記第1カメラによって撮像される場所と前記第2カメラによって撮像される場所との間における人の混雑度を算出し、
前記算出した混雑度に基づいて、前記取得した基準値を前記算出された混雑度に基づいて補正し、
前記補正した基準値と前記算出した移動時間とを比較する、1.乃至3.いずれか一つに記載の解析装置。
5. 前記比較部は、前記算出した移動時間が前記取得した基準値以上である場合に、警告を表す出力情報を出力する、1.乃至4.いずれか一つに記載の解析装置。
6. コンピュータによって実行される制御方法であって、
施設内に設置されている第1カメラによって生成される第1撮像画像と、前記施設内に設置されている第2カメラによって生成される第2撮像画像とのそれぞれから、同一の人物を検出する検出ステップと、
前記検出ステップによって検出された人物が、前記第1カメラによって撮像される場所と前記第2カメラによって撮像される場所との間の移動に要した移動時間を算出する算出ステップと、
前記第1撮像画像及び前記第2撮像画像の少なくとも一方を用いて、前記人物の属性を特定する特定ステップと、
前記特定された属性に対応する基準値を取得し、前記算出した移動時間と前記取得した基準値とを比較して、その比較結果に基づく出力情報を出力する比較ステップと、を有する制御方法。
7. 前記属性に対応する前記基準値は、前記第1カメラによって撮像される場所と前記第2カメラによって撮像される場所との間の移動にその属性を持つ複数の人物が要した移動時間の統計値である、6.に記載の制御方法。
8. 前記特定された属性に対応する前記基準値を、前記算出された移動時間を用いて更新する更新ステップを有する、6.又は7.に記載の制御方法。
9. 前記比較ステップにおいて、
前記第1カメラによって撮像される場所と前記第2カメラによって撮像される場所との間における人の混雑度を算出し、
前記算出した混雑度に基づいて、前記取得した基準値を前記算出された混雑度に基づいて補正し、
前記補正した基準値と前記算出した移動時間とを比較する、6.乃至8.いずれか一つに記載の制御方法。
10. 前記比較ステップにおいて、前記算出した移動時間が前記取得した基準値以上である場合に、警告を表す出力情報を出力する、6.乃至9.いずれか一つに記載の制御方法。
11. 6.乃至10.いずれか一つに記載の制御方法の各ステップをコンピュータに実行させるプログラム。
Some or all of the above embodiments may also be described, but not limited to:
1. 1. The same person is detected from each of the first captured image generated by the first camera installed in the facility and the second captured image generated by the second camera installed in the facility. With the detector
A calculation unit that calculates the movement time required for a person detected by the detection unit to move between a place imaged by the first camera and a place imaged by the second camera.
Using at least one of the first captured image and the second captured image, a specific unit that identifies the attribute of the person, and a specific unit.
An analysis device having a comparison unit that acquires a reference value corresponding to the specified attribute, compares the calculated travel time with the acquired reference value, and outputs output information based on the comparison result.
2. The reference value corresponding to the attribute is a statistical value of the travel time required by a plurality of persons having the attribute to move between the place imaged by the first camera and the place imaged by the second camera. Is 1. The analyzer described in.
3. 3. 1. It has an update unit that updates the reference value corresponding to the specified attribute using the calculated travel time. Or 2. The analyzer described in.
4. The comparison unit
The degree of congestion of people between the place imaged by the first camera and the place imaged by the second camera is calculated.
Based on the calculated congestion degree, the acquired reference value is corrected based on the calculated congestion degree.
1. Compare the corrected reference value with the calculated travel time. To 3. The analyzer according to any one.
5. The comparison unit outputs output information indicating a warning when the calculated movement time is equal to or longer than the acquired reference value. To 4. The analyzer according to any one.
6. A control method performed by a computer
The same person is detected from each of the first captured image generated by the first camera installed in the facility and the second captured image generated by the second camera installed in the facility. Detection step and
A calculation step for calculating the movement time required for a person detected by the detection step to move between a place imaged by the first camera and a place imaged by the second camera, and a calculation step.
A specific step of identifying the attribute of the person using at least one of the first captured image and the second captured image, and
A control method having a comparison step of acquiring a reference value corresponding to the specified attribute, comparing the calculated travel time with the acquired reference value, and outputting output information based on the comparison result.
7. The reference value corresponding to the attribute is a statistical value of the travel time required by a plurality of persons having the attribute to move between the place imaged by the first camera and the place imaged by the second camera. Is, 6. The control method described in.
8. 6. It has an update step of updating the reference value corresponding to the identified attribute using the calculated travel time. Or 7. The control method described in.
9. In the comparison step
The degree of congestion of people between the place imaged by the first camera and the place imaged by the second camera is calculated.
Based on the calculated congestion degree, the acquired reference value is corrected based on the calculated congestion degree.
6. Compare the corrected reference value with the calculated travel time. ~ 8. The control method according to any one.
10. In the comparison step, when the calculated movement time is equal to or longer than the acquired reference value, output information indicating a warning is output. ~ 9. The control method according to any one.
11. 6. To 10. A program that causes a computer to execute each step of the control method described in any one of them.

10 第1カメラ
12 第1撮像画像
20 第2カメラ
22 第2撮像画像
40 施設
50 警告画面
52 警告メッセージ
54 詳細情報
100 基準情報
102 属性
104 基準時間
1000 計算機
1020 バス
1040 プロセッサ
1060 メモリ
1080 ストレージデバイス
1100 入出力インタフェース
1120 ネットワークインタフェース
2000 解析装置
2020 検出部
2040 算出部
2060 特定部
2080 比較部
10 1st camera 12 1st captured image 20 2nd camera 22 2nd captured image 40 Facility 50 Warning screen 52 Warning message 54 Detailed information 100 Reference information 102 Attribute 104 Reference time 1000 Computer 1020 Bus 1040 Processor 1060 Memory 1080 Storage device 1100 Output interface 1120 Network interface 2000 Analyzer 2020 Detection unit 2040 Calculation unit 2060 Specific unit 2080 Comparison unit

Claims (5)

第1カメラによって生成される第1撮像画像と、第2カメラによって生成される第2撮像画像とのそれぞれから、同一の人物を検出する検出部と、
前記検出部によって検出された人物が、前記第1カメラによって撮像される場所と前記第2カメラによって撮像される場所との間の移動に要した移動時間を算出する算出部と、
前記人物の属性を特定する特定部と、
前記特定された属性と、前記算出した移動時間とに基づく出力情報を出力する出力部と、を有する解析装置。
A detection unit that detects the same person from each of the first captured image generated by the first camera and the second captured image generated by the second camera.
A calculation unit that calculates the movement time required for a person detected by the detection unit to move between a place imaged by the first camera and a place imaged by the second camera.
A specific part that identifies the attributes of the person,
An analysis device having the specified attribute and an output unit that outputs output information based on the calculated travel time.
前記出力情報は、さらに、前記第1カメラによって撮像される場所と前記第2カメラによって撮像される場所との間の移動にその属性を持つ複数の人物が要した移動時間の統計値と、前記算出した移動時間と、の比較結果に基づいている、請求項1に記載の解析装置。 The output information further includes statistical values of travel time required by a plurality of persons having the attribute to move between a place imaged by the first camera and a place imaged by the second camera, and the above-mentioned output information. The analysis device according to claim 1, which is based on a comparison result with the calculated travel time. 前記出力部は、
前記第1カメラによって撮像される場所と前記第2カメラによって撮像される場所との間における人の混雑度を算出し、
前記算出した混雑度に基づいて、前記取得した統計値を前記算出された混雑度に基づいて補正し、
前記補正した統計値と前記算出した移動時間とを比較する、請求項2に記載の解析装置。
The output unit
The degree of congestion of people between the place imaged by the first camera and the place imaged by the second camera is calculated.
Based on the calculated congestion degree, the acquired statistical value is corrected based on the calculated congestion degree.
The analysis device according to claim 2, wherein the corrected statistical value is compared with the calculated travel time.
コンピュータによって実行される制御方法であって、
第1カメラによって生成される第1撮像画像と、第2カメラによって生成される第2撮像画像とのそれぞれから、同一の人物を検出する検出ステップと、
前記検出ステップによって検出された人物が、前記第1カメラによって撮像される場所と前記第2カメラによって撮像される場所との間の移動に要した移動時間を算出する算出ステップと、
前記人物の属性を特定する特定ステップと、
前記特定された属性と、前記算出した移動時間とに基づく出力情報を出力する出力ステップと、を有する制御方法。
A control method performed by a computer
A detection step of detecting the same person from each of the first captured image generated by the first camera and the second captured image generated by the second camera.
A calculation step for calculating the movement time required for a person detected by the detection step to move between a place imaged by the first camera and a place imaged by the second camera, and a calculation step.
Specific steps to identify the attributes of the person,
A control method having the specified attribute and an output step for outputting output information based on the calculated travel time.
請求項4に記載の制御方法の各ステップをコンピュータに実行させるプログラム。 A program that causes a computer to execute each step of the control method according to claim 4.
JP2020116114A 2020-07-06 2020-07-06 Analyzer, control method, and program Active JP6866950B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020116114A JP6866950B2 (en) 2020-07-06 2020-07-06 Analyzer, control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020116114A JP6866950B2 (en) 2020-07-06 2020-07-06 Analyzer, control method, and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019063343A Division JP6733766B1 (en) 2019-03-28 2019-03-28 Analysis device, control method, and program

Publications (2)

Publication Number Publication Date
JP2020177678A JP2020177678A (en) 2020-10-29
JP6866950B2 true JP6866950B2 (en) 2021-04-28

Family

ID=72916359

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020116114A Active JP6866950B2 (en) 2020-07-06 2020-07-06 Analyzer, control method, and program

Country Status (1)

Country Link
JP (1) JP6866950B2 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5845506B2 (en) * 2009-07-31 2016-01-20 兵庫県 Action detection device and action detection method
JP5680954B2 (en) * 2010-12-27 2015-03-04 株式会社構造計画研究所 Residence time measuring device, residence time measuring system, and residence time measuring method
US9697420B2 (en) * 2013-02-15 2017-07-04 Nec Corporation Information processing system, information processing method, and computer-readable recording medium
JP2018055607A (en) * 2016-09-30 2018-04-05 富士通株式会社 Event detection program, event detection device, and event detection method
JP6605104B2 (en) * 2018-09-19 2019-11-13 株式会社竹中工務店 Suspicious person detection device and program

Also Published As

Publication number Publication date
JP2020177678A (en) 2020-10-29

Similar Documents

Publication Publication Date Title
JP5432227B2 (en) Measuring object counter and method for counting measuring objects
US9141184B2 (en) Person detection system
US7822275B2 (en) Method for detecting water regions in video
Hossain et al. Modeling and assessing quality of information in multisensor multimedia monitoring systems
JP2017142739A (en) Information processing device, information processing method, and program
EP3349142B1 (en) Information processing device and method
CN108229289B (en) Target retrieval method and device and electronic equipment
WO2018179202A1 (en) Information processing device, control method, and program
WO2022041484A1 (en) Human body fall detection method, apparatus and device, and storage medium
CN111654700A (en) Privacy mask processing method and device, electronic equipment and monitoring system
JP2014232362A (en) System for analyzing and predicting moving object action
US20200275016A1 (en) Method and system for auto-setting video content analysis modules
JP6733766B1 (en) Analysis device, control method, and program
US20120026328A1 (en) System and Method for Classification of Moving Object During Video Surveillance
JP2019101664A (en) Estimating program, estimating system, and estimating method
US20200184205A1 (en) Information processing apparatus, method of controlling information processing apparatus, and non-transitory computer-readable storage medium
CN110709857B (en) Person counting device, person counting method, and storage medium
CN114973065B (en) Method and system for detecting article moving and leaving based on video intelligent analysis
JP6991737B2 (en) Information processing equipment, information processing methods and programs
JP2010211485A (en) Gaze degree measurement device, gaze degree measurement method, gaze degree measurement program and recording medium with the same program recorded
JP6866950B2 (en) Analyzer, control method, and program
CN116824311A (en) Performance detection method, device, equipment and storage medium of crowd analysis algorithm
US11854441B2 (en) Computer-readable recording medium storing display control program, display control method, and display control apparatus
US20220192561A1 (en) Information processing system, information processing method, and information processing apparatus
US10891491B2 (en) In-store monitoring device, in-store monitoring method, and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200706

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210309

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210322

R150 Certificate of patent or registration of utility model

Ref document number: 6866950

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150