JP2020145511A - Camera device, person detection method, and person detection system - Google Patents

Camera device, person detection method, and person detection system Download PDF

Info

Publication number
JP2020145511A
JP2020145511A JP2019038767A JP2019038767A JP2020145511A JP 2020145511 A JP2020145511 A JP 2020145511A JP 2019038767 A JP2019038767 A JP 2019038767A JP 2019038767 A JP2019038767 A JP 2019038767A JP 2020145511 A JP2020145511 A JP 2020145511A
Authority
JP
Japan
Prior art keywords
person
camera device
detection
unit
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019038767A
Other languages
Japanese (ja)
Inventor
純子 中野
Junko Nakano
純子 中野
貴光 荒井
Takamitsu Arai
貴光 荒井
健史 島田
Takeshi Shimada
健史 島田
拓哉 喜瀬
Takuya Kise
拓哉 喜瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
iPro Co Ltd
Original Assignee
Panasonic iPro Sensing Solutions Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic iPro Sensing Solutions Co Ltd filed Critical Panasonic iPro Sensing Solutions Co Ltd
Priority to JP2019038767A priority Critical patent/JP2020145511A/en
Publication of JP2020145511A publication Critical patent/JP2020145511A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

To detect a person in a crowded imaging area with high accuracy.SOLUTION: A camera device includes an imaging unit that captures an imaging area, and a detection unit that detects a person appearing in the imaging area captured by the imaging unit by each of a plurality of detection objects, and determines congestion in the imaging area according to a comparison between the number of detected detection objects and a predetermined threshold value, and when the result of the congestion determination is non-congestion, the detection unit detects the person using a first detection object for detecting the person from the whole body of the person, and detects the person using a second detection object for detecting the person from a part of the person when the result of the congestion determination is congestion.SELECTED DRAWING: Figure 1

Description

本開示は、カメラ装置、人物検出方法および人物検出システムに関する。 The present disclosure relates to a camera device, a person detection method and a person detection system.

従来、撮像領域に映る人物のプライバシーを適切に保護するために、所定のタイミングで更新された背景画像に人物の滞留情報または通過情報を重畳した正確な動線分析画像を作成し、簡易な操作で動線分析画像の推移を確認できる動線分析システムおよび動線分析方法が知られている。 Conventionally, in order to appropriately protect the privacy of a person reflected in the imaging area, an accurate flow line analysis image in which the retention information or passage information of the person is superimposed on the background image updated at a predetermined timing is created and a simple operation is performed. A flow line analysis system and a flow line analysis method that can confirm the transition of the flow line analysis image are known.

例えば、特許文献1は、魚眼レンズを搭載するカメラ装置によって撮像した撮像領域の撮像画像の背景画像を繰り返し作成して撮像画像に含まれる移動体の滞留位置または通過位置に関する動線情報を抽出し、撮像画像の背景画像に移動体の動線情報を重畳した動線分析画像を作成する動線分析システムおよび動線分析方法を開示している。この動線分析システムおよび動線分析方法は、タイミング変更操作に応じて第1のタイミングに作成された第1の動線分析画像に対して、第2のタイミングに作成された第2の動線分析画像に切り替えて表示させる。 For example, Patent Document 1 repeatedly creates a background image of an image captured in an imaging region captured by a camera device equipped with a fish-eye lens, and extracts flow line information regarding a retention position or a passing position of a moving body included in the image. It discloses a flow line analysis system and a flow line analysis method for creating a flow line analysis image in which the flow line information of a moving body is superimposed on the background image of the captured image. This flow line analysis system and the flow line analysis method have a second flow line created at the second timing with respect to the first flow line analysis image created at the first timing in response to the timing change operation. Switch to the analysis image and display it.

特開2016−206810号公報Japanese Unexamined Patent Publication No. 2016-206810

しかしながら、特許文献1の構成では人物を背景画像との差分によって検出しているため、例えば撮像領域が多くの人物で混雑している場合には、背景画像の抽出が困難となり撮像領域に映る人物を検出しきれない可能性があった。また、特許文献1の構成では魚眼レンズによって撮像領域の真上から撮像することにより、人物と人物とが頭頂部分の相違によって区別可能となるが、撮像領域の中心から離れるほど歪みが大きくなって画質の劣化が生じ、撮像領域に映る人物を検出しきれない可能性があった。また、例えばコンビニエンスストアまたは百貨店等の施設で使用される防犯用のカメラ装置においては、上述した撮像領域の真上からの撮像よりも固定の画角で斜め前方下側を撮像可能に設置されることが多いため、このような設置をされた場合、混雑時には撮像領域に映る人物と人物との分離が困難となり、人物を正確に検出しきれない可能性があった。 However, in the configuration of Patent Document 1, since a person is detected by the difference from the background image, for example, when the imaging area is crowded with many people, it becomes difficult to extract the background image and the person reflected in the imaging area. Could not be detected. Further, in the configuration of Patent Document 1, by imaging from directly above the imaging region with a fisheye lens, a person and a person can be distinguished by the difference in the crown portion, but the distortion increases as the distance from the center of the imaging region increases and the image quality becomes higher. There was a possibility that the person reflected in the imaging area could not be detected due to the deterioration of the image. Further, in a security camera device used in a facility such as a convenience store or a department store, the camera device is installed so that the lower side diagonally forward can be imaged at a fixed angle of view rather than the above-mentioned image capturing from directly above the imaging area. In many cases, such an installation makes it difficult to separate the person and the person reflected in the imaging area at the time of congestion, and there is a possibility that the person cannot be detected accurately.

本開示は、上述した従来の事情に鑑みて案出され、混雑した撮像領域に映る人物を高精度に検出できるカメラ装置、人物検出方法および人物検出システムを提供することを目的とする。 The present disclosure has been devised in view of the above-mentioned conventional circumstances, and an object of the present disclosure is to provide a camera device, a person detection method, and a person detection system capable of detecting a person reflected in a congested imaging region with high accuracy.

本開示は、撮像領域を撮像する撮像部と、前記撮像部によって撮像された撮像領域に映る人物を、前記人物の一部または全身を対象とする複数の検出用オブジェクトのそれぞれによって検出し、検出された検出用オブジェクトの数と所定の閾値との比較に応じて前記撮像領域の混雑判定を行う検出部と、を備え、前記検出部は、前記混雑判定の結果が非混雑の場合には、前記人物の全身からその人物を検出するための第1の検出用オブジェクトを用いてその人物を検出し、前記混雑判定の結果が混雑の場合には、前記人物の一部からその人物を検出するための第2の検出用オブジェクトを用いてその人物を検出する、カメラ装置を提供する。 In the present disclosure, an imaging unit that captures an imaging region and a person that appears in the imaging region imaged by the imaging unit are detected and detected by each of a plurality of detection objects that target a part or the whole body of the person. The detection unit includes a detection unit that determines congestion in the imaging region according to a comparison between the number of detected objects for detection and a predetermined threshold value, and the detection unit determines when the result of the congestion determination is non-congestion. The person is detected by using the first detection object for detecting the person from the whole body of the person, and when the result of the congestion determination is congestion, the person is detected from a part of the person. Provided is a camera device that detects the person using a second detection object for the purpose.

また、本開示は、撮像領域に映る人物を検出する人物検出方法であって、前記人物を、前記人物の一部または全身を対象とする複数の検出用オブジェクトのそれぞれによって検出し、前記撮像領域から検出した検出オブジェクトの数と、所定の閾値との比較に応じて前記撮像領域の混雑判定を行い、前記混雑判定の結果が非混雑の場合には、前記人物の全身からその人物を検出する第1の検出用オブジェクトを用いてその人物を検出し、前記混雑判定の結果が混雑の場合には、前記人物の一部からその人物を検出する第2の検出用オブジェクトを用いてその人物を検出する、人物検出方法を提供する。 Further, the present disclosure is a person detection method for detecting a person reflected in an imaging region, in which the person is detected by each of a plurality of detection objects targeting a part or the whole body of the person, and the imaging region is described. The congestion determination of the imaging region is performed according to the comparison between the number of detected objects detected from the above and a predetermined threshold value, and when the result of the congestion determination is non-congestion, the person is detected from the whole body of the person. The person is detected by using the first detection object, and when the result of the congestion determination is congestion, the person is detected by using the second detection object that detects the person from a part of the person. Provide a method for detecting a person to be detected.

また、本開示は、撮像領域を撮像するカメラ装置と、表示装置とを含む人物検出システムであって、前記カメラ装置は、前記人物を、前記人物の一部または全身を対象とする複数の検出用オブジェクトのそれぞれによって検出し、前記撮像領域から検出した検出オブジェクトの数と、所定の閾値との比較に応じて前記撮像領域の混雑判定を行い、前記混雑判定の結果が非混雑の場合には、前記人物の全身からその人物を検出する第1の検出用オブジェクトを用いてその人物を検出し、前記混雑判定の結果が混雑の場合には、前記人物の一部からその人物を検出する第2の検出用オブジェクトを用いてその人物を検出する、人物検出システムを提供する。 Further, the present disclosure is a person detection system including a camera device for capturing an imaging region and a display device, wherein the camera device detects a person in a part or the whole body of the person. The congestion of the imaging region is determined according to the comparison between the number of detected objects detected from the imaging region and a predetermined threshold value, and when the result of the congestion determination is non-congestion. , The person is detected by using the first detection object that detects the person from the whole body of the person, and when the result of the congestion determination is congestion, the person is detected from a part of the person. Provided is a person detection system that detects the person using the detection object of 2.

本開示によれば、混雑した撮像領域に映る人物を高精度に検出できる。 According to the present disclosure, a person reflected in a congested imaging region can be detected with high accuracy.

実施の形態1に係るカメラ装置を用いた監視システムの一例を示す説明図Explanatory drawing which shows an example of the surveillance system using the camera apparatus which concerns on Embodiment 1. 実施の形態1に係るカメラ装置とPCとサーバ装置とのシステム構成の一例を示す図The figure which shows an example of the system configuration of the camera device, the PC and the server device which concerns on Embodiment 1. 足元座標算出データの設定例(前面)を示す説明図Explanatory drawing which shows setting example (front) of foot coordinate calculation data 足元座標算出データの設定例(背面)を示す説明図Explanatory drawing which shows setting example (back) of foot coordinate calculation data 足元座標算出データの作成手順例を示すシーケンス図Sequence diagram showing an example of the procedure for creating foot coordinate calculation data 複数の追尾用のオブジェクトの候補例を示す図Diagram showing candidate candidates for multiple tracking objects 足元座標算出データの一例を示す図Diagram showing an example of foot coordinate calculation data 追尾用のオブジェクトの決定例を示すフローチャートFlowchart showing an example of determining an object for tracking 撮像領域に映る人物のカウント手順例を示すフローチャートFlowchart showing an example of counting procedure for people reflected in the imaging area 非混雑状態における人物の検出例を示す図Diagram showing an example of detecting a person in a non-crowded state 混雑状態における人物の検出例を示す図Diagram showing an example of detecting a person in a crowded state 実施の形態1に係るカメラ装置を用いた人数検出システムの動作手順例を示す図The figure which shows the operation procedure example of the number of people detection system using the camera apparatus which concerns on Embodiment 1. カメラ装置によって撮像された撮像画像例を示す図The figure which shows the example of the image captured by the camera device カウント結果データの一例を示す図Diagram showing an example of count result data

(実施の形態1の内容に至る経緯)
昨今、魚眼レンズを搭載するカメラ装置によって撮像した撮像領域の撮像画像の背景画像を繰り返し作成して撮像画像に含まれる移動体の滞留位置または通過位置に関する動線情報を抽出し、撮像画像の背景画像に移動体の動線情報を重畳した動線分析画像を作成する動線分析システムおよび動線分析方法がある。また、同様に例えばコンビニエンスストアまたは百貨店等の施設で使用される防犯用のカメラ装置は、撮像領域の真上からの撮像よりも固定の画角で斜め前方下側を撮像可能に設置されることが多い。よって、このようなカメラ装置が設置された場合、従来の魚眼レンズを搭載するカメラ装置は、混雑時には撮像領域に映る人物と人物との分離が困難となり、人物を正確に検出しきれない可能性があった。上述した特許文献1では、固定の画角で斜め前方下側を撮像可能に設置されるカメラ装置によって人物を検出する技術については想定されていない。
(Background to the contents of the first embodiment)
Recently, a background image of an image captured in an imaging area captured by a camera device equipped with a fish-eye lens is repeatedly created to extract flow line information regarding a staying position or a passing position of a moving body included in the image, and a background image of the captured image. There are a flow line analysis system and a flow line analysis method for creating a flow line analysis image in which the flow line information of a moving body is superimposed. Similarly, a security camera device used in a facility such as a convenience store or a department store shall be installed so as to be able to image diagonally forward and lower sides with a fixed angle of view rather than imaging from directly above the imaging area. There are many. Therefore, when such a camera device is installed, it is difficult for the camera device equipped with the conventional fisheye lens to separate the person and the person reflected in the imaging area at the time of congestion, and there is a possibility that the person cannot be detected accurately. there were. In the above-mentioned Patent Document 1, a technique of detecting a person by a camera device installed so as to be able to image an obliquely front lower side with a fixed angle of view is not assumed.

以下、適宜図面を参照しながら、本開示に係るカメラ装置、人物検出システムおよび人物検出方法の構成および作用を具体的に開示した実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になることを避け、当業者の理解を容易にするためである。なお、添付図面及び以下の説明は、当業者が本開示を十分に理解するために提供されるものであって、これらにより特許請求の範囲に記載の主題を限定することは意図されていない。 Hereinafter, embodiments in which the configuration and operation of the camera device, the person detection system, and the person detection method according to the present disclosure are specifically disclosed will be described in detail with reference to the drawings as appropriate. However, more detailed explanation than necessary may be omitted. For example, detailed explanations of already well-known matters and duplicate explanations for substantially the same configuration may be omitted. This is to avoid unnecessary redundancy of the following description and to facilitate the understanding of those skilled in the art. It should be noted that the accompanying drawings and the following description are provided for those skilled in the art to fully understand the present disclosure, and are not intended to limit the subject matter described in the claims.

(実施の形態1)
図1は、実施の形態1に係るカメラ装置100を用いた人物検出システム1000の一例を示す説明図である。図1に示す人物検出システム1000は、複数の施設A,B,C,…にそれぞれに設置された人数カウントシステム500A,500B,500C,…と、本社HOに設置されたPC(Personal Computer)600と、クラウドサーバ700とを含む構成である。複数の施設A,B,C,…は、例えばコンビニエンスストア、百貨店、大型複合商業施設、ドラッグストア等の施設であっても、百貨店または大型複合商業施設等の1つの施設であってもよい。また、実施の形態1に係るカメラ装置は、防犯用のカメラ装置であり、撮像領域の真上からの撮像よりも固定の画角で斜め前方下側を撮像可能に設置される。
(Embodiment 1)
FIG. 1 is an explanatory diagram showing an example of a person detection system 1000 using the camera device 100 according to the first embodiment. The person detection system 1000 shown in FIG. 1 includes a number counting system 500A, 500B, 500C, ... Installed in each of a plurality of facilities A, B, C, ..., And a PC (Personal Computer) 600 installed in the head office HO. And the cloud server 700. The plurality of facilities A, B, C, ... May be a facility such as a convenience store, a department store, a large commercial complex, a drug store, or one facility such as a department store or a large commercial complex. Further, the camera device according to the first embodiment is a camera device for crime prevention, and is installed so as to be able to image an obliquely front lower side with a fixed angle of view than an image taken from directly above the image pickup area.

それぞれの人数カウントシステム500A,500B,500C,…と、本社HOに設置されたPC600と、クラウドサーバ700とは、ネットワークNW1を介して互いに通信可能に接続されている。ネットワークNW1は、無線ネットワークまたは有線ネットワークである。無線ネットワークは、例えば無線LAN(Local Area Network)、無線WAN(Wide Area Network)、4G(第4世代移動通信システム)、LTE(Long Term Evolution)、LTE−Advanced、5G(第5世代移動通信システム)、Wi−fi(登録商標)、またはWiGig(Wireless Gigabit)である。有線ネットワーク は、例えばイントラネットまたはインターネットである。 The respective number counting systems 500A, 500B, 500C, ..., The PC 600 installed at the head office HO, and the cloud server 700 are connected to each other so as to be able to communicate with each other via the network NW1. The network NW1 is a wireless network or a wired network. Wireless networks include, for example, wireless LAN (Local Area Network), wireless WAN (Wide Area Network), 4G (4th generation mobile communication system), LTE (Long Term Evolution), LTE-Advanced, 5G (5th generation mobile communication system). ), Wi-fi (registered trademark), or WiGig (Wireless Gigabit). Wired networks are, for example, intranets or the Internet.

図1に示す施設Aに設置された人数カウントシステム500Aは、フロア1に設置された複数のカメラ装置100,100A,100B,100Cと、レコーダ200と、サーバ装置300と、入力デバイス400と、モニタ450とを含んで構成される。なお、フロア2は、フロア1と同様の構成であり複数のカメラ装置が設置されているが、図1ではカメラ装置の図示を省略している。また、施設Aの各フロアで使用されるカメラ装置100,100A,100B,100C,…の内部構成は同じである。 The number counting system 500A installed in the facility A shown in FIG. 1 includes a plurality of camera devices 100, 100A, 100B, 100C installed on the floor 1, a recorder 200, a server device 300, an input device 400, and a monitor. It is configured to include 450 and. The floor 2 has the same configuration as the floor 1 and a plurality of camera devices are installed, but the camera devices are not shown in FIG. Further, the internal configurations of the camera devices 100, 100A, 100B, 100C, ... Used on each floor of the facility A are the same.

レコーダ200は、例えば半導体メモリまたはハードディスク装置を用いて構成され、施設A内に設置された複数のカメラ装置100,100A,100B,100C,…のそれぞれによって撮像された撮像画像のデータ(以下、撮像画像データと表記)を記憶する。レコーダ200に記憶された撮像画像データは、例えば防犯上の監視業務または業務上の管理業務等に提供される。 The recorder 200 is configured by using, for example, a semiconductor memory or a hard disk device, and data of captured images captured by each of a plurality of camera devices 100, 100A, 100B, 100C, ... Installed in the facility A (hereinafter, imaging). Image data and notation) is stored. The captured image data stored in the recorder 200 is provided, for example, for crime prevention monitoring work, business management work, and the like.

外部端末の一例としてのサーバ装置300は、例えば入力デバイス400を操作するユーザ(例えば、施設Aで働く従業員、施設Aを管理する管理人および本社HOの従業員等)の入力操作に応じて、所定の撮像画像データおよび後述する計測結果の一例としての人数カウントのカウント結果を示すデータ(以下、カウント結果データ)をモニタ450に表示させる。 The server device 300 as an example of the external terminal responds to an input operation of, for example, a user who operates the input device 400 (for example, an employee working at the facility A, a manager who manages the facility A, an employee of the head office HO, etc.). , Predetermined captured image data and data indicating the count result of the number of people count as an example of the measurement result described later (hereinafter, count result data) are displayed on the monitor 450.

入力デバイス400は、例えばマウス、キーボード、タッチパネルまたはタッチパッドによって構成されて、ユーザの入力操作に応じた信号をカメラ装置100,100A,100B,100C,…またはサーバ装置300に出力する。なお、図1に示す入力デバイス400は、図面を簡単にするためにカメラ装置100のみ矢印(破線)が図示されているが、他のカメラ装置100A,100B,100C,…との間に矢印が図示されてもよい。 The input device 400 is composed of, for example, a mouse, a keyboard, a touch panel, or a touch pad, and outputs a signal corresponding to a user's input operation to the camera devices 100, 100A, 100B, 100C, ..., Or the server device 300. In the input device 400 shown in FIG. 1, an arrow (broken line) is shown only for the camera device 100 in order to simplify the drawing, but an arrow is drawn between the input device 400 and the other camera devices 100A, 100B, 100C, ... It may be illustrated.

表示装置の一例としてのモニタ450は、例えばLCD(Liquid Crystal Display)または有機EL(Electroluminescence)を用いて構成され、サーバ装置300によって作成されたカウント結果データを表示する。なお、モニタ450は、サーバ装置300とは異なる外部端末として設けられるが、サーバ装置300の内部に含まれる構成であってもよい。 The monitor 450 as an example of the display device is configured by using, for example, an LCD (Liquid Crystal Display) or an organic EL (Electroluminescence), and displays the count result data created by the server device 300. Although the monitor 450 is provided as an external terminal different from the server device 300, it may be included in the server device 300.

本社HOに設置されるPC600は、PC600を操作する本社HOのユーザ(例えば、管理業務を行う社員あるいは役員等)の入力操作に応じて、各施設A,B,C,…内に設置された人数カウントシステム500A,500B,500C,…において作成されたカウント結果データ、およびカメラ装置100,100A,100B,100C,…において撮像された撮像画像データを取得して表示する。また、PC600は、カウント結果データを作成するために必要となる各種情報(例えば、来店者数情報、イベント日程情報、最高気温情報、最低気温情報、天気情報、売上情報等)を保持する。なお、これらの各種情報は、施設A,B,C,…ごとに設けられたサーバ装置(例えば、施設Aであればサーバ装置300)に保持されていてもよい。なお、PC600は、施設A,B,C,…内に設置されたサーバ装置における各処理を実行してもよい。これにより、PC600は、各施設A,B,C,…のデータを集約してカウント結果データを作成することができ、本社HOのPC600に対する入力操作によって選択された1つの施設の詳細データ(例えば、図12に示すカウント結果データ等)を取得することができ、または各施設A,B,C,…の特定のエリア(例えば、製菓売場、肉売場等)および施設のデータを比較した結果を表示することができる。 The PC600 installed in the head office HO is installed in each facility A, B, C, ... In response to an input operation by a user of the head office HO who operates the PC600 (for example, an employee or an officer who performs management work). The count result data created by the number of people counting system 500A, 500B, 500C, ... And the captured image data captured by the camera devices 100, 100A, 100B, 100C, ... Are acquired and displayed. In addition, the PC 600 holds various information (for example, number of visitors, event schedule information, maximum temperature information, minimum temperature information, weather information, sales information, etc.) necessary for creating count result data. Note that these various types of information may be stored in a server device (for example, a server device 300 in the case of facility A) provided for each facility A, B, C, .... The PC 600 may execute each process in the server device installed in the facilities A, B, C, .... As a result, the PC600 can aggregate the data of each facility A, B, C, ... To create the count result data, and the detailed data of one facility selected by the input operation to the PC600 of the head office HO (for example). , The count result data shown in FIG. 12 etc.), or the result of comparing the data of specific areas (for example, confectionery section, meat section, etc.) and facilities of each facility A, B, C, ... Can be displayed.

クラウドサーバ700は、各施設A,B,C,…内に設置された人数カウントシステム500A,500B,500C,…において作成されたカウント結果データ、およびカメラ装置100,100A,100B,100C,…において撮像された撮像画像データを記憶する。クラウドサーバ700は、本社HOのPC600を操作する本社HOのユーザ(例えば、管理業務を行う社員あるいは役員等)の入力操作に応じて、所定の処理(例えば、指定された日付および指定された期間のカウント結果データの検索および抽出)を行い、処理結果を本社HOに設置されたPC600に送信する。 The cloud server 700 is used in the count result data created in the number counting systems 500A, 500B, 500C, ... Installed in each facility A, B, C, ..., And in the camera devices 100, 100A, 100B, 100C, .... The captured image data is stored. The cloud server 700 receives a predetermined process (for example, a specified date and a specified period) in response to an input operation of a user of the head office HO (for example, an employee or an officer who performs management work) who operates the PC 600 of the head office HO. Search and extract of the count result data), and send the processing result to the PC600 installed in the head office HO.

図2は、実施の形態1に係るカメラ装置100とPC600とサーバ装置300とのシステム構成の一例を示す図である。カメラ装置100と、PC600と、サーバ装置300とは、ネットワークNW1を介して互いに通信可能に接続される。 FIG. 2 is a diagram showing an example of a system configuration of the camera device 100, the PC 600, and the server device 300 according to the first embodiment. The camera device 100, the PC 600, and the server device 300 are connected to each other so as to be able to communicate with each other via the network NW1.

ネットワークNW1は、無線ネットワークまたは有線ネットワークである。無線ネットワークは、例えば無線LAN(Local Area Network)、無線WAN(Wide Area Network)、4G(第4世代移動通信システム)、LTE(Long Term Evolution)、LTE−Advanced、5G(第5世代移動通信システム)、Wi−fi(登録商標)、またはWiGig(Wireless Gigabit)である。有線ネットワークは、例えばイントラネットまたはインターネットである。 The network NW1 is a wireless network or a wired network. Wireless networks include, for example, wireless LAN (Local Area Network), wireless WAN (Wide Area Network), 4G (4th generation mobile communication system), LTE (Long Term Evolution), LTE-Advanced, 5G (5th generation mobile communication system). ), Wi-fi (registered trademark), or WiGig (Wireless Gigabit). Wired networks are, for example, intranets or the Internet.

カメラ装置100は、制御部10と、撮像部11と、メモリ19と、受信部110と、送信部120とを含んで構成される。また、制御部10は、検出部12と、追尾部13と、ライン通過判定部14と、人数カウント部15と、学習データ16と、を含んで構成される。また、カメラ装置100は、撮像対象とする撮像領域を撮像可能な位置に設置される。 The camera device 100 includes a control unit 10, an imaging unit 11, a memory 19, a receiving unit 110, and a transmitting unit 120. Further, the control unit 10 includes a detection unit 12, a tracking unit 13, a line passage determination unit 14, a number counting unit 15, and learning data 16. Further, the camera device 100 is installed at a position where an imaging region to be imaged can be imaged.

制御部10は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、DSP(Digital Signal Processor)もしくはFPGA(Field Programmable Gate Array)を用いて構成される。制御部10は、カメラ装置100の全体的な動作を司るコントローラとして機能し、メモリ19と協働してカメラ装置100の各部の動作を統括するための制御処理、カメラ装置100の各部との間のデータの入出力処理、データの演算(計算)処理およびデータの記憶処理を行う。制御部10は、メモリ19に記憶されたプログラムおよびデータに従って動作する。制御部10は、動作時にメモリ19を使用し、制御部10が作成または取得したデータもしくは情報をメモリ19に一時的に記憶させる。 The control unit 10 is configured by using, for example, a CPU (Central Processing Unit), an MPU (Micro Processing Unit), a DSP (Digital Signal Processor), or an FPGA (Field Programmable Gate Array). The control unit 10 functions as a controller that controls the overall operation of the camera device 100, controls processing for controlling the operation of each part of the camera device 100 in cooperation with the memory 19, and between each part of the camera device 100. Data input / output processing, data calculation (calculation) processing, and data storage processing. The control unit 10 operates according to the program and data stored in the memory 19. The control unit 10 uses the memory 19 during operation, and temporarily stores the data or information created or acquired by the control unit 10 in the memory 19.

また、制御部10は、後述する所定のフレームレート(例えば、10fps(frame per second))で撮像される撮像画像に基づく機械学習により、最新のマスクエリアデータ、背景画像データ、および足元座標算出データ(図6参照)を作成し、これらのデータを学習データ16の一部として設定する。 Further, the control unit 10 performs the latest mask area data, background image data, and foot coordinate calculation data by machine learning based on an captured image captured at a predetermined frame rate (for example, 10 fps (frame per second)) described later. (See FIG. 6) is created, and these data are set as a part of the training data 16.

マスクエリアデータは、例えばメモリ19に記憶され、ドアまたはガラス等の人物の鏡像が映る領域に関するデータであり、人物検出の対象外となる領域として設定される。マスクエリアデータは、人物の一部および全身の誤検出を抑制するためのデータである。マスクエリアデータは、カメラ装置100の設置時には、最初に撮像された撮像画像に基づく初期設定データとして、PC600またはサーバ装置300によって設定される。また、マスクエリアデータは、カメラ装置100の設置後には、後述する所定のフレームレートで撮像された撮像画像に基づく機械学習により、最新のマスクエリアデータとして作成される。作成された最新の背景画像データは、学習データ16の一部として設定される。 The mask area data is stored in the memory 19, for example, and is data relating to an area in which a mirror image of a person such as a door or glass is reflected, and is set as an area to be excluded from the target of person detection. The mask area data is data for suppressing false detection of a part of a person and the whole body. When the camera device 100 is installed, the mask area data is set by the PC 600 or the server device 300 as initial setting data based on the first captured image. Further, the mask area data is created as the latest mask area data by machine learning based on the captured image captured at a predetermined frame rate, which will be described later, after the camera device 100 is installed. The latest background image data created is set as a part of the training data 16.

背景画像データは、例えばメモリ19に記憶され、撮像画像に含まれる移動体(例えば、人物の一部および全身等)を排除して作成されて、撮像領域に映る人物の一部または全身を検出するための背景画像のデータである。背景画像データは、カメラ装置100の設置時には、最初に撮像された撮像画像に基づく初期設定データとして、PC600またはサーバ装置300によって設定される。また、背景画像データは、カメラ装置100の設置後には、後述する所定のフレームレートで撮像された撮像画像に基づく機械学習により、最新の背景画像データとして作成される。作成された最新の背景画像データは、学習データ16の一部として設定される。 The background image data is stored in the memory 19, for example, and is created by excluding moving objects (for example, a part of the person and the whole body) included in the captured image, and detects a part or the whole body of the person reflected in the imaged area. It is the data of the background image to do. When the camera device 100 is installed, the background image data is set by the PC 600 or the server device 300 as initial setting data based on the first captured image. Further, the background image data is created as the latest background image data by machine learning based on the captured image captured at a predetermined frame rate, which will be described later, after the camera device 100 is installed. The latest background image data created is set as a part of the training data 16.

足元座標算出データは、検出された人物の一部と、その人物の撮像画像中の位置とによってその人物の足元座標を算出するためのデータである。なお、後述するが、足元座標算出データは、カメラ装置100の設置時に、カメラ装置100の設置角度に基づく足元座標算出データをサーバ装置300またはPC600から取得され、撮像した撮像画像と、撮像領域に映る人物とに基づいて、カメラ装置100自身が足元座標算出データを作成して設定してもよい。なお、カメラ装置100の設定時に作成された足元座標算出データは、初期設定データとしてメモリ19に記憶される。また、足元座標算出データは、カメラ装置100の設置後には、後述する所定のフレームレートで撮像された撮像画像に基づく機械学習により、最新の足元座標算出データとして作成されてもよい。なお、作成された最新の足元座標算出データは、学習データ16の一部として設定される。 The foot coordinate calculation data is data for calculating the foot coordinates of the person based on a part of the detected person and the position of the person in the captured image. As will be described later, when the camera device 100 is installed, the foot coordinate calculation data is acquired from the server device 300 or the PC 600 based on the installation angle of the camera device 100, and is captured in the captured image and the imaging region. The camera device 100 itself may create and set the foot coordinate calculation data based on the person to be reflected. The foot coordinate calculation data created when the camera device 100 is set is stored in the memory 19 as initial setting data. Further, the foot coordinate calculation data may be created as the latest foot coordinate calculation data by machine learning based on the captured image captured at a predetermined frame rate, which will be described later, after the camera device 100 is installed. The latest created foot coordinate calculation data is set as a part of the learning data 16.

メモリ19は、例えば制御部10の各処理を実行する際に用いられるワークメモリとしてのRAM(Random Access Memory)と、制御部10の動作を規定したプログラムおよびデータを格納するROM(Read Only Memory)とを有する。RAMには、制御部10により作成あるいは取得されたデータもしくは情報が一時的に保存される。ROMには、制御部10の動作(例えば、撮像部11が撮像した撮像画像データから検出部12が人物および人物の一部を検出する方法、および追尾部13が検出部12によって検出された人物の一部および全身を追尾する方法等)を規定するプログラムが書き込まれている。メモリ19は、カメラ装置100の設置時のカメラ装置100の設置位置および設置角度等のデータを記憶している。 The memory 19 is, for example, a RAM (Random Access Memory) as a work memory used when executing each process of the control unit 10, and a ROM (Read Only Memory) for storing a program and data defining the operation of the control unit 10. And have. Data or information created or acquired by the control unit 10 is temporarily stored in the RAM. The ROM contains the operation of the control unit 10 (for example, a method in which the detection unit 12 detects a person and a part of the person from the captured image data captured by the image pickup unit 11, and a person whose tracking unit 13 is detected by the detection unit 12. A program is written that specifies how to track a part of the whole body and the whole body. The memory 19 stores data such as the installation position and installation angle of the camera device 100 when the camera device 100 is installed.

また、メモリ19は、撮像部11が撮像した撮像画像データ、検出部12が検出した人物の一部および全身のデータ、および人数カウント部15がカウントした人数のデータ等を記憶する。さらにメモリ19は、カメラ装置100の設置時に予め設定される各種データを記憶する。各種データは、例えばマスクエリアデータ、背景画像データ、および足元座標算出データ等である。各種データは、PC600またはサーバ装置300から送信されてネットワークNW1を介して受信部110で受信される。 In addition, the memory 19 stores captured image data captured by the imaging unit 11, data on a part of the person detected by the detecting unit 12 and the whole body, data on the number of people counted by the number counting unit 15, and the like. Further, the memory 19 stores various data preset at the time of installation of the camera device 100. The various data are, for example, mask area data, background image data, foot coordinate calculation data, and the like. Various data are transmitted from the PC 600 or the server device 300 and received by the receiving unit 110 via the network NW1.

撮像部11は、少なくともレンズとイメージセンサとを有して構成される。撮像部11は、所定のフレームレート(例えば、30fpsまたは60fps(frame per second))で撮像領域を撮像する。また、イメージセンサは、例えばCCD(Charged−Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)の固体撮像素子であり、撮像面に結像した光学像を電気信号に変換する。 The image pickup unit 11 includes at least a lens and an image sensor. The imaging unit 11 images an imaging region at a predetermined frame rate (for example, 30 fps or 60 fps (frame per second)). Further, the image sensor is, for example, a CCD (Charged-Coupled Device) or CMOS (Complementary Metal Oxide Semiconductor) solid-state image sensor, and converts an optical image imaged on an imaging surface into an electric signal.

検出部12は、例えばCPU、MPUまたはDSPを用いて構成され、撮像部11からの電気信号を用いて所定の信号処理を行うことで、人間が認識可能なRGB(Red Green Blue)またはYUV(輝度・色差)等により規定される撮像画像のデータを作成する。検出部12は、作成した撮像画像のデータに基づいて、撮像領域に映る人物の一部および全身を、マスクエリアデータおよび背景画像データとの比較によって検出する。検出部12は、撮像領域のうちマスクエリアデータに基づいて人物検出の対象外となる領域を除いた撮像領域に映る人物を検出する。検出部12は、撮像領域に映る人物の一部および全身のそれぞれを検出する第1検出部12a,第2検出部12b,第3検出部12c,第4検出部12dを含んで構成される。 The detection unit 12 is configured by using, for example, a CPU, an MPU, or a DSP, and performs predetermined signal processing using an electric signal from the image pickup unit 11 to perform human-recognizable RGB (Red Green Blue) or YUV (Red Green Blue) or YUV ( Create captured image data defined by brightness / color difference). Based on the data of the captured image created, the detection unit 12 detects a part and the whole body of the person reflected in the imaging region by comparing with the mask area data and the background image data. The detection unit 12 detects a person appearing in the image pickup area excluding the area excluded from the person detection target based on the mask area data in the image pickup area. The detection unit 12 includes a first detection unit 12a, a second detection unit 12b, a third detection unit 12c, and a fourth detection unit 12d that detect each of a part of a person and the whole body reflected in the imaging region.

第1検出部12a,第2検出部12b,第3検出部12c,第4検出部12dのそれぞれは、検出した人物の一部および全身のそれぞれに対応する部分を、追尾部13によって追尾を行うための追尾用のオブジェクトの候補として検出する。なお、追尾用のオブジェクトの候補は、検出用オブジェクトの一例である。第1検出部12a,第2検出部12b,第3検出部12c,第4検出部12dのそれぞれは、人物の一部を示す複数の追尾用のオブジェクトの候補のそれぞれを検出する。また、第1検出部12a,第2検出部12b,第3検出部12c,第4検出部12dのそれぞれは、検出した追尾用のオブジェクトの候補の大きさを示す人物検出枠OB1,OB2,OB3,OB4(図5参照)を設定する。人物検出枠OB1,OB2,OB3,OB4のそれぞれについては、図5を参照して後述する。 Each of the first detection unit 12a, the second detection unit 12b, the third detection unit 12c, and the fourth detection unit 12d tracks a part of the detected person and a part corresponding to the whole body by the tracking unit 13. Detected as a candidate for tracking object. The tracking object candidate is an example of a detection object. Each of the first detection unit 12a, the second detection unit 12b, the third detection unit 12c, and the fourth detection unit 12d detects each of a plurality of candidates for tracking objects indicating a part of a person. Further, each of the first detection unit 12a, the second detection unit 12b, the third detection unit 12c, and the fourth detection unit 12d is a person detection frame OB1, OB2, OB3 indicating the size of the detected object candidate for tracking. , OB4 (see FIG. 5). Each of the person detection frames OB1, OB2, OB3, and OB4 will be described later with reference to FIG.

また、検出部12は、第1検出部12a,第2検出部12b,第3検出部12c,第4検出部12dのそれぞれによって検出された複数の追尾用のオブジェクトの候補のそれぞれを検出結果として取得する。検出部12は、取得した検出結果と所定の閾値との比較を行い、撮像領域に対する混雑判定を行う。検出部12は、例えば検出結果に含まれる複数の人物の一部と、全身とのそれぞれの検出数を比較し、比較結果と設定された所定の閾値とに応じて撮像領域が混雑しているか否かを判定する。なお、所定の閾値は、例えば撮像中の頭部の検出数に対する全身の検出数の比であっても、人数を示す値であってもよい。検出部12は、混雑判定の結果に基づいて、非混雑の場合には人物の全身を追尾用のオブジェクトとして設定し、混雑の場合には人物の一部を追尾用のオブジェクトとして設定して、追尾部13に出力する。なお、第1の検出用オブジェクトとしての一例は、非混雑の場合に設定される追尾用のオブジェクトであり、第2の検出用オブジェクトとしての一例は、混雑の場合に設定される追尾用のオブジェクトである。 Further, the detection unit 12 uses each of the plurality of tracking object candidates detected by each of the first detection unit 12a, the second detection unit 12b, the third detection unit 12c, and the fourth detection unit 12d as the detection result. get. The detection unit 12 compares the acquired detection result with a predetermined threshold value, and determines congestion in the imaging region. For example, the detection unit 12 compares the number of detections of a part of a plurality of persons included in the detection result with the whole body, and whether the imaging region is congested according to the comparison result and a predetermined threshold value set. Judge whether or not. The predetermined threshold value may be, for example, the ratio of the number of detected heads to the number of detected heads during imaging, or a value indicating the number of people. Based on the result of the congestion determination, the detection unit 12 sets the whole body of the person as an object for tracking in the case of non-congestion, and sets a part of the person as an object for tracking in the case of congestion. Output to the tracking unit 13. An example as the first detection object is a tracking object set in the case of non-congestion, and an example as the second detection object is a tracking object set in the case of congestion. Is.

追尾部13は、検出部12から入力された追尾用のオブジェクトに基づいて、撮像領域に映る複数の人物をそれぞれ検出して追尾するための追尾用のオブジェクトのデータ13aを設定する。追尾部13は、追尾によって撮像領域内を移動する人物の動線情報を、追尾用のオブジェクトと足元座標算出データとを用いてその人物の足元座標を算出して作成する。動線情報は、撮像領域に映る複数の人物のそれぞれに対して作成されて、人物がどの位置で滞留、あるいはどの位置を通過したかを示す情報である。追尾部13は、作成した動線情報をライン通過判定部14に出力する。追尾部13は、入力された追尾用のオブジェクトのデータ13aに対する追尾を終了するまでの間記憶する。 The tracking unit 13 sets the data 13a of the tracking object for detecting and tracking each of a plurality of persons reflected in the imaging region based on the tracking object input from the detection unit 12. The tracking unit 13 creates the flow line information of a person moving in the imaging region by tracking by calculating the foot coordinates of the person using the tracking object and the foot coordinate calculation data. The flow line information is created for each of a plurality of persons reflected in the imaging region, and is information indicating at which position the person stayed or passed. The tracking unit 13 outputs the created flow line information to the line passage determination unit 14. The tracking unit 13 stores the input object for tracking until the tracking of the data 13a is completed.

ライン通過判定部14は、追尾部13から入力される人物の動線情報と、設定された所定のラインとに基づいて、その人物が所定のラインを通過したか否かを判定する。所定のラインは、撮像領域における任意の位置に対してPC600によって予め設定されており、ラインの数は複数であってもよい。ライン通過判定部14は、動線情報に基づいて所定のラインを通過する方向を区別することができる。よって、ライン通過判定部14は、例えば施設入口に設けられた所定のラインに対して、入店人数と退店人数とをそれぞれ区別して判定することができる。これにより、各施設A,B,C,…のそれぞれの人数カウントシステム500A,500B,500C,…において作成されたカウント結果データには、入店人数と退店人数等の人物の動線情報によって得ることができるデータが含まれるため、本社HOの従業員はカウント結果データからより多様な情報を得ることができる。またライン通過判定部14は、人物が所定のラインを通過したと判定すると、所定のラインに対する通過方向ごとの判定結果を人数カウント部15に出力する。 The line passage determination unit 14 determines whether or not the person has passed the predetermined line based on the flow line information of the person input from the tracking unit 13 and the set predetermined line. The predetermined line is preset by the PC 600 with respect to an arbitrary position in the imaging region, and the number of lines may be plural. The line passage determination unit 14 can distinguish the direction of passing through a predetermined line based on the flow line information. Therefore, the line passage determination unit 14 can distinguish between the number of people entering the store and the number of people leaving the store for a predetermined line provided at the entrance of the facility, for example. As a result, the count result data created by the number counting systems 500A, 500B, 500C, ... Of each facility A, B, C, ... Is based on the flow line information of the person such as the number of people entering and leaving the store. Since the data that can be obtained is included, the employees of the head office HO can obtain more diverse information from the count result data. Further, when the line passage determination unit 14 determines that the person has passed the predetermined line, the line passage determination unit 14 outputs the determination result for each passing direction with respect to the predetermined line to the number counting unit 15.

人数カウント部15は、ライン通過判定部14から入力された判定結果に基づいて、所定のラインを通過した人物の人数をカウントし、カウント結果を送信部120に出力する。 The number of people counting unit 15 counts the number of people who have passed a predetermined line based on the determination result input from the line passing determination unit 14, and outputs the count result to the transmission unit 120.

受信部110は、カメラ装置100の設置時にPC600またはサーバ装置300からマスクエリアデータ、背景画像データ、および足元座標算出データ等の人物の検出およびカウントを実施するために必要なデータを、ネットワークNW1を介して受信する。また、受信部110は、入力デバイス400を操作するユーザの入力操作に応じて、カメラ装置100が撮像する撮像領域の混雑判定を行うための所定の閾値、または撮像領域に映る人物の人数をカウントするための所定のライン等の情報が変更された場合には、これらの情報を受信する。 When the camera device 100 is installed, the receiving unit 110 supplies the network NW1 with data necessary for detecting and counting a person such as mask area data, background image data, and foot coordinate calculation data from the PC 600 or the server device 300. Receive via. In addition, the receiving unit 110 counts a predetermined threshold value for determining congestion in the imaging region imaged by the camera device 100, or the number of people reflected in the imaging region, in response to an input operation of the user who operates the input device 400. When the information such as a predetermined line is changed, the information is received.

送信部120は、撮像部11によって撮像される撮像画像から随時作成される学習データ16(マスクエリアデータ、背景画像データ、および足元座標算出データ等)、人物の滞留あるいは通過に関する動線情報、および所定のラインを通過する人物のカウント結果データを取得してサーバ装置300に送信する。 The transmission unit 120 includes learning data 16 (mask area data, background image data, foot coordinate calculation data, etc.) created at any time from the captured image captured by the imaging unit 11, movement line information regarding the retention or passage of a person, and The count result data of the person passing through the predetermined line is acquired and transmitted to the server device 300.

次に、図2に示すPC600について説明する。外部端末および表示装置の一例としてのPC600は、制御部20と、表示部21と、入力部22と、記憶部28と、メモリ29と、受信部210と、送信部220とを含んで構成される。なお、以下の説明においては説明を簡単にするためにカメラ装置100のみを記載しているが、PC600と通信可能に接続されている他のカメラ装置100A,100B,100C,…であってもよい。 Next, the PC 600 shown in FIG. 2 will be described. The PC 600 as an example of the external terminal and the display device includes a control unit 20, a display unit 21, an input unit 22, a storage unit 28, a memory 29, a receiving unit 210, and a transmitting unit 220. To. In the following description, only the camera device 100 is described for the sake of simplicity, but other camera devices 100A, 100B, 100C, ... Which are communicably connected to the PC 600 may be used. ..

制御部20は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、DSP(Digital Signal Processor)もしくはFPGA(Field Programmable Gate Array)を用いて構成される。制御部20は、PC600の全体的な動作を司るコントローラとして機能し、メモリ29と協働してPC600の各部の動作を統括するための制御処理、PC600の各部との間のデータの入出力処理、データの演算(計算)処理およびデータの記憶処理を行う。制御部20は、メモリ29に記憶されたプログラムおよびデータに従って動作する。制御部20は、動作時にメモリ29を使用し、制御部20が作成または取得したデータもしくは情報をメモリ29に一時的に記憶させる。 The control unit 20 is configured by using, for example, a CPU (Central Processing Unit), an MPU (Micro Processing Unit), a DSP (Digital Signal Processor), or an FPGA (Field Programmable Gate Array). The control unit 20 functions as a controller that controls the overall operation of the PC 600, controls processing for controlling the operation of each part of the PC 600 in cooperation with the memory 29, and data input / output processing with each part of the PC 600. , Performs data calculation processing and data storage processing. The control unit 20 operates according to the program and data stored in the memory 29. The control unit 20 uses the memory 29 during operation, and temporarily stores the data or information created or acquired by the control unit 20 in the memory 29.

表示部21は、カメラ装置100によって作成されたカウントデータを表示する。また表示部21は、カメラ装置100によって撮像される撮像領域の混雑判定を行うための所定の閾値、または撮像領域に映る人物の人数をカウントするための所定のライン等の設定情報を表示する。 The display unit 21 displays the count data created by the camera device 100. Further, the display unit 21 displays setting information such as a predetermined threshold value for determining congestion in the imaging region imaged by the camera device 100, or a predetermined line for counting the number of people reflected in the imaging region.

入力部22は、カメラ装置ごとに撮像される撮像領域の混雑判定を行うための所定の閾値、または撮像領域に映る人物の人数をカウントするための所定のライン等の設定情報を表示する。また、入力部22はユーザの入力操作に基づいて、カメラ装置100の設置時に必要な初期設定としてのデータ(例えば、マスクエリアデータ、背景画像データ、および足元座標算出データ等)を入力する。なお、マスクエリアデータ、背景画像データ、および足元座標算出データは、ユーザによって設定されて記憶部28に記憶されているデータであっても、カメラ装置100の設置時に最初に撮像した撮像画像に基づいてユーザが設定したデータであってもよい。また、入力部22は、ユーザの入力操作に応じて、既存の設定(例えば、所定の閾値、所定のライン、マスクエリアデータおよび足元座標算出データ等)の設定変更を行うことができる。 The input unit 22 displays setting information such as a predetermined threshold value for determining congestion in the imaging region to be imaged for each camera device, or a predetermined line for counting the number of people reflected in the imaging region. Further, the input unit 22 inputs data as initial settings (for example, mask area data, background image data, foot coordinate calculation data, etc.) necessary for installing the camera device 100 based on the user's input operation. The mask area data, the background image data, and the foot coordinate calculation data are based on the captured image first captured when the camera device 100 is installed, even if the data is set by the user and stored in the storage unit 28. It may be data set by the user. In addition, the input unit 22 can change the settings of existing settings (for example, a predetermined threshold value, a predetermined line, mask area data, foot coordinate calculation data, etc.) according to the input operation of the user.

記憶部28は、サーバ装置300あるいはPC600によってカメラ装置ごとに設定された設定値を記憶する。また、記憶部38は、カメラ装置100から取得したカウントデータあるいはPC600によって加工されたカウントデータ(例えば、他のカメラ装置100A,100B,100C,…とカメラ装置100とによって得られたそれぞれのカウントデータを比較したデータ等)を記憶する。記憶部28は、ユーザによって設定されたカメラ装置の設置時に必要な初期設定としてのデータ(例えば、マスクエリアデータ、背景画像データ、および足元座標算出データ等)を、カメラ装置ごとに記憶する。 The storage unit 28 stores the set value set for each camera device by the server device 300 or the PC 600. Further, the storage unit 38 has the count data acquired from the camera device 100 or the count data processed by the PC 600 (for example, the count data obtained by the other camera devices 100A, 100B, 100C, ... And the camera device 100, respectively. The data comparing the above, etc.) is stored. The storage unit 28 stores data as initial settings (for example, mask area data, background image data, foot coordinate calculation data, etc.) set by the user when installing the camera device for each camera device.

メモリ29は、例えば制御部20の各処理を実行する際に用いられるワークメモリとしてのRAM(Random Access Memory)と、制御部10の動作を規定したプログラムおよびデータを格納するROM(Read Only Memory)とを有する。RAMには、制御部20により作成あるいは取得されたデータもしくは情報が一時的に保存される。ROMには、制御部20の動作(例えば、カメラ装置ごとに作成されたカウントデータのそれぞれを取得して加工する方法、およびカメラ装置ごとに所定の閾値または所定のライン等の設定を設定する方法等)を規定するプログラムが書き込まれている。メモリ29は、カメラ装置100の設置時に設定されるカメラ装置100の設置位置および設置角度等のデータを記憶する。 The memory 29 is, for example, a RAM (Random Access Memory) as a work memory used when executing each process of the control unit 20, and a ROM (Read Only Memory) for storing a program and data defining the operation of the control unit 10. And have. Data or information created or acquired by the control unit 20 is temporarily stored in the RAM. In the ROM, the operation of the control unit 20 (for example, a method of acquiring and processing each of the count data created for each camera device, and a method of setting a predetermined threshold value or a predetermined line for each camera device). Etc.) is written in the program. The memory 29 stores data such as the installation position and installation angle of the camera device 100 that are set when the camera device 100 is installed.

受信部210は、現在のカメラ装置100に設定されている設定情報あるいはカメラ装置100によって作成されたカウント結果データを受信する。また、送信部220は、ユーザの入力操作に応じて既存の設定(例えば、所定の閾値、所定のライン、マスクエリアデータおよび足元座標算出データ等)が変更された場合にその設定情報を送信することができる。 The receiving unit 210 receives the setting information set in the current camera device 100 or the count result data created by the camera device 100. Further, the transmission unit 220 transmits the setting information when the existing settings (for example, a predetermined threshold value, a predetermined line, mask area data, foot coordinate calculation data, etc.) are changed according to the input operation of the user. be able to.

次に、図2に示すサーバ装置300について説明する。外部端末の一例としてのサーバ装置300は、制御部30と、記憶部38と、メモリ39と、受信部310と、送信部320とを含んで構成される。なお、以下の説明においては説明を簡単にするためにカメラ装置100のみを記載しているが、サーバ装置300と通信可能に接続されている他のカメラ装置100A,100B,100C,…であってもよい。 Next, the server device 300 shown in FIG. 2 will be described. The server device 300 as an example of the external terminal includes a control unit 30, a storage unit 38, a memory 39, a reception unit 310, and a transmission unit 320. In the following description, only the camera device 100 is described for the sake of simplicity, but other camera devices 100A, 100B, 100C, ... That are communicably connected to the server device 300. May be good.

サーバ装置300は、図1に示す入力デバイス400を操作するユーザの入力操作に応じて、既存の設定(例えば、所定の閾値、所定のライン、マスクエリアデータおよび足元座標算出データ等)の設定変更を行うことができる。 The server device 300 changes the settings of existing settings (for example, a predetermined threshold value, a predetermined line, mask area data, foot coordinate calculation data, etc.) according to an input operation of a user who operates the input device 400 shown in FIG. It can be performed.

制御部30は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、DSP(Digital Signal Processor)もしくはFPGA(Field Programmable Gate Array)を用いて構成される。制御部30は、サーバ装置300の全体的な動作を司るコントローラとして機能し、メモリ39と協働してサーバ装置300の各部の動作を統括するための制御処理、サーバ装置300の各部との間のデータの入出力処理、データの演算処理およびデータの記憶処理を行う。制御部30は、メモリ39に記憶されたプログラムおよびデータに従って動作する。制御部30は、動作時にメモリ39を使用し、制御部30が作成または取得したデータもしくは情報をメモリ39に一時的に記憶させる。 The control unit 30 is configured by using, for example, a CPU (Central Processing Unit), an MPU (Micro Processing Unit), a DSP (Digital Signal Processor), or an FPGA (Field Programmable Gate Array). The control unit 30 functions as a controller that controls the overall operation of the server device 300, controls processing for controlling the operation of each part of the server device 300 in cooperation with the memory 39, and between each part of the server device 300. Performs data input / output processing, data arithmetic processing, and data storage processing. The control unit 30 operates according to the program and data stored in the memory 39. The control unit 30 uses the memory 39 during operation, and temporarily stores the data or information created or acquired by the control unit 30 in the memory 39.

記憶部38は、サーバ装置300あるいはPC600によってカメラ装置ごとに設定された設定値を記憶する。また、記憶部38は、カメラ装置100によって作成されたカウントデータあるいはPC600によって加工されたカウントデータを記憶する。 The storage unit 38 stores the set value set for each camera device by the server device 300 or the PC 600. Further, the storage unit 38 stores the count data created by the camera device 100 or the count data processed by the PC 600.

受信部310は、カメラ装置100によって作成されたカウント結果データを受信する。受信部310によって受信されたカウント結果データは、記憶部38に記憶される。また、送信部320は、ユーザの入力操作に応じて既存の設定(例えば、所定の閾値、所定のライン、マスクエリアデータおよび足元座標算出データ等)が変更された場合には、その設定情報を送信することができる。 The receiving unit 310 receives the count result data created by the camera device 100. The count result data received by the receiving unit 310 is stored in the storage unit 38. Further, when the existing settings (for example, a predetermined threshold value, a predetermined line, mask area data, foot coordinate calculation data, etc.) are changed according to the input operation of the user, the transmission unit 320 uses the setting information. Can be sent.

次に、図3Aおよび図3Bを参照して、足元座標算出データの設定例について説明する。図3Aは、足元座標算出データの設定例(前面)を示す説明図である。図3Bは、足元座標算出データの設定例(背面)を示す説明図である。 Next, a setting example of the foot coordinate calculation data will be described with reference to FIGS. 3A and 3B. FIG. 3A is an explanatory diagram showing a setting example (front surface) of the foot coordinate calculation data. FIG. 3B is an explanatory diagram showing a setting example (back surface) of the foot coordinate calculation data.

図3Aおよび図3Bは、カメラ装置100は設置時に人物HU1が映る撮像画像SC1を撮像して、足元座標算出データを設定する様子を示す。足元座標算出データは、カメラ装置100により撮像された撮像画像SC1と、撮像画像SC1に映る人物HU1とに基づいて設定される。また、足元座標算出データは、人物HU1の前面および背面のそれぞれの撮像画像SC1を用いて設定される。なお、説明を簡単にするために図3Aおよび図3Bでは、人物の前面および背面のそれぞれに対して撮像画像SC1,SC2をそれぞれ1例ずつ示しているが、複数の撮像画像を用いて足元座標算出データを設定してもよい。 3A and 3B show how the camera device 100 captures the captured image SC1 in which the person HU1 appears at the time of installation and sets the foot coordinate calculation data. The foot coordinate calculation data is set based on the captured image SC1 captured by the camera device 100 and the person HU1 reflected in the captured image SC1. Further, the foot coordinate calculation data is set using the captured images SC1 on the front surface and the back surface of the person HU1. For the sake of simplicity, in FIGS. 3A and 3B, one captured image SC1 and one SC2 are shown for each of the front and back surfaces of the person, but the foot coordinates are obtained using a plurality of captured images. Calculation data may be set.

また、足元座標算出データの設定に使用される撮像画像は、カメラ装置100の機械学習を行うためのデータとしても記憶される。よって、カメラ装置100は、人物の前面および背面のそれぞれが映る撮像画像のそれぞれを使用して人物の一部または全身を検出してもよいし、いずれか一方を使用して人物の一部または全身を検出してもよい。また、カメラ装置100は、人物の背面が映る撮像画像では検出に用いる特徴量(言い換えると、背景画像データに対する差分)が大きく異なるため、人物の背面が映る撮像画像においては、人物の頭部の検出が困難となる。このため、カメラ装置100は、足元座標算出データの設定に使用される撮像画像に人物の前面および背面のそれぞれにおける人物の頭部が映る撮像画像を使用する場合、効率よく機械学習を行うことができ、運用時にはより高精度に人物の頭部を検出することができる。 In addition, the captured image used for setting the foot coordinate calculation data is also stored as data for performing machine learning of the camera device 100. Therefore, the camera device 100 may detect a part or the whole body of the person by using each of the captured images showing the front and the back of the person, or may use either of them to detect a part of the person or a part of the person or The whole body may be detected. Further, since the feature amount (in other words, the difference with respect to the background image data) used for detection is significantly different in the captured image in which the back surface of the person is reflected in the camera device 100, in the captured image in which the back surface of the person is reflected, the head of the person is displayed. It becomes difficult to detect. For this reason, the camera device 100 can efficiently perform machine learning when the captured image used for setting the foot coordinate calculation data uses the captured image in which the head of the person is reflected on each of the front and back of the person. It is possible to detect the head of a person with higher accuracy during operation.

図3Aは、撮像画像SC1に映る人物HU1が前面を向いている状態での足元座標算出データを設定する様子を示す。撮像画像SC1上には、ラインL1と、人物HU1の足元座標Pt1と、人物検出枠OB11とが表示される。カメラ装置100は、撮像画像SC1に映る人物HU1を検出し、人物HU1の全身の検出を示す人物検出枠OB11と、人物HU1の足元座標Pt1とを検出して設定する。ラインL1は、PC600に予め設定されたラインの設定に基づいて設定される。 FIG. 3A shows a state in which the foot coordinate calculation data is set in a state where the person HU1 shown in the captured image SC1 is facing the front. On the captured image SC1, the line L1, the foot coordinates Pt1 of the person HU1, and the person detection frame OB11 are displayed. The camera device 100 detects the person HU1 reflected in the captured image SC1, detects and sets the person detection frame OB11 indicating the detection of the whole body of the person HU1 and the foot coordinates Pt1 of the person HU1. The line L1 is set based on the line setting preset in the PC 600.

同様に、図3Bは、撮像画像SC2に映る人物HU2が背面を向いている状態での足元座標算出データを設定する様子を示す。なお、人物HU2と人物HU1は同一人物であってもよい。撮像画像SC2上には、ラインL2と、人物HU2の足元座標Pt2と、人物検出枠OB12とが表示される。カメラ装置100は、撮像画像SC2に映る人物HU2を検出し、人物HU2の全身の検出を示す人物検出枠OB12と、人物HU2の足元座標Pt2とを検出して設定する。ラインL2は、PC600に予め設定されたラインの設定に基づいて設定される。なおラインL2は、ラインL1と同一のラインである。 Similarly, FIG. 3B shows how the foot coordinate calculation data is set in a state where the person HU2 shown in the captured image SC2 is facing the back surface. The person HU2 and the person HU1 may be the same person. On the captured image SC2, the line L2, the foot coordinates Pt2 of the person HU2, and the person detection frame OB12 are displayed. The camera device 100 detects the person HU2 reflected in the captured image SC2, detects and sets the person detection frame OB12 indicating the detection of the whole body of the person HU2 and the foot coordinates Pt2 of the person HU2. The line L2 is set based on the line setting preset in the PC 600. The line L2 is the same line as the line L1.

図4は、足元座標算出データの設定手順例を示すシーケンス図である。足元座標算出データは、カメラ装置100と、PC600とによって設定される。 FIG. 4 is a sequence diagram showing an example of the setting procedure of the foot coordinate calculation data. The foot coordinate calculation data is set by the camera device 100 and the PC 600.

カメラ装置100は、撮像部11によって撮像領域内に映る人物がそれぞれ異なる位置を通過する様子について複数の撮像画像を撮像する(T1)。 The camera device 100 captures a plurality of captured images of how a person reflected in the imaging region passes through different positions by the imaging unit 11 (T1).

カメラ装置100は、第1検出部12aによって、複数の撮像画像のそれぞれから設定用のオブジェクトとして人物の全身をそれぞれ検出する(T2)。ここでいう設定用のオブジェクトは、人物の全身が検出されたオブジェクトである。 The camera device 100 detects the whole body of a person as a setting object from each of the plurality of captured images by the first detection unit 12a (T2). The object for setting here is an object in which the whole body of a person is detected.

カメラ装置100は、検出部12によって検出された設定用のオブジェクトのそれぞれを、検出された設定用のオブジェクトの足元座標と、設定用のオブジェクトの大きさ(言い換えると、人物の大きさ)とを関連付けて取得する(T3)。 The camera device 100 sets each of the setting objects detected by the detection unit 12 to the foot coordinates of the detected setting object and the size of the setting object (in other words, the size of a person). Acquire in association (T3).

カメラ装置100は、取得した複数の設定用のオブジェクトの足元座標および大きさのそれぞれを関連付けた検出結果を、送信部120からネットワークNW1を介してPC600に送信する(T4)。 The camera device 100 transmits the detection results associated with the foot coordinates and the sizes of the plurality of objects for setting acquired from the transmission unit 120 to the PC 600 via the network NW1 (T4).

PC600は、複数の設定用のオブジェクトの足元座標および大きさのそれぞれを受信部210によって受信する(T5)。 The PC 600 receives each of the foot coordinates and the size of the plurality of setting objects by the receiving unit 210 (T5).

PC600は、受信した複数の設定用のオブジェクトの足元座標および大きさのそれぞれと、予めPC600に設定された人の平均的な身長データとを比較して、撮像領域の所定の座標に対応するオブジェクトの相対的な大きさを設定値として算出し、これらの設定値に基づいて足元座標算出データを作成する(T6)。 The PC 600 compares each of the received foot coordinates and sizes of a plurality of objects for setting with the average height data of a person set in the PC 600 in advance, and is an object corresponding to a predetermined coordinate of the imaging region. The relative size of is calculated as set values, and foot coordinate calculation data is created based on these set values (T6).

PC600は、作成した足元座標算出データをカメラ装置100の足元座標算出データとして記憶部28に記憶して、送信部220からネットワークNW1を介して、カメラ装置100に送信する(T7)。 The PC 600 stores the created foot coordinate calculation data in the storage unit 28 as the foot coordinate calculation data of the camera device 100, and transmits the created foot coordinate calculation data from the transmission unit 220 to the camera device 100 via the network NW1 (T7).

カメラ装置100は、受信部110によって足元座標算出データを受信する(T8)。 The camera device 100 receives the foot coordinate calculation data by the receiving unit 110 (T8).

カメラ装置100は、受信した足元座標算出データをメモリ19に記憶して、検出部12が参照する足元座標算出データとして設定する(T9)。これにより、カメラ装置100は、検出された追尾用のオブジェクトの候補が人物の一部を示すオブジェクトであっても、追尾用のオブジェクトの候補の大きさ(言い換えると、人物検出枠OB2,OB3,OB4)と、追尾用のオブジェクトの候補の位置に応じて人物の全身の大きさを推定することができ、さらには推定した大きさから人物の足元座標を推定することができる。したがって、カメラ装置100は、作成された足元座標算出データに基づいて、撮像領域に映る人物の足元座標を推定することができる。 The camera device 100 stores the received foot coordinate calculation data in the memory 19 and sets it as the foot coordinate calculation data referred to by the detection unit 12 (T9). As a result, the camera device 100 has the size of the candidate object for tracking (in other words, the person detection frames OB2, OB3, even if the detected object candidate for tracking is an object indicating a part of the person. OB4) and the size of the whole body of the person can be estimated according to the position of the candidate object for tracking, and further, the foot coordinates of the person can be estimated from the estimated size. Therefore, the camera device 100 can estimate the foot coordinates of the person reflected in the imaging region based on the created foot coordinate calculation data.

図5は、複数の追尾用のオブジェクトの候補例を示す図である。図5は、撮像領域に映る人物HU0を撮像した撮像画像DE0である。追尾用のオブジェクトの候補は、第1検出部12a,第2検出部12b,第3検出部12c,第4検出部12dのそれぞれによって検出されるオブジェクトである。追尾用のオブジェクトの候補は、検出された人物の一部および全身の大きさを示す人物検出枠OB1〜OB4のそれぞれが設定される。 FIG. 5 is a diagram showing candidate candidates for a plurality of tracking objects. FIG. 5 is a captured image DE0 that captures a person HU0 reflected in the imaging region. Candidates for tracking objects are objects detected by each of the first detection unit 12a, the second detection unit 12b, the third detection unit 12c, and the fourth detection unit 12d. As candidates for the tracking object, each of the person detection frames OB1 to OB4 indicating the size of a part of the detected person and the whole body is set.

検出部12は、撮像した撮像画像に基づく深層学習を用いた機械学習、あるいは背景画像との差分によって、検出した人物HU0の一部および全身のそれぞれを検出する。第1検出部12aは、人物HU0の全身を検出し、全身を検出した領域(大きさ)に人物検出枠OB1を設定する。第2検出部12bは、人物HU0の一部である上半身を検出し、上半身を検出した領域(大きさ)に人物検出枠OB2を設定する。第3検出部12cは、人物HU0の一部である肩甲骨上を検出し、肩甲骨上を検出した領域(大きさ)に人物検出枠OB3を設定する。第4検出部12dは、人物HU0の一部である頭部を検出し、頭部を検出した領域(大きさ)に人物検出枠OB4を設定する。よって、撮像領域に映る人物HU0は、第1検出部12a〜第4検出部12dによって人物の一部および全身のそれぞれの場所を、複数の追尾用のオブジェクトの候補として検出される。これにより、カメラ装置100は、混雑時であっても人物HU01に対して複数の追尾用のオブジェクトの候補を関連付けて追尾することができるため、追尾精度を向上させることができる。 The detection unit 12 detects a part of the detected person HU0 and the whole body by machine learning using deep learning based on the captured image or by the difference from the background image. The first detection unit 12a detects the whole body of the person HU0, and sets the person detection frame OB1 in the region (size) where the whole body is detected. The second detection unit 12b detects the upper body which is a part of the person HU0, and sets the person detection frame OB2 in the area (size) where the upper body is detected. The third detection unit 12c detects the upper part of the scapula, which is a part of the person HU0, and sets the person detection frame OB3 in the detected region (size) on the scapula. The fourth detection unit 12d detects the head which is a part of the person HU0, and sets the person detection frame OB4 in the region (size) where the head is detected. Therefore, the person HU0 reflected in the imaging region is detected by the first detection unit 12a to the fourth detection unit 12d at each location of a part of the person and the whole body as candidates for a plurality of tracking objects. As a result, the camera device 100 can track the person HU01 in association with a plurality of tracking object candidates even when the camera device 100 is congested, so that the tracking accuracy can be improved.

なお、第1検出部12a〜第4検出部12dは、図2に示すように4つの検出部に限らず、カメラ装置100の設置角度、撮像領域の大きさ、または検出対象の設定等によって増やしても減らしてもよい。また、第1検出部12a〜第4検出部12dが検出する人物の一部および全身はこれに限らず、例えば目および鼻等の顔の一部または動きが大きい腕および足であってもよい。これにより、カメラ装置100は、様々な設置角度、設置環境および検出対象に合わせた追尾用のオブジェクトの候補を設定することができ、高精度な人物検出を行うことができる。 As shown in FIG. 2, the first detection unit 12a to the fourth detection unit 12d are not limited to the four detection units, but may be increased depending on the installation angle of the camera device 100, the size of the imaging region, the setting of the detection target, and the like. Or you can reduce it. Further, the part and the whole body of the person detected by the first detection unit 12a to the fourth detection unit 12d are not limited to this, and may be a part of the face such as eyes and nose or arms and legs with large movement. .. As a result, the camera device 100 can set candidates for tracking objects according to various installation angles, installation environments, and detection targets, and can perform highly accurate person detection.

図6は、足元座標算出データの一例を示す図である。図6に示す足元座標算出データは、図4を参照して説明した足元座標算出データとは異なり、カメラ装置100のメモリ19に保持されたデータであり、カメラ装置100の設置角度と、検出された人物の一部あるいは全身の検出位置とに基づいて、足元座標を推定するためのデータである。 FIG. 6 is a diagram showing an example of foot coordinate calculation data. The foot coordinate calculation data shown in FIG. 6 is different from the foot coordinate calculation data described with reference to FIG. 4, and is data held in the memory 19 of the camera device 100, and is detected by the installation angle of the camera device 100. This is data for estimating the foot coordinates based on the detection position of a part of the person or the whole body.

図6に示す足元座標算出データTB1は、カメラ装置100の設置角度に対応する撮像領域に映る人物の位置と、検出された人物の大きさとを含んで構成される。カメラ装置100は、検出された人物の一部の大きさと、人物の検出サイズX1,X2,X3のそれぞれとの比較により、人物の足元座標が領域Ar1,Ar2,Ar3のいずれか1つの領域に位置するかを推定する。また、カメラ装置100は、人物の全身が検出された場合には、人物の足元座標と、足元座標が位置する領域Ar1,Ar2,Ar3に対応する人物の検出サイズX1,X2,X3とを比較することにより、より高精度な足元座標算出データTB1を作成することができる。なお、領域Ar1,Ar2,Ar3のそれぞれは、撮像領域モデルSC0に示すように、撮像領域における手前を領域Ar1、中央を領域Ar2および奥を領域Ar3と設定する。また、領域Ar1,Ar2,Ar3のそれぞれは、図6に示すように3つの領域に限定されず、カメラ装置100の設置角度、撮像領域の大きさおよびユーザが必要とする検出精度によって、さらに多くの領域を設定してもよい。これにより、カメラ装置100は、ユーザによる設定を必要とせずに人物の足元座標を推定し、さらに領域を多く設定することにより、足元座標の推定精度を向上させることができる。 The foot coordinate calculation data TB1 shown in FIG. 6 is configured to include the position of a person reflected in the imaging region corresponding to the installation angle of the camera device 100 and the size of the detected person. The camera device 100 compares the size of a part of the detected person with the detection sizes X1, X2, and X3 of the person, and the foot coordinates of the person are set to any one of the areas Ar1, Ar2, and Ar3. Estimate if it is located. Further, when the whole body of the person is detected, the camera device 100 compares the foot coordinates of the person with the detection sizes X1, X2, X3 of the person corresponding to the regions Ar1, Ar2, Ar3 in which the foot coordinates are located. By doing so, it is possible to create more accurate foot coordinate calculation data TB1. As shown in the imaging region model SC0, each of the regions Ar1, Ar2, and Ar3 is set as the region Ar1 in the foreground, the region Ar2 in the center, and the region Ar3 in the back in the imaging region. Further, each of the regions Ar1, Ar2, and Ar3 is not limited to the three regions as shown in FIG. 6, and may be further increased depending on the installation angle of the camera device 100, the size of the imaging region, and the detection accuracy required by the user. Area may be set. As a result, the camera device 100 can improve the estimation accuracy of the foot coordinates by estimating the foot coordinates of the person without requiring the setting by the user and further setting a large area.

図7は、追尾用のオブジェクトの決定例を示すフローチャートである。図7は、撮像領域に映る複数の人物を検出部12によって検出し、検出された複数の追尾用のオブジェクトの候補から、現時点における撮像領域に映る人物の追尾用のオブジェクトとして適したオブジェクトを設定するためのフローチャートである。 FIG. 7 is a flowchart showing an example of determining an object for tracking. In FIG. 7, a plurality of persons reflected in the imaging area are detected by the detection unit 12, and an object suitable as an object for tracking the person reflected in the imaging area at the present time is set from the detected candidates for the plurality of tracking objects. It is a flowchart for doing.

カメラ装置100は、撮像部11によって撮像領域を撮像する(St11)。カメラ装置100は、第1検出部12a〜第4検出部12dによって、撮像された撮像画像に映る複数の人物のそれぞれに対して、複数の追尾用のオブジェクトの候補をそれぞれ検出する(St12)。 The camera device 100 images the imaging region by the imaging unit 11 (St11). The camera device 100 detects a plurality of candidates for tracking objects for each of the plurality of persons appearing in the captured captured image by the first detection unit 12a to the fourth detection unit 12d (St12).

カメラ装置100は、検出された複数の追尾用のオブジェクトの候補のうち、第1検出部12aによって検出された人物の全身を示す追尾用のオブジェクトの候補の数と第2検出部12b〜第4検出部12dによって検出された人物の一部を示す追尾用のオブジェクトの候補の数とを取得する(St13)。 The camera device 100 includes the number of tracking object candidates indicating the whole body of the person detected by the first detection unit 12a and the second detection units 12b to 4th among the plurality of detected tracking object candidates. The number of candidates for the tracking object indicating a part of the person detected by the detection unit 12d is acquired (St13).

カメラ装置100は、取得された人物の全身を示す追尾用のオブジェクトの候補の数と、人物の一部を示す追尾用のオブジェクトの候補の数と、混雑判定に使用する所定の閾値とを比較することにより、混雑判定を行う(St14)。なお、所定の閾値は、ユーザによって任意に設定され、割合を示す値であっても人数を示す値であってもよい。 The camera device 100 compares the number of candidates for tracking objects indicating the whole body of the acquired person, the number of candidates for tracking objects indicating a part of the person, and a predetermined threshold value used for congestion determination. By doing so, the congestion is determined (St14). The predetermined threshold value is arbitrarily set by the user, and may be a value indicating a ratio or a value indicating the number of people.

ここで、混雑判定の判定方法の一例について説明する。カメラ装置100は、例えば人物の全身を示す追尾用のオブジェクトの候補の数が2に対して、人物の一部(例えば、頭部)を示す追尾用のオブジェクトの候補の数が8である場合、撮像された複数の人物のうち、人物の全身が見えている人物は2人であり、人物の一部のみしか見えていない人物は6人であると判断する。ここで、所定の閾値が例えば50%という割合の場合には、人物の全身の検出率が50%以下である場合に混雑と判定し、人物の全身の検出率が50%より大きい場合には非混雑と判定する。カメラ装置100は、現在撮像領域に映る複数の人物の全身の検出率がおよそ33%であることから、撮像領域は混雑していると判定する。なお、所定の閾値が人数を示す値である場合も同様にして判定することができる。また、カメラ装置100は、混雑判定において比較する追尾用のオブジェクトの候補を、例えば全身および上半身と、肩甲骨上および頭部とがそれぞれ検出された追尾用のオブジェクトの候補の数に基づいて比較してもよい。 Here, an example of a determination method for determining congestion will be described. In the camera device 100, for example, when the number of candidates for tracking objects showing the whole body of a person is 2, the number of candidates for tracking objects showing a part of a person (for example, the head) is 8. It is determined that, of the plurality of photographed persons, two persons can see the whole body of the person, and six persons can see only a part of the person. Here, when the predetermined threshold value is, for example, 50%, it is determined that the person is congested when the detection rate of the whole body of the person is 50% or less, and when the detection rate of the whole body of the person is larger than 50%. Judged as non-congested. The camera device 100 determines that the imaging region is congested because the detection rate of the whole body of a plurality of persons currently reflected in the imaging region is about 33%. When the predetermined threshold value is a value indicating the number of people, the determination can be made in the same manner. Further, the camera device 100 compares the candidates for the tracking object to be compared in the congestion determination based on the number of candidates for the tracking object in which, for example, the whole body and the upper body and the scapula and the head are detected, respectively. You may.

カメラ装置100は、ステップSt14における混雑判定の結果、撮像領域が混雑していると判定された場合(St15,YES)には、ユーザによって指定されたオブジェクトを追尾用のオブジェクトとして決定する(St16)。指定されたオブジェクトは、ユーザによって指定された、例えば上半身、肩甲骨上および頭部等の人物の一部を示すオブジェクトのすべてであっても、複数存在するオブジェクトのうち肩甲骨上のみであってもよい。 When the camera device 100 determines that the imaging region is congested as a result of the congestion determination in step St14 (St15, YES), the camera device 100 determines the object specified by the user as the tracking object (St16). .. The specified objects are all of the objects specified by the user, such as the upper body, the scapula, and the head, which represent a part of the person, but only on the scapula among the plurality of existing objects. May be good.

カメラ装置100は、ステップSt14における混雑判定の結果、撮像領域が混雑していないと判定された場合(St15,NO)には、人物の全身を示すオブジェクトを追尾用のオブジェクトとして決定する(St17)。 When the camera device 100 determines that the imaging region is not congested as a result of the congestion determination in step St14 (St15, NO), the camera device 100 determines an object indicating the whole body of the person as an object for tracking (St17). ..

カメラ装置100は、決定された追尾用のオブジェクトを設定する(St18)。これにより、カメラ装置100は、撮像した撮像画像に映る複数の人物を、決定された追尾用のオブジェクトに基づいて簡易に追尾することができる。なお、カメラ装置100は、ステップSt18によって追尾用のオブジェクトが決定された後、図8に示す撮像領域に映る人物の人数のカウント手順例を示すフローチャートの処理に移行する。 The camera device 100 sets the determined tracking object (St18). As a result, the camera device 100 can easily track a plurality of people appearing in the captured captured image based on the determined tracking object. After the tracking object is determined in step St18, the camera device 100 shifts to the process of the flowchart showing an example of the counting procedure of the number of people reflected in the imaging region shown in FIG.

図8は、撮像領域に映る人物のカウント手順例を示すフローチャートである。図8は、図7に示すフローチャートの処理によって追尾用のオブジェクトが設定された後に、追尾用のオブジェクトに基づいて人物の追尾を行うためのフローチャートである。 FIG. 8 is a flowchart showing an example of a procedure for counting a person reflected in the imaging region. FIG. 8 is a flowchart for tracking a person based on the tracking object after the tracking object is set by the processing of the flowchart shown in FIG. 7.

カメラ装置100は、ステップSt18において設定された追尾用のオブジェクトが、人物の全身を示すオブジェクトであるか否かを判定する(St21)。 The camera device 100 determines whether or not the tracking object set in step St18 is an object indicating the whole body of the person (St21).

カメラ装置100は、ステップSt18において設定された追尾用のオブジェクトが人物の一部を示すオブジェクトである場合(St21,NO)には、撮像画像から検出された複数の追尾用のオブジェクトの候補からステップSt18において設定された追尾用のオブジェクトのみを抽出(選択)して決定する(St22)。 When the tracking object set in step St18 is an object indicating a part of a person (St21, NO), the camera device 100 steps from a plurality of tracking object candidates detected from the captured image. Only the tracking object set in St18 is extracted (selected) and determined (St22).

カメラ装置100は、決定した追尾用のオブジェクトの検出位置と、検出された大きさとに基づいて、足元座標算出データを参照する(St23)。なお、参照する足元座標算出データは、カメラ装置100の設置時に設定された足元座標算出データであっても、カメラ装置100が撮像した撮像画像から機械学習によって作成された新しい足元座標算出データであってもよい。 The camera device 100 refers to the foot coordinate calculation data based on the determined detection position of the tracking object and the detected size (St23). The foot coordinate calculation data to be referred to is new foot coordinate calculation data created by machine learning from the captured image captured by the camera device 100, even if the foot coordinate calculation data is set when the camera device 100 is installed. You may.

カメラ装置100は、足元座標算出データに基づいて、追尾用のオブジェクトが示す人物の足元座標を推定する(St24)。 The camera device 100 estimates the foot coordinates of the person indicated by the tracking object based on the foot coordinate calculation data (St24).

カメラ装置100は、ステップSt18において設定された追尾用のオブジェクトが人物の全身を示すオブジェクトである場合(St21,YES)、あるいはステップSt18によって設定された追尾用のオブジェクトが人物の一部を示すオブジェクトであって、ステップSt24において足元座標が推定された場合には、追尾部13によって追尾用のオブジェクトを追尾した動線情報を作成する。カメラ装置100は、ライン通過判定部14によって作成した動線情報に基づいて追尾用のオブジェクトが、ユーザによって設定されたラインを通過したか否かを判定し、通過した場合はその通過情報(例えば、通過した方向と時間等)を検出する(St25)。 In the camera device 100, when the tracking object set in step St18 is an object indicating the whole body of the person (St21, YES), or the tracking object set in step St18 is an object indicating a part of the person. Therefore, when the foot coordinates are estimated in step St24, the tracking unit 13 creates the flow line information for tracking the object for tracking. The camera device 100 determines whether or not the tracking object has passed the line set by the user based on the flow line information created by the line passage determination unit 14, and if so, the passage information (for example,). , Direction and time of passage, etc.) are detected (St25).

カメラ装置100は、人数カウント部15によって、検出された通過情報に基づいて、ラインを通過した追尾用のオブジェクトの数に対応する人数をカウントする(St26)。 The camera device 100 counts the number of people corresponding to the number of tracking objects that have passed through the line based on the detected passage information by the number counting unit 15 (St26).

カメラ装置100は、人数のカウント結果に基づいてカウント結果データを作成し、PC600またはサーバ装置300に送信して表示させる(St27)。なお、カメラ装置100は、カウント結果データを作成した後は、図7のステップSt11の処理に戻る。 The camera device 100 creates count result data based on the count result of the number of people, transmits it to the PC 600 or the server device 300, and displays it (St27). After creating the count result data, the camera device 100 returns to the process of step St11 in FIG.

図9Aは、非混雑状態における人物の検出例を示す図である。図9Bは、混雑状態における人物の検出例を示す図である。図9Aは、混雑判定の結果、撮像領域が非混雑であると判定された場合の人物の検出例であって、人物の全身を検出している。図9Bは、混雑判定の結果、撮像領域が混雑であると判定された場合の人物の検出例であって、人物の一部を検出している。なお、図9Aは通過方向アイコンLU,LDが示す方向にそれぞれ0人および1人の人物が通過した様子を示しており、図9Bは通過方向アイコンLU,LDが示す方向にそれぞれ0人および5人の人物が通過した様子を示す。また、撮像画像SC3,SC4のそれぞれはPC600の表示部21に表示される。 FIG. 9A is a diagram showing an example of detecting a person in a non-crowded state. FIG. 9B is a diagram showing an example of detecting a person in a crowded state. FIG. 9A is an example of detecting a person when the imaging region is determined to be non-congested as a result of the congestion determination, and the whole body of the person is detected. FIG. 9B is an example of detecting a person when the imaging region is determined to be congested as a result of the congestion determination, and a part of the person is detected. Note that FIG. 9A shows a state in which 0 persons and 1 person pass in the directions indicated by the passing direction icons LU and LD, respectively, and FIG. 9B shows 0 persons and 5 persons passing in the directions indicated by the passing direction icons LU and LD, respectively. Shows how a person passed by. Further, each of the captured images SC3 and SC4 is displayed on the display unit 21 of the PC600.

図9Aにおいて、カメラ装置100は、撮像した撮像画像SC3に映る複数の人物の全身を検出する。撮像画像SC3上には、人物検出枠OB13,OB14,OB15,OB16,OB17,OB18のそれぞれと、所定のラインL3と、通過方向アイコンLU,LDのそれぞれと、カウント値C11,C21のそれぞれとが表示される。人物検出枠OB13〜OB18のそれぞれは、複数の人物の全身のそれぞれに対する検出範囲を示す。通過方向アイコンLUは、手前から奥に向かって所定のラインL3を通過したことを示す。通過方向アイコンLDは、奥から手前に向かって所定のラインL3を通過したことを示す。カウント値C11,C21のそれぞれは、通過方向アイコンLU,LDのそれぞれに対応する方向に所定のラインL3を通過した人物の人数を示す。 In FIG. 9A, the camera device 100 detects the whole body of a plurality of persons reflected in the captured image SC3. On the captured image SC3, each of the person detection frames OB13, OB14, OB15, OB16, OB17, and OB18, the predetermined lines L3, the passing direction icons LU and LD, and the count values C11 and C21 are displayed. Is displayed. Each of the person detection frames OB13 to OB18 indicates a detection range for each of the whole body of a plurality of persons. The passing direction icon LU indicates that the predetermined line L3 has been passed from the front to the back. The passing direction icon LD indicates that the predetermined line L3 has been passed from the back to the front. Each of the count values C11 and C21 indicates the number of persons who have passed the predetermined line L3 in the directions corresponding to the passing direction icons LU and LD, respectively.

図9Bにおいて、カメラ装置100は、撮像した撮像画像SC4に映る複数の人物の一部を検出する。撮像画像SC4上には、人物の上半身の検出範囲を示す人物検出枠OB21,OB22,OB26のそれぞれと、人物の肩甲骨上の検出範囲を示す人物検出枠OB31,OB32,OB33,OB34,OB35,OB36,OB37のそれぞれと、人物の頭部の検出範囲を示す人物検出枠OB41,OB42,OB43,OB44,OB45,OB46,OB47のそれぞれと、所定のラインL4と、通過方向アイコンLU,LDのそれぞれと、カウント値C12,C22のそれぞれとが表示される。通過方向アイコンLUは、手前から奥に向かって所定のラインL4を通過したことを示す。通過方向アイコンLDは、奥から手前に向かって所定のラインL4を通過したことを示す。カウント値C12,C22のそれぞれは、通過方向アイコンLU,LDのそれぞれに対応する方向に所定のラインL4を通過した人物の人数を示す。なお、図9Bにおいて人物の頭部の検出範囲を示す人物検出枠OB41〜OB47のそれぞれと、所定のラインL4の一部とが破線によって図示されているが、これは図面を見やすくする目的で破線に変更している。 In FIG. 9B, the camera device 100 detects a part of a plurality of people reflected in the captured image SC4. On the captured image SC4, each of the person detection frames OB21, OB22, and OB26 indicating the detection range of the upper body of the person and the person detection frames OB31, OB32, OB33, OB34, OB35 indicating the detection range on the scapula of the person, Each of OB36 and OB37, each of the person detection frames OB41, OB42, OB43, OB44, OB45, OB46, OB47 indicating the detection range of the person's head, each of the predetermined lines L4, and the passing direction icons LU and LD, respectively. And each of the count values C12 and C22 are displayed. The passing direction icon LU indicates that the predetermined line L4 has been passed from the front to the back. The passing direction icon LD indicates that the predetermined line L4 has been passed from the back to the front. Each of the count values C12 and C22 indicates the number of persons who have passed the predetermined line L4 in the directions corresponding to the passing direction icons LU and LD, respectively. In FIG. 9B, each of the person detection frames OB41 to OB47 showing the detection range of the person's head and a part of the predetermined line L4 are shown by broken lines, but these are broken lines for the purpose of making the drawing easier to see. It has been changed to.

図10は、実施の形態1に係るカメラ装置100を用いた人物検出システム1000の動作手順例を示す図である。図10は、前述した図7および図8に示すフローチャートの処理とは異なり、より適した追尾用のオブジェクトを自動で設定することができる。 FIG. 10 is a diagram showing an example of an operation procedure of the person detection system 1000 using the camera device 100 according to the first embodiment. In FIG. 10, unlike the processing of the flowcharts shown in FIGS. 7 and 8 described above, a more suitable tracking object can be automatically set.

カメラ装置100は、撮像部11によって撮像領域を撮像する(St30)。カメラ装置100は、第1検出部12a〜第4検出部12dによって、撮像された撮像画像に映る複数の人物のそれぞれに対して、複数の追尾用のオブジェクトをそれぞれ検出する(St31)。 The camera device 100 images the imaging region by the imaging unit 11 (St30). The camera device 100 detects a plurality of tracking objects for each of the plurality of persons reflected in the captured captured image by the first detection unit 12a to the fourth detection unit 12d (St31).

カメラ装置100は、検出された複数の追尾用のオブジェクトのうち、第1検出部12aによって検出された人物の全身を示す追尾用のオブジェクトの数と第2検出部12b〜第4検出部12dによって検出された人物の一部を示す追尾用のオブジェクトの数とを取得する(St32)。 The camera device 100 includes the number of tracking objects indicating the whole body of the person detected by the first detection unit 12a and the second detection units 12b to the fourth detection unit 12d among the plurality of detected tracking objects. The number and the number of tracking objects indicating a part of the detected person are acquired (St32).

カメラ装置100は、取得された人物の全身を示す追尾用のオブジェクトの数と、人物の一部を示す追尾用のオブジェクトの数と、混雑判定に使用する所定の閾値とを比較することにより、混雑判定を行う(St33)。なお、所定の閾値は、ユーザによって任意に設定され、割合を示す値であっても人数を示す値であってもよい。 The camera device 100 compares the number of the acquired tracking objects indicating the whole body of the person, the number of the tracking objects indicating a part of the person, and a predetermined threshold value used for the congestion determination. Congestion determination is performed (St33). The predetermined threshold value is arbitrarily set by the user, and may be a value indicating a ratio or a value indicating the number of people.

カメラ装置100は、ステップSt32において検出された複数の追尾用のオブジェクトのうち、1人の人物から検出されたと推定される複数の追尾用のオブジェクトの候補をその1人の人物に関連付けて設定する(St34)。なお、カメラ装置100は、追尾用のオブジェクトのそれぞれに対して推定される足元座標に基づいて複数の追尾用のオブジェクトのそれぞれを関連付ける。 The camera device 100 sets a plurality of tracking object candidates presumed to have been detected from one person among the plurality of tracking objects detected in step St32 in association with the one person. (St34). The camera device 100 associates each of the plurality of tracking objects with each other based on the estimated foot coordinates for each of the tracking objects.

カメラ装置100は、人物ごとに検出された複数の追尾用のオブジェクトのうち、最も特徴量を多く含むオブジェクトを追尾用のオブジェクトとして決定する。追尾用のオブジェクトは、より多くの特徴量またはより大きい面積で検出されるオブジェクトが好ましいが、ユーザの指定するオブジェクトであっても、ユーザによって設定されたオブジェクトの優先順位(例えば、面積の広い上半身、肩甲骨上、頭部の順)に基づいて決定されてもよい。 The camera device 100 determines the object having the largest amount of features among the plurality of tracking objects detected for each person as the tracking object. The object for tracking is preferably an object that is detected with a larger feature amount or a larger area, but even if the object is specified by the user, the priority of the object set by the user (for example, the upper body having a large area). , On the scapula, then on the head).

また、追尾用のオブジェクトは、カメラ装置100の設置角度に基づいて決定されてもよい。例えば、追尾用のオブジェクトは、カメラ装置100の設置角度が30°の場合には人物の上半身の検出が容易であるため、上半身を検出するように決定される。また、追尾用のオブジェクトは、カメラ装置100の設置角度が45°の場合には、カメラ装置100の設置角度が30°の場合に比べて、人物の上半身を検出するのが難しく、また人物の頭部を検出したときの検出面積(言い換えると、人物検出枠の枠の大きさ)が大きくなるため、人物の頭部を検出するように決定されてもよい。 Further, the tracking object may be determined based on the installation angle of the camera device 100. For example, the tracking object is determined to detect the upper body of the person because it is easy to detect the upper body of the person when the installation angle of the camera device 100 is 30 °. Further, when the installation angle of the camera device 100 is 45 °, it is more difficult for the tracking object to detect the upper body of the person than when the installation angle of the camera device 100 is 30 °. Since the detection area (in other words, the size of the frame of the person detection frame) when the head is detected becomes large, it may be determined to detect the head of the person.

カメラ装置100は、人物ごとに決定された追尾用のオブジェクトのデータを更新する(St36)。なお、カメラ装置100は、決定した追尾用のオブジェクトに含まれる特徴量が少ない等、検出精度の低下を招く可能性がある場合には、複数のオブジェクトを追尾用のオブジェクトとして決定してもよい。これにより、カメラ装置100は、追尾用のオブジェクトのデータの更新を頻繁に行わなくてもよく、また検出精度を確保することができる。 The camera device 100 updates the data of the tracking object determined for each person (St36). The camera device 100 may determine a plurality of objects as tracking objects when there is a possibility that the detection accuracy may be lowered, such as when the determined tracking object contains a small amount of features. .. As a result, the camera device 100 does not have to frequently update the data of the tracking object, and the detection accuracy can be ensured.

カメラ装置100は、決定された追尾用のオブジェクトのそれぞれに対して、設定された足元座標データを用いて足元座標を推定して、追尾部13によって追尾用のオブジェクトを追尾した動線情報を作成する。カメラ装置100は、ライン通過判定部14によって作成した動線情報に基づいて追尾用のオブジェクトが、ユーザによって設定されたラインを通過したか否かを判定し、通過した場合はその通過情報(例えば、通過した方向と時間等)を検出する(St37)。 The camera device 100 estimates the foot coordinates of each of the determined tracking objects using the set foot coordinate data, and creates the flow line information in which the tracking object is tracked by the tracking unit 13. To do. The camera device 100 determines whether or not the tracking object has passed the line set by the user based on the flow line information created by the line passage determination unit 14, and if so, the passage information (for example,). , Direction and time of passage, etc.) are detected (St37).

カメラ装置100は、人数カウント部15によって、検出された通過情報に基づいて、ラインを通過した追尾用のオブジェクトの数に対応する人数をカウントする(St38)。 The camera device 100 counts the number of people corresponding to the number of tracking objects that have passed through the line based on the detected passage information by the number counting unit 15 (St38).

カメラ装置100は、人数のカウント結果に基づいてカウント結果データを作成し、PC600またはサーバ装置300に送信して表示させる(St39)。なお、カメラ装置100は、カウント結果データを作成した後は、ステップSt30の処理に戻る。 The camera device 100 creates count result data based on the count result of the number of people, transmits it to the PC 600 or the server device 300, and displays it (St39). After creating the count result data, the camera device 100 returns to the process of step St30.

図11は、カメラ装置100によって撮像された撮像画像例を示す図である。図11は、人物の全身のみを検出した撮像画像SC5であり、通過方向アイコンLU,LDが示す方向にそれぞれ4人および5人の人物が通過した様子を示す。また、撮像画像SC5はPC600の表示部21に表示される。 FIG. 11 is a diagram showing an example of a captured image captured by the camera device 100. FIG. 11 is a captured image SC5 in which only the whole body of a person is detected, and shows a state in which four and five people pass in the directions indicated by the passing direction icons LU and LD, respectively. Further, the captured image SC5 is displayed on the display unit 21 of the PC600.

図11において、カメラ装置100は、撮像した撮像画像SC5に映る複数の人物の全身を検出する。撮像画像SC5上には、所定のラインL5と、通過方向アイコンLU,LDのそれぞれと、カウント値C13,C23のそれぞれとが表示される。通過方向アイコンLUは、手前から奥に向かって所定のラインL5を通過したことを示す。通過方向アイコンLDは、奥から手前に向かって所定のラインL5を通過したことを示す。カウント値C13,C23のそれぞれは、通過方向アイコンLU,LDのそれぞれに対応する方向に所定のラインL5を通過した人物の人数を示す。このように、カメラ装置100は、カメラ装置100の設置角度およびユーザの設定に基づいて、人物の全身のみに人物検出枠を設定してもよいし、図10で説明したように人物の一部をすべて検出してもよい。また、カメラ装置100は、撮像画像SC5上にそれぞれの人物の動線情報を表示してもよい。 In FIG. 11, the camera device 100 detects the whole body of a plurality of persons reflected in the captured image SC5. A predetermined line L5, each of the passing direction icons LU and LD, and each of the count values C13 and C23 are displayed on the captured image SC5. The passing direction icon LU indicates that the predetermined line L5 has been passed from the front to the back. The passing direction icon LD indicates that the predetermined line L5 has been passed from the back to the front. Each of the count values C13 and C23 indicates the number of persons who have passed the predetermined line L5 in the directions corresponding to the passing direction icons LU and LD, respectively. As described above, the camera device 100 may set the person detection frame only on the whole body of the person based on the installation angle of the camera device 100 and the setting of the user, or a part of the person as described with reference to FIG. May be detected altogether. Further, the camera device 100 may display the flow line information of each person on the captured image SC5.

図12は、カウント結果データの一例を示し、施設Aのフロア別における入店人数、退店人数の時間帯別推移の一例を示す図である。カウント結果データは、サーバ装置300またはPC600に送信されて、モニタ450またはPC600の表示部21に表示される。 FIG. 12 shows an example of the count result data, and is a diagram showing an example of the transition of the number of people entering and leaving the store by time zone of the facility A by floor. The count result data is transmitted to the server device 300 or the PC 600 and displayed on the display unit 21 of the monitor 450 or the PC 600.

図12の横軸は時間帯(例えば、1時間ごとの時間帯)を示し、図12の縦軸はカメラ装置100,100A,100B,100C,…のそれぞれによって検出された、所定のラインを通過した人物の時間帯別のカウント数を示す。サーバ装置300またはPC600は、カメラ装置100,100A,100B,100C,…のそれぞれから受信したカウント結果データを用いて、人数の時間帯別の推移をグラフ化して、モニタ450またはPC600の表示部21に表示する。 The horizontal axis of FIG. 12 indicates a time zone (for example, a time zone of every hour), and the vertical axis of FIG. 12 passes through a predetermined line detected by each of the camera devices 100, 100A, 100B, 100C, ... Shows the number of counts for each time zone of the person who did. The server device 300 or the PC 600 uses the count result data received from each of the camera devices 100, 100A, 100B, 100C, ... To graph the transition of the number of people by time zone, and the display unit 21 of the monitor 450 or the PC 600. Display on.

図12では、例えば開店時刻である10:00〜閉店時刻である21:00までの、入店人数(合計)と、入店人数(前年合計)と、退店人数(合計)と、退店人数(前年合計)と、入店人数(B2F:地下2階)と、退店人数(B2F:地下2階)と、入店人数(B1F:地下1階)と、退店人数(B1F:地下1階)と、入店人数(1F:1階)と、退店人数(1F:1階)と、入店人数(2F:2階)と、退店人数(2F:2階)とにおける1時間ごとのカウント結果の推移が示されている。 In FIG. 12, for example, the number of people entering the store (total), the number of people entering the store (total of the previous year), the number of people leaving the store (total), and the number of people leaving the store from 10:00, which is the opening time, to 21:00, which is the closing time, are shown. Number of people (total of the previous year), number of people entering the store (B2F: 2nd basement floor), number of people leaving the store (B2F: 2nd basement floor), number of people entering the store (B1F: 1st basement floor), number of people leaving the store (B1F: basement floor) 1st floor), the number of people entering the store (1F: 1st floor), the number of people leaving the store (1F: 1st floor), the number of people entering the store (2F: 2nd floor), and the number of people leaving the store (2F: 2nd floor) The transition of the count result for each hour is shown.

これにより、ユーザ(例えば、本社または施設の従業員)は、施設ごとの人物の動きを数値またはグラフによって可視化することができるため、マーケティングの分析業務に活用することができる。また、カメラ装置が施設内の店舗の内部を撮像する場合には、ユーザは、来店客の流れも把握することができるため、施設内の各店舗の配置等のレイアウトの検討の参考情報として活用することができる。 As a result, the user (for example, an employee of the head office or the facility) can visualize the movement of the person in each facility by a numerical value or a graph, which can be utilized for marketing analysis work. In addition, when the camera device images the inside of the store in the facility, the user can grasp the flow of customers, so it is used as reference information for examining the layout of each store in the facility. can do.

以上により、実施の形態1に係るカメラ装置100,100A,100B,100C,…は、撮像領域を撮像する撮像部11と、撮像部11によって撮像された撮像領域に映る人物を、人物の一部または全身を対象とする複数の検出用オブジェクトのそれぞれによって検出し、検出された検出用オブジェクトの数と所定の閾値との比較に応じて撮像領域の混雑判定を行う検出部12と、を備えている。検出部12は、混雑判定の結果が非混雑の場合には、人物の全身からその人物を検出するための第1の検出用オブジェクトを用いてその人物を検出し、混雑判定の結果が混雑の場合には、人物の一部からその人物を検出するための第2の検出用オブジェクトを用いてその人物を検出する。 As described above, in the camera devices 100, 100A, 100B, 100C, ... According to the first embodiment, the image pickup unit 11 that images the image pickup area and the person reflected in the image pickup area imaged by the image pickup unit 11 are a part of the person. Alternatively, it is provided with a detection unit 12 that detects by each of a plurality of detection objects targeting the whole body and determines congestion in the imaging region according to the comparison between the number of detected detection objects and a predetermined threshold value. There is. When the result of the congestion determination is non-congestion, the detection unit 12 detects the person by using the first detection object for detecting the person from the whole body of the person, and the result of the congestion determination is the congestion. In that case, the person is detected by using a second detection object for detecting the person from a part of the person.

これにより、カメラ装置100,100A,100B,100C,…は、例えばコンビニエンスストアまたは百貨店等の施設で使用される防犯用のカメラ装置であり、撮像領域の真上からの撮像よりも固定の画角で斜め前方下側を撮像可能に設置される場合であっても、混雑時には撮像領域に映る人物を人物の一部および全身のそれぞれによって検出可能なため、より高精度に人物の検出を行うことができる。 As a result, the camera devices 100, 100A, 100B, 100C, ... Are security camera devices used in facilities such as convenience stores and department stores, and have a fixed angle of view compared to imaging from directly above the imaging area. Even if it is installed so that the lower side diagonally forward can be imaged, the person reflected in the imaging area can be detected by a part of the person and the whole body at the time of congestion, so that the person can be detected with higher accuracy. Can be done.

また、カメラ装置100,100A,100B,100C,…は、人物の動きを追尾して人物の動線情報を作成する追尾部13を、さらに備える。追尾部13は、混雑判定に基づいて使用される第1の検出用オブジェクトまたは第2の検出用オブジェクトを、人物を追尾するための追尾用のオブジェクトとして設定して追尾する。これにより、カメラ装置100,100A,100B,100C,…は、撮像領域における混雑状態に応じて追尾のための使用するオブジェクトを自動で設定して、人物の動きを追尾することができる。また、カメラ装置100,100A,100B,100C,…は、追尾によって人物の動線情報を得ることができるため、人物がどの方向からどの方向へ通過(移動)したのかを示す移動方向に関する情報を得ることができる。 Further, the camera devices 100, 100A, 100B, 100C, ... Further include a tracking unit 13 that tracks the movement of the person and creates the flow line information of the person. The tracking unit 13 sets a first detection object or a second detection object used based on the congestion determination as a tracking object for tracking a person and tracks the person. As a result, the camera devices 100, 100A, 100B, 100C, ... Can automatically set the object to be used for tracking according to the congestion state in the imaging region, and can track the movement of the person. Further, since the camera devices 100, 100A, 100B, 100C, ... Can obtain the flow line information of the person by tracking, information on the movement direction indicating from which direction the person has passed (moved) can be obtained. Obtainable.

また、カメラ装置100,100A,100B,100C,…は、カメラ装置100,100A,100B,100C,…の設置角度において撮像された撮像領域に映る人物の足元座標を算出するための足元座標算出データを取得する取得部、をさらに備える。これにより、カメラ装置100,100A,100B,100C,…は、混雑時に人物の一部のみが検出された場合であっても、追尾用オブジェクトが示す人物の足元座標を算出することができる。さらに、カメラ装置100,100A,100B,100C,…は、算出した足元座標により人物の動きを追尾することができる。なお、取得部は、PC600から送信される足元座標算出データを受信するための受信部110の一例である。 Further, the camera devices 100, 100A, 100B, 100C, ... Are foot coordinate calculation data for calculating the foot coordinates of a person reflected in the imaging region imaged at the installation angle of the camera devices 100, 100A, 100B, 100C, ... The acquisition unit, which acquires the data, is further provided. As a result, the camera devices 100, 100A, 100B, 100C, ... Can calculate the foot coordinates of the person indicated by the tracking object even when only a part of the person is detected at the time of congestion. Further, the camera devices 100, 100A, 100B, 100C, ... Can track the movement of a person based on the calculated foot coordinates. The acquisition unit is an example of the reception unit 110 for receiving the foot coordinate calculation data transmitted from the PC 600.

また、カメラ装置100,100A,100B,100C,…は、カメラ装置100,100A,100B,100C,…の設置時の設置角度と、設置角度において撮像された撮像領域に映る人物の足元座標を算出するための足元座標算出データを設定する設定部、をさらに備える。これにより、カメラ装置100,100A,100B,100C,…は、混雑時に人物の一部のみが検出された場合であっても、追尾用オブジェクトが示す人物の足元座標を算出することができる。さらに、カメラ装置100,100A,100B,100C,…は、算出した足元座標により人物の動きを追尾することができる。なお、設定部は、足元座標算出データを記憶するメモリ19の一例である。 Further, the camera devices 100, 100A, 100B, 100C, ... Calculate the installation angle at the time of installation of the camera devices 100, 100A, 100B, 100C, ... And the foot coordinates of the person reflected in the imaging area imaged at the installation angle. It is further provided with a setting unit for setting foot coordinate calculation data for the purpose. As a result, the camera devices 100, 100A, 100B, 100C, ... Can calculate the foot coordinates of the person indicated by the tracking object even when only a part of the person is detected at the time of congestion. Further, the camera devices 100, 100A, 100B, 100C, ... Can track the movement of a person based on the calculated foot coordinates. The setting unit is an example of the memory 19 that stores the foot coordinate calculation data.

また、カメラ装置100,100A,100B,100C,…は、足元座標算出データと、第2の検出用オブジェクトとに基づいて、人物が所定のラインを通過したか否かを判定するライン通過判定部14、をさらに備える。これにより、カメラ装置100,100A,100B,100C,…は、撮像領域が混雑状態であって検出用オブジェクトが人物の一部を示すものであっても、人物が位置する足元座標を算出することができるため、所定のラインを通過したか否かをより高精度に判定することができる。 Further, the camera devices 100, 100A, 100B, 100C, ... Are line passage determination units that determine whether or not a person has passed a predetermined line based on the foot coordinate calculation data and the second detection object. 14, further provided. As a result, the camera devices 100, 100A, 100B, 100C, ... Calculate the foot coordinates where the person is located even if the imaging area is congested and the detection object indicates a part of the person. Therefore, it is possible to determine with higher accuracy whether or not a predetermined line has been passed.

また、カメラ装置100,100A,100B,100C,…は、ライン通過判定部14によって所定のラインを通過した人物の人数を計測する人数カウント部15、をさらに備える。人数カウント部15は、所定のラインを通過した人数に基づく計測結果を作成する。これにより、カメラ装置100,100A,100B,100C,…は、所定のラインを通過した人物の人数をカウントすることができる。 Further, the camera devices 100, 100A, 100B, 100C, ... Further include a number counting unit 15 for measuring the number of persons who have passed a predetermined line by the line passing determination unit 14. The number of people counting unit 15 creates a measurement result based on the number of people who have passed a predetermined line. As a result, the camera devices 100, 100A, 100B, 100C, ... Can count the number of people who have passed a predetermined line.

また、カメラ装置100,100A,100B,100C,…は、ライン通過判定部14によって所定のラインを通過した人物の人数を計測する人数カウント部15、をさらに備える。人数カウント部15は、動線情報に基づいて人物が所定のラインを通過する通過方向ごとに人物の人数を計測した計測結果を作成する。これにより、カメラ装置100,100A,100B,100C,…は、所定のラインを通過した人物の人数を、通過した方向ごとにカウントすることができる。 Further, the camera devices 100, 100A, 100B, 100C, ... Further include a number counting unit 15 for measuring the number of persons who have passed a predetermined line by the line passing determination unit 14. The number of people counting unit 15 creates a measurement result of measuring the number of people in each passing direction in which a person passes a predetermined line based on the flow line information. As a result, the camera devices 100, 100A, 100B, 100C, ... Can count the number of persons who have passed the predetermined line in each passing direction.

また、カメラ装置100,100A,100B,100C,…は、計測結果を表示するための外部端末の一例としてのサーバ装置300またはPC600に送信する送信部120、をさらに備えて、計測結果の一例としてのカウント結果データをカメラ装置100,100A,100B,100C,…と通信可能に接続されたサーバ装置300またはPC600に送信する。これにより、ユーザは、施設Aに設置されたカメラ装置100,100A,100B,100C,…のそれぞれの計測結果をサーバ装置300と接続されるモニタ450またはPC600の表示部21に表示させることができる。 Further, the camera devices 100, 100A, 100B, 100C, ... Further include a transmission unit 120 for transmitting to the server device 300 or the PC 600 as an example of an external terminal for displaying the measurement result, as an example of the measurement result. The count result data of is transmitted to the server device 300 or the PC 600 communicably connected to the camera devices 100, 100A, 100B, 100C, .... As a result, the user can display the measurement results of the camera devices 100, 100A, 100B, 100C, ... Installed in the facility A on the display unit 21 of the monitor 450 or the PC 600 connected to the server device 300. ..

また、所定のラインは、外部端末の一例としてのサーバ装置300またはPC600の入力に基づいて設定される。これにより、ユーザは、所定のラインに関する設定についての入力操作を、サーバ装置300の入力デバイス400またはPC600の入力部22によって入力することができるため、所定のラインを自由に設定することができる。 Further, the predetermined line is set based on the input of the server device 300 or the PC 600 as an example of the external terminal. As a result, the user can input the input operation for the setting related to the predetermined line by the input device 400 of the server device 300 or the input unit 22 of the PC 600, so that the predetermined line can be freely set.

また、所定の閾値は、外部端末の一例としてのサーバ装置300またはPC600の入力に基づいて設定される。これにより、ユーザは、所定の閾値に関する設定についての入力操作を、サーバ装置300の入力デバイス400またはPC600の入力部22によって入力することができるため、所定の閾値を自由に設定することができる。 Further, the predetermined threshold value is set based on the input of the server device 300 or the PC 600 as an example of the external terminal. As a result, the user can input an input operation for setting a predetermined threshold value by the input device 400 of the server device 300 or the input unit 22 of the PC 600, so that the predetermined threshold value can be freely set.

また、第2の検出用オブジェクトは、人物の上半身、肩甲骨上または頭部である。これにより、カメラ装置100,100A,100B,100C,…は、撮像領域が混雑状態であっても、人物の一部を検出用のオブジェクトとして検出することができるため、複数の人物が分離されずに映る場合であっても、複数の人物の検出をより高精度に行うことができる。 The second detection object is the person's upper body, scapula, or head. As a result, the camera devices 100, 100A, 100B, 100C, ... Can detect a part of the person as a detection object even when the imaging area is congested, so that a plurality of people are not separated. Even when it is reflected in the camera, it is possible to detect a plurality of persons with higher accuracy.

以上、添付図面を参照しながら各種の実施の形態について説明したが、本開示はかかる例に限定されない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例、修正例、置換例、付加例、削除例、均等例に想到し得ることは明らかであり、それらについても本開示の技術的範囲に属すると了解される。また、発明の趣旨を逸脱しない範囲において、上述した各種の実施の形態における各構成要素を任意に組み合わせてもよい。 Although various embodiments have been described above with reference to the accompanying drawings, the present disclosure is not limited to such examples. It is clear that a person skilled in the art can come up with various modification examples, modification examples, replacement examples, addition examples, deletion examples, and equal examples within the scope of claims. It is understood that it belongs to the technical scope of the present disclosure. In addition, each component in the various embodiments described above may be arbitrarily combined as long as the gist of the invention is not deviated.

本開示は、混雑した撮像領域に映る人物を高精度に検出できるカメラ装置、人物検出方法および人物検出システムとして有用である。 The present disclosure is useful as a camera device, a person detection method, and a person detection system capable of detecting a person reflected in a crowded imaging area with high accuracy.

11 撮像部
12 検出部
12a 第1検出部
12b 第2検出部
12c 第3検出部
12d 第4検出部
13 追尾部
14 ライン通過判定部
15 人数カウント部
100 カメラ装置
300 サーバ装置
400 入力デバイス
450 モニタ
500A、500B、500C 人数カウントシステム
600 PC
11 Imaging unit 12 Detection unit 12a 1st detection unit 12b 2nd detection unit 12c 3rd detection unit 12d 4th detection unit 13 Tracking unit 14 Line passage determination unit 15 Number of people counting unit 100 Camera device 300 Server device 400 Input device 450 Monitor 500A , 500B, 500C Number of people counting system 600 PC

Claims (13)

撮像領域を撮像する撮像部と、
前記撮像部によって撮像された撮像領域に映る人物を、前記人物の一部または全身を対象とする複数の検出用オブジェクトのそれぞれによって検出し、検出された検出用オブジェクトの数と所定の閾値との比較に応じて前記撮像領域の混雑判定を行う検出部と、を備え、
前記検出部は、
前記混雑判定の結果が非混雑の場合には、前記人物の全身からその人物を検出するための第1の検出用オブジェクトを用いてその人物を検出し、前記混雑判定の結果が混雑の場合には、前記人物の一部からその人物を検出するための第2の検出用オブジェクトを用いてその人物を検出する、
カメラ装置。
An imaging unit that captures the imaging area and
A person reflected in the imaging region imaged by the imaging unit is detected by each of a plurality of detection objects targeting a part or the whole body of the person, and the number of detected detection objects and a predetermined threshold value are determined. A detection unit that determines congestion in the imaging region according to comparison is provided.
The detection unit
When the result of the congestion determination is non-congestion, the person is detected by using the first detection object for detecting the person from the whole body of the person, and when the result of the congestion determination is congestion. Detects the person using a second detection object for detecting the person from a part of the person.
Camera device.
前記人物の動きを追尾して前記人物の動線情報を作成する追尾部を、さらに備え、
前記追尾部は、前記混雑判定に基づいて使用される前記第1の検出用オブジェクトまたは前記第2の検出用オブジェクトを、前記人物を追尾するための追尾用オブジェクトとして設定して追尾する、
請求項1に記載のカメラ装置。
A tracking unit that tracks the movement of the person and creates the flow line information of the person is further provided.
The tracking unit sets and tracks the first detection object or the second detection object used based on the congestion determination as a tracking object for tracking the person.
The camera device according to claim 1.
前記カメラ装置の設置角度において撮像された前記撮像領域に映る前記人物の足元座標を算出するための足元座標算出データを取得する取得部、をさらに備える、
請求項2に記載のカメラ装置。
Further, an acquisition unit for acquiring foot coordinate calculation data for calculating the foot coordinates of the person reflected in the imaging region imaged at the installation angle of the camera device is provided.
The camera device according to claim 2.
前記カメラ装置の設置時の設置角度と、前記設置角度において撮像された前記撮像領域に映る前記人物の足元座標を算出するための足元座標算出データを設定する設定部、をさらに備える、
請求項2に記載のカメラ装置。
The camera device is further provided with an installation angle at the time of installation and a setting unit for setting foot coordinate calculation data for calculating the foot coordinates of the person reflected in the imaging region imaged at the installation angle.
The camera device according to claim 2.
前記足元座標算出データと、前記第2の検出用オブジェクトとに基づいて、前記人物が前記所定のラインを通過したか否かを判定するライン通過判定部、をさらに備える、
請求項4に記載のカメラ装置。
A line passage determination unit for determining whether or not the person has passed the predetermined line based on the foot coordinate calculation data and the second detection object is further provided.
The camera device according to claim 4.
前記ライン通過判定部によって前記所定のラインを通過した前記人物の人数を計測する人数カウント部、をさらに備え、
前記人数カウント部は、前記所定のラインを通過した人数に基づく計測結果を作成する、
請求項5に記載のカメラ装置。
A number counting unit for measuring the number of persons who have passed the predetermined line by the line passing determination unit is further provided.
The number of people counting unit creates a measurement result based on the number of people who have passed the predetermined line.
The camera device according to claim 5.
前記ライン通過判定部によって前記所定のラインを通過した前記人物の人数を計測する人数カウント部、をさらに備え、
前記人数カウント部は、前記動線情報に基づいて前記人物が前記所定のラインを通過する通過方向ごとに前記人物の人数を計測した計測結果を作成する、
請求項5に記載のカメラ装置。
A number counting unit for measuring the number of persons who have passed the predetermined line by the line passing determination unit is further provided.
The number counting unit creates a measurement result of measuring the number of people in each passing direction in which the person passes through the predetermined line based on the flow line information.
The camera device according to claim 5.
前記計測結果を表示するための外部端末に送信する送信部、をさらに備え、
前記計測結果を前記カメラ装置と通信可能に接続された外部端末に送信する、
請求項6または7に記載のカメラ装置。
Further provided with a transmitter for transmitting the measurement result to an external terminal.
The measurement result is transmitted to an external terminal communicably connected to the camera device.
The camera device according to claim 6 or 7.
前記所定のラインは、前記外部端末の入力に基づいて設定される、
請求項8に記載のカメラ装置。
The predetermined line is set based on the input of the external terminal.
The camera device according to claim 8.
前記所定の閾値は、前記外部端末の入力に基づいて設定される、
請求項8に記載のカメラ装置。
The predetermined threshold value is set based on the input of the external terminal.
The camera device according to claim 8.
前記第2の検出用オブジェクトは、前記人物の上半身、肩甲骨上または頭部である、
請求項1〜10のうちいずれか一項に記載のカメラ装置。
The second detection object is the person's upper body, scapula or head.
The camera device according to any one of claims 1 to 10.
撮像領域に映る人物を検出する人物検出方法であって、
前記人物を、前記人物の一部または全身を対象とする複数の検出用オブジェクトのそれぞれによって検出し、
前記撮像領域から検出した検出用オブジェクトの数と、所定の閾値との比較に応じて前記撮像領域の混雑判定を行い、
前記混雑判定の結果が非混雑の場合には、前記人物の全身からその人物を検出する第1の検出用オブジェクトを用いてその人物を検出し、前記混雑判定の結果が混雑の場合には、前記人物の一部からその人物を検出する第2の検出用オブジェクトを用いてその人物を検出する、
人物検出方法。
It is a person detection method that detects a person reflected in the imaging area.
The person is detected by each of a plurality of detection objects targeting a part or the whole body of the person.
Congestion of the imaging region is determined according to the comparison between the number of detection objects detected from the imaging region and a predetermined threshold value.
When the result of the congestion determination is non-congestion, the person is detected by using the first detection object that detects the person from the whole body of the person, and when the result of the congestion determination is congestion, the person is detected. The person is detected by using a second detection object that detects the person from a part of the person.
Person detection method.
撮像領域を撮像するカメラ装置と、表示装置とを含む人物検出システムであって、
前記カメラ装置は、
人物を、前記人物の一部または全身を対象とする複数の検出用オブジェクトのそれぞれによって検出し、
前記撮像領域から検出した検出用オブジェクトの数と、所定の閾値との比較に応じて前記撮像領域の混雑判定を行い、
前記混雑判定の結果が非混雑の場合には、前記人物の全身からその人物を検出する第1の検出用オブジェクトを用いてその人物を検出し、前記混雑判定の結果が混雑の場合には、前記人物の一部からその人物を検出する第2の検出用オブジェクトを用いてその人物を検出する、
人物検出システム。
A person detection system that includes a camera device that captures an imaging area and a display device.
The camera device is
A person is detected by each of a plurality of detection objects targeting a part or the whole body of the person.
Congestion of the imaging region is determined according to the comparison between the number of detection objects detected from the imaging region and a predetermined threshold value.
When the result of the congestion determination is non-congestion, the person is detected by using the first detection object that detects the person from the whole body of the person, and when the result of the congestion determination is congestion, the person is detected. The person is detected by using a second detection object that detects the person from a part of the person.
Person detection system.
JP2019038767A 2019-03-04 2019-03-04 Camera device, person detection method, and person detection system Pending JP2020145511A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019038767A JP2020145511A (en) 2019-03-04 2019-03-04 Camera device, person detection method, and person detection system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019038767A JP2020145511A (en) 2019-03-04 2019-03-04 Camera device, person detection method, and person detection system

Publications (1)

Publication Number Publication Date
JP2020145511A true JP2020145511A (en) 2020-09-10

Family

ID=72353814

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019038767A Pending JP2020145511A (en) 2019-03-04 2019-03-04 Camera device, person detection method, and person detection system

Country Status (1)

Country Link
JP (1) JP2020145511A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6936373B1 (en) * 2020-09-14 2021-09-15 パナソニックi−PROセンシングソリューションズ株式会社 Surveillance camera, tracking frame generation method and program
CN113542587A (en) * 2021-05-25 2021-10-22 浙江大华技术股份有限公司 Image capturing method and device, electronic equipment and computer readable storage medium
JP7025497B1 (en) 2020-09-14 2022-02-24 パナソニックi-PROセンシングソリューションズ株式会社 Surveillance cameras, parts linking methods and programs
WO2023152893A1 (en) * 2022-02-10 2023-08-17 日本電気株式会社 Management device, management system, management method, and program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10334207A (en) * 1997-05-29 1998-12-18 Matsushita Electric Ind Co Ltd Human stream measuring instrument
JP2007264706A (en) * 2006-03-27 2007-10-11 Yokogawa Electric Corp Image processing device, surveillance camera and video surveillance system
JP2009211274A (en) * 2008-03-03 2009-09-17 Canon Inc Image processing apparatus, image processing method, program and storage medium
JP2014229068A (en) * 2013-05-22 2014-12-08 株式会社 日立産業制御ソリューションズ People counting device and person flow line analysis apparatus
JP2018148422A (en) * 2017-03-06 2018-09-20 キヤノン株式会社 Information processing system, information processing device, information processing method, and program causing computer to execute information processing method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10334207A (en) * 1997-05-29 1998-12-18 Matsushita Electric Ind Co Ltd Human stream measuring instrument
JP2007264706A (en) * 2006-03-27 2007-10-11 Yokogawa Electric Corp Image processing device, surveillance camera and video surveillance system
JP2009211274A (en) * 2008-03-03 2009-09-17 Canon Inc Image processing apparatus, image processing method, program and storage medium
JP2014229068A (en) * 2013-05-22 2014-12-08 株式会社 日立産業制御ソリューションズ People counting device and person flow line analysis apparatus
JP2018148422A (en) * 2017-03-06 2018-09-20 キヤノン株式会社 Information processing system, information processing device, information processing method, and program causing computer to execute information processing method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6936373B1 (en) * 2020-09-14 2021-09-15 パナソニックi−PROセンシングソリューションズ株式会社 Surveillance camera, tracking frame generation method and program
JP7025497B1 (en) 2020-09-14 2022-02-24 パナソニックi-PROセンシングソリューションズ株式会社 Surveillance cameras, parts linking methods and programs
JP2022047997A (en) * 2020-09-14 2022-03-25 パナソニックi-PROセンシングソリューションズ株式会社 Monitoring camera, parts association method, and program
CN113542587A (en) * 2021-05-25 2021-10-22 浙江大华技术股份有限公司 Image capturing method and device, electronic equipment and computer readable storage medium
WO2023152893A1 (en) * 2022-02-10 2023-08-17 日本電気株式会社 Management device, management system, management method, and program

Similar Documents

Publication Publication Date Title
JP2020145511A (en) Camera device, person detection method, and person detection system
US10956722B2 (en) Moving information analyzing system and moving information analyzing method
EP2954499B1 (en) Information processing apparatus, information processing method, program, and information processing system
KR101337060B1 (en) Imaging processing device and imaging processing method
JP6674584B2 (en) Video surveillance system
JP6270433B2 (en) Information processing apparatus, information processing method, and information processing system
WO2016114134A1 (en) Motion condition estimation device, motion condition estimation method and program recording medium
WO2018096787A1 (en) Person's behavior monitoring device and person's behavior monitoring system
US10089535B2 (en) Depth camera based detection of human subjects
US20120114176A1 (en) Image processing apparatus and image processing method
JP2013196684A (en) Object counting method and object counting device
JP6994375B2 (en) Image monitoring device
JP2014006586A (en) Information processor, and control method and computer program thereof
JP2016163328A (en) Information processing device, information processing method and program
JP2015210819A (en) System and method for video-based detection of drive-offs and walk-offs in vehicular and pedestrian queues
KR100887942B1 (en) System for sensing abnormal phenomenon on realtime and method for controlling the same
CN109977796A (en) Trail current detection method and device
US10783365B2 (en) Image processing device and image processing system
US20190122228A1 (en) Examination device
JP2003109001A (en) System and program for detecting person
KR101173786B1 (en) System and method for automated measurement of crowd density using neural network
KR102464196B1 (en) Big data-based video surveillance system
KR20200010690A (en) Moving Object Linkage Tracking System and Method Using Multiple Cameras
US20180357869A1 (en) Counter-flow detection in compressed video
WO2022126668A1 (en) Method for pedestrian identification in public places and human flow statistics system

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20190731

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191031

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20191031

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20191114

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20191205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200218

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200929