JP7201748B2 - Information processing device, determination method, and program - Google Patents

Information processing device, determination method, and program Download PDF

Info

Publication number
JP7201748B2
JP7201748B2 JP2021102415A JP2021102415A JP7201748B2 JP 7201748 B2 JP7201748 B2 JP 7201748B2 JP 2021102415 A JP2021102415 A JP 2021102415A JP 2021102415 A JP2021102415 A JP 2021102415A JP 7201748 B2 JP7201748 B2 JP 7201748B2
Authority
JP
Japan
Prior art keywords
zone
person
server
image data
face data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021102415A
Other languages
Japanese (ja)
Other versions
JP2021168153A (en
Inventor
耕治 河本
英作 宮田
崇 神尾
信人 関
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
I Pro Co Ltd
Original Assignee
I Pro Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by I Pro Co Ltd filed Critical I Pro Co Ltd
Priority to JP2021102415A priority Critical patent/JP7201748B2/en
Publication of JP2021168153A publication Critical patent/JP2021168153A/en
Application granted granted Critical
Publication of JP7201748B2 publication Critical patent/JP7201748B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本開示は、情報処理装置、判定方法、およびプログラムに関する。 The present disclosure relates to an information processing device, determination method, and program.

従来、ゲートを通過するそれぞれの利用者に対して、顔認証による認証結果を報知・伝達することが可能な入退場管理システムが提供されている(例えば、特許文献1を参照)。 2. Description of the Related Art Conventionally, there has been provided an entrance/exit management system capable of informing/transmitting authentication results of face authentication to each user who passes through a gate (see, for example, Patent Literature 1).

特開2018-92293号公報JP 2018-92293 A

ところで、ホワイトリストを用いて、ゾーンへの人の立ち入りを判定する監視カメラシステムが要望されている。このような監視カメラシステムでは、ホワイトリストに登録顔画像データを登録する場合、例えば、ハンディカメラを用いて顔を撮影し、撮影した顔画像データを、監視カメラシステムに接続された端末装置に読み込む。そして、端末装置から、監視カメラシステムのホワイトリストに顔画像データを登録するため手間を要する。 By the way, there is a need for a surveillance camera system that uses a whitelist to determine whether a person has entered a zone. In such a surveillance camera system, when registered face image data is registered in a white list, for example, a hand-held camera is used to photograph a face, and the photographed face image data is read into a terminal device connected to the surveillance camera system. . Further, it takes time and effort to register the face image data in the whitelist of the surveillance camera system from the terminal device.

また、会社等では、例えば、フロアまたは部屋等のゾーンごとにおいて、立ち入ることができる人を区別している場合がある。例えば、人Aは、部屋Xおよび部屋Yに入室でき、人Bは、部屋Xに入室できるが、部屋Yには入室できないように区別している場合がある。このように、ゾーンごとにおいて、立ち入ることができる人を区別する施設等では、ゾーンごとに決められた人以外の人が、ゾーンに立ち入っていないか管理することが重要となる。 In addition, in a company or the like, for example, there are cases where persons who can enter are distinguished for each zone such as a floor or a room. For example, a person A may enter room X and room Y, and person B may enter room X but may not enter room Y. In this way, in a facility or the like that distinguishes who can enter each zone, it is important to manage whether or not a person other than the person specified for each zone has entered the zone.

本開示の非限定的な実施例は、ホワイトリストへの登録顔画像データの登録を容易にできる情報処理装置、判定方法、およびプログラムの提供に資する。 Non-limiting examples of the present disclosure contribute to providing an information processing device, a determination method, and a program that facilitate registration of registered face image data in a whitelist.

本開示の非限定的な実施例は、ゾーンごとに決められた人以外の人が、ゾーンに立ち入っていないかを判定する情報処理装置、判定方法、およびプログラムの提供に資する。 A non-limiting embodiment of the present disclosure contributes to providing an information processing device, a determination method, and a program for determining whether a person other than the person determined for each zone has entered the zone.

本開示は、建物の複数のゾーンの各々を撮影するカメラから、顔画像データを受信する通信部と、複数のカメラ各々のカメラ識別情報と、前記複数のゾーンとを紐付けた第1のテーブルと、登録顔画像データと、前記登録顔画像データの人物の立ち入りが許可されたゾーンとを紐付けた第2のテーブルと、前記顔画像データに基づいて前記第2のテーブルを参照し、前記顔画像データの人物の立ち入りが許可された許可ゾーンを取得してから、前記カメラ識別情報に基づいて前記第1のテーブルを参照して前記顔画像データの人物が撮影された撮影ゾーンを取得し、前記許可ゾーンと前記撮影ゾーンとに基づいて前記顔画像データの人物の立ち入りの許可/不許可を判定する制御部と、を有する、情報処理装置。 The present disclosure includes a communication unit that receives face image data from a camera that captures each of a plurality of zones of a building, camera identification information of each of the plurality of cameras, and a first table that associates the plurality of zones with each other. and a second table linking the registered face image data and the zone in which the person is permitted to enter in the registered face image data, and referring to the second table based on the face image data, After obtaining the permission zone in which the person of the face image data is permitted to enter, referring to the first table based on the camera identification information, the photographing zone in which the person of the face image data was photographed is obtained. and a control unit that determines permission/non-permission of entry of the person of the face image data based on the permission zone and the photographing zone.

また、本開示は、コンピュータが行う判定方法であって、建物の複数のゾーンの各々を撮影するカメラから、顔画像データを受信し、前記顔画像データに基づいて、登録顔画像データと、前記登録顔画像データの人物の立ち入りが許可されたゾーンとを紐付けた第2のテーブルを参照し、前記顔画像データの人物の立ち入りが許可された許可ゾーンを取得し、前記顔画像データの人物を撮影したカメラのカメラ識別情報に基づいて、前記複数のカメラ各々のカメラ識別情報と、前記複数のゾーンとを紐付けた第1のテーブルを参照して前記顔画像データの人物が撮影された撮影ゾーンを取得し、前記許可ゾーンと前記撮影ゾーンとに基づいて前記顔画像データの人物の立ち入りの許可/不許可を判定する、判定方法を提供する。 Further, the present disclosure is a determination method performed by a computer, which receives facial image data from a camera that photographs each of a plurality of zones of a building, and based on the facial image data, registers registered facial image data, By referring to a second table in which a zone in which a person in the registered face image data is permitted to enter is linked, a permission zone in which a person in the face image data is permitted to enter is acquired, and the person in the face image data is acquired. based on the camera identification information of the camera that captured the face image data, referring to a first table linking the camera identification information of each of the plurality of cameras and the plurality of zones, and capturing the person of the face image data A determination method is provided for acquiring a photographing zone and determining permission/non-permission of entry of the person of the face image data based on the permission zone and the photographing zone.

また、本開示は、コンピュータに、建物の複数のゾーンの各々を撮影するカメラから、顔画像データを受信し、前記顔画像データに基づいて、登録顔画像データと、前記登録顔画像データの人物の立ち入りが許可されたゾーンとを紐付けた第2のテーブルを参照し、前記顔画像データの人物の立ち入りが許可された許可ゾーンを取得し、前記顔画像データの人物を撮影したカメラのカメラ識別情報に基づいて、前記複数のカメラ各々のカメラ識別情報と、前記複数のゾーンとを紐付けた第1のテーブルを参照して前記顔画像データの人物が撮影された撮影ゾーンを取得し、前記許可ゾーンと前記撮影ゾーンとに基づいて前記顔画像データの人物の立ち入りの許可/不許可を判定する、処理を実行させる、プログラムを提供する。 The present disclosure also provides a method for receiving face image data from a camera that captures each of a plurality of zones of a building in a computer, and based on the face image data, registered face image data, and A second table that associates the zone to which the person of the face image data is permitted to enter is obtained by referring to the second table, and the camera of the camera that photographed the person of the face image data Based on the identification information, referring to a first table linking the camera identification information of each of the plurality of cameras and the plurality of zones to obtain a shooting zone in which the person of the face image data was shot, A program is provided for executing a process of determining permission/non-permission of entry of a person in the face image data based on the permission zone and the photographing zone.

建物の複数のゾーンの各々を撮影するカメラから、顔画像データを受信する通信部と、複数のカメラ各々のカメラ識別情報と、前記複数のゾーンとを紐付けた第1の情報と、登録顔画像データと、前記登録顔画像データの人物の立ち入りが許可されたゾーンとを紐付けた第2の情報とを保存するメモリと、前記顔画像データに基づいて前記第2の情報を参照し、前記顔画像データの人物の立ち入りが許可された許可ゾーンを取得してから、前記カメラ識別情報に基づいて前記第1の情報を参照して前記顔画像データの人物が撮影された撮影ゾーンを取得し、前記許可ゾーンと前記撮影ゾーンとに基づいて前記顔画像データの人物の立ち入りの許可/不許可を判定する制御部と、を有する、情報処理装置を提供する。 a communication unit for receiving face image data from a camera that captures each of a plurality of zones of a building; camera identification information for each of the plurality of cameras; first information linking the plurality of zones; a memory for storing image data and second information linking the zone in which a person is permitted to enter in the registered face image data; referring to the second information based on the face image data; After acquiring the permission zone in which the person of the face image data is allowed to enter, referring to the first information based on the camera identification information, acquires the photographing zone in which the person of the face image data was photographed. and a control unit that determines permission/non-permission of entry of the person in the face image data based on the permission zone and the photographing zone.

また、本開示は、コンピュータが行う判定方法であって、建物の複数のゾーンの各々を撮影するカメラから、顔画像データを受信し、前記顔画像データに基づいて、登録顔画像データと、前記登録顔画像データの人物の立ち入りが許可されたゾーンとを紐付けた第2の情報を参照し、前記顔画像データの人物の立ち入りが許可された許可ゾーンを取得し、前記顔画像データの人物を撮影したカメラのカメラ識別情報に基づいて、前記複数のカメラ各々のカメラ識別情報と、前記複数のゾーンとを紐付けた第1の情報を参照して前記顔画像データの人物が撮影された撮影ゾーンを取得し、前記許可ゾーンと前記撮影ゾーンとに基づいて前記顔画像データの人物の立ち入りの許可/不許可を判定する、判定方法を提供する。 Further, the present disclosure is a determination method performed by a computer, which receives facial image data from a camera that photographs each of a plurality of zones of a building, and based on the facial image data, registers registered facial image data, By referring to the second information linked with the zone in which the person in the registered face image data is permitted to enter, the permission zone in which the person in the face image data is permitted to enter is acquired, and the person in the face image data is acquired. based on the camera identification information of the camera that captured the face image data, referring to the camera identification information of each of the plurality of cameras and the first information linking the plurality of zones with the person of the face image data A determination method is provided for acquiring a photographing zone and determining permission/non-permission of entry of the person of the face image data based on the permission zone and the photographing zone.

また、本開示は、コンピュータに、建物の複数のゾーンの各々を撮影するカメラから、顔画像データを受信し、前記顔画像データに基づいて、登録顔画像データと、前記登録顔画像データの人物の立ち入りが許可されたゾーンとを紐付けた第2の情報を参照し、前記顔画像データの人物の立ち入りが許可された許可ゾーンを取得し、前記顔画像データの人物を撮影したカメラのカメラ識別情報に基づいて、前記複数のカメラ各々のカメラ識別情報と、前記複数のゾーンとを紐付けた第1の情報を参照して前記顔画像データの人物が撮影された撮影ゾーンを取得し、前記許可ゾーンと前記撮影ゾーンとに基づいて前記顔画像データの人物の立ち入りの許可/不許可を判定する、処理を実行させる、プログラムを提供する。 The present disclosure also provides a method for receiving face image data from a camera that captures each of a plurality of zones of a building in a computer, and based on the face image data, registered face image data, and by referring to the second information linked with the zone into which the person of the face image data is permitted to enter, obtaining the permission zone into which the person of the face image data is permitted to enter, and the camera of the camera that photographed the person of the face image data obtaining a photographing zone in which the person of the face image data was photographed by referring to first information linking the camera identification information of each of the plurality of cameras and the plurality of zones based on the identification information; A program is provided for executing a process of determining permission/non-permission of entry of a person in the face image data based on the permission zone and the photographing zone.

なお、これらの包括的または具体的な態様は、システム、装置、方法、集積回路、コンピュータプログラム、または、記録媒体で実現されてもよく、システム、装置、方法、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。 In addition, these generic or specific aspects may be realized by systems, devices, methods, integrated circuits, computer programs, or recording media. may be realized by any combination of

本開示の一実施例によれば、ホワイトリストへの登録顔画像データの登録を容易にできる。 According to an embodiment of the present disclosure, it is possible to facilitate registration of registration face image data to the whitelist.

本開示の一実施例によれば、ゾーンごとに決められた人以外の人が、ゾーンに立ち入っていないかを判定できる。 According to an embodiment of the present disclosure, it can be determined whether a person other than the person specified for each zone has entered the zone.

本開示の一実施例における更なる利点および効果は、明細書および図面から明らかにされる。かかる利点および/または効果は、いくつかの実施形態並びに明細書および図面に記載された特徴によってそれぞれ提供されるが、1つまたはそれ以上の同一の特徴を得るために必ずしも全てが提供される必要はない。 Further advantages and advantages of an embodiment of the disclosure are apparent from the specification and drawings. Such advantages and/or advantages are provided by the several embodiments and features described in the specification and drawings, respectively, not necessarily all provided to obtain one or more of the same features. no.

第1の実施の形態に係る監視カメラシステムの一例を示した図The figure which showed an example of the surveillance camera system which concerns on 1st Embodiment. ゾーンに設置された監視カメラの映像例を示した図A diagram showing an example of video from surveillance cameras installed in the zone 監視カメラのブロック構成例を示した図Diagram showing a block configuration example of a surveillance camera サーバのブロック構成例を示した図Diagram showing an example of server block configuration 端末装置のブロック構成例を示した図Diagram showing a block configuration example of a terminal device サーバの記憶部に記憶されるテーブルの一例を示した図The figure which showed an example of the table memorize|stored in the memory|storage part of a server. サーバの記憶部に記憶されるテーブルの一例を示した図The figure which showed an example of the table memorize|stored in the memory|storage part of a server. 監視カメラシステムの動作例を示したシーケンス図Sequence diagram showing an operation example of the surveillance camera system 第2の実施の形態に係るサーバの記憶部に記憶されるテーブルの一例を示した図The figure which showed an example of the table memorize|stored in the memory|storage part of the server based on 2nd Embodiment. 顔データおよび時間の登録における監視カメラシステムの動作例を示したシーケンス図Sequence diagram showing an example of the operation of the surveillance camera system in registering face data and time 第3の実施の形態に係る監視カメラシステムの一例を示した図The figure which showed an example of the monitoring camera system which concerns on 3rd Embodiment. カードリーダのブロック構成例を示した図Diagram showing a block configuration example of a card reader サーバの記憶部に記憶されるテーブルの一例を示した図The figure which showed an example of the table memorize|stored in the memory|storage part of a server. 監視カメラシステムの動作例を示したシーケンス図Sequence diagram showing an operation example of the surveillance camera system 第4の実施の形態に係る監視カメラシステムの一例を示した図The figure which showed an example of the monitoring camera system which concerns on 4th Embodiment. 監視カメラシステムの概略動作を説明する図Diagram for explaining the schematic operation of the surveillance camera system サーバの記憶部に記憶されるテーブルの一例を示した図The figure which showed an example of the table memorize|stored in the memory|storage part of a server. サーバの記憶部に記憶されるテーブルの一例を示した図The figure which showed an example of the table memorize|stored in the memory|storage part of a server. 監視カメラシステムの動作例を示したシーケンス図Sequence diagram showing an operation example of the surveillance camera system ブラックリスト方式における判定方法を説明する図Diagram explaining the judgment method in the blacklist method ホワイトリスト方式における判定方法を説明する図Diagram explaining the determination method in the whitelist method ブラックリスト方式における判定処理例を示したシーケンス図Sequence diagram showing an example of judgment processing in the blacklist method ホワイトリスト方式における判定処理例を示したシーケンス図Sequence diagram showing an example of judgment processing in the whitelist method ブラックリスト方式によってアラーム信号が出力されたときの端末装置の画面例を示した図A diagram showing an example of a terminal device screen when an alarm signal is output by the blacklist method ホワイトリスト方式によってアラーム信号が出力されたときの端末装置の画面例を示した図A diagram showing an example of a terminal device screen when an alarm signal is output by the whitelist method アラーム信号が出力されたときの端末装置の画面例を示した図A diagram showing an example of the terminal device screen when an alarm signal is output 第5の実施の形態に係る監視カメラシステムの一例を示した図The figure which showed an example of the surveillance camera system which concerns on 5th Embodiment. 第5の実施の形態に係る監視カメラシステムの一例を示した図The figure which showed an example of the surveillance camera system which concerns on 5th Embodiment. 監視カメラシステムの動作例を示したシーケンス図Sequence diagram showing an operation example of the surveillance camera system 監視カメラシステムの動作例を示したシーケンス図Sequence diagram showing an operation example of the surveillance camera system 第6の実施の形態に係る監視カメラシステムの動作例を示したシーケンス図A sequence diagram showing an operation example of the monitoring camera system according to the sixth embodiment. 第7の実施の形態に係る監視カメラシステムの一例を示した図The figure which showed an example of the surveillance camera system which concerns on 7th Embodiment. テーブルのアクセス例を説明する図Diagram explaining an example of accessing a table テーブルのアクセス例を説明する図Diagram explaining an example of accessing a table 監視カメラシステムの動作例を示したシーケンス図Sequence diagram showing an operation example of the surveillance camera system

以下、図面を適宜参照して、本発明の実施の形態について、詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings as appropriate. However, more detailed description than necessary may be omitted. For example, detailed descriptions of well-known matters and redundant descriptions of substantially the same configurations may be omitted. This is to avoid unnecessary verbosity in the following description and to facilitate understanding by those skilled in the art.

なお、添付図面および以下の説明は、当業者が本開示を十分に理解するために、提供されるのであって、これらにより特許請求の範囲に記載の主題を限定することは意図されていない。 It should be noted that the accompanying drawings and the following description are provided for a thorough understanding of the present disclosure by those skilled in the art and are not intended to limit the claimed subject matter.

(第1の実施の形態)
図1は、第1の実施の形態に係る監視カメラシステムの一例を示した図である。図1に示すように、監視カメラシステムは、監視カメラ1a~1dと、サーバ(情報処理装置)2と、端末装置3と、を有している。図1には、監視カメラシステムの他に、建物A1が示してある。建物A1は、例えば、会社、マンション、または商業施設等である。
(First embodiment)
FIG. 1 is a diagram showing an example of a monitoring camera system according to the first embodiment. As shown in FIG. 1, the monitoring camera system includes monitoring cameras 1a to 1d, a server (information processing device) 2, and a terminal device 3. FIG. 1 shows building A1 in addition to the surveillance camera system. Building A1 is, for example, a company, an apartment building, or a commercial facility.

ゾーンA~Cは、建物A1の部屋、エントランス、廊下、階段、フロア、またはエレベータ等であってもよい。また、ゾーンA~Cは、建物A1が建っている敷地であってもよい。すなわち、ゾーンA~Cは、人の立ち入り(進入)が許可されるか否かが判定される領域と捉えてもよい。ゾーンは、エリアと呼ばれてもよい。以下では、ゾーンA~Cは、建物A1の部屋として説明する。 Zones A-C may be rooms, entrances, corridors, stairs, floors, elevators, etc. of building A1. Also, zones A to C may be the site on which the building A1 is built. In other words, zones A to C may be regarded as areas where it is determined whether or not a person is permitted to enter (approach). A zone may be called an area. Zones A to C are hereinafter described as rooms in building A1.

監視カメラ1a~1dは、ゾーンA~Cに設置される。例えば、監視カメラ1aは、建物A1のゾーンAに設置される。監視カメラ1b,1cは、建物A1のゾーンBに設置される。監視カメラ1dは、建物A1のゾーンCに設置される。 Surveillance cameras 1a-1d are installed in zones A-C. For example, surveillance camera 1a is installed in zone A of building A1. Surveillance cameras 1b and 1c are installed in zone B of building A1. The surveillance camera 1d is installed in zone C of building A1.

監視カメラ1a~1dは、ゾーンA~C内にいる人を撮影するように設置される。例えば、監視カメラ1a~1dは、ゾーンA~C内の全体を撮影するように設置される。 Surveillance cameras 1a-1d are installed so as to photograph people in zones A-C. For example, the monitoring cameras 1a-1d are installed so as to photograph the entire zones A-C.

図2は、ゾーンAに設置された監視カメラ1aの映像例を示した図である。監視カメラ1aは、例えば、図2に示すように、室内を広範囲にわたって撮影する。 FIG. 2 is a diagram showing an example of an image captured by the surveillance camera 1a installed in zone A. As shown in FIG. The surveillance camera 1a, for example, as shown in FIG. 2, captures a wide range of images in the room.

図1の説明に戻る。サーバ2は、例えば、LAN(Local Area Network)またはインターネット等のネットワークによって、監視カメラ1a~1dと接続されている。サーバ2は、建物A1内に設置されてもよいし、建物A1とは別の場所に設置されてもよい。 Returning to the description of FIG. The server 2 is connected to the surveillance cameras 1a to 1d via a network such as a LAN (Local Area Network) or the Internet. The server 2 may be installed inside the building A1, or may be installed at a location separate from the building A1.

サーバ2は、ゾーンA~Cごとにおいて、ゾーンA~Cに立ち入ることが(入室)できる人の顔の画像データ(以下、顔データと呼ぶことがある)を記憶(登録)している。サーバ2は、監視カメラ1a~1dが撮影した人の顔データと、登録されている顔データとの照合を行う。サーバ2は、照合した結果を、端末装置3に送信する。 The server 2 stores (registers) face image data (hereinafter sometimes referred to as face data) of persons who can enter (enter) zones A to C in each of zones A to C. FIG. The server 2 compares the face data of the person photographed by the monitoring cameras 1a to 1d with the registered face data. The server 2 transmits the collation result to the terminal device 3 .

端末装置3は、LANまたはインターネット等のネットワークによって、サーバ2と接続されている。端末装置3は、建物A1内に設置されてもよいし、建物A1とは別の場所に設置されてもよい。端末装置3は、例えば、パーソナルコンピュータ、スマートホン、またはタブレット端末等であってもよい。 The terminal device 3 is connected to the server 2 via a network such as LAN or the Internet. The terminal device 3 may be installed in the building A1, or may be installed in a place other than the building A1. The terminal device 3 may be, for example, a personal computer, a smart phone, a tablet terminal, or the like.

なお、監視カメラ1a~1dは、ゾーンA~Cに入室する人を撮影するように設置されてもよい。例えば、監視カメラ1a~1dは、ゾーンA~Cの入り口付近を撮影するように設置されてもよい。 Note that the monitoring cameras 1a-1d may be installed so as to photograph people entering the zones A-C. For example, the monitoring cameras 1a-1d may be installed so as to photograph the vicinity of the entrances of zones A-C.

また、監視カメラ1a~1dには、ゾーンA~Cに既に設置されている監視カメラが用いられてもよい。例えば、監視カメラ1a~1dには、ゾーンA~Cの映像を録画する録画システムの一部として、既にゾーンA~Cに設置されている監視カメラを用いてもよい。この場合、監視カメラ1a~1dの出力を、録画システムとサーバ2とに分岐させてもよい。 Surveillance cameras already installed in zones A to C may be used as the surveillance cameras 1a to 1d. For example, monitoring cameras 1a to 1d that are already installed in zones A to C as part of a recording system that records videos in zones A to C may be used as the monitoring cameras 1a to 1d. In this case, the outputs of the monitoring cameras 1a to 1d may be branched to the recording system and the server 2. FIG.

図3は、監視カメラ1aのブロック構成例を示した図である。図3に示すように、監視カメラ1aは、撮像部11と、制御部12と、通信部13と、記憶部14と、を有している。 FIG. 3 is a diagram showing a block configuration example of the surveillance camera 1a. As shown in FIG. 3, the surveillance camera 1a has an imaging section 11, a control section 12, a communication section 13, and a storage section .

撮像部11は、例えば、レンズおよび撮像素子(図示せず)を有している。撮像部11のレンズは、撮像素子の受光面に被写体の像を結像する。レンズには、監視カメラ1aの設置場所または撮影用途等に応じて、様々な焦点距離または撮影範囲のレンズを用いることができる。 The imaging unit 11 has, for example, a lens and an imaging element (not shown). The lens of the imaging unit 11 forms an image of the subject on the light receiving surface of the imaging element. As for the lens, lenses with various focal lengths or shooting ranges can be used depending on the installation location of the monitoring camera 1a, the shooting application, or the like.

撮像部11の撮像素子は、受光面に受けた光を電気信号に変換する。撮像素子は、例えば、CCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)等のイメージセンサである。撮像部11は、撮像素子の受光面において受けた光に応じた電気信号(アナログ信号)をデジタル信号に変換して、制御部12に出力する。 The imaging element of the imaging unit 11 converts the light received on the light receiving surface into an electrical signal. The imaging device is, for example, an image sensor such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor). The imaging unit 11 converts an electric signal (analog signal) corresponding to the light received by the light receiving surface of the imaging element into a digital signal and outputs the digital signal to the control unit 12 .

制御部12は、監視カメラ1a全体を制御する。制御部12は、例えば、CPU(Central Processing Unit)またはDSP(Digital Signal Processer)によって構成されてもよい。制御部12は、撮像部11から出力される映像から、人の顔を判別する。制御部12は、判別した人の顔を切り出し、切り出した顔の顔データ(静止画像)を、通信部13を介してサーバ2に送信する。 The control unit 12 controls the entire surveillance camera 1a. The control unit 12 may be configured by, for example, a CPU (Central Processing Unit) or a DSP (Digital Signal Processor). The control unit 12 determines a person's face from the image output from the imaging unit 11 . The control unit 12 cuts out the identified person's face, and transmits face data (still image) of the cut out face to the server 2 via the communication unit 13 .

通信部13は、サーバ2と通信する。通信部13は、例えば、イーサネット(登録商標)ケーブル等のネットワークケーブル(有線)を介して、サーバ2と通信してもよい。また、通信部13は、例えば、Wi-Fi(登録商標)またはブルートゥース(登録商標)等の近距離無線通信を介して、サーバ2と通信してもよい。 The communication unit 13 communicates with the server 2 . The communication unit 13 may communicate with the server 2 via a network cable (wired) such as an Ethernet (registered trademark) cable, for example. Further, the communication unit 13 may communicate with the server 2 via short-range wireless communication such as Wi-Fi (registered trademark) or Bluetooth (registered trademark).

記憶部14は、制御部12が動作するためのプログラムが記憶される。また、記憶部14には、制御部12が計算処理を行うためのデータ、または、制御部12が各部を制御するためのデータ等が記憶される。記憶部14は、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、およびHDD(Hard Disk Drive)などの記憶装置によって構成されてもよい。 The storage unit 14 stores a program for operating the control unit 12 . The storage unit 14 also stores data for the control unit 12 to perform calculation processing, data for the control unit 12 to control each unit, and the like. The storage unit 14 may be configured by storage devices such as RAM (Random Access Memory), ROM (Read Only Memory), flash memory, and HDD (Hard Disk Drive).

なお、監視カメラ1b~1dは、監視カメラ1aと同様のブロック構成を有している。従って、監視カメラ1b~1dのブロック構成の説明を省略する。 Note that the monitoring cameras 1b to 1d have the same block configuration as the monitoring camera 1a. Therefore, description of the block configuration of the monitoring cameras 1b to 1d is omitted.

図4は、サーバ2のブロック構成例を示した図である。図4に示すように、サーバ2は、制御部21と、通信部22と、記憶部23と、を有している。 FIG. 4 is a diagram showing a block configuration example of the server 2. As shown in FIG. As shown in FIG. 4 , the server 2 has a control section 21 , a communication section 22 and a storage section 23 .

制御部21は、サーバ2全体を制御する。制御部21は、例えば、CPUによって構成されてもよい。 The control unit 21 controls the server 2 as a whole. The control unit 21 may be configured by, for example, a CPU.

通信部22は、監視カメラ1a~1dおよび端末装置3と通信する。通信部22は、例えば、イーサネットケーブル等のネットワークケーブルを介して、監視カメラ1a~1dおよび端末装置3と通信してもよい。また、通信部22は、例えば、Wi-Fi(登録商標)またはブルートゥース(登録商標)等の近距離無線通信を介して、監視カメラ1a~1dおよび端末装置3と通信してもよい。 The communication unit 22 communicates with the monitoring cameras 1 a to 1 d and the terminal device 3 . The communication unit 22 may communicate with the monitoring cameras 1a to 1d and the terminal device 3, for example, via a network cable such as an Ethernet cable. Further, the communication unit 22 may communicate with the monitoring cameras 1a to 1d and the terminal device 3 via short-range wireless communication such as Wi-Fi (registered trademark) or Bluetooth (registered trademark).

記憶部23は、制御部21が動作するためのプログラムが記憶される。また、記憶部23には、制御部21が計算処理を行うためのデータ、または、制御部21が各部を制御するためのデータ等が記憶される。記憶部23は、RAM、ROM、フラッシュメモリ、およびHDDなどの記憶装置によって構成されてもよい。 The storage unit 23 stores a program for operating the control unit 21 . The storage unit 23 also stores data for the control unit 21 to perform calculation processing, data for the control unit 21 to control each unit, and the like. The storage unit 23 may be configured by storage devices such as RAM, ROM, flash memory, and HDD.

図5は、端末装置3のブロック構成例を示した図である。図5に示すように、端末装置3は、制御部31と、入力部32と、表示部33と、通信部34と、記憶部35と、を有している。 FIG. 5 is a diagram showing a block configuration example of the terminal device 3. As shown in FIG. As shown in FIG. 5 , the terminal device 3 has a control section 31 , an input section 32 , a display section 33 , a communication section 34 and a storage section 35 .

制御部31は、端末装置3全体を制御する。制御部31は、例えば、CPUによって構成されてもよい。 The control unit 31 controls the terminal device 3 as a whole. The control unit 31 may be configured by, for example, a CPU.

入力部32は、例えば、キーボード、表示装置の画面上に重畳されたタッチパネル、またはマウス等の入力装置(図示せず)に接続されている。入力部32は、入力装置から出力された、ユーザの操作に応じた信号を受信し、制御部31に出力する。 The input unit 32 is connected to an input device (not shown) such as a keyboard, a touch panel superimposed on the screen of the display device, or a mouse. The input unit 32 receives a signal according to the user's operation output from the input device, and outputs the signal to the control unit 31 .

表示部33は、端末装置3が備える表示装置(図示せず)に接続されている。表示部33は、制御部31から出力される画像データを表示装置に出力する。 The display unit 33 is connected to a display device (not shown) included in the terminal device 3 . The display unit 33 outputs the image data output from the control unit 31 to the display device.

以下では、説明を簡単にするため、ゾーンAとゾーンBとにおける入室者の検知について説明する。図1で説明したように、ゾーンAには、監視カメラ1aが設置され、ゾーンBには、監視カメラ1b,1cが設置されている。 In order to simplify the explanation, detection of persons entering the room in zone A and zone B will be explained below. As described with reference to FIG. 1, in zone A, surveillance camera 1a is installed, and in zone B, surveillance cameras 1b and 1c are installed.

図6は、サーバ2の記憶部23に記憶されるテーブルの一例を示した図である。図6に示すテーブルTB1は、例えば、監視カメラ1a~1cが建物A1に設置されるときに、サーバ2の記憶部23に記憶される。テーブルTB1は、端末装置3によって作成され、サーバ2の記憶部23に記憶されてもよい。また、テーブルTB1の情報は、例えば、端末装置3によって追加、変更、または削除されてもよい。 FIG. 6 is a diagram showing an example of a table stored in the storage unit 23 of the server 2. As shown in FIG. A table TB1 shown in FIG. 6 is stored in the storage unit 23 of the server 2, for example, when the surveillance cameras 1a to 1c are installed in the building A1. The table TB1 may be created by the terminal device 3 and stored in the storage unit 23 of the server 2 . Information in the table TB1 may be added, changed, or deleted by the terminal device 3, for example.

テーブルTB1は、ゾーン識別情報41aと、顔データ41bと、を有している。ゾーン識別情報41aは、ゾーンA,Bを識別する識別情報である。例えば、テーブルTB1の「A」は、ゾーンAの識別情報を示す。テーブルTB1の「B」は、ゾーンBの識別情報を示す。顔データ41bは、人の顔データである。 The table TB1 has zone identification information 41a and face data 41b. The zone identification information 41a is identification information for identifying zones A and B. FIG. For example, "A" in table TB1 indicates zone A identification information. "B" in table TB1 indicates zone B identification information. The face data 41b is human face data.

テーブルTB1は、ゾーンごとの入室が許可された人を示した情報と言ってもよい。例えば、テーブルTB1の丸が付されている行の顔データ41bの人は、丸が付されている列のゾーン識別情報41aが示すゾーンに入室できることを示している。また、テーブルTB1のバーが付されている行の顔データ41bの人は、バーが付されている列のゾーン識別情報41aが示すゾーンに入室できないことを示している。 The table TB1 may be said to be information indicating persons permitted to enter the room for each zone. For example, the person in the circled row of the face data 41b of the table TB1 can enter the zone indicated by the circled column of the zone identification information 41a. Also, the face data 41b in the barred row of the table TB1 cannot enter the zone indicated by the zone identification information 41a in the barred column.

より具体的には、図6の顔データ41baの顔の人は、ゾーンA,Bに入室できる。図6の顔データ41bbの顔の人は、ゾーンAに入室できるが、ゾーンBには入室できない。図6の顔データ41bcの顔の人は、ゾーンAに入室できないが、ゾーンBに入室できる。 More specifically, the person with the face data 41ba in FIG. 6 can enter the zones A and B. A person with face data 41bb in FIG. 6 can enter zone A, but cannot enter zone B. A person with the face data 41bc in FIG. 6 cannot enter zone A, but can enter zone B.

図7は、サーバ2の記憶部23に記憶されるテーブルの一例を示した図である。図7に示すテーブルTB2は、例えば、監視カメラ1a~1cが建物A1に設置されるときに、サーバ2の記憶部23に記憶される。テーブルTB2は、端末装置3によって作成され、サーバ2の記憶部23に記憶されてもよい。また、テーブルTB2の情報は、例えば、端末装置3によって追加、変更、または削除されてもよい。 FIG. 7 is a diagram showing an example of a table stored in the storage unit 23 of the server 2. As shown in FIG. A table TB2 shown in FIG. 7 is stored in the storage unit 23 of the server 2, for example, when the monitoring cameras 1a to 1c are installed in the building A1. The table TB2 may be created by the terminal device 3 and stored in the storage unit 23 of the server 2 . Information in the table TB2 may be added, changed, or deleted by the terminal device 3, for example.

テーブルTB2は、ゾーン識別情報42aと、カメラ識別情報42bと、を有している。ゾーン識別情報42aは、ゾーンを識別する識別情報である。カメラ識別情報42bは、監視カメラ1a~1cを識別する識別情報である。例えば、カメラ識別情報42bの「1a」は、監視カメラ1aの識別情報を示す。カメラ識別情報42bの「1b」は、監視カメラ1bの識別情報を示す。カメラ識別情報42bの「1c」は、監視カメラ1cの識別情報を示す。 The table TB2 has zone identification information 42a and camera identification information 42b. The zone identification information 42a is identification information that identifies a zone. The camera identification information 42b is identification information for identifying the monitoring cameras 1a to 1c. For example, "1a" in the camera identification information 42b indicates the identification information of the monitoring camera 1a. "1b" of the camera identification information 42b indicates the identification information of the surveillance camera 1b. "1c" of the camera identification information 42b indicates the identification information of the surveillance camera 1c.

テーブルTB2は、監視カメラ1a~1cのゾーンにおける設置場所を示した情報と言ってもよい。例えば、テーブルTB2の丸が付されている行のカメラ識別情報42bの監視カメラは、丸が付されている列のゾーン識別情報42aが示すゾーンに設置されていることを示している。また、テーブルTB2のバーが付されている行のカメラ識別情報42bの監視カメラは、バーが付されている列のゾーン識別情報42aが示すゾーンに設置されていないことを示している。 The table TB2 may be said to be information indicating installation locations in zones of the surveillance cameras 1a to 1c. For example, the monitoring camera of the camera identification information 42b in the circled row of the table TB2 is installed in the zone indicated by the zone identification information 42a in the circled column. In addition, the monitoring camera of the camera identification information 42b in the row with the bar in the table TB2 is not installed in the zone indicated by the zone identification information 42a in the column with the bar.

より具体的には、図7のカメラ識別情報42baの監視カメラ1aは、ゾーンAに設置されている。図7のカメラ識別情報42bbの監視カメラ1bは、ゾーンBに設置されている。図7のカメラ識別情報42bcの監視カメラ1cは、ゾーンBに設置されている。 More specifically, the surveillance camera 1a of the camera identification information 42ba in FIG. The surveillance camera 1b with the camera identification information 42bb in FIG. The surveillance camera 1c with the camera identification information 42bc in FIG.

図6および図7では、テーブルTB1,TB2は、サーバ2の記憶部23に記憶されるとしたが、これに限られない。テーブルTB1およびテーブルTB2の両方または一方は、サーバ2とは別体のデータベースに記憶されてもよい。以下では、テーブルTB1は、登録DB(DB:データベース)に記憶され、テーブルTB2は、サーバ2の記憶部23に記憶されるとする。登録DBは、例えば、サーバ2の一部と捉えてもよい。 Although the tables TB1 and TB2 are stored in the storage unit 23 of the server 2 in FIGS. 6 and 7, the present invention is not limited to this. Both or one of table TB1 and table TB2 may be stored in a database separate from server 2 . Below, it is assumed that the table TB1 is stored in a registration DB (DB: database) and the table TB2 is stored in the storage unit 23 of the server 2 . The registration DB may be regarded as part of the server 2, for example.

図8は、監視カメラシステムの動作例を示したシーケンス図である。端末装置3の制御部31は、オペレータの操作に応じて、サーバ2に対し、ゾーンA,Bと、監視カメラ1a~1cとのグルーピング設定を行う(ステップS1)。すなわち、端末装置3の制御部31は、サーバ2に対し、ゾーンA,Bと、監視カメラ1a~1cとの対応付けの設定を行う。これにより、サーバ2の記憶部23には、例えば、図7に示したテーブルTB2が記憶される。 FIG. 8 is a sequence diagram showing an operation example of the surveillance camera system. The control unit 31 of the terminal device 3 performs grouping setting of the zones A and B and the surveillance cameras 1a to 1c for the server 2 according to the operator's operation (step S1). That is, the control unit 31 of the terminal device 3 sets the server 2 to associate the zones A and B with the surveillance cameras 1a to 1c. As a result, for example, the table TB2 shown in FIG. 7 is stored in the storage unit 23 of the server 2 .

端末装置3の制御部31は、オペレータの操作に応じて、登録DBに対し、ゾーンA,Bへの顔登録を行う(ステップS2a,S2b)。すなわち、端末装置3の制御部31は、登録DBに対し、ゾーンA,Bと、ゾーンA,Bに入室できる人の顔データとの対応付けの設定を行う。これにより、登録DBには、例えば、図6に示したテーブルTB1が記憶される。なお、登録DBの情報登録は、サーバ2を経由して行われる。また、端末装置3の制御部31は、登録DBに登録する顔データを、他のシステムの顔データベースから入手してもよい。 The control unit 31 of the terminal device 3 performs face registration to the zones A and B in the registration DB according to the operator's operation (steps S2a and S2b). That is, the control unit 31 of the terminal device 3 sets associations between the zones A and B and face data of persons who can enter the zones A and B in the registration DB. As a result, for example, the table TB1 shown in FIG. 6 is stored in the registration DB. Information registration in the registration DB is performed via the server 2 . Also, the control unit 31 of the terminal device 3 may obtain face data to be registered in the registration DB from a face database of another system.

ゾーンAの監視カメラ1aの撮像部11は、人を撮影したとする。監視カメラ1aの制御部12は、撮像部11が撮影した映像の中から人の顔を切り出し、切り出した顔の顔データと、監視カメラ1aのカメラ識別情報とをサーバ2に送信する(ステップS3)。 Assume that the imaging unit 11 of the surveillance camera 1a in zone A has captured a person. The control unit 12 of the monitoring camera 1a cuts out a human face from the video imaged by the imaging unit 11, and transmits the face data of the cut out face and the camera identification information of the monitoring camera 1a to the server 2 (step S3). ).

サーバ2の制御部21は、ステップS3にて送信された顔データと、監視カメラ1aのカメラ識別情報とを受信する(ステップS4)。 The control unit 21 of the server 2 receives the face data transmitted in step S3 and the camera identification information of the monitoring camera 1a (step S4).

サーバ2の制御部21は、記憶部23のテーブルTB2を参照し、ステップS4にて受信したカメラ識別情報に対応するゾーン識別情報を取得する(ステップS5)。 The control unit 21 of the server 2 refers to the table TB2 of the storage unit 23 and acquires zone identification information corresponding to the camera identification information received in step S4 (step S5).

図8の例では、サーバ2の制御部21は、ステップS4にて、監視カメラ1aのカメラ識別情報「1a」を受信している。従って、サーバ2の制御部21は、図7のテーブルTB2から、ゾーンAのゾーン識別情報「A」を取得する。これにより、サーバ2の制御部21は、ステップS4にて受信した顔データ51は、ゾーンAに設置された監視カメラ1aにおいて撮影されたものと特定(判定)できる。言い換えれば、サーバ2の制御部21は、ステップS4にて受信した顔データ51の顔の人は、ゾーンAに居ると特定できる。 In the example of FIG. 8, the control unit 21 of the server 2 receives the camera identification information "1a" of the monitoring camera 1a in step S4. Therefore, the control unit 21 of the server 2 acquires the zone identification information "A" of the zone A from the table TB2 of FIG. Thereby, the control unit 21 of the server 2 can specify (determine) that the face data 51 received in step S4 was captured by the monitoring camera 1a installed in the zone A. FIG. In other words, the control unit 21 of the server 2 can identify that the person whose face is in the face data 51 received in step S4 is in zone A.

サーバ2の制御部21は、ステップS5にて、ゾーンを特定すると、登録DBのテーブルTB1を参照して、特定したゾーンに対応する顔データを取得する。そして、サーバ2の制御部21は、テーブルTB2から取得した顔データと、ステップS4にて受信した顔データとを照合する(ステップS6)。 After specifying the zone in step S5, the control unit 21 of the server 2 refers to the table TB1 of the registration DB to acquire face data corresponding to the specified zone. Then, the control unit 21 of the server 2 collates the face data acquired from the table TB2 with the face data received in step S4 (step S6).

図8の例では、サーバ2の制御部21は、ステップS5にて、顔データ51の顔の人は、ゾーンAに居ると特定している。従って、サーバ2の制御部21は、図6に示したテーブルTB1のゾーンAに対応する顔データ41ba,41bbと、ステップS4にて受信した顔データ51とを照合する。顔データ51は、図6に示したテーブルTB1のゾーンAに対応する顔データ41baに一致するので、サーバ2の制御部21は、顔照合が一致したと判定する。すなわち、サーバ2の制御部21は、顔データ51の人は、ゾーンAへの立ち入りが許可された人と判定する。 In the example of FIG. 8, the control unit 21 of the server 2 specifies that the person with the face of the face data 51 is in zone A in step S5. Therefore, the control unit 21 of the server 2 collates the face data 41ba and 41bb corresponding to the zone A of the table TB1 shown in FIG. 6 with the face data 51 received in step S4. Since the face data 51 matches the face data 41ba corresponding to zone A in the table TB1 shown in FIG. That is, the control unit 21 of the server 2 determines that the person in the face data 5 is a person permitted to enter the zone A. FIG.

サーバ2の制御部21は、ステップS6の照合結果(顔照合OK)を端末装置3に送信する(ステップS7)。なお、サーバ2の制御部21は、顔照合OKを判定した場合、照合結果を端末装置3に送信しなくてもよい。言い換えれば、サーバ2の制御部21は、顔照合NGを判定した場合のみ、照合結果を端末装置3に送信してもよい。また、端末装置3の制御部31は、図8のステップS7において、顔照合OKの照合結果を受けると、その旨を表示装置に表示してもよい。 The control unit 21 of the server 2 transmits the matching result (face matching OK) of step S6 to the terminal device 3 (step S7). It should be noted that the control unit 21 of the server 2 does not have to transmit the matching result to the terminal device 3 when determining that face matching is OK. In other words, the control unit 21 of the server 2 may transmit the matching result to the terminal device 3 only when face matching is determined to be NG. Further, when the control unit 31 of the terminal device 3 receives the result of face matching OK in step S7 of FIG. 8, it may display that effect on the display device.

ゾーンAの監視カメラ1aの撮像部11は、人を撮影したとする。監視カメラ1aの制御部12は、撮像部11が撮影した映像の中から人の顔を切り出し、切り出した顔の顔データと、監視カメラ1aのカメラ識別情報とをサーバ2に送信する(ステップS8)。 Assume that the imaging unit 11 of the surveillance camera 1a in zone A has captured a person. The control unit 12 of the monitoring camera 1a cuts out a human face from the video captured by the imaging unit 11, and transmits the face data of the cut out face and the camera identification information of the monitoring camera 1a to the server 2 (step S8). ).

サーバ2の制御部21は、ステップS8にて送信された顔データと、監視カメラ1aのカメラ識別情報とを受信する(ステップS9)。 The control unit 21 of the server 2 receives the face data transmitted in step S8 and the camera identification information of the monitoring camera 1a (step S9).

サーバ2の制御部21は、記憶部23のテーブルTB2を参照し、ステップS9にて受信したカメラ識別情報に対応するゾーン識別情報を取得する(ステップS10)。 The control unit 21 of the server 2 refers to the table TB2 of the storage unit 23 and acquires zone identification information corresponding to the camera identification information received in step S9 (step S10).

図8の例では、サーバ2の制御部21は、ステップS9にて、監視カメラ1aのカメラ識別情報「1a」を受信している。従って、サーバ2の制御部21は、図7のテーブルTB2から、ゾーンAのゾーン識別情報「A」を取得する。これにより、サーバ2の制御部21は、ステップS9にて受信した顔データ52は、ゾーンAに設置された監視カメラ1aにおいて撮影されたものと特定できる。言い換えれば、サーバ2の制御部21は、ステップS9にて受信した顔データ52の顔の人は、ゾーンAに居ると特定できる。 In the example of FIG. 8, the control unit 21 of the server 2 receives the camera identification information "1a" of the monitoring camera 1a in step S9. Therefore, the control unit 21 of the server 2 acquires the zone identification information "A" of the zone A from the table TB2 of FIG. Accordingly, the control unit 21 of the server 2 can identify that the face data 52 received in step S9 was captured by the surveillance camera 1a installed in the zone A. FIG. In other words, the control unit 21 of the server 2 can identify that the person whose face is in the face data 52 received in step S9 is in zone A.

サーバ2の制御部21は、ステップS10にて、ゾーンを特定すると、登録DBのテーブルTB1を参照して、特定したゾーンに対応する顔データを取得する。そして、サーバ2の制御部21は、テーブルTB2から取得した顔データと、ステップS9にて受信した顔データとを照合する(ステップS11)。 After specifying the zone in step S10, the control unit 21 of the server 2 refers to the table TB1 of the registration DB to acquire face data corresponding to the specified zone. Then, the control unit 21 of the server 2 collates the face data acquired from the table TB2 with the face data received in step S9 (step S11).

図8の例では、サーバ2の制御部21は、ステップS10にて、顔データ52の顔の人は、ゾーンAに居ると特定している。従って、サーバ2の制御部21は、図6に示したゾーンAに対応する顔データ41ba,41bbと、ステップS9にて受信した顔データ52とを照合する。顔データ52は、図6に示したゾーンAに対応する顔データ41ba,41bbに一致しないので、サーバ2の制御部21は、顔照合が一致しないと判定する。すなわち、サーバ2の制御部21は、顔データ52の人は、ゾーンAへの立ち入りが許可されていない人と判定する。 In the example of FIG. 8, the control unit 21 of the server 2 specifies that the person with the face of the face data 52 is in zone A in step S10. Therefore, the control unit 21 of the server 2 collates the face data 41ba and 41bb corresponding to the zone A shown in FIG. 6 with the face data 52 received in step S9. Since the face data 52 does not match the face data 41ba and 41bb corresponding to zone A shown in FIG. That is, the control unit 21 of the server 2 determines that the person in the face data 5 is not permitted to enter the zone A.

サーバ2の制御部21は、ステップS11の照合結果(顔照合NG)を端末装置3に送信する(ステップS12)。端末装置3の制御部31は、顔照合NGの照合結果を受けて、例えば、表示装置にアラートを表示する。なお、サーバ2の制御部21は、例えば、ゾーンAに設置されたスピーカ等の音声出力装置に、ステップS11の照合結果を送信してもよい。ゾーンAに設置された音声出力装置は、ステップS11の照合結果を受信すると、警告音等を出力してもよい。 The control unit 21 of the server 2 transmits the matching result (face matching NG) of step S11 to the terminal device 3 (step S12). The control unit 31 of the terminal device 3 receives the matching result of face matching NG, and displays an alert on the display device, for example. Note that the control unit 21 of the server 2 may transmit the verification result of step S11 to an audio output device such as a speaker installed in zone A, for example. The audio output device installed in zone A may output a warning sound or the like upon receiving the collation result of step S11.

以上説明したように、サーバ2の通信部22は、建物A1の複数のゾーンA~Cを撮影する複数のカメラ1a~1dから、顔画像データを受信する。制御部21は、通信部22が受信した顔画像データと、ゾーンへの立ち入りが許可された人物の登録顔画像データとを照合し、顔画像データの人物が撮影されたゾーンにおける、顔画像データの人物の立ち入りの許可および不許可を判定する。これにより、サーバ2は、ゾーンA~Cごとに決められた人以外の人が、ゾーンA~Cに立ち入っていないかを判定できる。 As described above, the communication unit 22 of the server 2 receives face image data from the plurality of cameras 1a to 1d that photograph the plurality of zones A to C of the building A1. The control unit 21 compares the face image data received by the communication unit 22 with the registered face image data of the person who is permitted to enter the zone, and obtains the face image data in the zone where the person of the face image data was photographed. to determine whether or not to allow entry of As a result, the server 2 can determine whether or not a person other than the persons determined for each of the zones A to C has entered the zones A to C.

また、サーバ2は、複数の監視カメラ1a~1dの映像を集積し、建物A1のゾーンごとの立ち入りを判定する。これにより、監視カメラシステムを利用するユーザは、建物A1のゾーンごとにおける人の立ち入りの設定をサーバ2に対して行えばよく、ゾーン設定が容易となる。 In addition, the server 2 accumulates images from a plurality of surveillance cameras 1a to 1d, and judges entry into each zone of the building A1. As a result, the user who uses the surveillance camera system only has to set the entry of people for each zone of the building A1 to the server 2, which facilitates the zone setting.

(変形例)
上記では、監視カメラ1a~1dが人の顔を切り出し、顔データをサーバ2に送信したがこれに限られない。監視カメラ1a~1dは、ゾーンの映像データをサーバ2に送信し、サーバ2が人の顔を検知して、切り出してもよい。この場合、監視カメラ1a~1dからサーバ2に送信される映像データには、顔データが含まれていると捉えてもよい。
(Modification)
In the above description, the monitoring cameras 1a to 1d cut out a person's face and send the face data to the server 2, but the present invention is not limited to this. The monitoring cameras 1a to 1d may transmit video data of the zone to the server 2, and the server 2 may detect and cut out human faces. In this case, the image data transmitted from the monitoring cameras 1a to 1d to the server 2 may be regarded as including face data.

(第2の実施の形態)
第2の実施の形態では、人がゾーンに立ち入ってもよい時間も判定する。以下では、第1の実施の形態と異なる部分について説明する。
(Second embodiment)
The second embodiment also determines when a person may enter the zone. Below, portions different from the first embodiment will be described.

図9は、第2の実施の形態に係るサーバ2の記憶部23に記憶されるテーブルの一例を示した図である。図9に示すテーブルTB11は、例えば、監視カメラ1a~1cが建物A1に設置されるときに、サーバ2の記憶部23に記憶される。テーブルTB11は、端末装置3によって作成され、サーバ2の記憶部23に記憶されてもよい。テーブルTB11の情報は、例えば、端末装置3によって追加、変更、または削除されてもよい。 FIG. 9 is a diagram showing an example of a table stored in the storage unit 23 of the server 2 according to the second embodiment. A table TB11 shown in FIG. 9 is stored in the storage unit 23 of the server 2, for example, when the monitoring cameras 1a to 1c are installed in the building A1. The table TB11 may be created by the terminal device 3 and stored in the storage unit 23 of the server 2 . Information in the table TB11 may be added, changed, or deleted by the terminal device 3, for example.

テーブルTB11は、図6で説明したテーブルTB1と同様に、ゾーン識別情報41aと、顔データ41bと、を有している。テーブルTB11は、ゾーンごとの入室が許可された人を示すとともに、その人のゾーンに滞在してもよい時間を示した情報と言ってもよい。例えば、テーブルTB11に示す時間は、その時間の行の顔データ41bの人が、その時間の列のゾーン識別情報41aが示すゾーンに入室できる時間を示している。 The table TB11 has zone identification information 41a and face data 41b, like the table TB1 described in FIG. It can be said that the table TB11 is information indicating a person who is permitted to enter the room for each zone and also indicates the time during which the person is allowed to stay in the zone. For example, the time shown in the table TB11 indicates the time during which the face data 41b in the row of that time can enter the zone indicated by the zone identification information 41a in the column of that time.

より具体的には、図9の顔データ41baの顔の人は、9:00から19:00の間であれば、ゾーンAに入室できる。図9の顔データ41baの顔の人は、13:00から17:00の間であれば、ゾーンBに入室できる。図9の顔データ41bbの顔の人は、9:00から19:00の間であれば、ゾーンAに入室できる。図9の顔データ41bbの顔の人は、一日中ゾーンBに入室できない。図9の顔データ41bcの顔の人は、一日中ゾーンAに入室できない。図9の顔データ41bcの顔の人は、15:00から17:00の間であれば、ゾーンBに入室できる。 More specifically, the person with the face data 41ba in FIG. 9 can enter zone A between 9:00 and 19:00. The person with the face data 41ba in FIG. 9 can enter zone B between 13:00 and 17:00. A person with the face data 41bb in FIG. 9 can enter zone A between 9:00 and 19:00. The person with face data 41bb in FIG. 9 cannot enter zone B all day long. The person with face data 41bc in FIG. 9 cannot enter zone A all day long. The person with the face data 41bc in FIG. 9 can enter zone B between 15:00 and 17:00.

上記では、テーブルTB11は、サーバ2の記憶部23に記憶されるとしたがこれに限られない。テーブルTB11は、登録DBに記憶されてもよい。 Although the table TB11 is stored in the storage unit 23 of the server 2 in the above description, the present invention is not limited to this. The table TB11 may be stored in the registration DB.

第2の実施の形態のサーバ2の動作は、第1の実施の形態に対し、図8で説明したステップS6の顔照合の処理が異なる。サーバ2の制御部21は、ステップS6の顔照合の処理において、ステップS4にて受信した顔データ51の人の、ゾーンに居てもよい時間を判定する。 The operation of the server 2 according to the second embodiment differs from that according to the first embodiment in the process of face collation in step S6 described with reference to FIG. The control unit 21 of the server 2 determines the time during which the person in the face data 51 received in step S4 can stay in the zone in the face matching process in step S6.

例えば、サーバ2の制御部21は、ステップS5にて、顔データ51の顔の人は、ゾーンAに居ると特定している。従って、サーバ2の制御部21は、図9に示すゾーンAに対応する顔データ41ba,41bbと、ステップS4にて受信した顔データ51とを照合する。顔データ51は、図9に示したゾーンAに対応する顔データ41baに一致するので、サーバ2の制御部21は、顔照合が一致した顔データ41baのゾーンAに居てもよい時間(9:00から19:00)を判定する。サーバ2の制御部21は、現在時刻が9:00から19:00の間であれば、顔照合OKと判定する。一方、サーバ2の制御部21は、現在時刻が9:00から19:00の間でなければ、顔照合NGと判定する。 For example, the control unit 21 of the server 2 specifies that the person with the face of the face data 51 is in zone A in step S5. Therefore, the control unit 21 of the server 2 collates the face data 41ba and 41bb corresponding to the zone A shown in FIG. 9 with the face data 51 received in step S4. Since the face data 51 matches the face data 41ba corresponding to the zone A shown in FIG. :00 to 19:00). The control unit 21 of the server 2 determines that face matching is OK if the current time is between 9:00 and 19:00. On the other hand, if the current time is not between 9:00 and 19:00, the control unit 21 of the server 2 determines that face matching is NG.

以上説明したように、サーバ2の制御部21は、顔画像データの人物が撮影されたゾーンにおいて、顔画像データの人物が立ち入り許可された時間であるか否かを、顔画像データと現在時刻とを用いて判定する。これにより、サーバ2は、ゾーンA~Cごとに決められた人以外の人が、ゾーンA~Cに立ち入っていないかを判定できる。 As described above, the control unit 21 of the server 2 determines whether or not it is time for the person represented by the face image data to enter the zone in which the person represented by the face image data was photographed. and is used for determination. As a result, the server 2 can determine whether or not a person other than the persons determined for each of the zones A to C has entered the zones A to C.

(変形例)
ゾーンに居てもよい人の顔データおよび時間の登録は、端末装置3とは別の装置によって、サーバ2または登録DBに記憶されてもよい。
(Modification)
The facial data and time registrations of people who may be in the zone may be stored in the server 2 or registration DB by a device other than the terminal device 3 .

図10は、顔データおよび時間の登録における監視カメラシステムの動作例を示したシーケンス図である。図10に示す端末装置61は、例えば、映画館、レストラン、マンション、事務所、またはコンサート会場等の、ゾーンが設定された施設を予約する人によって使用される端末である。施設を予約する人が、端末装置61を用いて、顔データおよび施設のゾーンに立ち入る時間を登録する。図10に示す端末装置3は、例えば、映画館、レストラン、マンション、事務所、またはコンサート会場等の施設の管理者によって管理される。 FIG. 10 is a sequence diagram showing an operation example of the monitoring camera system in registration of face data and time. A terminal device 61 shown in FIG. 10 is a terminal used by a person who makes a reservation for a facility with a set zone, such as a movie theater, restaurant, condominium, office, or concert venue. A person who reserves the facility uses the terminal device 61 to register face data and the time to enter the zone of the facility. The terminal device 3 shown in FIG. 10 is managed by an administrator of a facility such as a movie theater, a restaurant, an apartment building, an office, or a concert venue.

端末装置61は、例えば、スマートホン、タブレット端末、またはパーソナルコンピュータ等であってもよい。端末装置61には、顔データおよび時間をサーバ2または登録DBに登録するアプリケーションが搭載されてもよい。アプリケーションは、各施設の管理者によって提供されてもよい。端末装置61は、図5に示したブロック構成と同様のブロック構成を有する。 The terminal device 61 may be, for example, a smart phone, a tablet terminal, or a personal computer. The terminal device 61 may be equipped with an application for registering face data and time in the server 2 or a registration DB. The application may be provided by the administrator of each facility. The terminal device 61 has a block configuration similar to the block configuration shown in FIG.

以下、図10のシーケンスを説明する。図10では、施設に設置された監視カメラ1a~1dの図示を省略している。 The sequence of FIG. 10 will be described below. In FIG. 10, illustration of the monitoring cameras 1a to 1d installed in the facility is omitted.

端末装置3の制御部31は、オペレータの操作に応じて、サーバ2に対し、ゾーンA,Bと、監視カメラ1a~1cとのグルーピング設定を行う(ステップS21)。すなわち、端末装置3の制御部31は、サーバ2に対し、ゾーンA,Bと、監視カメラ1a~1cとの対応付けの設定を行う。これにより、サーバ2の記憶部23には、例えば、図7に示したテーブルTB2が記憶される。 The control unit 31 of the terminal device 3 performs grouping setting of the zones A and B and the monitoring cameras 1a to 1c for the server 2 according to the operator's operation (step S21). That is, the control unit 31 of the terminal device 3 sets the server 2 to associate the zones A and B with the monitoring cameras 1a to 1c. As a result, for example, the table TB2 shown in FIG. 7 is stored in the storage unit 23 of the server 2 .

ゾーンが設置された施設を予約する人(例えば、映画館を予約する人)は、例えば、端末装置61に顔データ、施設を利用する人の名前、利用するゾーンの情報(例えば、映画が上映される部屋の名前等)、およびゾーンに入る時間等の予約情報を入力する。端末装置61は、入力された予約情報をサーバ2に送信する(ステップS22)。 A person who reserves a facility in which zones are installed (for example, a person who reserves a movie theater) receives, for example, face data, the name of a person who uses the facility, and information on the zone to be used (for example, when a movie is shown) in the terminal device 61. Enter reservation information such as the name of the room to be booked, etc.) and time to enter the zone. The terminal device 61 transmits the input reservation information to the server 2 (step S22).

サーバ2の制御部21は、端末装置61から送信された予約情報に基づいて、登録DBに対し、顔登録を行う(ステップS23)。すなわち、サーバ2の制御部21は、登録DBにおいて、図9に示したテーブルTB11を生成する。なお、サーバ2の制御部21は、記憶部23において、テーブルTB11を生成してもよい。 The control unit 21 of the server 2 performs face registration in the registration DB based on the reservation information transmitted from the terminal device 61 (step S23). That is, the control unit 21 of the server 2 generates the table TB11 shown in FIG. 9 in the registration DB. Note that the control unit 21 of the server 2 may generate the table TB11 in the storage unit 23 .

サーバ2の制御部21は、ステップS22にて受信した予約情報を端末装置3に送信する(ステップS24)。端末装置3の管理者は、端末装置3が受信した予約情報によって、施設を利用する人の予約内容を把握できる。 The control unit 21 of the server 2 transmits the reservation information received in step S22 to the terminal device 3 (step S24). The administrator of the terminal device 3 can grasp the reservation details of the person using the facility from the reservation information received by the terminal device 3 .

このように、ゾーンが設定された施設を利用する人が、端末装置61を用いて、顔データおよびゾーンに立ち入る時間をサーバ2または登録DBに設定してもよい。 In this way, a person who uses a facility in which a zone is set may use the terminal device 61 to set the face data and the time to enter the zone in the server 2 or the registration DB.

なお、例えば、レストランを予約する人が、レストランの予約をする際に、端末装置61を用いて、顔データおよび予約時間をサーバ2または登録DBに登録してもよい。ゾーンは、レストランの食事を提供する部屋ごとに設定されてもよい。 Note that, for example, a person who makes a restaurant reservation may use the terminal device 61 to register face data and a reservation time in the server 2 or the registration DB when making the restaurant reservation. A zone may be set for each room serving restaurant meals.

また、例えば、マンションの住人が、端末装置61を用いて、来訪者の顔データおよび来訪時間をサーバ2または登録DBに登録してもよい。ゾーンは、マンションのエントランスごとおよびフロアごとに設定されてもよい。 Further, for example, a resident of the condominium may use the terminal device 61 to register the visitor's face data and visit time in the server 2 or the registration DB. A zone may be set for each entrance and floor of the condominium.

また、例えば、事務所の所員が、端末装置61を用いて、来訪者の顔データおよび来訪時間をサーバ2または登録DBに登録してもよい。ゾーンは、事務所のエントランスごと、フロアごと、または部屋ごとに設定されてもよい。 Further, for example, an office staff member may use the terminal device 61 to register the visitor's face data and visit time in the server 2 or the registration DB. Zones may be established for each office entrance, floor, or room.

また、例えば、コンサートを予約する人が、コンサートのチケットを予約する際に、端末装置61を用いて、顔データおよびコンサートを見る時間等をサーバ2または登録DBに設定してもよい。ゾーンは、コンサート会場の席のクラスごとおよびボックスごとに設定されてもよい。 Also, for example, a person who reserves a concert may use the terminal device 61 to set the facial data, the time to watch the concert, etc. in the server 2 or the registration DB when reserving the concert ticket. Zones may be established for each class and box of seats in the concert venue.

(第3の実施の形態)
会社等では、社員は、所持するカードによって、入室できるゾーンが区別される場合がある。例えば、或る社員は、或る部屋の入口に設けられているカードリーダにカードをかざすと、或る部屋に入室できるが、別の社員は、カードリーダにカードをかざしても、或る部屋に入室できない。第3の実施の形態では、このようなカードのカード情報を用いて、顔データの登録を行う。
(Third Embodiment)
In a company or the like, there are cases in which zones that employees can enter are distinguished according to the cards they possess. For example, a certain employee can enter a certain room by holding his/her card over a card reader provided at the entrance of a certain room, but another employee cannot enter a certain room by holding his or her card over the card reader. cannot enter the room. In the third embodiment, face data is registered using such card information.

図11は、第3の実施の形態に係る監視カメラシステムの一例を示した図である。図11において、図1と同じものには同じ符号が付してある。図11では、建物A1の図示を省略している。 FIG. 11 is a diagram showing an example of a surveillance camera system according to the third embodiment. In FIG. 11, the same reference numerals are given to the same parts as in FIG. In FIG. 11, illustration of the building A1 is omitted.

図11の監視カメラシステムは、図1に示した監視カメラシステムに対し、カードリーダ71a~71cを有している。 The surveillance camera system of FIG. 11 has card readers 71a to 71c in contrast to the surveillance camera system shown in FIG.

カードリーダ71aは、例えば、ゾーンAの入り口扉の横に設置されている。カードリーダ71aには、ゾーンAのゾーン識別情報が紐付けられている。 The card reader 71a is installed next to the entrance door of zone A, for example. The zone identification information of zone A is associated with the card reader 71a.

カードリーダ71bは、例えば、ゾーンBの入り口扉の横に設置されている。カードリーダ71bには、ゾーンBのゾーン識別情報が紐付けられている。 The card reader 71b is installed next to the entrance door of zone B, for example. The card reader 71b is associated with the zone identification information of zone B. FIG.

カードリーダ71cは、例えば、ゾーンCの入り口扉の横に設置されている。カードリーダ71cには、ゾーンCのゾーン識別情報が紐付けられている。 The card reader 71c is installed next to the entrance door of zone C, for example. The zone identification information of zone C is associated with the card reader 71c.

カードリーダ71aは、例えば、社員が所持するカードと近距離無線通信を行う。カードリーダ71aは、カードリーダ71aにかざされたカードから情報を読み取り、カードを所持する者がゾーンAに入室できる社員か否かを判定する。カードリーダ71b,71cもカードリーダ71aと同様に、かざされたカードから情報を読み取り、カードを所持する者がゾーンB,Cに入室できる社員か否かを判定する。 The card reader 71a performs short-range wireless communication with a card possessed by an employee, for example. The card reader 71a reads information from the card held over the card reader 71a and determines whether or not the person holding the card is an employee who can enter the zone A. The card readers 71b and 71c also read information from the held card and determine whether or not the person holding the card is an employee who can enter the zones B and C in the same way as the card reader 71a.

カードリーダ71aは、読み取ったカード情報から、カードを所持する者が、ゾーンAに入室できる者と判定した場合、ゾーンAの入り口扉を解錠する。一方、カードリーダ71aは、読み取ったカード情報から、カードを所持する者が、ゾーンAに入室できない者と判定した場合、ゾーンAの入り口扉を解錠しない。カードリーダ71b,71cもカードリーダ71aと同様に、読み取ったカード情報から、ゾーンB,Cの入り口扉の解錠を制御する。 The card reader 71a unlocks the entrance door of zone A when the card reader 71a determines that the card holder can enter the zone A from the read card information. On the other hand, the card reader 71a does not unlock the entrance door of the zone A when it determines that the card holder cannot enter the zone A from the read card information. The card readers 71b and 71c also control the unlocking of the entrance doors of the zones B and C based on the read card information, like the card reader 71a.

社員が所持するカードには、社員の顔写真が付されている。カードリーダ71aは、カメラを備えている。カードリーダ71aは、ゾーンAの入り口扉を解錠する場合、カメラによって、カードに付されている社員の顔写真を撮影する(顔写真の静止画像を取得する)。そして、カードリーダ71aは、撮影した顔写真の顔データと、ゾーンAのゾーン識別情報とを、サーバ2に送信する。つまり、カードを所持する者が、カードを用いてゾーンAに入室できる場合、カードに付されている顔写真と、ゾーンAのゾーン識別情報とが紐付けられて、サーバ2に送信される。 The employee's photo is attached to the card owned by the employee. The card reader 71a has a camera. When the card reader 71a unlocks the entrance door of zone A, the camera takes a photo of the employee's face attached to the card (obtains a still image of the face photo). Then, the card reader 71a transmits the face data of the captured face photograph and the zone identification information of the zone A to the server 2. FIG. That is, when a card holder is allowed to enter zone A using the card, the face photograph attached to the card and the zone identification information of zone A are linked and transmitted to the server 2.例文帳に追加

カードリーダ71b,71bもカードリーダ71aと同様に、カメラを備えている。カードリーダ71b,71cは、ゾーンB,Cの入り口扉を解錠する場合、カメラによって、カードに付されている社員の顔写真を撮影する。そして、カードリーダ71b,71cは、撮影した顔写真の顔データと、ゾーンB,Cのゾーン識別情報とを、サーバ2に送信する。 The card readers 71b, 71b also have cameras, like the card reader 71a. When the card readers 71b and 71c unlock the entrance doors of zones B and C, the cameras take photographs of the faces of the employees attached to the cards. Then, the card readers 71b and 71c transmit the face data of the photographed face and the zone identification information of the zones B and C to the server 2. FIG.

図12は、カードリーダ71aのブロック構成例を示した図である。図12に示すように、カードリーダ71aは、撮像部81と、制御部82と、カード通信部83と、通信部84と、記憶部85と、を有している。 FIG. 12 is a diagram showing a block configuration example of the card reader 71a. As shown in FIG. 12 , the card reader 71 a has an imaging section 81 , a control section 82 , a card communication section 83 , a communication section 84 and a storage section 85 .

撮像部81は、例えば、レンズおよび撮像素子(図示せず)を有している。撮像部81のレンズは、撮像素子の受光面に被写体の像を結像する。レンズには、カードリーダ71aの設置場所または撮影用途等に応じて、様々な焦点距離または撮影範囲のレンズを用いることができる。 The imaging unit 81 has, for example, a lens and an imaging device (not shown). The lens of the imaging unit 81 forms an image of the subject on the light receiving surface of the imaging device. Lenses with various focal lengths or shooting ranges can be used depending on the installation location of the card reader 71a, the shooting application, or the like.

撮像部81の撮像素子は、受光面に受けた光を電気信号に変換する。撮像素子は、例えば、CCDまたはCMOS等のイメージセンサである。撮像部81は、撮像素子の受光面において受けた光に応じた電気信号(アナログ信号)をデジタル信号に変換して、制御部82に出力する。 The imaging element of the imaging unit 81 converts the light received on the light receiving surface into an electrical signal. The imaging device is, for example, an image sensor such as CCD or CMOS. The imaging unit 81 converts an electric signal (analog signal) corresponding to the light received by the light receiving surface of the imaging device into a digital signal and outputs the digital signal to the control unit 82 .

制御部82は、カードリーダ71a全体を制御する。制御部82は、例えば、CPUまたはDSPによって構成されてもよい。制御部82は、撮像部81から出力される映像から、人の顔を判別する。制御部82は、判別した人の顔を切り出し、切り出した顔の顔データ(静止画像)を、通信部84を介してサーバ2に送信する。 The control unit 82 controls the entire card reader 71a. The control unit 82 may be configured by, for example, a CPU or a DSP. The control unit 82 determines a person's face from the image output from the imaging unit 81 . The control unit 82 cuts out the face of the identified person, and transmits face data (still image) of the cut out face to the server 2 via the communication unit 84 .

カード通信部83は、カードリーダ71aにかざされたカードと近距離無線通信を行う。 The card communication unit 83 performs short-range wireless communication with the card held over the card reader 71a.

通信部84は、サーバ2と通信する。通信部84は、例えば、イーサネットケーブル等のネットワークケーブルを介して、サーバ2と通信してもよい。また、通信部84は、例えば、Wi-Fi(登録商標)またはブルートゥース(登録商標)等の近距離無線通信を介して、サーバ2と通信してもよい。 A communication unit 84 communicates with the server 2 . The communication unit 84 may communicate with the server 2 via a network cable such as an Ethernet cable, for example. Also, the communication unit 84 may communicate with the server 2 via short-range wireless communication such as Wi-Fi (registered trademark) or Bluetooth (registered trademark).

記憶部85は、制御部82が動作するためのプログラムが記憶される。また、記憶部85には、制御部82が計算処理を行うためのデータ、または、制御部82が各部を制御するためのデータ等が記憶される。記憶部85は、RAM、ROM、フラッシュメモリ、およびHDDなどの記憶装置によって構成されてもよい。 The storage unit 85 stores a program for operating the control unit 82 . The storage unit 85 also stores data for the control unit 82 to perform calculation processing, data for the control unit 82 to control each unit, and the like. The storage unit 85 may be configured by storage devices such as RAM, ROM, flash memory, and HDD.

以下では、説明を簡単にするため、ゾーンAとゾーンBとにおける入室者の検知について説明する。 In order to simplify the explanation, detection of persons entering the room in zone A and zone B will be explained below.

図13は、サーバ2の記憶部23に記憶されるテーブルの一例を示した図である。テーブルTB21は、図6で説明したテーブルTB1と同様に、ゾーン識別情報41aと、顔データ41bと、を有している。 FIG. 13 is a diagram showing an example of a table stored in the storage unit 23 of the server 2. As shown in FIG. The table TB21 has zone identification information 41a and face data 41b, like the table TB1 described with reference to FIG.

図13に示すテーブルTB21は、カードリーダ71a~71cから送信される顔データと、ゾーン識別情報とに基づいて生成される。顔データとゾーン識別情報は、上記したように、人がゾーンA,Bに入室できた場合に、カードリーダ71a~71cから送信される。従って、テーブルTB21は、ゾーンA,Bに入室できた人を示した情報と言ってもよい。 The table TB21 shown in FIG. 13 is generated based on the face data transmitted from the card readers 71a to 71c and the zone identification information. The face data and zone identification information are transmitted from the card readers 71a to 71c when the person can enter the zones A and B as described above. Therefore, the table TB21 can be said to be information indicating persons who have been able to enter the zones A and B. FIG.

例えば、顔データ41baの顔写真が付されたカードによって、人がゾーンAに入室したとする。この場合、サーバ2は、ゾーンAの入り口に設けられたカードリーダ71aから、顔データ41baと、ゾーン識別情報Aとを受信する。これにより、図13のテーブルTB21には、点線枠A11に示す情報が登録される。 For example, assume that a person enters zone A using a card with a photograph of face data 41ba. In this case, the server 2 receives the face data 41ba and the zone identification information A from the card reader 71a provided at the entrance of the zone A. FIG. As a result, the information indicated by the dotted line frame A11 is registered in the table TB21 in FIG.

また、顔データ41bbの顔写真が付されたカードによって、人がゾーンAに入室したとする。この場合、サーバ2は、ゾーンAの入り口に設けられたカードリーダ71aから、顔データ41bbと、ゾーン識別情報Aとを受信する。これにより、図13のテーブルTB21には、点線枠A12に示す情報が登録される。 It is also assumed that a person enters zone A using a card with a photograph of face data 41bb. In this case, the server 2 receives the face data 41bb and the zone identification information A from the card reader 71a provided at the entrance of the zone A. FIG. As a result, the information indicated by the dotted line frame A12 is registered in the table TB21 of FIG.

また、顔データ41bcの顔写真が付されたカードによって、人がゾーンBに入室したとする。この場合、サーバ2は、ゾーンBの入り口に設けられたカードリーダ71bから、顔データ41bcと、ゾーン識別情報Bとを受信する。これにより、図13のテーブルTB21には、点線枠A13に示す情報が登録される。 It is also assumed that a person enters zone B using a card with a photograph of face data 41bc. In this case, the server 2 receives the face data 41bc and the zone identification information B from the card reader 71b provided at the entrance of the zone B. FIG. As a result, the information indicated by the dotted line frame A13 is registered in the table TB21 of FIG.

図13では、テーブルTB21は、サーバ2の記憶部23に記憶されるとしたが、これに限られない。テーブルTB21は、登録DBに記憶されてもよい。以下では、テーブルTB21は、登録DBに記憶されるとする。 Although the table TB21 is stored in the storage unit 23 of the server 2 in FIG. 13, the present invention is not limited to this. The table TB21 may be stored in the registration DB. It is assumed below that the table TB21 is stored in the registration DB.

図14は、監視カメラシステムの動作例を示したシーケンス図である。図14では、ゾーンA,Bと、カメラ1a~1cとのグルーピング設定(例えば、図8のステップS1の処理)は、完了しているとする。すなわち、サーバ2の記憶部23には、図7に示したテーブルTB2が記憶されているとする。図14では、ゾーンBに設置された監視カメラ1b,1cおよびカードリーダ71bの処理の説明を省略する。 FIG. 14 is a sequence diagram showing an operation example of the surveillance camera system. In FIG. 14, it is assumed that the grouping setting of the zones A and B and the cameras 1a to 1c (for example, the process of step S1 in FIG. 8) has been completed. That is, it is assumed that the storage unit 23 of the server 2 stores the table TB2 shown in FIG. In FIG. 14, description of the processing of the monitoring cameras 1b and 1c and the card reader 71b installed in zone B is omitted.

カードリーダ71aは、かざされたカードのカード情報を取得する。カードリーダ71aは、取得したカード情報に基づいて、ゾーンAの入り口扉を解錠し、かざされたカードを撮影する。カードリーダ71aの制御部82は、撮影されたカードから、カードに付されている顔写真を切り出し、切り出した顔写真の顔データと、ゾーンAのゾーン識別情報とをサーバ2に送信する(ステップS31)。 The card reader 71a acquires the card information of the held card. The card reader 71a unlocks the entrance door of zone A based on the acquired card information, and photographs the card held up. The control unit 82 of the card reader 71a cuts out the face picture attached to the card from the photographed card, and transmits the face data of the cut out face picture and the zone identification information of zone A to the server 2 (step S31).

サーバ2の制御部21は、ステップS31にて送信された情報に基づいて、登録DBに対し、顔登録を行う(ステップS32)。例えば、サーバ2の制御部21は、登録DBのテーブルTB21に対し、図13に示した点線枠A11の情報を登録する。 The control unit 21 of the server 2 performs face registration in the registration DB based on the information transmitted in step S31 (step S32). For example, the control unit 21 of the server 2 registers the information of the dotted line frame A11 shown in FIG. 13 in the table TB21 of the registration DB.

ここで、ステップS31において、カードリーダ71aにかざされたカードは、盗難カードであったとする。例えば、図14に示す顔データ91の顔の人が、図14に示す顔データ92の顔の人になりすまし、盗難カードを用いて、ゾーンAに入室しているとする。 Here, it is assumed that the card held over the card reader 71a in step S31 is a stolen card. For example, it is assumed that the person whose face data 91 shown in FIG. 14 impersonates the person whose face data 92 shown in FIG. 14 has entered Zone A using a stolen card.

ゾーンAの監視カメラ1aの撮像部11は、人(顔データ91の顔の人)を撮影したとする。監視カメラ1aの制御部12は、撮像部11が撮影した映像の中から人の顔を切り出し、切り出した顔の顔データと、監視カメラ1aのカメラ識別情報とをサーバ2に送信する(ステップS33)。 Assume that the imaging unit 11 of the monitoring camera 1a in zone A has captured a person (the person whose face is in the face data 91). The control unit 12 of the monitoring camera 1a cuts out a human face from the video captured by the imaging unit 11, and transmits the face data of the cut out face and the camera identification information of the monitoring camera 1a to the server 2 (step S33). ).

サーバ2の制御部21は、ステップS33にて送信された顔データと、監視カメラ1aのカメラ識別情報とを受信する(ステップS34)。 The control unit 21 of the server 2 receives the face data transmitted in step S33 and the camera identification information of the monitoring camera 1a (step S34).

サーバ2の制御部21は、記憶部23のテーブルTB2を参照し、ステップS34にて受信したカメラ識別情報に対応するゾーン識別情報を取得する(ステップS35)。 The control unit 21 of the server 2 refers to the table TB2 of the storage unit 23 and acquires the zone identification information corresponding to the camera identification information received in step S34 (step S35).

図14の例では、サーバ2の制御部21は、ステップS33にて、監視カメラ1aのカメラ識別情報「1a」を受信している。従って、サーバ2の制御部21は、図7のテーブルTB2から、ゾーンAのゾーン識別情報「A」を取得する。これにより、サーバ2の制御部21は、ステップS34にて受信した顔データ91は、ゾーンAに設置された監視カメラ1aにおいて撮影されたものと特定できる。言い換えれば、サーバ2の制御部21は、ステップS34にて受信した顔データ91の顔の人は、ゾーンAに居ると特定できる。 In the example of FIG. 14, the control unit 21 of the server 2 receives the camera identification information "1a" of the surveillance camera 1a in step S33. Therefore, the control unit 21 of the server 2 acquires the zone identification information "A" of the zone A from the table TB2 of FIG. Accordingly, the control unit 21 of the server 2 can identify that the face data 91 received in step S34 was captured by the surveillance camera 1a installed in the zone A. FIG. In other words, the control unit 21 of the server 2 can identify that the person whose face is in the face data 91 received in step S34 is in zone A.

サーバ2の制御部21は、ステップS35にて、ゾーンを特定すると、登録DBのテーブルTB21を参照して、特定したゾーンに対応する顔データを取得する。そして、サーバ2の制御部21は、テーブルTB21から取得した顔データと、ステップS34にて受信した顔データとを照合する(ステップS36)。 After specifying the zone in step S35, the control unit 21 of the server 2 refers to the table TB21 of the registration DB to acquire face data corresponding to the specified zone. Then, the control unit 21 of the server 2 collates the face data acquired from the table TB21 with the face data received in step S34 (step S36).

図14の例では、サーバ2の制御部21は、ステップS35にて、顔データ91の顔の人は、ゾーンAに居ると特定している。従って、サーバ2の制御部21は、図13に示したテーブルTB21のゾーンAに対応する顔データ41ba,41bbと、ステップS34にて受信した顔データ91とを照合する。顔データ91は、図13に示したゾーンAに対応する顔データ41ba,41bbに一致しないので、サーバ2の制御部21は、顔照合が一致しないと判定する。すなわち、サーバ2の制御部21は、顔データ91の人は、ゾーンAへの立ち入りが許可されていない人と判定する。 In the example of FIG. 14, the control unit 21 of the server 2 specifies that the person with the face of the face data 91 is in zone A in step S35. Therefore, the control unit 21 of the server 2 collates the face data 41ba and 41bb corresponding to the zone A of the table TB21 shown in FIG. 13 with the face data 91 received in step S34. Since the face data 91 does not match the face data 41ba and 41bb corresponding to zone A shown in FIG. That is, the control unit 21 of the server 2 determines that the person in the face data 9 is not permitted to enter the zone A. FIG.

サーバ2の制御部21は、ステップS36の照合結果を端末装置3に送信する(ステップS37)。端末装置3の制御部31は、顔照合NGの照合結果を受けて、例えば、表示装置にアラートを表示する。 The control unit 21 of the server 2 transmits the matching result of step S36 to the terminal device 3 (step S37). The control unit 31 of the terminal device 3 receives the matching result of face matching NG, and displays an alert on the display device, for example.

以上説明したように、サーバ2の通信部22は、複数のゾーンA~Cの各々に対応して設けられたカードリーダ71a~71cから、カードに付された顔写真の顔画像データを受信する。サーバ2の制御部21は、受信された顔画像データを、テーブルTB21の顔データとして記憶する。これにより、サーバ2は、ゾーンA~Cごとに決められた人以外の人が、ゾーンA~Cに立ち入っていないかを判定できる。 As described above, the communication unit 22 of the server 2 receives face image data of face photographs attached to cards from the card readers 71a to 71c provided corresponding to each of the plurality of zones A to C. . The control unit 21 of the server 2 stores the received face image data as face data in the table TB21. As a result, the server 2 can determine whether or not a person other than the persons determined for each of the zones A to C has entered the zones A to C.

(変形例1)
カードリーダ71a~71cは、カードに付されている顔写真を撮影し、顔写真の顔データをサーバ2に送信するとしたがこれに限られない。例えば、カードは、IC(Integrated Circuit)を搭載していてもよい。ICには、カードを所持する社員の顔データが記憶されていてもよい。カードリーダ71a~71cは、カードに搭載されているICから顔データを取得し、サーバ2に送信してもよい。
(Modification 1)
Although the card readers 71a to 71c take a photograph of the face attached to the card and transmit the face data of the photograph of the face to the server 2, the present invention is not limited to this. For example, the card may include an IC (Integrated Circuit). The IC may store face data of the employee who has the card. The card readers 71a to 71c may acquire face data from the IC mounted on the card and transmit it to the server 2. FIG.

(変形例2)
カードリーダ71a~71cは、カードから読み取った名前またはカードのカード識別情報をサーバ2に送信してもよい。サーバ2の制御部21は、カードリーダ71a~71cから送信された名前またはカード識別情報を受信すると、カード情報を管理するサーバから、名前またはカード識別情報に対応する顔データを受信してもよい。そして、サーバ2の制御部21は、受信した顔データと、カードリーダ71a~71cから受信したゾーン識別情報とに基づいて、図13に示したテーブルTB21を生成してもよい。なお、カード情報を管理するサーバには、カードを所持する人の顔データと、名前またはカード識別情報とが対応付けられて記憶されている。
(Modification 2)
The card readers 71a to 71c may transmit to the server 2 the name read from the card or the card identification information of the card. Upon receiving the name or card identification information transmitted from the card readers 71a to 71c, the control unit 21 of the server 2 may receive face data corresponding to the name or card identification information from the server that manages the card information. . Then, the control unit 21 of the server 2 may generate the table TB21 shown in FIG. 13 based on the received face data and the zone identification information received from the card readers 71a to 71c. The server that manages the card information stores the face data of the card holder and the name or card identification information in association with each other.

(変形例3)
カードリーダ71a~71cを含む監視カメラシステムは、会社に設置される例について説明したがこれに限られない。カードリーダ71a~71cを含む監視カメラシステムは、マンションまたは商業施設等に設置されてもよい。
(Modification 3)
Although the surveillance camera system including the card readers 71a to 71c has been described as being installed in a company, it is not limited to this. A surveillance camera system including card readers 71a to 71c may be installed in an apartment building, a commercial facility, or the like.

(第4の実施の形態)
第4の実施の形態では、ゾーンごとにおいて、人の立ち入り監視の条件が異なる場合について説明する。例えば、監視カメラシステムは、或るゾーンでは、ブラックリスト方式で人の立ち入りを判定し、別のゾーンでは、ホワイトリスト方式で人の立ち入りを判定する。
(Fourth embodiment)
In the fourth embodiment, a case will be described in which conditions for monitoring the entry of people are different for each zone. For example, the surveillance camera system uses a blacklist method to determine human entry in one zone, and a whitelist method to determine human entry in another zone.

図15は、第4の実施の形態に係る監視カメラシステムの一例を示した図である。図15に示すように、監視カメラシステムは、監視カメラ101a,101bと、サーバ102と、端末装置103と、警報装置104a,104b,105a,105bと、を有している。図15には、監視カメラシステムの他に、建物A101の内部の平面図が示してある。 FIG. 15 is a diagram showing an example of a monitoring camera system according to the fourth embodiment. As shown in FIG. 15, the surveillance camera system has surveillance cameras 101a and 101b, a server 102, a terminal device 103, and alarm devices 104a, 104b, 105a and 105b. FIG. 15 shows a plan view of the interior of the building A101 in addition to the monitoring camera system.

建物A101は、ゾーンA,Bを有している。ゾーンA,Bは、隣接している。建物A101は、例えば、建物A101の外からゾーンAに入るための入り口A102aと、ゾーンAを経由してゾーンBに入るための入り口A102bとを有している。ゾーンBには、ゾーンAを通過すると立ち入ることができる。 The building A101 has zones A and B. Zones A and B are adjacent. The building A101 has, for example, an entrance A102a for entering zone A from outside the building A101 and an entrance A102b for entering zone B via zone A. Zone B can be accessed by passing through Zone A.

建物A101は、例えば、スーパまたはコンビニエンスストア等の店舗である。建物A101のゾーンAは、例えば、商品の売り場である。ゾーンBは、例えば、在庫を保管し、または、商品を加工するバックヤードである。 Building A101 is, for example, a store such as a supermarket or a convenience store. Zone A of building A101 is, for example, a sales floor for merchandise. Zone B is, for example, a backyard for storing inventory or processing merchandise.

監視カメラ101aは、建物A101のゾーンAに設置される。監視カメラ101bは、建物A101のゾーンBに設置される。 A surveillance camera 101a is installed in zone A of building A101. A surveillance camera 101b is installed in zone B of building A101.

監視カメラ101a,101bは、ゾーンA,B内に居る人を撮影するよう建物A101に設置される。例えば、監視カメラ101aは、ゾーンA内の全体を撮影するように、ゾーンAの天井または壁等に設置される。監視カメラ101bは、ゾーンB内の全体を撮影するように、ゾーンBの天井または壁等に設置される。 Surveillance cameras 101a and 101b are installed in building A101 so as to photograph people in zones A and B, respectively. For example, the monitoring camera 101a is installed on the ceiling, wall, or the like of Zone A so as to photograph the entirety of Zone A. The monitoring camera 101b is installed on the ceiling, wall, or the like of Zone B so as to photograph the entire Zone B. FIG.

サーバ102は、例えば、LANまたはインターネット等のネットワークによって、監視カメラ101a,101bと接続されている。サーバ102は、建物A101内に設置されてもよいし、建物A101とは別の場所に設置されてもよい。 The server 102 is connected to the surveillance cameras 101a and 101b via a network such as LAN or the Internet. The server 102 may be installed inside the building A101, or may be installed at a location separate from the building A101.

サーバ102は、ゾーンAに立ち入ることができない人の顔データと、ゾーンBに立ち入ることができる人の顔データとを記憶(登録)している。言い換えれば、サーバ102は、ゾーンAに立ち入ることができない人のブラックリストと、ゾーンBに立ち入ることができる人のホワイトリストとを有している。サーバ102は、監視カメラ101a,101bが撮影した人の顔データと、登録されている顔データとの照合を行う。サーバ102は、照合結果を、端末装置103および警報装置104a,104b,105a,105bに送信する。 The server 102 stores (registers) face data of persons who cannot enter zone A and face data of persons who can enter zone B. FIG. In other words, the server 102 has a blacklist of people who cannot enter zone A and a whitelist of people who can enter zone B. The server 102 collates face data of persons photographed by the monitoring cameras 101a and 101b with registered face data. The server 102 transmits the matching result to the terminal device 103 and the alarm devices 104a, 104b, 105a and 105b.

端末装置103は、LANまたはインターネット等のネットワークによって、サーバ102と接続されている。端末装置103は、建物A101内に設置されてもよいし、建物A101とは別の場所に設置されてもよい。端末装置103は、例えば、パーソナルコンピュータ、スマートホン、またはタブレット端末等であってもよい。 The terminal device 103 is connected to the server 102 via a network such as LAN or the Internet. The terminal device 103 may be installed inside the building A101, or may be installed at a location separate from the building A101. The terminal device 103 may be, for example, a personal computer, a smart phone, a tablet terminal, or the like.

警報装置104a,104bは、サーバ102から出力されるアラーム信号を受信する。警報装置104a,104bは、例えば、警報ランプである。警報装置104a,104bは、アラーム信号を受信すると発光する。警報装置104aは、ゾーンAに設置され、警報装置104bは、ゾーンBに設置される。 Alarm devices 104 a and 104 b receive alarm signals output from server 102 . The alarm devices 104a and 104b are, for example, alarm lamps. The alarm devices 104a and 104b emit light upon receiving an alarm signal. Alarm device 104a is installed in zone A and alarm device 104b is installed in zone B. FIG.

警報装置105a,105bは、サーバ102から出力されるアラーム信号を、無線通信によって受信する。警報装置105a,105bは、例えば、建物A101のスタッフが所持する携帯型の警報装置である。警報装置105a,105bは、アラーム信号を受信すると振動する。また、警報装置105a,105bは、アラーム信号を受信すると発光または音を出力してもよい。図15では、警報装置105aは、ゾーンAに位置し、警報装置105bは、ゾーンBに位置しているが、これに限られない。警報装置105a,105bの位置は、警報装置105a,105bを所持するスタッフの移動に応じて変わる。 The alarm devices 105a and 105b receive alarm signals output from the server 102 by wireless communication. The alarm devices 105a and 105b are, for example, portable alarm devices possessed by the staff of the building A101. The alarm devices 105a, 105b vibrate upon receiving an alarm signal. Also, the alarm devices 105a and 105b may output light or sound upon receiving an alarm signal. In FIG. 15, the alarm device 105a is located in zone A and the alarm device 105b is located in zone B, but the present invention is not limited to this. The positions of the alarm devices 105a and 105b change according to the movement of the staff carrying the alarm devices 105a and 105b.

なお、監視カメラ101a,101bは、ゾーンA,Bに入室する人を撮影するように設置されてもよい。例えば、監視カメラ101aは、ゾーンAの入り口A102a付近を撮影するように設置されてもよい。監視カメラ101bは、ゾーンBの入り口A102b付近を撮影するように設置されてもよい。 Note that the monitoring cameras 101a and 101b may be installed so as to photograph people entering the zones A and B. FIG. For example, the surveillance camera 101a may be installed so as to photograph the vicinity of the entrance A102a of the zone A. The surveillance camera 101b may be installed so as to photograph the vicinity of the entrance A102b of the zone B.

また、ゾーンA,Bの各々には、複数の監視カメラが設置されてもよい。ゾーンA,Bの各々は、複数の監視カメラによって、ゾーンA,B内にいる人を撮影するように設置されてもよい。 Also, in each of zones A and B, a plurality of surveillance cameras may be installed. Each of Zones A and B may be installed with a plurality of surveillance cameras to photograph persons within Zones A and B.

また、監視カメラ101a,101bには、ゾーンA,Bに既に設置されている監視カメラが用いられてもよい。例えば、監視カメラ101a,101bには、ゾーンA,Bの映像を録画する録画システムの一部として、既にゾーンA,Bに設置されている監視カメラを用いてもよい。この場合、監視カメラ101a,101bの出力を、録画システムとサーバ102とに分岐させてもよい。 Monitoring cameras already installed in the zones A and B may be used as the monitoring cameras 101a and 101b. For example, the monitoring cameras 101a and 101b that are already installed in the zones A and B as part of the recording system that records the videos of the zones A and B may be used. In this case, the outputs of the monitoring cameras 101a and 101b may be branched to the recording system and the server 102. FIG.

また、ゾーンの数は、2つに限られない。ゾーンは、3以上であってもよい。3以上のゾーン各々に設置される監視カメラは、サーバ102に接続される。サーバ102は、3以上のゾーン各々において、ブラックリストおよびホワイトリストのいずれか一方を用いて、ゾーンへの人の立ち入りを判定する。 Also, the number of zones is not limited to two. There may be three or more zones. Surveillance cameras installed in each of the three or more zones are connected to server 102 . The server 102 uses either a blacklist or a whitelist in each of the three or more zones to determine human access to the zone.

また、監視カメラシステムは、監視カメラ101a,101bが撮影した映像データを録画するレコーダを備えてもよい。監視カメラシステムは、監視カメラ101a,101bが撮影した映像データをリアルタイムで表示するモニタリング装置を備えてもよい。モニタリング装置は、例えば、パーソナルコンピュータ、スマートホン、またはタブレット端末等であってもよい。 The monitoring camera system may also include a recorder for recording video data captured by the monitoring cameras 101a and 101b. The monitoring camera system may include a monitoring device that displays video data captured by the monitoring cameras 101a and 101b in real time. The monitoring device may be, for example, a personal computer, a smart phone, a tablet terminal, or the like.

また、監視カメラ101a,101bは、図3で説明した監視カメラ1aと同様の構成を有し、その説明を省略する。サーバ102は、図4で説明したサーバ2と同様の構成を有し、その説明を省略する。端末装置103は、図5で説明した端末装置3と同様の構成を有し、その説明を省略する。 Also, the monitoring cameras 101a and 101b have the same configuration as the monitoring camera 1a described in FIG. 3, and the description thereof will be omitted. The server 102 has the same configuration as the server 2 described in FIG. 4, and its description is omitted. The terminal device 103 has the same configuration as the terminal device 3 described in FIG. 5, and the description thereof is omitted.

以下では、建物A101を店舗として説明する。 Below, building A101 is explained as a store.

図16は、監視カメラシステムの概略動作を説明する図である。図16において、図15と同じものには同じ符号が付してある。図16には、人の顔データ111~113が示してある。 FIG. 16 is a diagram for explaining the schematic operation of the surveillance camera system. In FIG. 16, the same reference numerals are given to the same parts as in FIG. FIG. 16 shows human face data 111-113.

顔データ111は、例えば、以前に万引きをした疑いのある人物または万引きを行った人物等の注意人物の顔データである。注意人物は、商品売り場であるゾーンAに立ち入ると、端末装置103および警報装置104a,104b,105a,105bに報知(アラーム信号が出力)される。これにより、例えば、店舗の従業員は、注意人物が商品売り場であるゾーンAに出現したことを認識でき、注意人物を監視できる。なお、注意人物は、バックヤードであるゾーンBに立ち入っても、端末装置103および警報装置104a,104b,105a,105bに報知される。 The face data 111 is, for example, face data of a cautionary person such as a person suspected of having shoplifted in the past or a person who has shoplifted. When the caution person enters zone A, which is a product counter, the terminal device 103 and alarm devices 104a, 104b, 105a, and 105b are notified (an alarm signal is output). As a result, for example, an employee of the store can recognize that the person to be warned has appeared in zone A, which is the merchandise counter, and can monitor the person to be warned. It should be noted that even if the caution person enters the zone B which is the backyard, the terminal device 103 and the warning devices 104a, 104b, 105a, 105b are notified.

顔データ112は、店舗と取引する業者の顔データである。業者は、商品売り場であるゾーンAに立ち入っても端末装置103および警報装置104a,104b,105a,105bに報知されないが、バックヤードのゾーンBに立ち入ると、端末装置103および警報装置104a,104b,105a,105bに報知される。これにより、例えば、店舗の従業員は、業者がバックヤードであるゾーンBに出現したことを認識でき、業者に対し、ゾーンBは関係者以外立ち入り禁止であることを伝えることができる。 The face data 112 is face data of a trader who deals with the store. When a trader enters Zone A, which is a product sales floor, the terminal device 103 and alarm devices 104a, 104b, 105a, and 105b are not notified. 105a and 105b. As a result, for example, an employee of the store can recognize that the trader has appeared in zone B, which is the backyard, and inform the trader that zone B is off-limits to unauthorized persons.

顔データ113は、店舗の従業員である。従業員は、商品売り場であるゾーンAおよびバックヤードであるゾーンBに立ち入っても、端末装置103および警報装置104a,104b,105a,105bに報知されない。すなわち、従業員は、ゾーンAおよびゾーンBを自由に行き来できる。 The face data 113 are employees of the store. Even if the employee enters Zone A, which is the product counter, and Zone B, which is the backyard, the terminal device 103 and the alarm devices 104a, 104b, 105a, 105b are not notified. That is, employees can move freely between Zone A and Zone B.

サーバ102は、売り場であるゾーンAにおいては、ブラックリストを用いて、特定人物のゾーンAへの立ち入りを判定する。 The server 102 uses a blacklist in Zone A, which is a sales floor, to determine whether a specific person enters Zone A.

例えば、注意人物の顔データ111は、ブラックリストに登録される。従って、ブラックリストに登録された注意人物が、監視カメラ101aによって撮影された場合、監視カメラ101aによって撮影された注意人物の顔データと、ブラックリストに登録されている顔データ111とが一致し、サーバ102は、アラーム信号を端末装置103および警報装置104a,104b,105a,105bに出力する。 For example, the face data 111 of the caution person is registered in the blacklist. Therefore, when a person to be cautioned registered in the blacklist is photographed by the surveillance camera 101a, the face data of the person to be cautioned photographed by the surveillance camera 101a matches the face data 111 registered in the blacklist. The server 102 outputs alarm signals to the terminal device 103 and alarm devices 104a, 104b, 105a and 105b.

サーバ102は、バックヤードであるゾーンBにおいては、ホワイトリストを用いて、特定人物のゾーンBへの立ち入りを判定する。 In the backyard zone B, the server 102 determines whether or not a specific person enters the zone B using the whitelist.

例えば、従業員の顔データ113は、ホワイトリストに登録される。従って、ホワイトリストに登録されていない、従業員以外の人物が、監視カメラ101bによって撮影された場合、監視カメラ101bによって撮影された人物の顔データと、ホワイトリストに登録されている従業員の顔データ113とが一致しないため、サーバ102は、アラーム信号を端末装置103および警報装置104a,104b,105a,105bに出力する。 For example, employee face data 113 is whitelisted. Therefore, when a person other than an employee who is not registered in the whitelist is photographed by the surveillance camera 101b, the face data of the person photographed by the surveillance camera 101b and the face of the employee registered in the whitelist are combined. Since it does not match the data 113, the server 102 outputs an alarm signal to the terminal device 103 and alarm devices 104a, 104b, 105a, 105b.

すなわち、サーバ102は、ブラックリストに登録された人物がゾーンAに出現した場合、アラーム信号を端末装置103および警報装置104a,104b,105a,105bに出力する。また、サーバ102は、ホワイトリストに登録されていない人物がゾーンBに出現した場合、アラーム信号を端末装置103および警報装置104a,104b,105a,105bに出力する。 That is, when a person registered in the blacklist appears in zone A, server 102 outputs an alarm signal to terminal device 103 and alarm devices 104a, 104b, 105a, and 105b. Also, when a person not registered in the whitelist appears in zone B, server 102 outputs an alarm signal to terminal device 103 and alarm devices 104a, 104b, 105a, and 105b.

図17は、サーバ102の記憶部に記憶されるテーブルの一例を示した図である。図17に示すテーブルTB101は、例えば、監視カメラ101a,101bが建物A101に設置されるときに、サーバ102の記憶部に記憶される。テーブルTB101は、端末装置103によって作成され、サーバ102の記憶部に記憶されてもよい。また、テーブルTB101の情報は、例えば、端末装置103によって追加、変更、または削除されてもよい。 FIG. 17 is a diagram showing an example of a table stored in the storage unit of server 102. As shown in FIG. A table TB101 shown in FIG. 17 is stored in the storage unit of the server 102, for example, when the surveillance cameras 101a and 101b are installed in the building A101. The table TB101 may be created by the terminal device 103 and stored in the storage unit of the server 102 . Information in the table TB101 may be added, changed, or deleted by the terminal device 103, for example.

テーブルTB101は、ゾーン識別情報121aと、カメラ識別情報121bと、を有している。ゾーン識別情報121aは、ゾーンA,Bを識別する識別情報である。例えば、ゾーン識別情報121aの「A」は、ゾーンAの識別情報を示す。ゾーン識別情報121aの「B」は、ゾーンBの識別情報を示す。 The table TB101 has zone identification information 121a and camera identification information 121b. The zone identification information 121a is identification information for identifying zones A and B. FIG. For example, "A" in the zone identification information 121a indicates zone A identification information. "B" in the zone identification information 121a indicates zone B identification information.

カメラ識別情報121bは、監視カメラ101a,101bを識別する識別情報である。例えば、カメラ識別情報121bの「101a」は、監視カメラ101aの識別情報を示す。カメラ識別情報121bの「101b」は、監視カメラ101bの識別情報を示す。 The camera identification information 121b is identification information for identifying the monitoring cameras 101a and 101b. For example, "101a" in the camera identification information 121b indicates the identification information of the surveillance camera 101a. "101b" of the camera identification information 121b indicates the identification information of the monitoring camera 101b.

テーブルTB101は、監視カメラ101a,101bのゾーンにおける設置場所を示した情報と捉えてもよい。例えば、図17に示すカメラ識別情報「101a」の監視カメラ101aは、ゾーンAに設置されていることを示す。図17に示すカメラ識別情報「101b」の監視カメラ101bは、ゾーンBに設置されていることを示す。 The table TB101 may be regarded as information indicating installation locations in zones of the monitoring cameras 101a and 101b. For example, the surveillance camera 101a with the camera identification information "101a" shown in FIG. The monitoring camera 101b with camera identification information “101b” shown in FIG.

図18は、サーバ102の記憶部に記憶されるテーブルの一例を示した図である。図18に示すテーブルTB102は、例えば、監視カメラ101a,101bが建物A101に設置されるときに、サーバ102の記憶部に記憶される。テーブルTB102は、端末装置103によって作成され、サーバ102の記憶部に記憶されてもよい。また、テーブルTB102の情報は、例えば、端末装置103によって追加、変更、または削除されてもよい。 FIG. 18 is a diagram showing an example of a table stored in the storage unit of server 102. As shown in FIG. Table TB102 shown in FIG. 18 is stored in the storage unit of server 102, for example, when surveillance cameras 101a and 101b are installed in building A101. The table TB102 may be created by the terminal device 103 and stored in the storage unit of the server 102 . Information in the table TB102 may be added, changed, or deleted by the terminal device 103, for example.

テーブルTB102は、ゾーン識別情報131aと、リスト情報131bと、顔データ131cと、を有している。ゾーン識別情報131aは、ゾーンA,Bを識別する識別情報である。例えば、ゾーン識別情報131aの「A」は、ゾーンAの識別情報を示す。ゾーン識別情報131aの「B」は、ゾーンBの識別情報を示す。 The table TB102 has zone identification information 131a, list information 131b, and face data 131c. The zone identification information 131a is identification information for identifying zones A and B. FIG. For example, "A" in the zone identification information 131a indicates zone A identification information. "B" in the zone identification information 131a indicates zone B identification information.

リスト情報131bは、対応するゾーンにおける判定種別を示す情報である。図18に示すBLは、ブラックリスト方式によって、対応するゾーンの立ち入りを判定することを示す。WLは、ホワイトリスト方式によって、対応するゾーンの立ち入りを判定することを示す。 The list information 131b is information indicating the determination type in the corresponding zone. BL shown in FIG. 18 indicates that entry into the corresponding zone is determined by the blacklist method. WL indicates that access to the corresponding zone is determined by a whitelist method.

例えば、図18の例の場合、ゾーンAのリスト情報131bは、「BL」である。従って、ゾーンAでは、ブラックリスト方式によって、人の立ち入りが判定される。また、ゾーンBのリスト情報131bは、「WL」である。従って、ゾーンBでは、ホワイトリスト方式によって、人の立ち入りが判定される。 For example, in the example of FIG. 18, the list information 131b of zone A is "BL". Therefore, in zone A, human entry is determined by a blacklist method. Also, the list information 131b of zone B is "WL". Therefore, in zone B, human entry is determined by the whitelist method.

顔データ131cは、人の顔データである。顔データ132aは、例えば、図16で説明した顔データ113に対応し、従業員の顔データである。顔データ132bは、例えば、図16で説明した顔データ111に対応し、注意人物の顔データである。 The face data 131c is human face data. The face data 132a corresponds to, for example, the face data 113 described with reference to FIG. 16, and is the face data of the employee. The face data 132b corresponds to, for example, the face data 111 described with reference to FIG. 16, and is the face data of the caution person.

テーブルTB102は、ゾーンごとにおいて、顔データの人物がブラックリスト方式によって判定されるのか、ホワイトリスト方式によって判定されるのかを規定したテーブルと捉えてもよい。 The table TB102 may be regarded as a table that defines whether the person in the face data is determined by the blacklist method or the whitelist method for each zone.

例えば、テーブルTB102の顔データ132aの人は、ゾーンB(ホワイトリスト)に丸が付されている。従って、顔データ132aの人は、ゾーンBに立ち入ってもアラーム信号が出力されない。一方、図18のゾーンBの列に丸が付されていない人物およびテーブルTB102に顔データが登録されていない人物は、ゾーンBに立ち入るとアラーム信号が出力される。 For example, a person with face data 132a in table TB102 is circled in zone B (white list). Therefore, even if the person in the face data 132a enters the zone B, no alarm signal is output. On the other hand, an alarm signal is output when a person whose face data is not registered in the table TB102 and who is not circled in the column of zone B in FIG.

また、テーブルTB102の顔データ132bの人は、ゾーンA(ブラックリスト)に丸が付されている。従って、顔データ132bの人は、ゾーンAに立ち入るとアラーム信号が出力される。一方、図18のゾーンAの列に丸が付されていない人物およびテーブルTB102に顔データが登録されていない人物は、ゾーンAに立ち入ってもアラーム信号が出力されない。 Also, the person of the face data 132b of the table TB102 is circled in zone A (black list). Therefore, when the person in the face data 132b enters zone A, an alarm signal is output. On the other hand, for a person whose face data is not registered in the zone A column of FIG.

なお、「人物がブラックリストに登録された」とは、その人物の顔データがテーブルTB102に登録され、リスト情報131bのブラックリストの列に情報(図18では丸)が登録されることを意味してもよい。また、「人物がホワイトリストに登録された」とは、その人物の顔データがテーブルTB102に登録され、リスト情報131bのホワイトリストの列に情報(図18では丸)が登録されることを意味してもよい。 Note that "a person is registered in the blacklist" means that the face data of the person is registered in the table TB102 and information (a circle in FIG. 18) is registered in the blacklist column of the list information 131b. You may Further, "a person is registered in the whitelist" means that the face data of the person is registered in the table TB102 and information (a circle in FIG. 18) is registered in the whitelist column of the list information 131b. You may

図17および図18では、テーブルTB101,TB102は、サーバ102の記憶部に記憶されるとしたが、これに限られない。テーブルTB101およびテーブルTB102の両方または一方は、サーバ102とは別体のデータベースに記憶されてもよい。別体のデータベースは、サーバ102の一部と捉えてもよい。以下では、テーブルTB101,TB102は、登録DBに記憶されとする。 Although the tables TB101 and TB102 are stored in the storage unit of the server 102 in FIGS. 17 and 18, the present invention is not limited to this. Both or one of table TB101 and table TB102 may be stored in a database separate from server 102 . A separate database may be considered part of the server 102 . Tables TB101 and TB102 are assumed to be stored in the registration DB below.

図19は、監視カメラシステムの動作例を示したシーケンス図である。端末装置103の制御部は、例えば、店舗の従業員等であるオペレータの操作に応じて、サーバ102を経由し、登録DBに対し、ゾーンA,Bと、監視カメラ101a,101bとの紐付けを行う(ステップS41,S42)。また、端末装置103の制御部は、オペレータの操作に応じて、サーバ102を経由し、登録DBに対し、ゾーンA,Bと、ブラックリストおよびホワイトリストとの紐付けを行う(ステップS41,S42)。 FIG. 19 is a sequence diagram showing an operation example of the surveillance camera system. The control unit of the terminal device 103 links the zones A and B with the monitoring cameras 101a and 101b to the registration DB via the server 102, for example, according to the operation of an operator such as an employee of the store. (steps S41, S42). In addition, the control unit of the terminal device 103 associates the zones A and B with the blacklist and whitelist in the registration DB via the server 102 according to the operator's operation (steps S41 and S42). ).

すなわち、端末装置103の制御部は、登録DBに対し、ゾーンA,Bと、監視カメラ101a,101bとの対応付けの設定を行う。これにより、登録DBには、例えば、図17に示したテーブルTB102が記憶される。また、端末装置103の制御部は、登録DBに対し、ゾーンA,Bと、ブラックリストおよびホワイトリストとの対応付けの設定を行う。これにより、登録DBには、例えば、図18に示したテーブルTB102のゾーン識別情報131aと、リスト情報131bとが記憶される。 That is, the control unit of the terminal device 103 sets the association between the zones A and B and the monitoring cameras 101a and 101b in the registration DB. Thereby, for example, the table TB102 shown in FIG. 17 is stored in the registration DB. Also, the control unit of the terminal device 103 sets the association between the zones A and B and the blacklist and whitelist in the registration DB. As a result, the zone identification information 131a and the list information 131b of the table TB102 shown in FIG. 18, for example, are stored in the registration DB.

端末装置103の制御部は、オペレータの操作に応じて、サーバ102を経由し、登録DBに対し、顔データを登録する(ステップS43,S44)。これにより、登録DBには、例えば、図18に示したテーブルTB102の顔データ131cが記憶される。 The control unit of the terminal device 103 registers the face data in the registration DB via the server 102 according to the operator's operation (steps S43 and S44). Thereby, for example, the face data 131c of the table TB102 shown in FIG. 18 is stored in the registration DB.

端末装置103の制御部は、オペレータの操作に応じて、サーバ102を経由し、登録DBに登録した顔データと、ゾーンとの紐付けを行う(ステップS45,S46)。例えば、端末装置103の制御部は、登録DBに登録した顔データ132bをゾーンA(ブラックリスト)と紐付ける。また、端末装置103の制御部は、登録DBに登録した顔データ132aをゾーンB(ホワイトリスト)と紐付ける。これにより、登録DBには、例えば、図18に示したテーブルTB102の丸とバーとに関する情報が記憶される。 The control unit of the terminal device 103 associates the face data registered in the registration DB with the zone via the server 102 according to the operator's operation (steps S45 and S46). For example, the control unit of the terminal device 103 associates the face data 132b registered in the registration DB with the zone A (blacklist). Also, the control unit of the terminal device 103 associates the face data 132a registered in the registration DB with the zone B (white list). As a result, information on circles and bars in the table TB102 shown in FIG. 18, for example, is stored in the registration DB.

ゾーンAの監視カメラ101aの撮像部は、人を撮影したとする。監視カメラ101aの制御部は、撮像部が撮影した映像の中から人の顔を切り出し、切り出した顔の顔データと、監視カメラ101aのカメラ識別情報とをサーバ102に送信する(ステップS47)。 Assume that the imaging unit of the surveillance camera 101a in zone A has captured a person. The control unit of the monitoring camera 101a cuts out a human face from the image captured by the imaging unit, and transmits the face data of the cut out face and the camera identification information of the monitoring camera 101a to the server 102 (step S47).

サーバ102の制御部は、ステップS47にて送信された顔データと、登録DBに記憶されている顔データとを照合する(ステップS48)。 The control unit of server 102 collates the face data transmitted in step S47 with the face data stored in the registration DB (step S48).

例えば、サーバ102の制御部は、登録DBのテーブルTB101を参照し、ステップS47にて送信されたカメラ識別情報に対応するゾーン識別情報を取得する。図19の例では、ステップS47にて、監視カメラ101aのカメラ識別情報「101a」が送信されている。従って、サーバ102の制御部は、図17のテーブルTB101から、ゾーンAのゾーン識別情報「A」を取得する。これにより、サーバ102の制御部は、ステップS47にて送信された顔データ141は、ゾーンAに設置された監視カメラ101aにおいて撮影されたものと特定(判定)できる。言い換えれば、サーバ102の制御部は、ステップS47にて送信された顔データ141の顔の人は、ゾーンAに居ると特定できる。 For example, the control unit of the server 102 refers to the table TB101 of the registration DB and acquires zone identification information corresponding to the camera identification information transmitted in step S47. In the example of FIG. 19, the camera identification information "101a" of the surveillance camera 101a is transmitted in step S47. Therefore, the control unit of the server 102 acquires the zone identification information "A" of the zone A from the table TB101 of FIG. Thereby, the control unit of the server 102 can specify (determine) that the face data 141 transmitted in step S47 was captured by the monitoring camera 101a installed in the zone A. In other words, the control unit of server 102 can identify that the person whose face is in face data 141 transmitted in step S47 is in zone A.

サーバ102の制御部は、ゾーンを特定すると、登録DBのテーブルTB102を参照して、特定したゾーンに対応する顔データおよびリスト情報を取得する。そして、サーバ102の制御部は、テーブルTB102から取得した顔データと、ステップS47にて送信された顔データとを照合し、テーブルTB102から取得したリスト情報の方式(ブラックリスト方式またはホワイトリスト方式)に従って、人のゾーンA,Bへの立ち入りを判定する。 After specifying the zone, the control unit of the server 102 refers to the table TB102 of the registration DB to acquire face data and list information corresponding to the specified zone. Then, the control unit of the server 102 compares the face data acquired from the table TB102 with the face data transmitted in step S47, and selects the list information method (blacklist method or whitelist method) obtained from the table TB102. Entry into zones A and B by a person is determined according to the following.

図19の例では、サーバ102の制御部は、顔データ141の顔の人は、ゾーンAに居ると特定している。ゾーンAのリスト情報は、ブラックリストである。従って、サーバ102の制御部は、図18に示したテーブルTB102のゾーンAに対応する顔データ132bと、ステップS47にて送信された顔データ141とを照合する。顔データ141は、図18に示したテーブルTB102の顔データ132bに一致するので、サーバ102の制御部は、顔照合が一致したと判定する。すなわち、サーバ102の制御部は、ステップS47にて送信された顔データ141の人は、ブラックリストに登録された人物と判定する。 In the example of FIG. 19, the control unit of server 102 identifies that the person whose face is in face data 141 is in zone A. In FIG. The list information for zone A is a blacklist. Therefore, the control unit of the server 102 collates the face data 132b corresponding to zone A in the table TB102 shown in FIG. 18 with the face data 141 transmitted in step S47. Since the face data 141 matches the face data 132b of the table TB102 shown in FIG. 18, the control unit of the server 102 determines that the face collation matches. That is, the control unit of the server 102 determines that the person in the face data 141 transmitted in step S47 is registered in the blacklist.

サーバ102の制御部は、ステップS48の照合結果(登録顔検知のアラーム信号)を端末装置103および警報装置104a,105a,105bに送信する(ステップS49)。なお、サーバ102の制御部は、登録顔検知を判定した場合、監視カメラ101aが撮影した顔データ141または顔データ141に一致したテーブルTB102に記憶されている顔データ132bを端末装置103に送信する。端末装置103の制御部は、サーバ102から送信された顔データ141または顔データ132bを表示装置に表示する。 The control unit of the server 102 transmits the collation result (alarm signal of registered face detection) of step S48 to the terminal device 103 and the alarm devices 104a, 105a, and 105b (step S49). When the control unit of the server 102 determines that the registered face has been detected, the control unit of the server 102 transmits the face data 141 captured by the surveillance camera 101a or the face data 132b stored in the table TB102 that matches the face data 141 to the terminal device 103. . The control unit of the terminal device 103 displays the face data 141 or the face data 132b transmitted from the server 102 on the display device.

ゾーンAの監視カメラ101aの撮像部は、人を撮影したとする。監視カメラ101aの制御部は、撮像部が撮影した映像の中から人の顔を切り出し、切り出した顔の顔データと、監視カメラ101aのカメラ識別情報とをサーバ102に送信する(ステップS50)。 Assume that the imaging unit of the surveillance camera 101a in zone A has captured a person. The control unit of monitoring camera 101a cuts out a human face from the video imaged by the imaging unit, and transmits face data of the cut out face and camera identification information of monitoring camera 101a to server 102 (step S50).

サーバ102の制御部は、ステップS50にて送信された顔データと、登録DBに記憶されている顔データとを照合する(ステップS51)。 The control unit of the server 102 collates the face data transmitted in step S50 with the face data stored in the registration DB (step S51).

例えば、サーバ102の制御部は、登録DBのテーブルTB101を参照し、ステップS50にて送信されたカメラ識別情報に対応するゾーン識別情報を取得する。図19の例では、ステップS50にて、監視カメラ101aのカメラ識別情報「101a」が送信されている。従って、サーバ102の制御部は、図17のテーブルTB101から、ゾーンAのゾーン識別情報「A」を取得する。これにより、サーバ102の制御部は、ステップS50にて送信された顔データ142は、ゾーンAに設置された監視カメラ101aにおいて撮影されたものと特定できる。言い換えれば、サーバ102の制御部は、ステップS50にて送信された顔データ142の顔の人は、ゾーンAに居ると特定できる。 For example, the control unit of the server 102 refers to the table TB101 of the registration DB and acquires zone identification information corresponding to the camera identification information transmitted in step S50. In the example of FIG. 19, the camera identification information "101a" of the monitoring camera 101a is transmitted in step S50. Therefore, the control unit of the server 102 acquires the zone identification information "A" of the zone A from the table TB101 of FIG. Thereby, the control unit of the server 102 can identify that the face data 142 transmitted in step S50 was captured by the monitoring camera 101a installed in the zone A. FIG. In other words, the control unit of server 102 can identify that the person whose face is in face data 142 transmitted in step S50 is in zone A.

サーバ102の制御部は、ゾーンを特定すると、登録DBのテーブルTB102を参照して、特定したゾーンに対応する顔データおよびリスト情報を取得する。そして、サーバ102の制御部は、テーブルTB102から取得した顔データと、ステップS50にて送信された顔データとを照合し、テーブルTB102から取得したリスト情報の方式に従って、人のゾーンA,Bへの立ち入りを判定する。 After specifying the zone, the control unit of the server 102 refers to the table TB102 of the registration DB to acquire face data and list information corresponding to the specified zone. Then, the control unit of the server 102 collates the face data acquired from the table TB102 with the face data transmitted in step S50, and according to the list information method acquired from the table TB102, to human zones A and B. judge the entry of

図19の例では、サーバ102の制御部は、顔データ142の顔の人は、ゾーンAに居ると特定している。ゾーンAのリスト情報は、ブラックリストである。従って、サーバ102の制御部は、図18に示したテーブルTB102のゾーンAに対応する顔データ132bと、ステップS50にて送信された顔データ142とを照合する。顔データ142は、図18に示したテーブルTB102の顔データ132bに一致しないので、サーバ102の制御部は、顔照合が一致しないと判定する。すなわち、サーバ102の制御部は、顔データ142の人は、ブラックリストに登録されていない人物と判定する。 In the example of FIG. 19, the control unit of server 102 identifies that the person whose face is in face data 142 is in zone A. In FIG. The list information for zone A is a blacklist. Therefore, the control unit of the server 102 collates the face data 132b corresponding to zone A in the table TB102 shown in FIG. 18 with the face data 142 transmitted in step S50. Since the face data 142 does not match the face data 132b of the table TB102 shown in FIG. 18, the controller of the server 102 determines that the face verification does not match. That is, the control unit of the server 102 determines that the person in the face data 142 is not registered in the blacklist.

なお、顔データ142の人は、ブラックリストに登録されていない人物なので、サーバ102の制御部は、アラーム信号を端末装置103および警報装置104a,105a,105bに送信しない。 Since the person in the face data 142 is not registered in the blacklist, the control unit of the server 102 does not send an alarm signal to the terminal device 103 and the alarm devices 104a, 105a, 105b.

ゾーンBの監視カメラ101bの撮像部は、人を撮影したとする。監視カメラ101bの制御部は、撮像部が撮影した映像の中から人の顔を切り出し、切り出した顔の顔データと、監視カメラ101bのカメラ識別情報とをサーバ102に送信する(ステップS52)。 Assume that the imaging unit of the surveillance camera 101b in zone B has captured a person. The control unit of the monitoring camera 101b cuts out a human face from the image captured by the imaging unit, and transmits face data of the cut out face and camera identification information of the monitoring camera 101b to the server 102 (step S52).

サーバ102の制御部は、ステップS52にて送信された顔データと、登録DBに記憶されている顔データとを照合する(ステップS53)。 The control unit of server 102 collates the face data transmitted in step S52 with the face data stored in the registration DB (step S53).

例えば、サーバ102の制御部は、登録DBのテーブルTB101を参照し、ステップS52にて送信されたカメラ識別情報に対応するゾーン識別情報を取得する。図19の例では、ステップS52にて、監視カメラ101bのカメラ識別情報「101b」が送信されている。従って、サーバ102の制御部は、図17のテーブルTB101から、ゾーンBのゾーン識別情報「B」を取得する。これにより、サーバ102の制御部は、ステップS52にて送信された顔データ143は、ゾーンBに設置された監視カメラ101bにおいて撮影されたものと特定できる。言い換えれば、サーバ102の制御部は、ステップS52にて送信された顔データ143の顔の人は、ゾーンBに居ると特定できる。 For example, the control unit of the server 102 refers to the table TB101 of the registration DB and acquires zone identification information corresponding to the camera identification information transmitted in step S52. In the example of FIG. 19, the camera identification information "101b" of the monitoring camera 101b is transmitted in step S52. Therefore, the control unit of the server 102 acquires the zone identification information "B" of the zone B from the table TB101 of FIG. Thereby, the control unit of the server 102 can identify that the face data 143 transmitted in step S52 was captured by the monitoring camera 101b installed in the zone B. FIG. In other words, the control unit of server 102 can identify that the person whose face is in face data 143 transmitted in step S52 is in zone B. FIG.

サーバ102の制御部は、ゾーンを特定すると、登録DBのテーブルTB102を参照して、特定したゾーンに対応する顔データおよびリスト情報を取得する。そして、サーバ102の制御部は、テーブルTB102から取得した顔データと、ステップS52にて送信された顔データとを照合し、テーブルTB102から取得したリスト情報の方式に従って、人のゾーンA,Bへの立ち入りを判定する。 After specifying the zone, the control unit of the server 102 refers to the table TB102 of the registration DB to acquire face data and list information corresponding to the specified zone. Then, the control unit of the server 102 collates the face data acquired from the table TB102 with the face data transmitted in step S52, and according to the list information method acquired from the table TB102, to human zones A and B. judge the entry of

図19の例では、サーバ102の制御部は、顔データ143の顔の人は、ゾーンBに居ると特定している。ゾーンBのリスト情報は、ホワイトリストである。従って、サーバ102の制御部は、図18に示したテーブルTB102のゾーンBに対応する顔データ132bと、ステップS52にて送信された顔データ143とを照合する。顔データ143は、図18に示したテーブルTB102の顔データ132aに一致しないので、サーバ102の制御部は、顔照合が一致しないと判定する。すなわち、サーバ102の制御部は、顔データ143の人は、ホワイトリストに登録されていない人物と判定する。 In the example of FIG. 19, the control unit of server 102 identifies that the person whose face is in face data 143 is in zone B. In FIG. List information of zone B is a white list. Therefore, the control unit of the server 102 collates the face data 132b corresponding to zone B in the table TB102 shown in FIG. 18 with the face data 143 transmitted in step S52. Since the face data 143 does not match the face data 132a of the table TB102 shown in FIG. 18, the controller of the server 102 determines that the face verification does not match. That is, the control unit of the server 102 determines that the person in the face data 143 is not registered in the whitelist.

サーバ102の制御部は、ステップS53の照合結果(未登録顔検知のアラーム信号)を端末装置103および警報装置104a,105a,105bに送信する(ステップS54)。なお、サーバ102の制御部は、未登録顔検知を判定した場合、監視カメラ101bが撮影した顔データ143を端末装置103に送信する。端末装置103の制御部は、サーバ102から送信された顔データ143を表示装置に表示する。 The control unit of the server 102 transmits the collation result (alarm signal of unregistered face detection) of step S53 to the terminal device 103 and the alarm devices 104a, 105a, and 105b (step S54). Note that the control unit of the server 102 transmits the face data 143 captured by the monitoring camera 101b to the terminal device 103 when the detection of the unregistered face is determined. The control unit of the terminal device 103 displays the face data 143 transmitted from the server 102 on the display device.

ゾーンBの監視カメラ101bの撮像部は、人を撮影したとする。監視カメラ101bの制御部は、撮像部が撮影した映像の中から人の顔を切り出し、切り出した顔の顔データと、監視カメラ101bのカメラ識別情報とをサーバ102に送信する(ステップS55)。 Assume that the imaging unit of the surveillance camera 101b in zone B has captured a person. The control unit of the monitoring camera 101b cuts out a human face from the image captured by the imaging unit, and transmits face data of the cut out face and camera identification information of the monitoring camera 101b to the server 102 (step S55).

サーバ102の制御部は、ステップS55にて送信された顔データと、登録DBに記憶されている顔データとを照合する(ステップS56)。 The control unit of the server 102 collates the face data transmitted in step S55 with the face data stored in the registration DB (step S56).

例えば、サーバ102の制御部は、登録DBのテーブルTB101を参照し、ステップS55にて送信されたカメラ識別情報に対応するゾーン識別情報を取得する。図19の例では、ステップS55にて、監視カメラ101bのカメラ識別情報「101b」が送信されている。従って、サーバ102の制御部は、図17のテーブルTB101から、ゾーンBのゾーン識別情報「B」を取得する。これにより、サーバ102の制御部は、ステップS55にて送信された顔データ144は、ゾーンBに設置された監視カメラ101bにおいて撮影されたものと特定できる。言い換えれば、サーバ102の制御部は、ステップS55にて送信された顔データ144の顔の人は、ゾーンBに居ると特定できる。 For example, the control unit of the server 102 refers to the table TB101 of the registration DB and acquires zone identification information corresponding to the camera identification information transmitted in step S55. In the example of FIG. 19, the camera identification information "101b" of the monitoring camera 101b is transmitted in step S55. Therefore, the control unit of the server 102 acquires the zone identification information "B" of the zone B from the table TB101 of FIG. Thereby, the control unit of the server 102 can identify that the face data 144 transmitted in step S55 was captured by the monitoring camera 101b installed in the zone B. FIG. In other words, the control unit of server 102 can identify that the person whose face is in face data 144 transmitted in step S55 is in zone B. FIG.

サーバ102の制御部は、ゾーンを特定すると、登録DBのテーブルTB102を参照して、特定したゾーンに対応する顔データおよびリスト情報を取得する。そして、サーバ102の制御部は、テーブルTB102から取得した顔データと、ステップS55にて送信された顔データとを照合し、テーブルTB102から取得したリスト情報の方式に従って、人のゾーンA,Bへの立ち入りを判定する。 After specifying the zone, the control unit of the server 102 refers to the table TB102 of the registration DB to acquire face data and list information corresponding to the specified zone. Then, the control unit of the server 102 collates the face data acquired from the table TB102 with the face data transmitted in step S55, and according to the list information method acquired from the table TB102, to human zones A and B. judge the entry of

図19の例では、サーバ102の制御部は、顔データ144の顔の人は、ゾーンBに居ると特定している。ゾーンBのリスト情報は、ホワイトリストである。従って、サーバ102の制御部は、図18に示したテーブルTB102のゾーンBに対応する顔データ132aと、ステップS55にて送信された顔データ144とを照合する。顔データ144は、図18に示したテーブルTB102の顔データ132aに一致するので、サーバ102の制御部は、顔照合が一致したと判定する。すなわち、サーバ102の制御部は、顔データ144の人は、ホワイトリストに登録された人物と判定する。 In the example of FIG. 19, the control unit of server 102 identifies that the person whose face is in face data 144 is in zone B. In FIG. List information of zone B is a white list. Therefore, the control unit of the server 102 collates the face data 132a corresponding to zone B in the table TB102 shown in FIG. 18 with the face data 144 transmitted in step S55. Since the face data 144 matches the face data 132a of the table TB102 shown in FIG. 18, the control unit of the server 102 determines that the face collation is matched. That is, the control unit of the server 102 determines that the person in the face data 144 is registered in the whitelist.

なお、顔データ144の人は、ホワイトリストに登録された人物なので、サーバ102の制御部は、アラーム信号を端末装置103および警報装置104a,105a,105bに送信しない。 Since the person of the face data 144 is a person registered in the whitelist, the control unit of the server 102 does not send an alarm signal to the terminal device 103 and the alarm devices 104a, 105a, 105b.

図20は、ブラックリスト方式における判定方法を説明する図である。図20の矢印A111~A113は、人がゾーンAに立ち入る様子を示している。また、図20には、テーブルTB102のゾーンA(ブラックリスト)に登録された顔データ151が示してある。また、図20には、ゾーンAに設置された監視カメラ101aが撮影した顔データ152~156が示してある。 FIG. 20 is a diagram for explaining a determination method in the blacklist method. Arrows A111 to A113 in FIG. 20 indicate how a person enters zone A. In FIG. FIG. 20 also shows face data 151 registered in zone A (blacklist) of table TB102. FIG. 20 also shows face data 152 to 156 captured by the monitoring camera 101a installed in zone A. As shown in FIG.

監視カメラ101aの制御部は、人の顔を検知すると顔画像を切り出し、切り出した顔画像の顔データをサーバ102に送信する。例えば、監視カメラ101aの制御部は、時刻tにおいて人の顔を検知した場合、顔データ152をサーバ102に送信する。 The control unit of the monitoring camera 101 a cuts out a face image when detecting a person's face, and transmits face data of the cut out face image to the server 102 . For example, the control unit of the monitoring camera 101a transmits face data 152 to the server 102 when detecting a human face at time t.

監視カメラ101aの制御部は、人の顔を検知した後、2秒後に、検知した人の顔データを2枚切り出し、サーバ102に送信する。例えば、監視カメラ101aの制御部は、時刻tの2秒後である時刻t+2において、2枚の顔データ153,154を連続して切り出し、サーバ102に送信する。2秒は一例であり、この秒数に限られない。 Two seconds after the detection of the person's face, the control unit of the monitoring camera 101a cuts out two pieces of face data of the detected person, and transmits them to the server 102 . For example, at time t+2, which is two seconds after time t, the control unit of surveillance camera 101a continuously cuts out two pieces of face data 153 and 154 and transmits them to server 102 . Two seconds is an example, and is not limited to this number of seconds.

また、監視カメラ101aの制御部は、人の顔を検知した後、4秒後に、検知した人の顔データを2枚切り出し、サーバ102に送信する。例えば、監視カメラ101aの制御部は、時刻tの4秒後である時刻t+4において、2枚の顔データ155,156を連続して切り出し、サーバ102に送信する。4秒は一例であり、この秒数に限られない。 Also, the control unit of the monitoring camera 101a cuts out two pieces of face data of the detected person and transmits them to the server 102 four seconds after the detection of the person's face. For example, at time t+4, which is four seconds after time t, the control unit of surveillance camera 101a continuously cuts out two pieces of face data 155 and 156 and transmits them to server 102 . Four seconds is an example, and is not limited to this number of seconds.

サーバ102の制御部は、監視カメラ101aが送信した顔データと、テーブルTB102に記憶された顔データとの照合し、監視カメラ101aが送信した顔データが、テーブルTB102に記憶された顔データと一致するか否かを判定する。このとき、サーバ102の制御部は、監視カメラ101aが送信した顔データと、テーブルTB102に記憶された顔データとの類似度を算出し、算出した類似度が閾値を超えた場合、監視カメラ101aが送信した顔データは、テーブルTB102に記憶された顔データに一致したと判定する。 The control unit of the server 102 matches the face data transmitted by the monitoring camera 101a with the face data stored in the table TB102, and the face data transmitted by the monitoring camera 101a matches the face data stored in the table TB102. determine whether or not to At this time, the control unit of the server 102 calculates the degree of similarity between the face data transmitted by the monitoring camera 101a and the face data stored in the table TB102. determines that the transmitted face data matches the face data stored in the table TB102.

なお、オペレータが端末装置103を用いて閾値を設定してもよい。閾値は、例えば、テーブルTB102に登録する顔データの精度(粗さ)に基づいて設定されてもよい。図20の例では、閾値は、1.04に設定されている。 Note that the operator may use the terminal device 103 to set the threshold. The threshold may be set, for example, based on the accuracy (roughness) of the face data registered in the table TB102. In the example of FIG. 20, the threshold is set to 1.04.

例えば、サーバ102の制御部は、監視カメラ101aが送信した顔データ152と、テーブルTB102に記憶された顔データ151との類似度を算出する。図20の例において、顔データ152と顔データ151との類似度は0.80であり、閾値1.04を超えていない。従って、サーバ102の制御部は、顔データ152と顔データ151とは一致しないと判定する。 For example, the control unit of the server 102 calculates the degree of similarity between the face data 152 transmitted by the monitoring camera 101a and the face data 151 stored in the table TB102. In the example of FIG. 20, the similarity between face data 152 and face data 151 is 0.80, which does not exceed the threshold of 1.04. Therefore, the control unit of the server 102 determines that the face data 152 and the face data 151 do not match.

また、サーバ102の制御部は、監視カメラ101aが送信した顔データ153,154と、テーブルTB102に記憶された顔データ151との類似度を算出する。図20の例において、顔データ153と顔データ151との類似度は0.90であり、閾値1.04を超えていない。また、顔データ154と顔データ151との類似度は0.95であり、閾値1.04を超えていない。従って、サーバ102の制御部は、顔データ153,154と顔データ151とは一致しないと判定する。 Further, the control unit of the server 102 calculates the degree of similarity between the face data 153 and 154 transmitted by the monitoring camera 101a and the face data 151 stored in the table TB102. In the example of FIG. 20, the similarity between face data 153 and face data 151 is 0.90, which does not exceed the threshold of 1.04. Moreover, the similarity between the face data 154 and the face data 151 is 0.95, which does not exceed the threshold value of 1.04. Therefore, the control unit of the server 102 determines that the face data 153, 154 and the face data 151 do not match.

また、サーバ102の制御部は、監視カメラ101aが送信した顔データ155と、テーブルTB102に記憶された顔データ151との類似度を算出する。図20の例において、顔データ155と顔データ151との類似度は1.15であり、閾値1.04を超えている。従って、サーバ102の制御部は、顔データ155と顔データ151とは一致していると判定する。すなわち、サーバ102の制御部は、監視カメラ101aが撮影した人物は、ブラックリストに登録された人物と判定する。 Further, the control unit of the server 102 calculates the degree of similarity between the face data 155 transmitted by the surveillance camera 101a and the face data 151 stored in the table TB102. In the example of FIG. 20, the similarity between face data 155 and face data 151 is 1.15, which exceeds the threshold of 1.04. Therefore, the control unit of the server 102 determines that the face data 155 and the face data 151 match. That is, the control unit of the server 102 determines that the person captured by the monitoring camera 101a is registered in the blacklist.

なお、サーバ102の制御部は、ブラックリスト判定においては、監視カメラ101aが撮影した顔データ155と、テーブルTB102に記憶された顔データ151との類似度が閾値を超えた時点で、アラーム信号を出力する。 In blacklist determination, the control unit of the server 102 outputs an alarm signal when the degree of similarity between the face data 155 captured by the monitoring camera 101a and the face data 151 stored in the table TB102 exceeds a threshold. Output.

図21は、ホワイトリスト方式における判定方法を説明する図である。図21の矢印A121~A123は、人がゾーンBに立ち入る様子を示している。また、図21には、テーブルTB102のゾーンB(ホワイトリスト)に登録された顔データ161が示してある。また、図21には、ゾーンBに設置された監視カメラ101bが撮影した顔データ162~166が示してある。 FIG. 21 is a diagram for explaining a determination method in the whitelist method. Arrows A121 to A123 in FIG. 21 indicate how a person enters zone B. FIG. FIG. 21 also shows face data 161 registered in zone B (white list) of table TB102. 21 also shows face data 162 to 166 captured by the monitoring camera 101b installed in zone B. FIG.

監視カメラ101bの制御部は、監視カメラ101aと同様に、顔画像を切り出し、顔データをサーバ102に送信する。 The control unit of the monitoring camera 101b cuts out a face image and transmits the face data to the server 102 in the same manner as the monitoring camera 101a.

図20で説明したブラックリスト判定では、サーバ102の制御部は、監視カメラ101aから顔データを受信すると、逐次類似度を算出し、算出した類似度が閾値を超えた時点で、監視カメラ101aから受信した顔データの人物はブラックリストに登録された人物であると判定する。 In the blacklist determination described with reference to FIG. 20, the control unit of the server 102, upon receiving face data from the monitoring camera 101a, sequentially calculates similarity, and when the calculated similarity exceeds the threshold, It is determined that the person in the received face data is a person registered in the blacklist.

一方、ホワイトリスト判定では、サーバ102の制御部は、一定数の一連の顔データを監視カメラ101bから受信してから、監視カメラ101bが撮影した人物がホワイトリストに登録された人物であるか否かを判定する。例えば、サーバ102の制御部は、監視カメラ101bから、5枚の一連の顔データ162~166(同じ人物における顔データ162~166)を受信すると、監視カメラ101bが撮影した5枚の顔データ162~166の人物がホワイトリストに登録された人物であるか否かを判定する。 On the other hand, in the whitelist determination, the control unit of the server 102 receives a series of face data of a certain number from the surveillance camera 101b, and then determines whether or not the person photographed by the surveillance camera 101b is a person registered in the whitelist. determine whether For example, when the control unit of the server 102 receives five series of face data 162 to 166 (face data 162 to 166 of the same person) from the monitoring camera 101b, the control unit of the server 102 receives the five face data 162 captured by the monitoring camera 101b. 166 is a whitelisted person.

サーバ102の制御部は、5枚の顔データ162~166を受信すると、受信した顔データ162~166の各々と、テーブルTB102に記憶された顔データ161との類似度を算出する。サーバ102の制御部は、算出した類似度の平均値を算出し、算出した平均値に基づいて、監視カメラ101bが撮影した人物は、ホワイトリストに登録された人物であるか否かを判定してもよい。 Upon receiving the five pieces of face data 162-166, the control unit of server 102 calculates the degree of similarity between each of the received face data 162-166 and face data 161 stored in table TB102. The control unit of the server 102 calculates the average value of the calculated similarities, and determines whether or not the person photographed by the surveillance camera 101b is registered in the whitelist based on the calculated average value. may

例えば、サーバ102の制御部は、図21に示す顔データ162~166の類似度0.50、0.30、0.35、0.20、0.25の平均値を算出し、算出した平均値が閾値1.04以下の場合、監視カメラ101bが撮影した人物は、ホワイトリストに登録された人物ではないと判定してもよい。なお、平均値の算出に用いる類似度は、5個に限られない。平均値の算出に用いる類似度の数は、可変されてもよく、例えば、端末装置103から設定されてもよい。 For example, the control unit of the server 102 calculates the average values of the similarities 0.50, 0.30, 0.35, 0.20, and 0.25 of the face data 162 to 166 shown in FIG. If the value is equal to or less than the threshold value of 1.04, it may be determined that the person captured by the monitoring camera 101b is not registered in the whitelist. Note that the number of similarities used for calculating the average value is not limited to five. The number of degrees of similarity used to calculate the average value may be varied, and may be set from the terminal device 103, for example.

また、サーバ102の制御部は、算出した類似度の中央値が閾値1.04以下の場合、監視カメラ101bが撮影した人物は、ホワイトリストに登録された人物ではないと判定してもよい。 Further, the control unit of the server 102 may determine that the person captured by the monitoring camera 101b is not registered in the whitelist when the median value of the calculated similarities is equal to or less than the threshold value of 1.04.

このように、ホワイトリスト判定では、サーバ102の制御部は、一定数の一連の顔データを監視カメラ101bから受信してから、監視カメラ101bが撮影した人物がホワイトリストに登録された人物であるか否かを判定する。これにより、サーバ102の制御部は、ホワイトリスト判定の誤判定を抑制できる。 As described above, in the whitelist determination, the control unit of the server 102 receives a series of face data of a certain number from the surveillance camera 101b, and then determines that the person photographed by the surveillance camera 101b is a person registered in the whitelist. Determine whether or not As a result, the control unit of the server 102 can suppress erroneous whitelist determination.

例えば、ホワイトリストに登録された人物が監視カメラ101bによって撮影された場合でも、1枚目の顔データでは、類似度が低い場合がある。例えば、1枚目の顔データ162の顔は、ゾーンBの入り口A102bの扉によって一部が隠れ、類似度が低い場合がある。この場合、ホワイトリストに登録された人物であるにも関わらず、アラーム信号が出力される。 For example, even if a person registered in the whitelist is captured by the surveillance camera 101b, the first piece of face data may have a low degree of similarity. For example, the face of the first face data 162 may be partially hidden by the door of the entrance A 102b of zone B and have a low degree of similarity. In this case, the alarm signal is output even though the person is registered in the whitelist.

しかし、上記したように、サーバ102の制御部は、一定数の一連の顔データを監視カメラ101bから受信してから、監視カメラ101bが撮影した人物がホワイトリストに登録された人物であるか否かを判定する。そのため、サーバ102の制御部は、1枚目の顔データ162の類似度が閾値以下であっても、アラーム信号を出力しない。これにより、サーバ102の制御部は、ホワイトリスト判定の誤判定を抑制できる。 However, as described above, after receiving a certain number of series of face data from the monitoring camera 101b, the control unit of the server 102 determines whether the person photographed by the monitoring camera 101b is a person registered in the whitelist. determine whether Therefore, the control unit of the server 102 does not output an alarm signal even if the similarity of the first piece of face data 162 is equal to or less than the threshold. As a result, the control unit of the server 102 can suppress erroneous whitelist determination.

図22は、ブラックリスト方式における判定処理例を示したシーケンス図である。端末装置103の制御部は、オペレータの操作に応じて、サーバ102を経由し、登録DBに対し、顔データを登録する(ステップS61,S62)。このとき、端末装置103の制御部は、オペレータの操作に応じて、閾値も送信する。これにより、登録DBには、例えば、図18に示したテーブルTB102の顔データ131cが記憶される。また、顔データ131cに付随して閾値が登録される。以下では、閾値を1.04とする。 FIG. 22 is a sequence diagram showing an example of determination processing in the blacklist method. The control unit of the terminal device 103 registers the face data in the registration DB via the server 102 according to the operator's operation (steps S61 and S62). At this time, the control unit of the terminal device 103 also transmits the threshold according to the operator's operation. Thereby, for example, the face data 131c of the table TB102 shown in FIG. 18 is stored in the registration DB. Also, a threshold value is registered along with the face data 131c. Below, the threshold is set to 1.04.

ゾーンAの監視カメラ101aの撮像部は、人を撮影したとする。監視カメラ101aの制御部は、撮像部が撮影した映像の中から人の顔を切り出し、切り出した顔の顔データと、監視カメラ101aのカメラ識別情報とをサーバ102に送信する(ステップS63)。 Assume that the imaging unit of the surveillance camera 101a in zone A has captured a person. The control unit of the monitoring camera 101a cuts out a human face from the image captured by the imaging unit, and transmits face data of the cut out face and camera identification information of the monitoring camera 101a to the server 102 (step S63).

サーバ102の制御部は、ステップS63にて送信された顔データと、登録DBに記憶されている顔データとを照合する(ステップS64)。登録DBに記憶されている顔データの取得方法は、図19のステップS48で説明した方法と同様であり、その説明を省略する。 The control unit of server 102 collates the face data transmitted in step S63 with the face data stored in the registration DB (step S64). The method of acquiring the face data stored in the registration DB is the same as the method described in step S48 of FIG. 19, so description thereof will be omitted.

サーバ102の制御部は、ステップS63にて送信された顔データと、登録DBに記憶されている顔データとのスコア(類似度)を算出する(ステップS65)。ここで、ステップS63にて送信された顔データのスコアは、0.80とする。スコア0.80は、閾値1.04を超えていないので、サーバ102の制御部は、アラーム信号を出力しない。 The control unit of the server 102 calculates a score (similarity) between the face data transmitted in step S63 and the face data stored in the registration DB (step S65). Here, the score of the face data transmitted in step S63 is assumed to be 0.80. Since the score of 0.80 does not exceed the threshold of 1.04, the controller of server 102 does not output an alarm signal.

ステップS63の顔データの送信後、2秒経過すると、監視カメラ101aの制御部は、2枚の顔データを送信する(ステップS66,S69)。 After two seconds have passed since the transmission of the face data in step S63, the control unit of the monitoring camera 101a transmits two pieces of face data (steps S66 and S69).

ステップS66にて送信された顔データの照合およびスコア算出(ステップS67,S68)は、ステップS64,S65と同様であり、その説明を省略する。また、ステップS69にて送信された顔データの照合およびスコア算出(ステップS70,S71)は、ステップS64,S65と同様であり、その説明を省略する。 The matching of the face data transmitted in step S66 and the calculation of the score (steps S67 and S68) are the same as in steps S64 and S65, so the description thereof will be omitted. Also, the matching of the face data transmitted in step S69 and the calculation of the score (steps S70 and S71) are the same as those in steps S64 and S65, so the description thereof will be omitted.

ステップS63の顔データの送信後、4秒経過すると、監視カメラ101aの制御部は、2枚の顔データを送信する(ステップS72,S76)。 After four seconds have passed since the transmission of the face data in step S63, the control unit of the surveillance camera 101a transmits two pieces of face data (steps S72 and S76).

サーバ102の制御部は、ステップS72にて送信された顔データと、登録DBに記憶されている顔データとを照合する(ステップS73)。 The control unit of server 102 collates the face data transmitted in step S72 with the face data stored in the registration DB (step S73).

サーバ102の制御部は、ステップS72にて送信された顔データと、登録DBに記憶されている顔データとのスコア(類似度)を算出する(ステップS74)。ここで、ステップS72にて送信された顔データのスコアは、1.15とする。スコア1.15は、閾値1.04を超えているので、サーバ102の制御部は、登録顔の検知を判定し、登録顔検知のアラーム信号を端末装置103に出力する(ステップS75)。 The control unit of the server 102 calculates a score (similarity) between the face data transmitted in step S72 and the face data stored in the registration DB (step S74). Here, the score of the face data transmitted in step S72 is assumed to be 1.15. Since the score of 1.15 exceeds the threshold of 1.04, the control unit of the server 102 determines detection of the registered face and outputs an alarm signal for registered face detection to the terminal device 103 (step S75).

ステップS76にて送信された顔データの照合およびスコア算出(ステップS77,S78)は、ステップS64,S65と同様であり、その説明を省略する。 The matching of the face data transmitted in step S76 and the calculation of the score (steps S77 and S78) are the same as in steps S64 and S65, and the description thereof will be omitted.

図23は、ホワイトリスト方式における判定処理例を示したシーケンス図である。図23のステップS81,S82の顔登録処理は、図22のステップS61,S62と同様であり、その説明を省略する。また、図23のステップS83,S86,S89,S92,S95の顔データの送信処理は、図22のステップS63,S66,S69,S72,S76と同様であり、その説明を省略する。ただし、図23では、ゾーンBに設置された監視カメラ101bが、顔データをサーバ102に送信する。 FIG. 23 is a sequence diagram showing an example of determination processing in the whitelist method. The face registration processing in steps S81 and S82 of FIG. 23 is the same as that of steps S61 and S62 of FIG. 22, and the description thereof will be omitted. 23 are the same as steps S63, S66, S69, S72, and S76 in FIG. 22, and description thereof will be omitted. However, in FIG. 23, surveillance camera 101b installed in zone B transmits face data to server .

図23のステップS84,S87,S90,S93,S96の顔照合処理は、図22のステップS64と同様であり、その説明を省略する。また、図23のステップS85,S88,S91,S94,S97のスコア算出処理は、図22のステップS65と同様であり、その説明を省略する。 The face collation processing in steps S84, S87, S90, S93, and S96 in FIG. 23 is the same as step S64 in FIG. 22, and the description thereof will be omitted. Also, the score calculation processing in steps S85, S88, S91, S94, and S97 of FIG. 23 is the same as that of step S65 of FIG. 22, and the description thereof will be omitted.

ホワイトリスト方式では、サーバ102の制御部は、監視カメラ101bから5枚の顔データを受信してから、監視カメラ101bが撮影した顔データの人物がホワイトリストに登録されているか否かの判定をする。 In the whitelist method, after receiving five pieces of face data from the monitoring camera 101b, the control unit of the server 102 determines whether or not the person whose face data is captured by the monitoring camera 101b is registered in the whitelist. do.

ここで、ステップS83,S86,S89,S92,S95にて送信された顔データのスコアを、0.50,0.30,0.35,0.20,0.25とする。サーバ102の制御部は、例えば、5つのスコアの中央値を用いて、監視カメラ101bが送信した顔データの人物がホワイトリストに登録されているか否かの判定をする。図23の例では、中央値は、0.35であり、閾値1.04を超えていないので、サーバ102の制御部は、監視カメラ101bが撮影した顔データの人物はホワイトリストに登録されていないと判定する。 Assume that the scores of the face data transmitted in steps S83, S86, S89, S92, and S95 are 0.50, 0.30, 0.35, 0.20, and 0.25. The control unit of the server 102 uses, for example, the median value of the five scores to determine whether or not the person represented by the face data transmitted by the monitoring camera 101b is registered in the whitelist. In the example of FIG. 23, the median value is 0.35, which does not exceed the threshold value of 1.04. judge not.

サーバ102の制御部は、監視カメラ101bが撮影した顔データの人物がホワイトリストに登録されていないと判定すると、未登録検知のアラーム信号を端末装置103に送信する(ステップS98)。 When the control unit of the server 102 determines that the person in the face data captured by the monitoring camera 101b is not registered in the whitelist, it transmits an alarm signal indicating non-registration detection to the terminal device 103 (step S98).

なお、図22および図23のシーケンスにおいて、監視カメラ101a,110bは、最初の顔データの送信後、2秒後に2枚の顔データをサーバ102に送信し、4秒後に2枚の顔データをサーバ102に送信したがこれに限られない。顔データを送信する秒数および枚数は、可変されてもよく、例えば、端末装置103から設定されてもよい。 In the sequences of FIGS. 22 and 23, surveillance cameras 101a and 110b transmit two pieces of face data to server 102 two seconds after the first transmission of face data, and two pieces of face data four seconds later. Although it is transmitted to the server 102, it is not limited to this. The number of seconds and the number of sheets for transmitting face data may be variable, and may be set from the terminal device 103, for example.

また、顔データを送信する秒数の数は、3以上であってもよい。例えば、監視カメラ101a,101bは、最初の顔データの送信後、2秒後、4秒後、6秒後と、3回顔データをサーバ102に送信してもよい。顔データを送信する秒数の数は、可変されてもよく、例えば、端末装置103から設定されてもよい。 Also, the number of seconds for transmitting face data may be 3 or more. For example, the surveillance cameras 101a and 101b may transmit the face data to the server 102 three times, 2 seconds, 4 seconds, and 6 seconds after the initial transmission of the face data. The number of seconds for transmitting face data may be variable, and may be set from the terminal device 103, for example.

図24は、ブラックリスト方式によってアラーム信号が出力されたときの端末装置103の画面例を示した図である。ブラックリスト方式によってアラーム信号が出力されたとき、端末装置103の表示装置には、図24に示す画像が表示される。画像には、監視カメラ101aが撮影した閾値を超えた顔画像と、テーブルTB102に登録されている顔画像とが表示される。 FIG. 24 is a diagram showing a screen example of the terminal device 103 when an alarm signal is output by the blacklist method. When an alarm signal is output by the blacklist method, the display device of the terminal device 103 displays an image shown in FIG. The images include face images captured by the surveillance camera 101a and exceeding the threshold, and face images registered in the table TB102.

なお、図24に示すライブボタンがクリックされた場合、端末装置103の表示装置には、監視カメラ101aが撮影している現在の映像が表示される。再生ボタンがクリックされた場合、端末装置103の表示装置には、監視カメラ101aが撮影した人物がブラックリストに登録されていると判定されたときの前後の映像が再生される。 When the live button shown in FIG. 24 is clicked, the display device of the terminal device 103 displays the current image captured by the monitoring camera 101a. When the play button is clicked, on the display device of the terminal device 103, images before and after the person captured by the surveillance camera 101a is determined to be registered in the blacklist are played back.

図25は、ホワイトリスト方式によってアラーム信号が出力されたときの端末装置103の画面例を示した図である。ホワイトリスト方式によってアラーム信号が出力されたとき、端末装置103の表示装置には、図25に示す画像が表示される。画像には、監視カメラ101bが撮影した閾値を超えなかった顔画像が表示される。 FIG. 25 is a diagram showing a screen example of the terminal device 103 when an alarm signal is output by the whitelist method. 25 is displayed on the display device of the terminal device 103 when the alarm signal is output by the whitelist method. In the image, a face image captured by the monitoring camera 101b that does not exceed the threshold is displayed.

ホワイトリスト方式によってアラーム信号が出力された人物の顔データは、テーブルTB102に登録されていない。従って、端末装置103の表示装置には、未登録顔の人物が検出されたことを示す画像171が表示される。 The face data of the person for whom the alarm signal was output by the whitelist method is not registered in the table TB102. Therefore, the display device of the terminal device 103 displays an image 171 indicating that a person with an unregistered face has been detected.

なお、図25に示すライブボタンがクリックされた場合、端末装置103の表示装置には、監視カメラ101bが撮影している現在の様子が表示される。再生ボタンがクリックされた場合、端末装置103の表示装置には、監視カメラ101bが撮影した人物がホワイトリストに登録されていないと判定されたときの前後の映像が再生される。 When the live button shown in FIG. 25 is clicked, the display device of the terminal device 103 displays the current situation captured by the surveillance camera 101b. When the play button is clicked, the display device of the terminal device 103 plays back the images before and after the person captured by the monitoring camera 101b was determined not to be registered in the whitelist.

端末装置103の表示装置には、ブラックリスト方式およびホワイトリスト方式に関わらず、アラーム信号が出力されたときの顔画像が表示されてもよい。 The display device of the terminal device 103 may display a face image when the alarm signal is output regardless of the blacklist method or the whitelist method.

図26は、アラーム信号が出力されたときの端末装置103の画面例を示した図である。図26に示す端末装置103の表示装置には、ブラックリスト方式によってアラーム信号が出力されたときの画像と、ホワイトリスト方式によってアラーム信号が出力されたときの画像とが表示されている。すなわち、端末装置103の表示装置には、売り場エリア(ゾーンA)にブラックリストに登録された人物が出現したときの画像と、従業員エリア(ゾーンB)にホワイトリストに登録されていない人物が出現したときの画像とが混在して表示される。 FIG. 26 is a diagram showing a screen example of the terminal device 103 when an alarm signal is output. The display device of the terminal device 103 shown in FIG. 26 displays an image when the alarm signal is output by the blacklist method and an image when the alarm signal is output by the whitelist method. That is, the display device of the terminal device 103 displays an image of a person registered in the blacklist in the sales area (zone A) and a person not registered in the whitelist in the employee area (zone B). The image at the time of appearance is mixed and displayed.

以上説明したように、サーバ102は、ゾーンAに設置された監視カメラ101aから第1顔データを受信し、ゾーンBに設置された監視カメラ101bから第2顔データを受信する通信部を有する。また、サーバ102は、第1顔データと、ブラックリストに登録された登録顔データとを照合して、ブラックリストに登録された登録顔データの人物のゾーンAへの立ち入りを判定し、第2顔データと、ホワイトリストに登録された登録顔データとを照合して、ホワイトリストに登録されていない登録顔データの人物のゾーンBへの立ち入りを判定する制御部を有する。 As described above, the server 102 has a communication unit that receives the first facial data from the surveillance camera 101a installed in zone A and the second facial data from the surveillance camera 101b installed in zone B. In addition, the server 102 collates the first face data with registered face data registered in the blacklist, determines whether the person of the registered face data registered in the blacklist has entered the zone A, It has a control unit that compares face data with registered face data registered in the whitelist and determines whether a person whose registered face data is not registered in the whitelist enters zone B.

これにより、サーバ102は、ゾーンごとにおいて、人の立ち入りを監視する条件が変わる場合でも、ゾーンへの人の立ち入りを適切に監視できる。例えば、サーバ102は、売り場であるゾーンAにおいては、注意人物の立ち入りを、ブラックリストを用いて判定し、バックヤードであるゾーンBにおいては、従業員以外の人物の立ち入りを、ホワイトリストを用いて判定し、ゾーンA,Bへの人の立ち入りを適切に監視できる。 As a result, the server 102 can appropriately monitor the entry of people into the zone even if the conditions for monitoring the entry of people change for each zone. For example, the server 102 uses a blacklist to determine the entry of a cautionary person in zone A, which is a sales floor, and uses a whitelist to determine the entry of persons other than employees in zone B, which is a backyard. , and the entry of people into zones A and B can be appropriately monitored.

(変形例)
監視カメラシステムは、例えば、会社またはマンションに用いられてもよい。例えば、監視カメラシステムは、会社の入り口のゾーンを、ブラックリストを用いて判定し、建物内の各部署のゾーンを、ホワイトリストを用いて判定してもよい。また、例えば、監視カメラシステムは、マンションの入り口の共用ゾーンを、ブラックリストを用いて判定し、建物内の各階のゾーンを、ホワイトリストを用いて判定してもよい。
(Modification)
A surveillance camera system may be used, for example, in a company or an apartment building. For example, a surveillance camera system may use a blacklist to determine the zone of a company's entrance, and a whitelist to determine the zone of each department within the building. Also, for example, the surveillance camera system may determine the common zone at the entrance of the condominium using a blacklist, and determine the zones of each floor in the building using a whitelist.

(第5の実施の形態)
第5の実施の形態では、第4の実施の形態で説明したゾーンBに、ホワイトリストに登録されていない人物が立ち入った場合、端末装置103からの指示に応じて、ゾーンBに立ち入ったその人物の顔データを、ホワイトリストに登録する。また、第5の実施の形態では、第4の実施の形態で説明したゾーンBに、ホワイトリストに登録されていない人物が立ち入った場合、端末装置103からの指示に応じて、ゾーンBに立ち入ったその人物の顔データを、ゾーンAのブラックリストに登録する。
(Fifth embodiment)
In the fifth embodiment, when a person who is not registered in the white list enters zone B described in the fourth embodiment, the person who enters zone B according to an instruction from the terminal device 103 Register the face data of a person in the whitelist. Further, in the fifth embodiment, when a person who is not registered in the whitelist enters zone B described in the fourth embodiment, he/she enters zone B according to an instruction from terminal device 103. Then, the face data of the person is registered in the zone A blacklist.

図27は、第5の実施の形態に係る監視カメラシステムの一例を示した図である。図27において、図15と同じものには同じ符号が付してある。図27には、人の顔データ201が示してある。 FIG. 27 is a diagram showing an example of a surveillance camera system according to the fifth embodiment. In FIG. 27, the same components as in FIG. 15 are denoted by the same reference numerals. FIG. 27 shows face data 201 of a person.

顔データ201は、例えば、店舗の従業員である。従業員は、商品売り場であるゾーンAに立ち入ることができるため、ブラックリストには登録されていない。従業員は、バックヤードであるゾーンBに立ち入ることができるが、ホワイトリストに登録されていないとする。 Face data 201 is, for example, an employee of a store. Employees are not blacklisted because they are allowed to enter Zone A, which is a product sales floor. The employee can enter zone B, which is the backyard, but is not registered in the whitelist.

顔データ201の従業員は、ブラックリストに登録されていない。従って、顔データ201の従業員がゾーンAに立ち入っても、サーバ102の制御部は、アラーム信号を端末装置103および警報装置104a,104b,105a,105bに出力しない。 The employee of face data 201 is not blacklisted. Therefore, even if the employee of face data 201 enters zone A, the controller of server 102 does not output an alarm signal to terminal device 103 and alarm devices 104a, 104b, 105a, and 105b.

顔データ201の従業員は、ホワイトリストに登録されていない。従って、顔データ201の従業員がゾーンBに立ち入ると、サーバ102の制御部は、アラーム信号を端末装置103および警報装置104a,104b,105a,105bに出力する。また、サーバ102の制御部は、監視カメラ101bが撮影した顔データ201を端末装置103に出力する。 The employee of face data 201 is not whitelisted. Therefore, when the employee of face data 201 enters zone B, the control unit of server 102 outputs an alarm signal to terminal device 103 and alarm devices 104a, 104b, 105a, and 105b. Also, the control unit of the server 102 outputs the face data 201 captured by the monitoring camera 101 b to the terminal device 103 .

端末装置103は、アラーム信号と、監視カメラ101bが撮影した顔データ201とを受信すると、受信した顔データ201の画像を表示装置に表示する。端末装置103を操作するオペレータは、端末装置103の表示装置に表示された顔データ201の人物が、例えば、ゾーンBに立ち入ることのできる従業員であるという確認が取れると、端末装置103を操作して、従業員の顔データ201をホワイトリストに登録するよう、サーバ102に指示する。 Upon receiving the alarm signal and the face data 201 captured by the monitoring camera 101b, the terminal device 103 displays an image of the received face data 201 on the display device. The operator who operates the terminal device 103 operates the terminal device 103 after confirming that the person in the face data 201 displayed on the display device of the terminal device 103 is, for example, an employee who can enter zone B. Then, the server 102 is instructed to register the employee's face data 201 in the whitelist.

サーバ102の制御部は、端末装置103からの登録指示に応じて、端末装置103の表示装置に表示された顔データ201をホワイトリストに登録する。すなわち、サーバ102の制御部は、アラーム信号の送信契機となった従業員の顔データ201をホワイトリストに登録する。これにより、サーバ102の制御部は、顔データ201の従業員が、次にゾーンBに立ち入っても、端末装置103および警報装置104a,104b,105a,105bにアラーム信号を出力しない。 The control unit of the server 102 registers the face data 201 displayed on the display device of the terminal device 103 in the whitelist in response to the registration instruction from the terminal device 103 . That is, the control unit of the server 102 registers in the whitelist the face data 201 of the employee that triggered the transmission of the alarm signal. As a result, the control unit of the server 102 does not output an alarm signal to the terminal device 103 and the alarm devices 104a, 104b, 105a, 105b even if the employee of the face data 201 enters the zone B next time.

監視カメラシステムの上記処理によって、端末装置103のオペレータは、ゾーンBに立ち入ることができる従業員の顔データを、例えば、従業員から受領しなくても、監視カメラ101bが撮影した顔データ201を用いて容易にホワイトリストに登録できる。また、従業員は、従業員の顔を撮影し、撮影した顔データを端末装置103に送信しなくてもよい。 By the above processing of the monitoring camera system, the operator of the terminal device 103 can obtain the face data 201 captured by the monitoring camera 101b of the employee who can enter the zone B, for example, without receiving the face data 201 from the employee. can be easily whitelisted using Further, the employee does not have to photograph the employee's face and transmit the photographed face data to the terminal device 103 .

なお、顔データ201は、最初、ホワイトリストに登録されていない。従って、顔データ201が、端末装置103によってホワイトリストに登録されるまでは、サーバ102から端末装置103および警報装置104a,104b,105a,105bにアラーム信号が送信される。 Note that the face data 201 is not registered in the whitelist at first. Therefore, until the face data 201 is registered in the whitelist by the terminal device 103, an alarm signal is transmitted from the server 102 to the terminal device 103 and the alarm devices 104a, 104b, 105a and 105b.

図28は、第5の実施の形態に係る監視カメラシステムの一例を示した図である。図28において、図15と同じものには同じ符号が付してある。図28には、人の顔データ202が示してある。 FIG. 28 is a diagram showing an example of a surveillance camera system according to the fifth embodiment. In FIG. 28, the same components as in FIG. 15 are denoted by the same reference numerals. FIG. 28 shows face data 202 of a person.

顔データ202は、例えば、店舗に来店した人物の顔データである。来店者は、サーバ102のブラックリストおよびホワイトリストに登録されていないとする。 The face data 202 is, for example, face data of a person who has visited the store. Assume that the visitor is not registered in the blacklist and whitelist of the server 102 .

顔データ202の来店者は、ブラックリストに登録されていない。従って、顔データ202の来店者がゾーンAに立ち入っても、サーバ102の制御部は、アラーム信号を端末装置103および警報装置104a,104b,105a,105bに出力しない。 The visitor of face data 202 is not registered in the blacklist. Therefore, even if the visitor of face data 202 enters zone A, the control unit of server 102 does not output an alarm signal to terminal device 103 and alarm devices 104a, 104b, 105a, and 105b.

顔データ202の来店者は、ホワイトリストに登録されていない。従って、顔データ202の従業員がゾーンBに立ち入ると、サーバ102の制御部は、アラーム信号を端末装置103および警報装置104a,104b,105a,105bに出力する。また、サーバ102の制御部は、監視カメラ101bが撮影した顔データ202を端末装置103に出力する。 The visitor of face data 202 is not registered in the whitelist. Therefore, when the employee of face data 202 enters zone B, the control unit of server 102 outputs an alarm signal to terminal device 103 and alarm devices 104a, 104b, 105a, and 105b. Also, the control unit of the server 102 outputs face data 202 photographed by the monitoring camera 101 b to the terminal device 103 .

端末装置103は、アラーム信号と、監視カメラ101bが撮影した顔データ202とを受信すると、受信した顔データ202の画像を表示装置に表示する。端末装置103を操作するオペレータは、端末装置103の表示装置に表示された顔データ202の人物が、例えば、ゾーンBに立ち入ることのできる従業員でないという確認が取れると、端末装置103を操作して、来店者の顔データ202をブラックリストに登録するよう、サーバ102に指示する。 Upon receiving the alarm signal and the face data 202 captured by the monitoring camera 101b, the terminal device 103 displays an image of the received face data 202 on the display device. The operator who operates the terminal device 103 operates the terminal device 103 after confirming that the person in the face data 202 displayed on the display device of the terminal device 103 is not, for example, an employee who can enter zone B. Then, the server 102 is instructed to register the face data 202 of the visitor in the blacklist.

サーバ102の制御部は、端末装置103からの登録指示に応じて、端末装置103の表示装置に表示された顔データ202をブラックリストに登録する。すなわち、サーバ102の制御部は、アラーム信号の送信契機となった来店者の顔データ202をブラックリストに登録する。これにより、関係者以外が立ち入れないゾーンBに立ち入った来店者が、例えば、再来店してゾーンAに立ち入ると、サーバ102の制御部は、端末装置103および警報装置104a,104b,105a,105bにアラーム信号を出力する。店舗の従業員は、関係者以外が立ち入れないゾーンBに立ち入った来店者を監視することができる。 The control unit of the server 102 registers the face data 202 displayed on the display device of the terminal device 103 in the blacklist in response to the registration instruction from the terminal device 103 . That is, the control unit of the server 102 registers in the blacklist the face data 202 of the visitor who triggered the transmission of the alarm signal. As a result, when a visitor who has entered zone B, which is restricted to authorized persons, enters zone A again, for example, the control unit of server 102 controls terminal device 103 and alarm devices 104a, 104b, 105a, 105b outputs an alarm signal. A store employee can monitor visitors who enter Zone B, which is off-limits to unauthorized persons.

監視カメラシステムの上記処理によって、端末装置103のオペレータは、ゾーンAの立ち入りを監視したい人物の顔データを、例えば、従業員等から受領しなくても、監視カメラ101bが撮影した顔データ202を用いて容易にブラックリストに登録できる。また、従業員は、ゾーンAへの立ち入りを監視したい人物の顔を撮影し、撮影した顔データを端末装置103に送信しなくてもよい。 Through the above processing of the monitoring camera system, the operator of the terminal device 103 can obtain the face data 202 captured by the monitoring camera 101b without receiving the face data of the person whose entry into zone A is to be monitored, for example, from an employee. can be easily blacklisted using In addition, the employee does not have to photograph the face of the person whose entry into zone A is to be monitored and transmit the photographed face data to the terminal device 103 .

図29は、監視カメラシステムの動作例を示したシーケンス図である。図29は、図27で説明したホワイトリスト登録に対応するシーケンス図である。図29に示すステップS101~S106の処理は、図19で説明したステップS41~S46と同様であり、その説明を省略する。 FIG. 29 is a sequence diagram showing an operation example of the surveillance camera system. FIG. 29 is a sequence diagram corresponding to whitelist registration described in FIG. The processing of steps S101 to S106 shown in FIG. 29 is the same as steps S41 to S46 described with reference to FIG. 19, and the description thereof will be omitted.

ゾーンBの監視カメラ101bの撮像部は、従業員を撮影したとする。従業員は、例えば、初めて建物A101の店舗に来訪した従業員であり、ホワイトリストに登録されていないとする。監視カメラ101bの制御部は、撮像部が撮影した映像の中から人の顔を切り出し、切り出した顔の顔データと、監視カメラ101bのカメラ識別情報とをサーバ102に送信する(ステップS107)。 Assume that the imaging unit of the surveillance camera 101b in zone B has captured an image of an employee. The employee is, for example, an employee who has visited the store in building A101 for the first time and is not registered in the whitelist. The control unit of the monitoring camera 101b cuts out a human face from the image captured by the imaging unit, and transmits face data of the cut out face and camera identification information of the monitoring camera 101b to the server 102 (step S107).

サーバ102の制御部は、ステップS107にて送信された顔データ206と、登録DBに記憶されている顔データとを照合する(ステップS108)。顔データの照合方法は、図19のステップS53で説明した方法と同様であり、その説明を省略する。なお、顔データ206の従業員は、ホワイトリストに登録されていないので、サーバ102の制御部は、顔データ206はホワイトリストに登録されていない(未登録顔検知)と判定する。 The control unit of server 102 collates face data 206 transmitted in step S107 with face data stored in the registration DB (step S108). The method of matching face data is the same as the method described in step S53 of FIG. 19, and the description thereof will be omitted. Since the employee of the face data 206 is not registered in the whitelist, the control unit of the server 102 determines that the face data 206 is not registered in the whitelist (unregistered face detection).

サーバ102の制御部は、ステップS108の照合結果(未登録顔検知のアラーム信号)を端末装置103および警報装置104a,105a,105bに送信する(ステップS109)。なお、サーバ102の制御部は、未登録顔検知を判定した場合、監視カメラ101bが撮影した顔データ206を端末装置103に送信する。端末装置103の制御部は、サーバ102から送信された顔データ206を表示装置に表示する。 The control unit of the server 102 transmits the collation result (alarm signal of unregistered face detection) of step S108 to the terminal device 103 and the alarm devices 104a, 105a, and 105b (step S109). Note that the control unit of the server 102 transmits the face data 206 captured by the surveillance camera 101b to the terminal device 103 when the detection of the unregistered face is determined. The control unit of the terminal device 103 displays the face data 206 transmitted from the server 102 on the display device.

端末装置103の制御部は、オペレータから、顔データ206をホワイトリストに登録する操作を受付けると、顔登録指示をサーバ102に送信する(ステップS110)。 Upon receiving an operation from the operator to register the face data 206 in the whitelist, the control unit of the terminal device 103 transmits a face registration instruction to the server 102 (step S110).

サーバ102の制御部は、ステップS110にて送信された顔登録指示の受信に応じて、ステップS109のアラーム信号の送信契機となった顔データ206を登録DBのテーブルTB102に登録する(ステップS111)。 Upon receiving the face registration instruction transmitted in step S110, the control unit of server 102 registers face data 206 that triggered transmission of the alarm signal in step S109 in table TB102 of the registration DB (step S111). .

ゾーンBの監視カメラ101bの撮像部は、従業員を撮影したとする。従業員は、ステップS111の顔登録処理によって、ホワイトリストに登録された従業員である。監視カメラ101bの制御部は、撮像部が撮影した映像の中から人の顔を切り出し、切り出した顔の顔データと、監視カメラ101bのカメラ識別情報とをサーバ102に送信する(ステップS112)。 Assume that the imaging unit of the surveillance camera 101b in zone B has captured an image of an employee. The employee is an employee registered in the whitelist by the face registration processing in step S111. The control unit of the monitoring camera 101b cuts out a human face from the image captured by the imaging unit, and transmits face data of the cut out face and camera identification information of the monitoring camera 101b to the server 102 (step S112).

サーバ102の制御部は、ステップS112にて送信された顔データ207と、登録DBに記憶されている顔データとを照合する(ステップS113)。顔データ207は、ステップS111にて登録DBのテーブルTB102に登録された顔データ206と一致する。従って、サーバ102の制御部は、顔データ207の従業員は、ホワイトリストに登録された人物と判定する。 The control unit of the server 102 collates the face data 207 transmitted in step S112 with the face data stored in the registration DB (step S113). The face data 207 matches the face data 206 registered in the table TB102 of the registration DB in step S111. Therefore, the control unit of the server 102 determines that the employee of the face data 207 is a person registered in the whitelist.

図30は、監視カメラシステムの動作例を示したシーケンス図である。図30は、図28で説明したブラックリスト登録に対応するシーケンス図である。図30に示すステップS121~S126の処理は、図19で説明したステップS41~S46と同様であり、その説明を省略する。 FIG. 30 is a sequence diagram showing an operation example of the surveillance camera system. FIG. 30 is a sequence diagram corresponding to blacklist registration described in FIG. The processing of steps S121 to S126 shown in FIG. 30 is the same as steps S41 to S46 described with reference to FIG. 19, and the description thereof will be omitted.

ゾーンBの監視カメラ101bの撮像部は、来店者を撮影したとする。来店者は、ブラックリストおよびホワイトリストに登録されていないとする。監視カメラ101bの制御部は、撮像部が撮影した映像の中から人の顔を切り出し、切り出した顔の顔データと、監視カメラ101bのカメラ識別情報とをサーバ102に送信する(ステップS127)。 Assume that the imaging unit of the surveillance camera 101b in zone B has captured a visitor. It is assumed that the visitor is not registered in the blacklist and whitelist. The control unit of the monitoring camera 101b cuts out a human face from the image captured by the imaging unit, and transmits face data of the cut out face and camera identification information of the monitoring camera 101b to the server 102 (step S127).

サーバ102の制御部は、ステップS127にて送信された顔データ208と、登録DBに記憶されている顔データとを照合する(ステップS128)。顔データの照合方法は、図19のステップS53で説明した方法と同様であり、その説明を省略する。なお、顔データ208の来店者は、ホワイトリストに登録されていないので、サーバ102の制御部は、顔データ208はホワイトリストに登録されていない(未登録顔検知)と判定する。 The control unit of the server 102 collates the face data 208 transmitted in step S127 with the face data stored in the registration DB (step S128). The method of matching face data is the same as the method described in step S53 of FIG. 19, and the description thereof will be omitted. Since the visitor of the face data 208 is not registered in the whitelist, the control unit of the server 102 determines that the face data 208 is not registered in the whitelist (unregistered face detection).

サーバ102の制御部は、ステップS128の照合結果(未登録顔検知のアラーム信号)を端末装置103および警報装置104a,105a,105bに送信する(ステップS129)。なお、サーバ102の制御部は、未登録顔検知を判定した場合、監視カメラ101bが撮影した顔データ208を端末装置103に送信する。端末装置103の制御部は、サーバ102から送信された顔データ208を表示装置に表示する。 The control unit of the server 102 transmits the collation result (alarm signal of unregistered face detection) of step S128 to the terminal device 103 and the alarm devices 104a, 105a, and 105b (step S129). Note that the control unit of the server 102 transmits the face data 208 captured by the monitoring camera 101b to the terminal device 103 when the detection of the unregistered face is determined. The control unit of the terminal device 103 displays the face data 208 transmitted from the server 102 on the display device.

端末装置103の制御部は、オペレータから、顔データ208をブラックリストに登録する操作を受付けると、顔登録指示をサーバ102に送信する(ステップS130)。 When the control unit of the terminal device 103 receives an operation to register the face data 208 in the blacklist from the operator, it transmits a face registration instruction to the server 102 (step S130).

サーバ102の制御部は、ステップS130にて送信された顔登録指示の受信に応じて、ステップS129のアラーム信号の送信契機となった顔データ208を登録DBのテーブルTB102に登録する(ステップS131)。 Upon receiving the face registration instruction transmitted in step S130, the control unit of server 102 registers face data 208 that triggered transmission of the alarm signal in step S129 in table TB102 of the registration DB (step S131). .

ゾーンAの監視カメラ101aの撮像部は、来店者を撮影したとする。来店者は、ステップS131の顔登録処理によって、ブラックリストに登録された来店者である。監視カメラ101aの制御部は、撮像部が撮影した映像の中から人の顔を切り出し、切り出した顔の顔データと、監視カメラ101aのカメラ識別情報とをサーバ102に送信する(ステップS132)。 Assume that the imaging unit of the surveillance camera 101a in zone A has captured a visitor. The store visitor is a store visitor registered in the blacklist by the face registration process in step S131. The control unit of the monitoring camera 101a cuts out a human face from the image captured by the imaging unit, and transmits face data of the cut out face and camera identification information of the monitoring camera 101a to the server 102 (step S132).

サーバ102の制御部は、ステップS132にて送信された顔データ209と、登録DBに記憶されている顔データとを照合する(ステップS133)。顔データ209は、ステップS131にて登録DBのテーブルTB102に登録された顔データ208と一致する。従って、サーバ102の制御部は、顔データ209の来店者は、ブラックリストに登録された人物と判定する。サーバ102の制御部は、ステップS133の照合結果(不審者通知のアラーム信号)を端末装置103および警報装置104a,105a,105bに送信する(ステップS134)。 The control unit of server 102 collates face data 209 transmitted in step S132 with face data stored in the registration DB (step S133). The face data 209 matches the face data 208 registered in the table TB102 of the registration DB in step S131. Therefore, the control unit of the server 102 determines that the visitor of the face data 209 is a person registered in the blacklist. The control unit of the server 102 transmits the collation result (alarm signal of suspicious person notification) of step S133 to the terminal device 103 and the alarm devices 104a, 105a, and 105b (step S134).

以上説明したように、サーバ102は、監視カメラ101aから受信した第1顔データと、ホワイトリストに登録された第1登録顔データとを照合して、第1登録顔データの人物以外の人物のゾーンBへの立ち入りを判定する制御部と、第1登録顔データの人物以外の人物のゾーンBへの立ち入りが判定された場合、アラーム信号を端末装置103に送信する通信部と、を備える。サーバ102の制御部は、アラーム信号を受信した端末装置103からの指示に応じて、アラーム信号の送信契機となった人物の第1顔データを、ホワイトリストに登録する。これにより、オペレータは、登録顔データのホワイトリストへの登録を容易にできる。 As described above, the server 102 collates the first face data received from the surveillance camera 101a with the first registered face data registered in the whitelist, and determines whether the person other than the person in the first registered face data is identified. A control unit that determines entry into zone B, and a communication unit that transmits an alarm signal to terminal device 103 when it is determined that a person other than the person in the first registered face data has entered zone B. The control unit of the server 102 registers the first face data of the person who triggered the transmission of the alarm signal in the whitelist in accordance with the instruction from the terminal device 103 that received the alarm signal. This allows the operator to easily register registered face data in the whitelist.

また、サーバ102の制御部は、アラーム信号を受信した端末装置からの指示に応じて、アラーム信号の送信契機となった人物の第1顔データを、ブラックリストに登録する。これにより、オペレータは、登録顔データのブラックリストへの登録を容易にできる。 In addition, the control unit of the server 102 registers the first face data of the person who triggered the transmission of the alarm signal in the blacklist in accordance with the instruction from the terminal device that received the alarm signal. This allows the operator to easily register registered face data in the blacklist.

(第6の実施の形態)
第1の実施の形態では、サーバ2の制御部21は、テーブルTB2を参照し、顔データが撮影された人物のゾーンを特定する。そして、サーバ2の制御部21は、テーブルTB1を参照して、特定したゾーンに対応する顔データを取得し、取得した顔データと、監視カメラ1a~1cが撮影した顔データとを照合する。
(Sixth embodiment)
In the first embodiment, the control unit 21 of the server 2 refers to the table TB2 and identifies the zone of the person whose face data is captured. Then, the control unit 21 of the server 2 acquires face data corresponding to the specified zone by referring to the table TB1, and compares the acquired face data with the face data captured by the monitoring cameras 1a to 1c.

これに対し、第6の実施の形態では、サーバ2の制御部21は、監視カメラ1a~1cが撮影した顔データに基づいてテーブルTB1を参照し、顔データの人物の立ち入りが許可された許可ゾーンを取得する。そして、サーバ2の制御部21は、カメラ識別情報に基づいてテーブルTB2を参照し、顔データの人物が撮影された撮影ゾーンを取得し、許可ゾーンと撮影ゾーンとに基づいて顔データの人物の立ち入りの許可/不許可を判定する。 On the other hand, in the sixth embodiment, the control unit 21 of the server 2 refers to the table TB1 based on the face data captured by the monitoring cameras 1a to 1c, and determines whether the person in the face data is permitted to enter. get the zone Then, the control unit 21 of the server 2 refers to the table TB2 based on the camera identification information, acquires the photographing zone in which the person of the face data is photographed, and obtains the photographing zone of the person of the face data based on the permission zone and the photographing zone. Judge whether entry is permitted or not permitted.

第6の実施の形態における監視カメラシステムの構成および各装置のブロック構成は、第1の実施の形態における監視カメラシステムの構成および各装置のブロック構成と同様であり、その説明を省略する。 The configuration of the monitoring camera system and the block configuration of each device in the sixth embodiment are the same as the configuration of the monitoring camera system and the block configuration of each device in the first embodiment, so the description thereof will be omitted.

図31は、第6の実施の形態に係る監視カメラシステムの動作例を示したシーケンス図である。図31のシーケンス図において、図8のシーケンス図の処理と同じ処理には、同じ符号が付してある。以下では、図8のシーケンス図の処理と異なる処理について説明する。 FIG. 31 is a sequence diagram showing an operation example of the surveillance camera system according to the sixth embodiment. In the sequence diagram of FIG. 31, the same processes as those of the sequence diagram of FIG. 8 are given the same reference numerals. Processing different from the processing in the sequence diagram of FIG. 8 will be described below.

サーバ2の制御部21は、テーブルTB1に記憶されている顔データと、ステップS4にて受信した顔データ51とを照合する(ステップS141)。 The control unit 21 of the server 2 collates the face data stored in the table TB1 with the face data 51 received in step S4 (step S141).

サーバ2の制御部21は、ステップS141の照合により、ステップS4にて受信した顔データ51の人物の入室が許可された許可ゾーンを取得する(ステップS142)。 The control unit 21 of the server 2 acquires the permission zone in which the person of the face data 51 received in step S4 is permitted to enter the room by the collation in step S141 (step S142).

図31の例では、ステップS4にて受信した顔データ51は、図6に示したテーブルTB1の顔データ41baに一致する。顔データ41baに一致する顔データ51の人物は、図6に示したテーブルTB1より、ゾーンA,Bに入室できる。従って、ステップS4にて受信した顔データ51の人物の許可ゾーンは、ゾーンA,Bである。 In the example of FIG. 31, the face data 51 received in step S4 matches the face data 41ba of the table TB1 shown in FIG. A person whose face data 51 matches face data 41ba can enter zones A and B according to the table TB1 shown in FIG. Therefore, zones A and B are the permitted zones for the person in the face data 51 received in step S4.

サーバ2の制御部21は、ステップS4にて受信したカメラ識別情報に基づいて、テーブルTB2を参照し、ステップS4にて受信した顔データ51の撮影された撮影ゾーンを取得する(ステップS143)。 The control unit 21 of the server 2 refers to the table TB2 based on the camera identification information received in step S4, and obtains the photographing zone in which the face data 51 received in step S4 was photographed (step S143).

図31の例では、サーバ2の制御部21は、ステップS4にてカメラ識別情報「1a」を受信している。従って、サーバ2の制御部21は、ゾーンAを撮影ゾーンとして取得する。 In the example of FIG. 31, the control unit 21 of the server 2 has received the camera identification information "1a" in step S4. Therefore, the control unit 21 of the server 2 acquires the zone A as the photographing zone.

サーバ2の制御部21は、ステップS142にて取得した許可ゾーンと、ステップS143にて取得した撮影ゾーンとに基づいて、ステップS4にて受信した顔データ51の人物のゾーンA,Bへの立ち入りの許可を判定する。図8の例の場合、顔データ51の人物の許可ゾーンは、ゾーンA,Bである。また、顔データ51の人物の撮影ゾーンは、ゾーンAである。従って、顔データ51の人物は、ゾーンA,Bへの立ち入りが許可された人物であって、ゾーンAに居るので、サーバ2の制御部21は、顔データ51の人物は、ゾーンAへの立ち入りが許可された人物と判定する。すなわち、サーバ2の制御部21は、許可ゾーンに一致する撮影ゾーンが存在する場合、監視カメラによって撮影された人物は、撮影ゾーンへの立ち入りが許可された人物と判定する。 Based on the permission zone acquired in step S142 and the photographing zone acquired in step S143, the control unit 21 of the server 2 allows the person of the face data 51 received in step S4 to enter zones A and B. determine the permission of In the case of the example of FIG. 8, zones A and B are allowed zones for the person of the face data 51 . Also, the photographing zone of the person of the face data 51 is zone A. Therefore, the person of the face data 51 is a person who is permitted to enter the zones A and B, and is in the zone A. It is determined that the person is permitted to enter. That is, if there is a photographing zone that matches the permission zone, the control unit 21 of the server 2 determines that the person photographed by the surveillance camera is permitted to enter the photographing zone.

サーバ2の制御部21は、ゾーンA,Bへの立ち入り許可判定結果を端末装置3に送信する(ステップS144)。図31の例では、サーバ2の制御部21は、顔データ51の人物を、ゾーンAへの立ち入りが許可された人物と判定するので、立ち入りOKを示す情報を端末装置3に送信する。 The control unit 21 of the server 2 transmits to the terminal device 3 the determination result of permission to enter zones A and B (step S144). In the example of FIG. 31, the control unit 21 of the server 2 determines that the person in the face data 51 is permitted to enter the zone A, and therefore transmits information indicating that entry is OK to the terminal device 3 .

サーバ2の制御部21は、テーブルTB1に記憶されている顔データと、ステップS8にて受信した顔データ52とを照合する(ステップS145)。 The control unit 21 of the server 2 collates the face data stored in the table TB1 with the face data 52 received in step S8 (step S145).

サーバ2の制御部21は、ステップS145の照合により、ステップS9にて受信した顔データ52の人物の入室が許可された許可ゾーンを取得する(ステップS146)。 The control unit 21 of the server 2 acquires the permission zone in which the person of the face data 52 received in step S9 is permitted to enter the room through the collation in step S145 (step S146).

図31の例では、ステップS9にて受信した顔データ52は、図6に示したテーブルTB1の顔データ41ba,41bb,41bcに一致しない。顔データ41ba,41bb,41bcに一致しない顔データ52の人物は、ゾーンA,Bに入室できない。従って、ステップS9にて受信した顔データ52の人物の許可ゾーンは無く、サーバ2の制御部21は、顔データ52の人物は、ゾーンA,Bへの立ち入りが許可されていない人物と判定する。 In the example of FIG. 31, the face data 52 received in step S9 does not match the face data 41ba, 41bb, 41bc of the table TB1 shown in FIG. A person whose face data 52 does not match the face data 41ba, 41bb, and 41bc cannot enter the zones A and B. Therefore, there is no permission zone for the person of the face data 52 received in step S9, and the control unit 21 of the server 2 determines that the person of the face data 52 is not permitted to enter zones A and B. .

サーバ2の制御部21は、ゾーンA,Bへの立ち入り許可判定結果を端末装置3に送信する(ステップS147)。図31の例では、サーバ2の制御部21は、顔データ52の人物を、ゾーンA,Bへの立ち入りが許可されてない人物と判定するので、立ち入りNGを示す情報を端末装置3に送信する。 The control unit 21 of the server 2 transmits to the terminal device 3 the determination result of permission to enter zones A and B (step S147). In the example of FIG. 31, the control unit 21 of the server 2 determines that the person in the face data 52 is not permitted to enter the zones A and B, and therefore transmits information indicating entry NG to the terminal device 3. do.

以上説明したように、サーバ2は、建物A1の複数のゾーンA~Cの各々を撮影する監視カメラ1a~1cから、顔データを受信する通信部22を備える。サーバ2は、複数の監視カメラ1a~1c各々のカメラ識別情報と、複数のゾーンA~Cとを紐付けたテーブルTB2と、登録顔データと、登録顔データの人物の立ち入りが許可されたゾーンA~Cとを紐付けたテーブルTB1と、を備える。サーバ2は、顔データに基づいてテーブルTB1を参照して、顔データの人物の立ち入りが許可された許可ゾーンを取得してから、カメラ識別情報に基づいてテーブルTB2を参照して顔データの人物が撮影された撮影ゾーンを取得し、許可ゾーンと撮影ゾーンとに基づいて顔データの人物の立ち入りの許可/不許可を判定する制御部21を備える。これにより、サーバ2は、ゾーンA~Cごとに決められた人以外の人が、ゾーンA~Cに立ち入っていないかを判定できる。 As described above, the server 2 includes the communication unit 22 that receives face data from the monitoring cameras 1a to 1c that capture the respective zones A to C of the building A1. The server 2 includes a table TB2 linking camera identification information of each of the plurality of monitoring cameras 1a to 1c, a plurality of zones A to C, registered face data, and zones in which the persons of the registered face data are permitted to enter. and a table TB1 in which A to C are linked. Based on the face data, the server 2 refers to the table TB1 to acquire the permission zone in which the person of the face data is permitted to enter, and then refers to the table TB2 based on the camera identification information to identify the person of the face data. A control unit 21 acquires a photographing zone in which is photographed, and determines permission/non-permission of entry of the person of the face data based on the permission zone and the photographing zone. As a result, the server 2 can determine whether or not a person other than the persons determined for each of the zones A to C has entered the zones A to C.

(第7の実施の形態)
第7の実施の形態では、2つのテーブルにアクセスする端末装置が異なる。
(Seventh embodiment)
In the seventh embodiment, terminal devices that access the two tables are different.

図32は、第7の実施の形態に係る監視カメラシステムの一例を示した図である。図32に示すように、監視カメラシステムは、監視カメラ301a,301bと、サーバ302と、端末装置303,304と、を有している。 FIG. 32 is a diagram showing an example of a surveillance camera system according to the seventh embodiment. As shown in FIG. 32, the surveillance camera system has surveillance cameras 301 a and 301 b , a server 302 , and terminal devices 303 and 304 .

図32には、監視カメラシステムの他に建物A301の内部の平面図が示してある。建物A301は、例えば、コンサート会場である。以下では、建物A301をコンサート会場として説明する。 FIG. 32 shows a plan view of the interior of building A301 in addition to the surveillance camera system. Building A301 is, for example, a concert venue. Below, building A301 is explained as a concert hall.

建物A301は、ゾーンA,Bを有している。ゾーンAには、A席が設定される。ゾーンBには、B席が設定される。B席は、A席よりステージから遠い。A席とB席は、例えば、コンサート料金が異なる。 The building A301 has zones A and B. In zone A, A seats are set. In zone B, B seats are set. B seats are farther from the stage than A seats. The A seat and the B seat have, for example, different concert fees.

監視カメラ301aは、建物A301のゾーンAに設置される。監視カメラ301bは、建物A301のゾーンBに設置される。 A surveillance camera 301a is installed in zone A of building A301. A surveillance camera 301b is installed in zone B of building A301.

監視カメラ301a,301bは、ゾーンA,B内に居る人を撮影するよう建物A301に設置される。例えば、監視カメラ301aは、ゾーンA内の全体を撮影するように、ゾーンAの天井または壁等に設置される。監視カメラ301bは、ゾーンB内の全体を撮影するように、ゾーンBの天井または壁等に設置される。 Surveillance cameras 301a and 301b are installed in building A301 so as to photograph people in zones A and B, respectively. For example, the monitoring camera 301a is installed on the ceiling, wall, or the like of Zone A so as to photograph the entirety of Zone A. The monitoring camera 301b is installed on the ceiling, wall, or the like of Zone B so as to photograph the entire Zone B. FIG.

サーバ302は、例えば、LANまたはインターネット等のネットワークによって、監視カメラ301a,301bと接続されている。サーバ302は、建物A301内に設置されてもよいし、建物A301とは別の場所に設置されてもよい。 The server 302 is connected to surveillance cameras 301a and 301b via a network such as LAN or the Internet. The server 302 may be installed inside the building A301, or may be installed at a location separate from the building A301.

サーバ302は、ゾーンA,Bに立ち入ることができる人の顔データを記憶(登録)している。言い換えれば、サーバ302は、ゾーンA,Bに立ち入ることができる人のホワイトリストを有している。サーバ302は、監視カメラ301a,301bが撮影した人の顔データと、登録されている顔データとの照合を行う。サーバ302は、照合結果を、端末装置303に送信する。 The server 302 stores (registers) face data of people who can enter the zones A and B. FIG. In other words, server 302 has a whitelist of who can enter zones A and B. The server 302 compares the face data of the person captured by the monitoring cameras 301a and 301b with the registered face data. The server 302 transmits the matching result to the terminal device 303 .

端末装置303は、LANまたはインターネット等のネットワークによって、サーバ302と接続されている。端末装置303は、建物A301内に設置されてもよいし、建物A301とは別の場所に設置されてもよい。端末装置303は、例えば、パーソナルコンピュータ、スマートホン、またはタブレット端末等であってもよい。端末装置303は、例えば、コンサートを運営する会社のオペレータによって使用される。 The terminal device 303 is connected to the server 302 via a network such as LAN or the Internet. The terminal device 303 may be installed in the building A301, or may be installed in a place other than the building A301. The terminal device 303 may be, for example, a personal computer, a smart phone, a tablet terminal, or the like. The terminal device 303 is used, for example, by an operator of a company that manages concerts.

端末装置303は、例えば、コンサートを運営する会社のオペレータによって使用される。オペレータは、端末装置303を用いて、監視カメラ301a,301bの設定に関する情報を入力する。例えば、オペレータは、端末装置303を用いて、ゾーンA,Bと監視カメラ301a,301bのグルーピング設定を行う。また、オペレータは、例えば、端末装置303を用いて、ゾーンA,Bに不適切な人が居ないかを監視する。例えば、オペレータは、端末装置303を用いて、ゾーンAに立ち入ることができない人がゾーンAに居ないかを監視する。また、オペレータは、端末装置303を用いて、ゾーンBに立ち入ることができない人がゾーンBに居ないかを監視する。 The terminal device 303 is used, for example, by an operator of a company that manages concerts. The operator uses the terminal device 303 to input information regarding the settings of the monitoring cameras 301a and 301b. For example, the operator uses the terminal device 303 to set the zones A and B and the monitoring cameras 301a and 301b for grouping. Also, the operator uses the terminal device 303, for example, to monitor zones A and B for inappropriate people. For example, the operator uses the terminal device 303 to monitor whether there is a person in zone A who cannot enter zone A. Also, the operator uses the terminal device 303 to monitor whether or not there is a person in zone B who cannot enter zone B. FIG.

端末装置304は、LANまたはインターネット等のネットワークによって、サーバ302と接続されている。端末装置304は、例えば、パーソナルコンピュータ、スマートホン、またはタブレット端末等であってもよい。 The terminal device 304 is connected to the server 302 via a network such as LAN or the Internet. The terminal device 304 may be, for example, a personal computer, a smart phone, a tablet terminal, or the like.

端末装置304は、例えば、コンサートを視聴するユーザによって使用される。ユーザは、例えば、コンサートを視聴するため、端末装置304を用いて、コンサートのチケットを予約または購入する。 Terminal device 304 is used, for example, by a user watching a concert. A user, for example, uses the terminal device 304 to reserve or purchase tickets for a concert in order to watch the concert.

なお、ゾーンA,Bの各々には、複数の監視カメラが設置されてもよい。ゾーンA,Bの各々は、複数の監視カメラによって、ゾーンA,B内にいる人を撮影するように設置されてもよい。 A plurality of monitoring cameras may be installed in each of the zones A and B. Each of Zones A and B may be installed with a plurality of surveillance cameras to photograph persons within Zones A and B.

また、監視カメラ301a,301bには、ゾーンA,Bに既に設置されている監視カメラが用いられてもよい。例えば、監視カメラ301a,301bには、ゾーンA,Bの映像を録画する録画システムの一部として、既にゾーンA,Bに設置されている監視カメラを用いてもよい。この場合、監視カメラ301a,301bの出力を、録画システムとサーバ302とに分岐させてもよい。 Monitoring cameras already installed in zones A and B may be used as the monitoring cameras 301a and 301b. For example, the monitoring cameras 301a and 301b that are already installed in zones A and B as part of a recording system that records videos in zones A and B may be used. In this case, the outputs of the monitoring cameras 301a and 301b may be branched to the recording system and the server 302. FIG.

また、ゾーンの数は、2つに限られない。ゾーンは、3以上であってもよい。3以上のゾーン各々に設置される監視カメラは、サーバ302に接続される。サーバ302は、3以上のゾーン各々において、ブラックリストおよびホワイトリストのいずれか一方を用いて、ゾーンへの人の立ち入りを判定する。 Also, the number of zones is not limited to two. There may be three or more zones. Surveillance cameras installed in each of the three or more zones are connected to server 302 . Server 302 uses either blacklists or whitelists in each of the three or more zones to determine human access to the zones.

また、監視カメラシステムは、監視カメラ301a,301bが撮影した映像データを録画するレコーダを備えてもよい。監視カメラシステムは、監視カメラ301a,301bが撮影した映像データをリアルタイムで表示するモニタリング装置を備えてもよい。モニタリング装置は、例えば、パーソナルコンピュータ、スマートホン、またはタブレット端末等であってもよい。 The monitoring camera system may also include a recorder for recording video data captured by the monitoring cameras 301a and 301b. The monitoring camera system may include a monitoring device that displays video data captured by the monitoring cameras 301a and 301b in real time. The monitoring device may be, for example, a personal computer, a smart phone, a tablet terminal, or the like.

また、監視カメラ301a,301bは、図3で説明した監視カメラ1aと同様の構成を有し、その説明を省略する。サーバ302は、図4で説明したサーバ2と同様の構成を有し、その説明を省略する。ただし、サーバ302の通信部は、端末装置303,304と通信する。端末装置303,304は、図5で説明した端末装置3と同様の構成を有し、その説明を省略する。 Also, the monitoring cameras 301a and 301b have the same configuration as the monitoring camera 1a described in FIG. 3, and the description thereof will be omitted. The server 302 has the same configuration as the server 2 described with reference to FIG. 4, and the description thereof will be omitted. However, the communication unit of the server 302 communicates with the terminal devices 303 and 304 . The terminal devices 303 and 304 have the same configuration as the terminal device 3 explained in FIG. 5, so the explanation thereof is omitted.

図33は、テーブルTB301のアクセス例を説明する図である。図33に示すテーブルTB301は、図7で説明したテーブルTB2と同様である。ただし、図7のテーブルTB2は、3つのカメラ識別情報を有しているが、図33のテーブルTB301は、2つのカメラ識別情報を有している点が異なる。また、図33に示すカメラ識別情報「a」は、監視カメラ301aのカメラ識別情報であり、カメラ識別情報「b」は、監視カメラ301bのカメラ識別情報である。 FIG. 33 is a diagram illustrating an example of access to the table TB301. A table TB301 shown in FIG. 33 is the same as the table TB2 described in FIG. However, the table TB2 in FIG. 7 has three pieces of camera identification information, whereas the table TB301 in FIG. 33 has two pieces of camera identification information. Camera identification information “a” shown in FIG. 33 is the camera identification information of the monitoring camera 301a, and camera identification information “b” is the camera identification information of the monitoring camera 301b.

端末装置303は、テーブルTB301にアクセスできる。端末装置304は、テーブルTB301にアクセスできない。テーブルTB301は、端末装置303によって作成され、サーバ302の記憶部23に記憶される。また、テーブルTB2の情報は、例えば、端末装置303によって追加、変更、または削除されてもよい。 The terminal device 303 can access the table TB301. The terminal device 304 cannot access the table TB301. The table TB301 is created by the terminal device 303 and stored in the storage unit 23 of the server 302 . Information in the table TB2 may be added, changed, or deleted by the terminal device 303, for example.

図34は、テーブルTB302のアクセス例を説明する図である。図34に示すテーブルTB302は、図9で説明したテーブルTB11と同様である。ただし、図34のテーブルTB301に登録されている時刻は、図9のテーブルTB11に登録されている時刻と異なっている。 FIG. 34 is a diagram illustrating an example of access to the table TB302. A table TB302 shown in FIG. 34 is the same as the table TB11 described in FIG. However, the time registered in the table TB301 of FIG. 34 differs from the time registered in the table TB11 of FIG.

端末装置304は、テーブルTB302にアクセスできる。例えば、コンサートを視聴しようとするユーザは、端末装置304を用いて、ユーザの顔データ、席、および視聴しようとするコンサートの日時をテーブルTB302に登録できる。また、ユーザは、端末装置303を用いて、テーブルTB302の情報を追加、変更、または削除してもよい。 The terminal device 304 can access the table TB302. For example, a user who wants to watch a concert can use the terminal device 304 to register the user's face data, seat, and the date and time of the concert to be seen in the table TB302. Also, the user may use the terminal device 303 to add, change, or delete information in the table TB302.

端末装置303は、テーブルTB302にアクセスできてもよい。例えば、権限を持ったオペレータは、端末装置303を用いて、テーブルTB302の情報を閲覧、追加、変更、または削除してもよい。 The terminal device 303 may be able to access the table TB302. For example, an authorized operator may use terminal device 303 to view, add, change, or delete information in table TB302.

テーブルTB301,TB302は、サーバ302の記憶部に記憶されてもよい。また、テーブルTB301およびテーブルTB302の両方または一方は、サーバ302とは別体のデータベースに記憶されてもよい。別体のデータベースは、サーバ302の一部と捉えてもよい。以下では、テーブルTB301,TB302は、登録DBに記憶されとする。 Tables TB301 and TB302 may be stored in the storage unit of server 302 . Both or one of table TB301 and table TB302 may be stored in a database separate from server 302 . A separate database may be considered part of the server 302 . Below, the tables TB301 and TB302 are assumed to be stored in the registration DB.

図35は、監視カメラシステムの動作例を示したシーケンス図である。端末装置303の制御部は、オペレータの操作に応じて、サーバ302を介して登録DBに対し、ゾーンA,Bと、監視カメラ301a,301bとのグルーピング設定を行う(ステップS151,S152)。すなわち、端末装置303の制御部は、登録DBに対し、ゾーンA,Bと、監視カメラ301a,301bとの対応付けの設定を行う。これにより、登録DBには、例えば、図33に示したテーブルTB301が記憶される。 FIG. 35 is a sequence diagram showing an operation example of the surveillance camera system. The control unit of the terminal device 303 performs grouping setting of the zones A and B and the monitoring cameras 301a and 301b in the registration DB via the server 302 according to the operator's operation (steps S151 and S152). That is, the control unit of the terminal device 303 sets the association between the zones A and B and the monitoring cameras 301a and 301b in the registration DB. As a result, for example, the table TB301 shown in FIG. 33 is stored in the registration DB.

コンサートを予約する人は、例えば、端末装置304に顔データ、名前、予約するゾーンの情報(コンサート会場の席の情報)、およびコンサート会場に入る時間等の予約情報を入力する。端末装置304は、入力された予約情報をサーバ302に送信する(ステップS153)。 A person who reserves a concert inputs reservation information such as face data, name, information on the zone to be reserved (information on seats in the concert hall), and time to enter the concert hall into the terminal device 304, for example. The terminal device 304 transmits the input reservation information to the server 302 (step S153).

サーバ302の制御部は、端末装置304から送信された予約情報に基づいて、登録DBに対し、顔登録を行う(ステップS154)。すなわち、サーバ302の制御部は、登録DBにおいて、図34に示したテーブルTB302を生成する。 The control unit of the server 302 performs face registration in the registration DB based on the reservation information transmitted from the terminal device 304 (step S154). That is, the control unit of server 302 generates table TB302 shown in FIG. 34 in the registration DB.

例えば、図35の顔データ311の人物は、端末装置304を用いて、2019年xx月yy日の13:00から15:00に演奏されるコンサートを予約する。また、顔データ311の人物は、端末装置304を用いて、A席を予約する。この場合、テーブルTB302には、例えば、図34の点線枠A401に示す情報が記憶される。 For example, the person of the face data 311 in FIG. 35 uses the terminal device 304 to reserve a concert to be played on xx, yy, 2019 from 13:00 to 15:00. Also, the person of the face data 311 reserves the A seat using the terminal device 304 . In this case, the table TB302 stores, for example, the information indicated by the dotted line frame A401 in FIG.

サーバ302の制御部は、ステップS154の顔登録が完了すると、テーブルTB302に登録した予約情報を端末装置3に送信する(ステップS155)。端末装置303の管理者は、端末装置303が受信した予約情報によって、コンサート会場を予約した人の予約内容を把握できる。
端末装置303は、オペレータの操作に応じて、予約情報要求をサーバ302に送信する(ステップS156)。オペレータは、要求する予約情報として、例えば、日時または席(ゾーン)の情報を指定できる。
When the face registration in step S154 is completed, the control unit of the server 302 transmits the reservation information registered in the table TB302 to the terminal device 3 (step S155). The administrator of the terminal device 303 can grasp the content of the reservation made by the person who reserved the concert venue from the reservation information received by the terminal device 303 .
The terminal device 303 transmits a reservation information request to the server 302 according to the operator's operation (step S156). The operator can specify, for example, date and time or seat (zone) information as the requested reservation information.

サーバ302の制御部は、端末装置303から予約情報を受信すると、登録DBのテーブルTB302にアクセスし、予約情報を取得する(ステップS157)。 Upon receiving the reservation information from the terminal device 303, the control unit of the server 302 accesses the table TB302 of the registration DB and acquires the reservation information (step S157).

サーバ302の制御部は、テーブルTB302から取得した予約情報を端末装置303に送信する(ステップS158)。 The control unit of the server 302 transmits the reservation information acquired from the table TB302 to the terminal device 303 (step S158).

以上説明したように、サーバ302は、建物A301の複数のゾーンA,Bの各々を撮影する監視カメラ301a,301bから、顔データを受信する通信部と、顔データと、ゾーンA,Bごとの立ち入りが許可された人物の登録顔データとを照合し、顔データが撮影されたゾーンにおける、顔データの人物の立ち入りの可否を判定する制御部と、を備える。通信部は、端末装置303から、監視カメラ301a,301bの設定に関する情報を受信し、端末装置304から、複数のゾーンA,Bのうちの少なくとも1つのゾーンへの立ち入り許可を求める人物の登録顔データを受信する。これにより、ゾーンへの立ち入りを求める人物が直接登録顔データを監視カメラシステムに登録でき、便利となる。 As described above, the server 302 includes a communication unit that receives face data from the surveillance cameras 301a and 301b that capture images of the plurality of zones A and B of the building A301; a control unit that compares registered face data of a person permitted to enter and determines whether or not the person of the face data is allowed to enter the zone in which the face data was photographed. The communication unit receives from the terminal device 303 information about the settings of the monitoring cameras 301a and 301b, and from the terminal device 304, the registered face of the person requesting permission to enter at least one of the plurality of zones A and B. Receive data. This makes it convenient for a person who wants to enter the zone to directly register the registered face data in the surveillance camera system.

(変形例)
上記では、監視カメラシステムは、コンサート会場に適用されるとしたがこれに限られない。監視カメラシステムは、例えば、有料講座の会場、遊園地のアトラクション、映画館、新幹線等の列車、または飛行機等にも適用できる。
(Modification)
In the above description, the monitoring camera system is applied to concert halls, but it is not limited to this. The monitoring camera system can be applied, for example, to paid lecture halls, attractions in amusement parks, movie theaters, trains such as Shinkansen bullet trains, and airplanes.

例えば、監視カメラシステムを有料講座の会場に適用する場合、サーバ302は、人が適切な席(ゾーン)に座っているか否かを判定する。サーバ302は、有料講座の空席状況を把握してもよい。また、サーバ302は、どの席に誰が座っているかを判定してもよい。また、サーバ302は、成績と席との相関関係を算出してもよい。また、サーバ302は、有料講座の講師ごとにおける出席率を算出してもよい。 For example, when the surveillance camera system is applied to a venue for paid courses, the server 302 determines whether or not people are sitting in appropriate seats (zones). The server 302 may grasp the vacancy status of paid courses. Server 302 may also determine who is sitting in which seat. The server 302 may also calculate the correlation between grades and seats. The server 302 may also calculate the attendance rate for each lecturer of a paid course.

また、監視カメラシステムを遊園地のアトラクションに適用する場合、監視カメラ301a,301bは、アトラクション(ゾーン)ごとに設置されてもよい。サーバ302は、人が適切なアトラクションに居るか否かを判定してもよい。 Also, when the monitoring camera system is applied to an amusement park attraction, the monitoring cameras 301a and 301b may be installed for each attraction (zone). Server 302 may determine whether the person is at the appropriate attraction.

また、監視カメラシステムを映画館に適用する場合、監視カメラ301a,301bは、上映される部屋(ゾーン)ごとに設置されてもよい。サーバ302は、人が適切な部屋の席に座っているか否かを判定してもよい。 Also, when the surveillance camera system is applied to a movie theater, the surveillance cameras 301a and 301b may be installed in each room (zone) where the movie is shown. Server 302 may determine whether the person is seated in the appropriate room.

また、監視カメラシステムを新幹線に適用する場合、監視カメラ301a,301bは、車両(ゾーン)ごとに設置されてもよい。サーバ302は、人が適切な車両の席に座っているか否かを判定してもよい。これにより、検札を簡素化できる。 Moreover, when applying a monitoring camera system to a Shinkansen, the monitoring cameras 301a and 301b may be installed for each vehicle (zone). The server 302 may determine whether the person is seated in the appropriate vehicle seat. This simplifies ticket inspection.

以上、実施の形態について説明した。上記の各実施の形態は組み合わされてもよい。 The embodiment has been described above. Each of the above embodiments may be combined.

上述の各実施の形態において、テーブルに登録される登録顔データは、例えば、社員カードに付された写真であってもよい。例えば、カードリーダは、カメラを備え、社員カードに付された写真を撮影し、サーバに送信してもよい。 In each of the embodiments described above, the registered face data registered in the table may be, for example, a photograph attached to an employee card. For example, the card reader may be equipped with a camera, take a picture attached to the employee card, and send it to the server.

また、テーブルに登録される登録顔データは、レコーダに記憶された映像から取得されてもよい。例えば、オペレータは、レコーダに記憶された映像を端末装置で再生し、再生した映像から、テーブルに登録したい人物の顔を切り取り、切り取った顔の顔データをテーブルに登録してもよい。 Also, the registered face data registered in the table may be acquired from the video stored in the recorder. For example, the operator may reproduce the video stored in the recorder on the terminal device, cut out the face of the person to be registered in the table from the reproduced video, and register the face data of the cut face in the table.

また、テーブルに登録される登録顔データは、顔認証ゲートで撮影された顔データであってもよい。オペレータは、顔認証ゲートで撮影された顔データの画像を端末装置に表示し、表示した画像から、テーブルに登録したい人物の顔を切り取り、切り取った顔の顔データをテーブルに登録してもよい。 Also, the registered face data registered in the table may be face data photographed at a face authentication gate. The operator may display an image of the face data taken at the face authentication gate on the terminal device, cut out the face of the person to be registered in the table from the displayed image, and register the face data of the cut out face in the table. .

上述の実施の形態においては、各構成要素に用いる「・・・部」という表記は、「・・・回路(circuitry)」、「・・・デバイス」、「・・・ユニット」、又は、「・・・モジュール」といった他の表記に置換されてもよい。 In the above-described embodiments, the notation "... part" used for each component may be "... circuit (circuitry)", "... device", "... unit", or " . . module” may be substituted.

以上、図面を参照しながら実施の形態について説明したが、本開示はかかる例に限定されない。当業者であれば、特許請求の範囲に記載された範疇において、各種の変更例または修正例に想到し得ることは明らかである。そのような変更例または修正例についても、本開示の技術的範囲に属するものと了解される。また、本開示の趣旨を逸脱しない範囲において、実施の形態における各構成要素は任意に組み合わされてよい。 Although the embodiments have been described above with reference to the drawings, the present disclosure is not limited to such examples. It is obvious that a person skilled in the art can conceive various modifications or modifications within the scope of the claims. It is understood that such variations or modifications are also within the technical scope of the present disclosure. Further, each component in the embodiment may be combined arbitrarily within the scope of the present disclosure.

本開示はソフトウェア、ハードウェア、又は、ハードウェアと連携したソフトウェアで実現することが可能である。上記実施の形態の説明に用いた各機能ブロックは、部分的に又は全体的に、集積回路であるLSIとして実現され、上記実施の形態で説明した各プロセスは、部分的に又は全体的に、一つのLSI又はLSIの組み合わせによって制御されてもよい。LSIは個々のチップから構成されてもよいし、機能ブロックの一部または全てを含むように一つのチップから構成されてもよい。LSIはデータの入力と出力を備えてもよい。LSIは、集積度の違いにより、IC、システムLSI、スーパLSI、ウルトラLSIと呼称されることもある。 The present disclosure can be implemented in software, hardware, or software in conjunction with hardware. Each functional block used in the description of the above embodiments is partially or wholly implemented as an LSI, which is an integrated circuit, and each process described in the above embodiments is partially or wholly implemented as It may be controlled by one LSI or a combination of LSIs. An LSI may be composed of individual chips, or may be composed of one chip so as to include some or all of the functional blocks. The LSI may have data inputs and outputs. LSIs are also called ICs, system LSIs, super LSIs, and ultra LSIs depending on the degree of integration.

集積回路化の手法はLSIに限るものではなく、専用回路、汎用プロセッサ又は専用プロセッサで実現してもよい。また、LSI製造後に、プログラムすることが可能なFPGAや、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。本開示は、デジタル処理又はアナログ処理として実現されてもよい。 The method of circuit integration is not limited to LSI, and may be realized by a dedicated circuit, a general-purpose processor, or a dedicated processor. Alternatively, an FPGA that can be programmed after the LSI is manufactured, or a reconfigurable processor that can reconfigure the connections and settings of the circuit cells inside the LSI may be used. The present disclosure may be implemented as digital or analog processing.

さらには、半導体技術の進歩または派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行ってもよい。バイオ技術の適用等が可能性としてありえる。 Furthermore, if an integration technology that replaces the LSI appears due to advances in semiconductor technology or another derived technology, the technology may naturally be used to integrate the functional blocks. Application of biotechnology, etc. is possible.

サーバが有すべき機能の処理内容を記述したプログラムが提供される。そのプログラムをコンピュータで実行することにより、上記処理機能がコンピュータ上で実現される。 A program describing the processing contents of the functions that the server should have is provided. By executing the program on a computer, the above processing functions are realized on the computer.

本開示の監視カメラシステムは、ゾーンごとに決められた人以外の人が、ゾーンに立ち入っていないかを判定する監視カメラシステムにおいて有用である。 The surveillance camera system of the present disclosure is useful in a surveillance camera system that determines whether or not a person other than the person determined for each zone has entered the zone.

1a~1d,101a,101b,301a,301b 監視カメラ
2,102,302 サーバ
3,61,103,303,304 端末装置
11,81 撮像部
12,21,31,82 制御部
13,22,34,84 通信部
14,23,35,85 記憶部
32 入力部
33 表示部
41a,42a,121a,131a ゾーン識別情報
41b,41ba~41bc,51,52,91,92,111~113,131c,132a,132b,141~144,151~156,166~166,201,202,206,207,208,209,311 顔データ
42b,42ba~42bc,121b カメラ識別情報
71a~71c カードリーダ
83 カード通信部
104a,104b,105a,105b 警報装置
131b リスト情報
TB1,TB2,TB11,TB21,TB101,TB102,TB301,TB302 テーブル
A~C ゾーン
A1,A101,A301 建物
1a to 1d, 101a, 101b, 301a, 301b Surveillance camera 2, 102, 302 Server 3, 61, 103, 303, 304 Terminal device 11, 81 Imaging unit 12, 21, 31, 82 Control unit 13, 22, 34, 84 communication unit 14, 23, 35, 85 storage unit 32 input unit 33 display unit 41a, 42a, 121a, 131a zone identification information 41b, 41ba to 41bc, 51, 52, 91, 92, 111 to 113, 131c, 132a, 132b, 141-144, 151-156, 166-166, 201, 202, 206, 207, 208, 209, 311 face data 42b, 42ba-42bc, 121b camera identification information 71a-71c card reader 83 card communication section 104a, 104b, 105a, 105b Alarm device 131b List information TB1, TB2, TB11, TB21, TB101, TB102, TB301, TB302 Tables A to C Zones A1, A101, A301 Building

Claims (8)

建物の複数のゾーンの各々を撮影するカメラから、顔画像データを受信する通信部と、
複数のカメラ各々のカメラ識別情報と、前記複数のゾーンとを紐付けた第1のテーブルと、
登録顔画像データと、前記登録顔画像データの人物の立ち入りが許可されたゾーンとを紐付けた第2のテーブルと、
前記顔画像データに基づいて前記第2のテーブルを参照し、前記顔画像データの人物の立ち入りが許可された許可ゾーンを取得してから、前記カメラ識別情報に基づいて前記第1のテーブルを参照して前記顔画像データの人物が撮影された撮影ゾーンを取得し、前記許可ゾーンと前記撮影ゾーンとに基づいて前記顔画像データの人物の立ち入りの許可/不許可を判定する制御部と、を有する、
情報処理装置。
a communication unit that receives face image data from a camera that captures each of a plurality of zones of a building;
a first table that associates camera identification information of each of a plurality of cameras with the plurality of zones;
a second table that associates registered face image data with zones in which persons in the registered face image data are permitted to enter;
The second table is referred to based on the face image data, and after acquiring the permission zone in which the person of the face image data is permitted to enter, the first table is referred to based on the camera identification information. a control unit for obtaining a photographing zone in which the person of the face image data is photographed, and determining permission/non-permission of entry of the person of the face image data based on the permission zone and the photographing zone; have
Information processing equipment.
前記制御部は、前記許可ゾーンに一致する前記撮影ゾーンが存在する場合、前記顔画像データの人物の前記撮影ゾーンへの立ち入りの許可を判定する、
請求項1に記載の情報処理装置。
When the photographing zone that matches the permission zone exists, the control unit determines permission for the person of the face image data to enter the photographing zone.
The information processing device according to claim 1 .
前記制御部は、前記顔画像データに一致する前記登録顔画像データが前記第2のテーブルに登録されていない場合、前記顔画像データの人物の前記複数のゾーンへの立ち入りの不許可を判定する、
請求項1に記載の情報処理装置。
When the registered face image data matching the face image data is not registered in the second table, the control unit determines whether or not the person of the face image data is permitted to enter the plurality of zones. ,
The information processing device according to claim 1 .
コンピュータが行う判定方法であって、
建物の複数のゾーンの各々を撮影するカメラから、顔画像データを受信し、
前記顔画像データに基づいて、登録顔画像データと、前記登録顔画像データの人物の立ち入りが許可されたゾーンとを紐付けた第2のテーブルを参照し、前記顔画像データの人物の立ち入りが許可された許可ゾーンを取得し、
前記顔画像データの人物を撮影したカメラのカメラ識別情報に基づいて、前記複数のカメラ各々のカメラ識別情報と、前記複数のゾーンとを紐付けた第1のテーブルを参照して前記顔画像データの人物が撮影された撮影ゾーンを取得し、
前記許可ゾーンと前記撮影ゾーンとに基づいて前記顔画像データの人物の立ち入りの許可/不許可を判定する、
判定方法。
A determination method performed by a computer,
receiving facial image data from cameras photographing each of a plurality of zones of a building;
Based on the face image data, a second table that associates the registered face image data with the zones in which the person in the registered face image data is permitted to enter is referred to, and the person in the face image data is allowed to enter. Get the permitted zone of authorization,
The face image data by referring to a first table linking the camera identification information of each of the plurality of cameras and the plurality of zones based on the camera identification information of the camera that photographed the person in the face image data. Get the shooting zone where the person was shot,
Determining permission/non-permission of entry of the person of the face image data based on the permission zone and the photographing zone;
judgment method.
コンピュータに、
建物の複数のゾーンの各々を撮影するカメラから、顔画像データを受信し、
前記顔画像データに基づいて、登録顔画像データと、前記登録顔画像データの人物の立ち入りが許可されたゾーンとを紐付けた第2のテーブルを参照し、前記顔画像データの人物の立ち入りが許可された許可ゾーンを取得し、
前記顔画像データの人物を撮影したカメラのカメラ識別情報に基づいて、前記複数のカメラ各々のカメラ識別情報と、前記複数のゾーンとを紐付けた第1のテーブルを参照して前記顔画像データの人物が撮影された撮影ゾーンを取得し、
前記許可ゾーンと前記撮影ゾーンとに基づいて前記顔画像データの人物の立ち入りの許可/不許可を判定する、処理を実行させる、
プログラム。
to the computer,
receiving facial image data from cameras photographing each of a plurality of zones of a building;
Based on the face image data, a second table that associates the registered face image data with the zones in which the person in the registered face image data is permitted to enter is referred to, and the person in the face image data is allowed to enter. Get the permitted zone of authorization,
The face image data by referring to a first table linking the camera identification information of each of the plurality of cameras and the plurality of zones based on the camera identification information of the camera that photographed the person in the face image data. Get the shooting zone where the person was shot,
executing a process of determining permission/non-permission of entry of the person of the face image data based on the permission zone and the photographing zone;
program.
建物の複数のゾーンの各々を撮影するカメラから、顔画像データを受信する通信部と、
複数のカメラ各々のカメラ識別情報と、前記複数のゾーンとを紐付けた第1の情報と、登録顔画像データと、前記登録顔画像データの人物の立ち入りが許可されたゾーンとを紐付けた第2の情報を保存するメモリと、
前記顔画像データに基づいて前記第2の情報を参照し、前記顔画像データの人物の立ち入りが許可された許可ゾーンを取得してから、前記カメラ識別情報に基づいて前記第1の情報を参照して前記顔画像データの人物が撮影された撮影ゾーンを取得し、前記許可ゾーンと前記撮影ゾーンとに基づいて前記顔画像データの人物の立ち入りの許可/不許可を判定する制御部と、を有する、
情報処理装置。
a communication unit that receives face image data from a camera that captures each of a plurality of zones of a building;
camera identification information for each of a plurality of cameras, first information linking the plurality of zones, registered face image data, and a zone in which a person is permitted to enter in the registered face image data are linked. a memory for storing second information;
After referring to the second information based on the face image data to obtain a permission zone in which the person of the face image data is permitted to enter, referring to the first information based on the camera identification information a control unit for obtaining a photographing zone in which the person of the face image data is photographed, and determining permission/non-permission of entry of the person of the face image data based on the permission zone and the photographing zone; have
Information processing equipment.
コンピュータが行う判定方法であって、
建物の複数のゾーンの各々を撮影するカメラから、顔画像データを受信し、
前記顔画像データに基づいて、登録顔画像データと、前記登録顔画像データの人物の立ち入りが許可されたゾーンとを紐付けた第2の情報を参照し、前記顔画像データの人物の立ち入りが許可された許可ゾーンを取得し、
前記顔画像データの人物を撮影したカメラのカメラ識別情報に基づいて、前記複数のカメラ各々のカメラ識別情報と、前記複数のゾーンとを紐付けた第1の情報を参照して前記顔画像データの人物が撮影された撮影ゾーンを取得し、
前記許可ゾーンと前記撮影ゾーンとに基づいて前記顔画像データの人物の立ち入りの許可/不許可を判定する、
判定方法。
A determination method performed by a computer,
receiving facial image data from cameras photographing each of a plurality of zones of a building;
Based on the face image data, reference is made to second information that associates the registered face image data with a zone in which the person in the registered face image data is permitted to enter, and the person in the face image data is allowed to enter. Get the permitted zone of authorization,
The face image data is obtained by referring to first information linking the camera identification information of each of the plurality of cameras and the plurality of zones based on the camera identification information of the camera that photographed the person of the face image data. Get the shooting zone where the person was shot,
Determining permission/non-permission of entry of the person of the face image data based on the permission zone and the photographing zone;
judgment method.
コンピュータに、
建物の複数のゾーンの各々を撮影するカメラから、顔画像データを受信し、
前記顔画像データに基づいて、登録顔画像データと、前記登録顔画像データの人物の立ち入りが許可されたゾーンとを紐付けた第2の情報を参照し、前記顔画像データの人物の立ち入りが許可された許可ゾーンを取得し、
前記顔画像データの人物を撮影したカメラのカメラ識別情報に基づいて、前記複数のカメラ各々のカメラ識別情報と、前記複数のゾーンとを紐付けた第1の情報を参照して前記顔画像データの人物が撮影された撮影ゾーンを取得し、
前記許可ゾーンと前記撮影ゾーンとに基づいて前記顔画像データの人物の立ち入りの許可/不許可を判定する、処理を実行させる、
プログラム。
to the computer,
receiving facial image data from cameras photographing each of a plurality of zones of a building;
Based on the face image data, reference is made to second information that associates the registered face image data with a zone in which the person in the registered face image data is permitted to enter, and the person in the face image data is allowed to enter. Get the permitted zone of authorization,
The face image data is obtained by referring to first information linking the camera identification information of each of the plurality of cameras and the plurality of zones based on the camera identification information of the camera that photographed the person of the face image data. Get the shooting zone where the person was shot,
executing a process of determining permission/non-permission of entry of the person of the face image data based on the permission zone and the photographing zone;
program.
JP2021102415A 2019-07-03 2021-06-21 Information processing device, determination method, and program Active JP7201748B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021102415A JP7201748B2 (en) 2019-07-03 2021-06-21 Information processing device, determination method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019124579A JP6905553B2 (en) 2019-07-03 2019-07-03 Information processing device, registration method, judgment method, and program
JP2021102415A JP7201748B2 (en) 2019-07-03 2021-06-21 Information processing device, determination method, and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019124579A Division JP6905553B2 (en) 2019-01-21 2019-07-03 Information processing device, registration method, judgment method, and program

Publications (2)

Publication Number Publication Date
JP2021168153A JP2021168153A (en) 2021-10-21
JP7201748B2 true JP7201748B2 (en) 2023-01-10

Family

ID=74227997

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019124579A Active JP6905553B2 (en) 2019-01-21 2019-07-03 Information processing device, registration method, judgment method, and program
JP2021102415A Active JP7201748B2 (en) 2019-07-03 2021-06-21 Information processing device, determination method, and program

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2019124579A Active JP6905553B2 (en) 2019-01-21 2019-07-03 Information processing device, registration method, judgment method, and program

Country Status (1)

Country Link
JP (2) JP6905553B2 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004280477A (en) 2003-03-17 2004-10-07 Casio Comput Co Ltd Facility usage management system, and program
JP2008141386A (en) 2006-11-30 2008-06-19 Secom Co Ltd Monitoring system
JP2010026956A (en) 2008-07-24 2010-02-04 Mitsubishi Electric Building Techno Service Co Ltd Remote management system of building equipment
JP2012226485A (en) 2011-04-18 2012-11-15 Mitsubishi Electric Corp Monitoring device
JP2016110308A (en) 2014-12-04 2016-06-20 Lykaon株式会社 Wandering prevention system
JP2018128970A (en) 2017-02-10 2018-08-16 株式会社テイパーズ Non-stop face authentication system
WO2018193813A1 (en) 2017-04-21 2018-10-25 パナソニックIpマネジメント株式会社 Staying state display system and staying state display method

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7634662B2 (en) * 2002-11-21 2009-12-15 Monroe David A Method for incorporating facial recognition technology in a multimedia surveillance system
JP2003109129A (en) * 2001-09-27 2003-04-11 Toshiba Corp Device, system and method for managing passage
JP4032908B2 (en) * 2002-10-01 2008-01-16 カシオ計算機株式会社 Visitor management system and program
JP2009098780A (en) * 2007-10-15 2009-05-07 Konica Minolta Holdings Inc Entry/exit control system and entry/exit control method

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004280477A (en) 2003-03-17 2004-10-07 Casio Comput Co Ltd Facility usage management system, and program
JP2008141386A (en) 2006-11-30 2008-06-19 Secom Co Ltd Monitoring system
JP2010026956A (en) 2008-07-24 2010-02-04 Mitsubishi Electric Building Techno Service Co Ltd Remote management system of building equipment
JP2012226485A (en) 2011-04-18 2012-11-15 Mitsubishi Electric Corp Monitoring device
JP2016110308A (en) 2014-12-04 2016-06-20 Lykaon株式会社 Wandering prevention system
JP2018128970A (en) 2017-02-10 2018-08-16 株式会社テイパーズ Non-stop face authentication system
WO2018193813A1 (en) 2017-04-21 2018-10-25 パナソニックIpマネジメント株式会社 Staying state display system and staying state display method

Also Published As

Publication number Publication date
JP6905553B2 (en) 2021-07-21
JP2021168153A (en) 2021-10-21
JP2021012415A (en) 2021-02-04

Similar Documents

Publication Publication Date Title
US8208028B2 (en) Object verification device and object verification method
JP4198602B2 (en) Operating method and system using video
JP6557897B1 (en) Information processing apparatus, determination method, and program
JP6624340B2 (en) Entrance management system and entrance management method
US20210209909A1 (en) Information processing device and determination method
JPWO2020115890A1 (en) Information processing equipment, information processing methods, and programs
KR20110016691A (en) System and method for managing and indicating a person of going and coming
JP2016046639A (en) Authentication device
JP2018077552A (en) Gate control system and method thereof
JP2007280083A (en) Entrance/location management system
JP2006163456A (en) Entering and leaving management device
JP7439897B2 (en) Stay management device, stay management method, program and stay management system
JP7201748B2 (en) Information processing device, determination method, and program
JP2018067755A (en) Detection data management device
JP6959300B2 (en) Information processing device, access judgment method, and program
WO2017135310A1 (en) Passing number count device, passing number count method, program, and storage medium
JP6997140B2 (en) Information processing equipment, judgment method, and program
JP2006209585A (en) Crime prevention system
JP2015153054A (en) Security area management system and security area management method
KR101381524B1 (en) Visitor management system using image
JP2006163788A (en) Visitor management method and management system
JP2020119489A (en) Information processing device, determination method, and program
JP5106244B2 (en) Entrance / exit management system
JP2020135408A (en) Information processing device, information processing method, and program
JP2004128615A (en) Person monitoring system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210621

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220830

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221026

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221222

R150 Certificate of patent or registration of utility model

Ref document number: 7201748

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150