JP2021168153A - Information processor, determination method, and program - Google Patents

Information processor, determination method, and program Download PDF

Info

Publication number
JP2021168153A
JP2021168153A JP2021102415A JP2021102415A JP2021168153A JP 2021168153 A JP2021168153 A JP 2021168153A JP 2021102415 A JP2021102415 A JP 2021102415A JP 2021102415 A JP2021102415 A JP 2021102415A JP 2021168153 A JP2021168153 A JP 2021168153A
Authority
JP
Japan
Prior art keywords
zone
person
server
face data
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021102415A
Other languages
Japanese (ja)
Other versions
JP7201748B2 (en
Inventor
耕治 河本
Koji Kawamoto
英作 宮田
Eisaku Miyata
崇 神尾
Takashi Kamio
信人 関
Nobuhito Seki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
iPro Co Ltd
Original Assignee
Panasonic iPro Sensing Solutions Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic iPro Sensing Solutions Co Ltd filed Critical Panasonic iPro Sensing Solutions Co Ltd
Priority to JP2021102415A priority Critical patent/JP7201748B2/en
Publication of JP2021168153A publication Critical patent/JP2021168153A/en
Application granted granted Critical
Publication of JP7201748B2 publication Critical patent/JP7201748B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide an information processor that can easily register registered face image data to a white list.SOLUTION: An information processor includes: a control unit that collates first face image data received from a first monitor camera with first registered face image data registered in a white list to determine entry of a person other than a person in the first registered face image data into a first zone; and a communication unit that transmits, when it is determined that a person other than the person in the first registered face image data enters the first zone, an alarm signal to a terminal device. The control unit registers, in response to an instruction from the terminal device that receives the alarm signal, first face image data of the person who triggers the transmission of the alarm signal in the white list.SELECTED DRAWING: Figure 29

Description

本開示は、情報処理装置、判定方法、およびプログラムに関する。 The present disclosure relates to information processing devices, determination methods, and programs.

従来、ゲートを通過するそれぞれの利用者に対して、顔認証による認証結果を報知・伝達することが可能な入退場管理システムが提供されている(例えば、特許文献1を参照)。 Conventionally, an entrance / exit management system capable of notifying and transmitting the authentication result by face recognition to each user passing through the gate has been provided (see, for example, Patent Document 1).

特開2018−92293号公報JP-A-2018-92293

ところで、ホワイトリストを用いて、ゾーンへの人の立ち入りを判定する監視カメラシステムが要望されている。このような監視カメラシステムでは、ホワイトリストに登録顔画像データを登録する場合、例えば、ハンディカメラを用いて顔を撮影し、撮影した顔画像データを、監視カメラシステムに接続された端末装置に読み込む。そして、端末装置から、監視カメラシステムのホワイトリストに顔画像データを登録するため手間を要する。 By the way, there is a demand for a surveillance camera system that determines the entry of people into a zone using a white list. In such a surveillance camera system, when registering the registered face image data in the white list, for example, a face is photographed using a handy camera, and the photographed face image data is read into a terminal device connected to the surveillance camera system. .. Then, it takes time and effort to register the face image data in the white list of the surveillance camera system from the terminal device.

また、会社等では、例えば、フロアまたは部屋等のゾーンごとにおいて、立ち入ることができる人を区別している場合がある。例えば、人Aは、部屋Xおよび部屋Yに入室でき、人Bは、部屋Xに入室できるが、部屋Yには入室できないように区別している場合がある。このように、ゾーンごとにおいて、立ち入ることができる人を区別する施設等では、ゾーンごとに決められた人以外の人が、ゾーンに立ち入っていないか管理することが重要となる。 Further, in a company or the like, for example, a person who can enter may be distinguished for each zone such as a floor or a room. For example, person A may be able to enter room X and room Y, and person B may be able to enter room X but not room Y. In this way, in a facility or the like that distinguishes people who can enter each zone, it is important to manage whether or not a person other than the person determined for each zone has entered the zone.

本開示の非限定的な実施例は、ホワイトリストへの登録顔画像データの登録を容易にできる情報処理装置、判定方法、およびプログラムの提供に資する。 Non-limiting examples of the present disclosure contribute to the provision of an information processing device, a determination method, and a program capable of easily registering registered face image data in a white list.

本開示の非限定的な実施例は、ゾーンごとに決められた人以外の人が、ゾーンに立ち入っていないかを判定する情報処理装置、判定方法、およびプログラムの提供に資する。 The non-limiting examples of the present disclosure contribute to the provision of an information processing device, a determination method, and a program for determining whether or not a person other than the person determined for each zone has entered the zone.

本開示は、建物の複数のゾーンの各々を撮影するカメラから、顔画像データを受信する通信部と、複数のカメラ各々のカメラ識別情報と、前記複数のゾーンとを紐付けた第1のテーブルと、登録顔画像データと、前記登録顔画像データの人物の立ち入りが許可されたゾーンとを紐付けた第2のテーブルと、前記顔画像データに基づいて前記第2のテーブルを参照し、前記顔画像データの人物の立ち入りが許可された許可ゾーンを取得してから、前記カメラ識別情報に基づいて前記第1のテーブルを参照して前記顔画像データの人物が撮影された撮影ゾーンを取得し、前記許可ゾーンと前記撮影ゾーンとに基づいて前記顔画像データの人物の立ち入りの許可/不許可を判定する制御部と、を有する、情報処理装置。 The present disclosure is a first table in which a communication unit that receives face image data from a camera that captures each of a plurality of zones of a building, camera identification information of each of the plurality of cameras, and the plurality of zones are linked. With reference to the second table in which the registered face image data and the zone in which the person is allowed to enter the registered face image data are linked, and the second table based on the face image data, the said After acquiring the permission zone in which the person in the face image data is allowed to enter, the shooting zone in which the person in the face image data is photographed is acquired by referring to the first table based on the camera identification information. An information processing device including a control unit for determining permission / denial of entry of a person in the face image data based on the permission zone and the photographing zone.

また、本開示は、建物の複数のゾーンの各々を撮影するカメラから、顔画像データを受信し、前記顔画像データに基づいて、登録顔画像データと、前記登録顔画像データの人物の立ち入りが許可されたゾーンとを紐付けた第2のテーブルを参照し、前記顔画像データの人物の立ち入りが許可された許可ゾーンを取得し、前記顔画像データの人物を撮影したカメラのカメラ識別情報に基づいて、前記複数のカメラ各々のカメラ識別情報と、前記複数のゾーンとを紐付けた第1のテーブルを参照して前記顔画像データの人物が撮影された撮影ゾーンを取得し、前記許可ゾーンと前記撮影ゾーンとに基づいて前記顔画像データの人物の立ち入りの許可/不許可を判定する、判定方法を提供する。 Further, in the present disclosure, face image data is received from a camera that photographs each of a plurality of zones of a building, and based on the face image data, the registered face image data and the person in the registered face image data can enter. With reference to the second table associated with the permitted zone, the permitted zone in which the person in the face image data is allowed to enter is acquired, and the camera identification information of the camera that photographed the person in the face image data is used. Based on this, the camera identification information of each of the plurality of cameras and the first table in which the plurality of zones are linked are referred to to acquire the shooting zone in which the person in the face image data is photographed, and the permission zone is obtained. Provided is a determination method for determining permission / denial of entry of a person in the face image data based on the above-mentioned shooting zone.

また、本開示は、コンピュータに、建物の複数のゾーンの各々を撮影するカメラから、顔画像データを受信し、前記顔画像データに基づいて、登録顔画像データと、前記登録顔画像データの人物の立ち入りが許可されたゾーンとを紐付けた第2のテーブルを参照し、前記顔画像データの人物の立ち入りが許可された許可ゾーンを取得し、前記顔画像データの人物を撮影したカメラのカメラ識別情報に基づいて、前記複数のカメラ各々のカメラ識別情報と、前記複数のゾーンとを紐付けた第1のテーブルを参照して前記顔画像データの人物が撮影された撮影ゾーンを取得し、前記許可ゾーンと前記撮影ゾーンとに基づいて前記顔画像データの人物の立ち入りの許可/不許可を判定する、処理を実行させる、プログラムを提供する。 Further, in the present disclosure, the computer receives face image data from a camera that captures each of a plurality of zones of the building, and based on the face image data, the registered face image data and the person in the registered face image data. Refer to the second table associated with the zone where the person is allowed to enter, acquire the permitted zone where the person in the face image data is allowed to enter, and take a picture of the person in the face image data. Based on the identification information, the camera identification information of each of the plurality of cameras and the first table in which the plurality of zones are linked are referred to to acquire the photographing zone in which the person of the face image data is photographed. Provided is a program for determining permission / non-permission of entry of a person in the face image data based on the permission zone and the photographing zone, and executing a process.

建物の複数のゾーンの各々を撮影するカメラから、顔画像データを受信する通信部と、複数のカメラ各々のカメラ識別情報と、前記複数のゾーンとを紐付けた第1の情報と、登録顔画像データと、前記登録顔画像データの人物の立ち入りが許可されたゾーンとを紐付けた第2の情報とを保存するメモリと、前記顔画像データに基づいて前記第2の情報を参照し、前記顔画像データの人物の立ち入りが許可された許可ゾーンを取得してから、前記カメラ識別情報に基づいて前記第1の情報を参照して前記顔画像データの人物が撮影された撮影ゾーンを取得し、前記許可ゾーンと前記撮影ゾーンとに基づいて前記顔画像データの人物の立ち入りの許可/不許可を判定する制御部と、を有する、情報処理装置を提供する。 A communication unit that receives face image data from cameras that shoot each of a plurality of zones of a building, camera identification information of each of the plurality of cameras, first information that links the plurality of zones, and a registered face. Refer to the memory for storing the image data and the second information associated with the zone in which the person is allowed to enter the registered face image data, and the second information based on the face image data. After acquiring the permission zone in which the person in the face image data is allowed to enter, the shooting zone in which the person in the face image data is photographed is acquired by referring to the first information based on the camera identification information. Further, the information processing apparatus is provided which has a control unit for determining permission / non-permission of entry of a person in the face image data based on the permission zone and the photographing zone.

また、本開示は、建物の複数のゾーンの各々を撮影するカメラから、顔画像データを受信し、前記顔画像データに基づいて、登録顔画像データと、前記登録顔画像データの人物の立ち入りが許可されたゾーンとを紐付けた第2の情報を参照し、前記顔画像データの人物の立ち入りが許可された許可ゾーンを取得し、前記顔画像データの人物を撮影したカメラのカメラ識別情報に基づいて、前記複数のカメラ各々のカメラ識別情報と、前記複数のゾーンとを紐付けた第1の情報を参照して前記顔画像データの人物が撮影された撮影ゾーンを取得し、前記許可ゾーンと前記撮影ゾーンとに基づいて前記顔画像データの人物の立ち入りの許可/不許可を判定する、判定方法を提供する。 Further, in the present disclosure, face image data is received from a camera that photographs each of a plurality of zones of a building, and based on the face image data, the registered face image data and the person in the registered face image data can enter. With reference to the second information associated with the permitted zone, the permitted zone in which the person in the face image data is permitted to enter is acquired, and the camera identification information of the camera that captured the person in the face image data is used. Based on this, the camera identification information of each of the plurality of cameras and the first information in which the plurality of zones are linked are referred to to obtain a shooting zone in which the person in the face image data is photographed, and the permission zone is obtained. Provided is a determination method for determining permission / denial of entry of a person in the face image data based on the above-mentioned shooting zone.

また、本開示は、コンピュータに、建物の複数のゾーンの各々を撮影するカメラから、顔画像データを受信し、前記顔画像データに基づいて、登録顔画像データと、前記登録顔画像データの人物の立ち入りが許可されたゾーンとを紐付けた第2の情報を参照し、前記顔画像データの人物の立ち入りが許可された許可ゾーンを取得し、前記顔画像データの人物を撮影したカメラのカメラ識別情報に基づいて、前記複数のカメラ各々のカメラ識別情報と、前記複数のゾーンとを紐付けた第1の情報を参照して前記顔画像データの人物が撮影された撮影ゾーンを取得し、前記許可ゾーンと前記撮影ゾーンとに基づいて前記顔画像データの人物の立ち入りの許可/不許可を判定する、処理を実行させる、プログラムを提供する。 Further, in the present disclosure, face image data is received by a computer from a camera that captures each of a plurality of zones of a building, and based on the face image data, a registered face image data and a person in the registered face image data are obtained. With reference to the second information associated with the zone where the person is allowed to enter, the camera of the camera which acquired the permitted zone where the person in the face image data is allowed to enter and photographed the person in the face image data. Based on the identification information, the camera identification information of each of the plurality of cameras and the first information in which the plurality of zones are linked are referred to to acquire the shooting zone in which the person in the face image data is photographed. Provided is a program for determining permission / non-permission of entry of a person in the face image data based on the permission zone and the shooting zone, and executing a process.

なお、これらの包括的または具体的な態様は、システム、装置、方法、集積回路、コンピュータプログラム、または、記録媒体で実現されてもよく、システム、装置、方法、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。 It should be noted that these comprehensive or specific embodiments may be realized in a system, device, method, integrated circuit, computer program, or recording medium, and the system, device, method, integrated circuit, computer program, and recording medium. It may be realized by any combination of.

本開示の一実施例によれば、ホワイトリストへの登録顔画像データの登録を容易にできる。 According to one embodiment of the present disclosure, it is possible to easily register the registered face image data in the white list.

本開示の一実施例によれば、ゾーンごとに決められた人以外の人が、ゾーンに立ち入っていないかを判定できる。 According to one embodiment of the present disclosure, it is possible to determine whether or not a person other than the person determined for each zone has entered the zone.

本開示の一実施例における更なる利点および効果は、明細書および図面から明らかにされる。かかる利点および/または効果は、いくつかの実施形態並びに明細書および図面に記載された特徴によってそれぞれ提供されるが、1つまたはそれ以上の同一の特徴を得るために必ずしも全てが提供される必要はない。 Further advantages and effects in one embodiment of the present disclosure will be apparent from the specification and drawings. Such advantages and / or effects are provided by some embodiments and features described in the specification and drawings, respectively, but not all need to be provided in order to obtain one or more identical features. There is no.

第1の実施の形態に係る監視カメラシステムの一例を示した図The figure which showed an example of the surveillance camera system which concerns on 1st Embodiment ゾーンに設置された監視カメラの映像例を示した図The figure which showed the image example of the surveillance camera installed in the zone 監視カメラのブロック構成例を示した図The figure which showed the block configuration example of the surveillance camera サーバのブロック構成例を示した図Diagram showing an example of a server block configuration 端末装置のブロック構成例を示した図The figure which showed the block configuration example of a terminal device サーバの記憶部に記憶されるテーブルの一例を示した図The figure which showed an example of the table stored in the storage part of a server サーバの記憶部に記憶されるテーブルの一例を示した図The figure which showed an example of the table stored in the storage part of a server 監視カメラシステムの動作例を示したシーケンス図Sequence diagram showing an operation example of a surveillance camera system 第2の実施の形態に係るサーバの記憶部に記憶されるテーブルの一例を示した図The figure which showed an example of the table stored in the storage part of the server which concerns on 2nd Embodiment 顔データおよび時間の登録における監視カメラシステムの動作例を示したシーケンス図Sequence diagram showing an operation example of the surveillance camera system in the registration of face data and time 第3の実施の形態に係る監視カメラシステムの一例を示した図The figure which showed an example of the surveillance camera system which concerns on 3rd Embodiment カードリーダのブロック構成例を示した図The figure which showed the block configuration example of a card reader サーバの記憶部に記憶されるテーブルの一例を示した図The figure which showed an example of the table stored in the storage part of a server 監視カメラシステムの動作例を示したシーケンス図Sequence diagram showing an operation example of a surveillance camera system 第4の実施の形態に係る監視カメラシステムの一例を示した図The figure which showed an example of the surveillance camera system which concerns on 4th Embodiment 監視カメラシステムの概略動作を説明する図The figure explaining the schematic operation of the surveillance camera system サーバの記憶部に記憶されるテーブルの一例を示した図The figure which showed an example of the table stored in the storage part of a server サーバの記憶部に記憶されるテーブルの一例を示した図The figure which showed an example of the table stored in the storage part of a server 監視カメラシステムの動作例を示したシーケンス図Sequence diagram showing an operation example of a surveillance camera system ブラックリスト方式における判定方法を説明する図The figure explaining the judgment method in the blacklist method ホワイトリスト方式における判定方法を説明する図The figure explaining the judgment method in the white list method ブラックリスト方式における判定処理例を示したシーケンス図Sequence diagram showing an example of judgment processing in the blacklist method ホワイトリスト方式における判定処理例を示したシーケンス図Sequence diagram showing an example of judgment processing in the white list method ブラックリスト方式によってアラーム信号が出力されたときの端末装置の画面例を示した図The figure which showed the screen example of the terminal device when the alarm signal was output by the blacklist method. ホワイトリスト方式によってアラーム信号が出力されたときの端末装置の画面例を示した図The figure which showed the screen example of the terminal device when the alarm signal was output by the white list method. アラーム信号が出力されたときの端末装置の画面例を示した図The figure which showed the screen example of the terminal device when an alarm signal was output 第5の実施の形態に係る監視カメラシステムの一例を示した図The figure which showed an example of the surveillance camera system which concerns on 5th Embodiment 第5の実施の形態に係る監視カメラシステムの一例を示した図The figure which showed an example of the surveillance camera system which concerns on 5th Embodiment 監視カメラシステムの動作例を示したシーケンス図Sequence diagram showing an operation example of a surveillance camera system 監視カメラシステムの動作例を示したシーケンス図Sequence diagram showing an operation example of a surveillance camera system 第6の実施の形態に係る監視カメラシステムの動作例を示したシーケンス図A sequence diagram showing an operation example of the surveillance camera system according to the sixth embodiment. 第7の実施の形態に係る監視カメラシステムの一例を示した図The figure which showed an example of the surveillance camera system which concerns on 7th Embodiment テーブルのアクセス例を説明する図Diagram illustrating an example of table access テーブルのアクセス例を説明する図Diagram illustrating an example of table access 監視カメラシステムの動作例を示したシーケンス図Sequence diagram showing an operation example of a surveillance camera system

以下、図面を適宜参照して、本発明の実施の形態について、詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings as appropriate. However, more detailed explanation than necessary may be omitted. For example, detailed explanations of already well-known matters and duplicate explanations for substantially the same configuration may be omitted. This is to avoid unnecessary redundancy of the following description and to facilitate the understanding of those skilled in the art.

なお、添付図面および以下の説明は、当業者が本開示を十分に理解するために、提供されるのであって、これらにより特許請求の範囲に記載の主題を限定することは意図されていない。 It should be noted that the accompanying drawings and the following description are provided for those skilled in the art to fully understand the present disclosure, and are not intended to limit the subject matter described in the claims.

(第1の実施の形態)
図1は、第1の実施の形態に係る監視カメラシステムの一例を示した図である。図1に示すように、監視カメラシステムは、監視カメラ1a〜1dと、サーバ(情報処理装置)2と、端末装置3と、を有している。図1には、監視カメラシステムの他に、建物A1が示してある。建物A1は、例えば、会社、マンション、または商業施設等である。
(First Embodiment)
FIG. 1 is a diagram showing an example of a surveillance camera system according to the first embodiment. As shown in FIG. 1, the surveillance camera system includes surveillance cameras 1a to 1d, a server (information processing device) 2, and a terminal device 3. In addition to the surveillance camera system, building A1 is shown in FIG. Building A1 is, for example, a company, a condominium, a commercial facility, or the like.

ゾーンA〜Cは、建物A1の部屋、エントランス、廊下、階段、フロア、またはエレベータ等であってもよい。また、ゾーンA〜Cは、建物A1が建っている敷地であってもよい。すなわち、ゾーンA〜Cは、人の立ち入り(進入)が許可されるか否かが判定される領域と捉えてもよい。ゾーンは、エリアと呼ばれてもよい。以下では、ゾーンA〜Cは、建物A1の部屋として説明する。 Zones A to C may be rooms, entrances, corridors, stairs, floors, elevators, etc. of building A1. Further, zones A to C may be sites on which building A1 is built. That is, zones A to C may be regarded as areas in which it is determined whether or not a person is allowed to enter (enter). Zones may be referred to as areas. In the following, zones A to C will be described as rooms in building A1.

監視カメラ1a〜1dは、ゾーンA〜Cに設置される。例えば、監視カメラ1aは、建物A1のゾーンAに設置される。監視カメラ1b,1cは、建物A1のゾーンBに設置される。監視カメラ1dは、建物A1のゾーンCに設置される。 Surveillance cameras 1a to 1d are installed in zones A to C. For example, the surveillance camera 1a is installed in the zone A of the building A1. Surveillance cameras 1b and 1c are installed in zone B of building A1. The surveillance camera 1d is installed in the zone C of the building A1.

監視カメラ1a〜1dは、ゾーンA〜C内にいる人を撮影するように設置される。例えば、監視カメラ1a〜1dは、ゾーンA〜C内の全体を撮影するように設置される。 Surveillance cameras 1a to 1d are installed so as to photograph people in zones A to C. For example, the surveillance cameras 1a to 1d are installed so as to capture the entire area in zones A to C.

図2は、ゾーンAに設置された監視カメラ1aの映像例を示した図である。監視カメラ1aは、例えば、図2に示すように、室内を広範囲にわたって撮影する。 FIG. 2 is a diagram showing an image example of the surveillance camera 1a installed in the zone A. As shown in FIG. 2, the surveillance camera 1a captures a wide range of the room.

図1の説明に戻る。サーバ2は、例えば、LAN(Local Area Network)またはインターネット等のネットワークによって、監視カメラ1a〜1dと接続されている。サーバ2は、建物A1内に設置されてもよいし、建物A1とは別の場所に設置されてもよい。 Returning to the description of FIG. The server 2 is connected to the surveillance cameras 1a to 1d by, for example, a network such as a LAN (Local Area Network) or the Internet. The server 2 may be installed in the building A1 or may be installed in a place different from the building A1.

サーバ2は、ゾーンA〜Cごとにおいて、ゾーンA〜Cに立ち入ることが(入室)できる人の顔の画像データ(以下、顔データと呼ぶことがある)を記憶(登録)している。サーバ2は、監視カメラ1a〜1dが撮影した人の顔データと、登録されている顔データとの照合を行う。サーバ2は、照合した結果を、端末装置3に送信する。 The server 2 stores (registers) image data (hereinafter, may be referred to as face data) of a person's face that can enter (enter) zones A to C in each of zones A to C. The server 2 collates the face data of the person photographed by the surveillance cameras 1a to 1d with the registered face data. The server 2 transmits the collated result to the terminal device 3.

端末装置3は、LANまたはインターネット等のネットワークによって、サーバ2と接続されている。端末装置3は、建物A1内に設置されてもよいし、建物A1とは別の場所に設置されてもよい。端末装置3は、例えば、パーソナルコンピュータ、スマートホン、またはタブレット端末等であってもよい。 The terminal device 3 is connected to the server 2 by a network such as a LAN or the Internet. The terminal device 3 may be installed in the building A1 or may be installed in a place different from the building A1. The terminal device 3 may be, for example, a personal computer, a smart phone, a tablet terminal, or the like.

なお、監視カメラ1a〜1dは、ゾーンA〜Cに入室する人を撮影するように設置されてもよい。例えば、監視カメラ1a〜1dは、ゾーンA〜Cの入り口付近を撮影するように設置されてもよい。 The surveillance cameras 1a to 1d may be installed so as to photograph people entering the zones A to C. For example, the surveillance cameras 1a to 1d may be installed so as to photograph the vicinity of the entrances of the zones A to C.

また、監視カメラ1a〜1dには、ゾーンA〜Cに既に設置されている監視カメラが用いられてもよい。例えば、監視カメラ1a〜1dには、ゾーンA〜Cの映像を録画する録画システムの一部として、既にゾーンA〜Cに設置されている監視カメラを用いてもよい。この場合、監視カメラ1a〜1dの出力を、録画システムとサーバ2とに分岐させてもよい。 Further, as the surveillance cameras 1a to 1d, the surveillance cameras already installed in the zones A to C may be used. For example, for the surveillance cameras 1a to 1d, surveillance cameras already installed in the zones A to C may be used as a part of the recording system for recording the images in the zones A to C. In this case, the outputs of the surveillance cameras 1a to 1d may be branched to the recording system and the server 2.

図3は、監視カメラ1aのブロック構成例を示した図である。図3に示すように、監視カメラ1aは、撮像部11と、制御部12と、通信部13と、記憶部14と、を有している。 FIG. 3 is a diagram showing a block configuration example of the surveillance camera 1a. As shown in FIG. 3, the surveillance camera 1a includes an imaging unit 11, a control unit 12, a communication unit 13, and a storage unit 14.

撮像部11は、例えば、レンズおよび撮像素子(図示せず)を有している。撮像部11のレンズは、撮像素子の受光面に被写体の像を結像する。レンズには、監視カメラ1aの設置場所または撮影用途等に応じて、様々な焦点距離または撮影範囲のレンズを用いることができる。 The image pickup unit 11 includes, for example, a lens and an image pickup device (not shown). The lens of the image pickup unit 11 forms an image of the subject on the light receiving surface of the image pickup device. As the lens, lenses having various focal lengths or shooting ranges can be used depending on the installation location of the surveillance camera 1a, the shooting application, and the like.

撮像部11の撮像素子は、受光面に受けた光を電気信号に変換する。撮像素子は、例えば、CCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)等のイメージセンサである。撮像部11は、撮像素子の受光面において受けた光に応じた電気信号(アナログ信号)をデジタル信号に変換して、制御部12に出力する。 The image sensor of the image pickup unit 11 converts the light received on the light receiving surface into an electric signal. The image sensor is, for example, an image sensor such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor). The image pickup unit 11 converts an electric signal (analog signal) corresponding to the light received on the light receiving surface of the image pickup element into a digital signal and outputs the digital signal to the control unit 12.

制御部12は、監視カメラ1a全体を制御する。制御部12は、例えば、CPU(Central Processing Unit)またはDSP(Digital Signal Processer)によって構成されてもよい。制御部12は、撮像部11から出力される映像から、人の顔を判別する。制御部12は、判別した人の顔を切り出し、切り出した顔の顔データ(静止画像)を、通信部13を介してサーバ2に送信する。 The control unit 12 controls the entire surveillance camera 1a. The control unit 12 may be configured by, for example, a CPU (Central Processing Unit) or a DSP (Digital Signal Processer). The control unit 12 determines a human face from the image output from the image pickup unit 11. The control unit 12 cuts out the face of the determined person, and transmits the face data (still image) of the cut out face to the server 2 via the communication unit 13.

通信部13は、サーバ2と通信する。通信部13は、例えば、イーサネット(登録商標)ケーブル等のネットワークケーブル(有線)を介して、サーバ2と通信してもよい。また、通信部13は、例えば、Wi−Fi(登録商標)またはブルートゥース(登録商標)等の近距離無線通信を介して、サーバ2と通信してもよい。 The communication unit 13 communicates with the server 2. The communication unit 13 may communicate with the server 2 via, for example, a network cable (wired) such as an Ethernet (registered trademark) cable. Further, the communication unit 13 may communicate with the server 2 via short-range wireless communication such as Wi-Fi (registered trademark) or Bluetooth (registered trademark).

記憶部14は、制御部12が動作するためのプログラムが記憶される。また、記憶部14には、制御部12が計算処理を行うためのデータ、または、制御部12が各部を制御するためのデータ等が記憶される。記憶部14は、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、およびHDD(Hard Disk Drive)などの記憶装置によって構成されてもよい。 The storage unit 14 stores a program for operating the control unit 12. Further, the storage unit 14 stores data for the control unit 12 to perform calculation processing, data for the control unit 12 to control each unit, and the like. The storage unit 14 may be composed of a storage device such as a RAM (Random Access Memory), a ROM (Read Only Memory), a flash memory, and an HDD (Hard Disk Drive).

なお、監視カメラ1b〜1dは、監視カメラ1aと同様のブロック構成を有している。従って、監視カメラ1b〜1dのブロック構成の説明を省略する。 The surveillance cameras 1b to 1d have the same block configuration as the surveillance cameras 1a. Therefore, the description of the block configuration of the surveillance cameras 1b to 1d will be omitted.

図4は、サーバ2のブロック構成例を示した図である。図4に示すように、サーバ2は、制御部21と、通信部22と、記憶部23と、を有している。 FIG. 4 is a diagram showing a block configuration example of the server 2. As shown in FIG. 4, the server 2 has a control unit 21, a communication unit 22, and a storage unit 23.

制御部21は、サーバ2全体を制御する。制御部21は、例えば、CPUによって構成されてもよい。 The control unit 21 controls the entire server 2. The control unit 21 may be configured by, for example, a CPU.

通信部22は、監視カメラ1a〜1dおよび端末装置3と通信する。通信部22は、例えば、イーサネットケーブル等のネットワークケーブルを介して、監視カメラ1a〜1dおよび端末装置3と通信してもよい。また、通信部22は、例えば、Wi−Fi(登録商標)またはブルートゥース(登録商標)等の近距離無線通信を介して、監視カメラ1a〜1dおよび端末装置3と通信してもよい。 The communication unit 22 communicates with the surveillance cameras 1a to 1d and the terminal device 3. The communication unit 22 may communicate with the surveillance cameras 1a to 1d and the terminal device 3 via a network cable such as an Ethernet cable. Further, the communication unit 22 may communicate with the surveillance cameras 1a to 1d and the terminal device 3 via short-range wireless communication such as Wi-Fi (registered trademark) or Bluetooth (registered trademark).

記憶部23は、制御部21が動作するためのプログラムが記憶される。また、記憶部23には、制御部21が計算処理を行うためのデータ、または、制御部21が各部を制御するためのデータ等が記憶される。記憶部23は、RAM、ROM、フラッシュメモリ、およびHDDなどの記憶装置によって構成されてもよい。 The storage unit 23 stores a program for operating the control unit 21. Further, the storage unit 23 stores data for the control unit 21 to perform calculation processing, data for the control unit 21 to control each unit, and the like. The storage unit 23 may be composed of a storage device such as a RAM, a ROM, a flash memory, and an HDD.

図5は、端末装置3のブロック構成例を示した図である。図5に示すように、端末装置3は、制御部31と、入力部32と、表示部33と、通信部34と、記憶部35と、を有している。 FIG. 5 is a diagram showing a block configuration example of the terminal device 3. As shown in FIG. 5, the terminal device 3 includes a control unit 31, an input unit 32, a display unit 33, a communication unit 34, and a storage unit 35.

制御部31は、端末装置3全体を制御する。制御部31は、例えば、CPUによって構成されてもよい。 The control unit 31 controls the entire terminal device 3. The control unit 31 may be configured by, for example, a CPU.

入力部32は、例えば、キーボード、表示装置の画面上に重畳されたタッチパネル、またはマウス等の入力装置(図示せず)に接続されている。入力部32は、入力装置から出力された、ユーザの操作に応じた信号を受信し、制御部31に出力する。 The input unit 32 is connected to, for example, an input device (not shown) such as a keyboard, a touch panel superimposed on the screen of the display device, or a mouse. The input unit 32 receives the signal output from the input device according to the user's operation and outputs the signal to the control unit 31.

表示部33は、端末装置3が備える表示装置(図示せず)に接続されている。表示部33は、制御部31から出力される画像データを表示装置に出力する。 The display unit 33 is connected to a display device (not shown) included in the terminal device 3. The display unit 33 outputs the image data output from the control unit 31 to the display device.

以下では、説明を簡単にするため、ゾーンAとゾーンBとにおける入室者の検知について説明する。図1で説明したように、ゾーンAには、監視カメラ1aが設置され、ゾーンBには、監視カメラ1b,1cが設置されている。 In the following, for the sake of simplicity, the detection of occupants in Zone A and Zone B will be described. As described with reference to FIG. 1, a surveillance camera 1a is installed in the zone A, and surveillance cameras 1b and 1c are installed in the zone B.

図6は、サーバ2の記憶部23に記憶されるテーブルの一例を示した図である。図6に示すテーブルTB1は、例えば、監視カメラ1a〜1cが建物A1に設置されるときに、サーバ2の記憶部23に記憶される。テーブルTB1は、端末装置3によって作成され、サーバ2の記憶部23に記憶されてもよい。また、テーブルTB1の情報は、例えば、端末装置3によって追加、変更、または削除されてもよい。 FIG. 6 is a diagram showing an example of a table stored in the storage unit 23 of the server 2. The table TB1 shown in FIG. 6 is stored in the storage unit 23 of the server 2, for example, when the surveillance cameras 1a to 1c are installed in the building A1. The table TB1 may be created by the terminal device 3 and stored in the storage unit 23 of the server 2. Further, the information in the table TB1 may be added, changed, or deleted by, for example, the terminal device 3.

テーブルTB1は、ゾーン識別情報41aと、顔データ41bと、を有している。ゾーン識別情報41aは、ゾーンA,Bを識別する識別情報である。例えば、テーブルTB1の「A」は、ゾーンAの識別情報を示す。テーブルTB1の「B」は、ゾーンBの識別情報を示す。顔データ41bは、人の顔データである。 Table TB1 has zone identification information 41a and face data 41b. The zone identification information 41a is identification information for identifying zones A and B. For example, "A" in the table TB1 indicates the identification information of the zone A. “B” in the table TB1 indicates the identification information of the zone B. The face data 41b is human face data.

テーブルTB1は、ゾーンごとの入室が許可された人を示した情報と言ってもよい。例えば、テーブルTB1の丸が付されている行の顔データ41bの人は、丸が付されている列のゾーン識別情報41aが示すゾーンに入室できることを示している。また、テーブルTB1のバーが付されている行の顔データ41bの人は、バーが付されている列のゾーン識別情報41aが示すゾーンに入室できないことを示している。 The table TB1 may be said to be information indicating the persons who are allowed to enter the room for each zone. For example, the person in the face data 41b in the circled row of the table TB1 indicates that he / she can enter the zone indicated by the zone identification information 41a in the circled column. Further, it is shown that the person in the face data 41b of the row with the bar of the table TB1 cannot enter the zone indicated by the zone identification information 41a of the column with the bar.

より具体的には、図6の顔データ41baの顔の人は、ゾーンA,Bに入室できる。図6の顔データ41bbの顔の人は、ゾーンAに入室できるが、ゾーンBには入室できない。図6の顔データ41bcの顔の人は、ゾーンAに入室できないが、ゾーンBに入室できる。 More specifically, the person with the face of the face data 41ba in FIG. 6 can enter the zones A and B. The person with the face of the face data 41bb in FIG. 6 can enter the zone A, but cannot enter the zone B. A person with a face of face data 41bc in FIG. 6 cannot enter zone A, but can enter zone B.

図7は、サーバ2の記憶部23に記憶されるテーブルの一例を示した図である。図7に示すテーブルTB2は、例えば、監視カメラ1a〜1cが建物A1に設置されるときに、サーバ2の記憶部23に記憶される。テーブルTB2は、端末装置3によって作成され、サーバ2の記憶部23に記憶されてもよい。また、テーブルTB2の情報は、例えば、端末装置3によって追加、変更、または削除されてもよい。 FIG. 7 is a diagram showing an example of a table stored in the storage unit 23 of the server 2. The table TB2 shown in FIG. 7 is stored in the storage unit 23 of the server 2, for example, when the surveillance cameras 1a to 1c are installed in the building A1. The table TB2 may be created by the terminal device 3 and stored in the storage unit 23 of the server 2. Further, the information in the table TB2 may be added, changed, or deleted by, for example, the terminal device 3.

テーブルTB2は、ゾーン識別情報42aと、カメラ識別情報42bと、を有している。ゾーン識別情報42aは、ゾーンを識別する識別情報である。カメラ識別情報42bは、監視カメラ1a〜1cを識別する識別情報である。例えば、カメラ識別情報42bの「1a」は、監視カメラ1aの識別情報を示す。カメラ識別情報42bの「1b」は、監視カメラ1bの識別情報を示す。カメラ識別情報42bの「1c」は、監視カメラ1cの識別情報を示す。 The table TB2 has zone identification information 42a and camera identification information 42b. The zone identification information 42a is identification information for identifying the zone. The camera identification information 42b is identification information for identifying the surveillance cameras 1a to 1c. For example, “1a” in the camera identification information 42b indicates the identification information of the surveillance camera 1a. “1b” of the camera identification information 42b indicates the identification information of the surveillance camera 1b. “1c” of the camera identification information 42b indicates the identification information of the surveillance camera 1c.

テーブルTB2は、監視カメラ1a〜1cのゾーンにおける設置場所を示した情報と言ってもよい。例えば、テーブルTB2の丸が付されている行のカメラ識別情報42bの監視カメラは、丸が付されている列のゾーン識別情報42aが示すゾーンに設置されていることを示している。また、テーブルTB2のバーが付されている行のカメラ識別情報42bの監視カメラは、バーが付されている列のゾーン識別情報42aが示すゾーンに設置されていないことを示している。 The table TB2 may be said to be information indicating the installation location in the zones of the surveillance cameras 1a to 1c. For example, the surveillance camera of the camera identification information 42b in the circled row of the table TB2 indicates that it is installed in the zone indicated by the zone identification information 42a in the circled column. Further, it is shown that the surveillance camera of the camera identification information 42b in the row with the bar of the table TB2 is not installed in the zone indicated by the zone identification information 42a of the column with the bar.

より具体的には、図7のカメラ識別情報42baの監視カメラ1aは、ゾーンAに設置されている。図7のカメラ識別情報42bbの監視カメラ1bは、ゾーンBに設置されている。図7のカメラ識別情報42bcの監視カメラ1cは、ゾーンBに設置されている。 More specifically, the surveillance camera 1a of the camera identification information 42ba of FIG. 7 is installed in the zone A. The surveillance camera 1b of the camera identification information 42bb of FIG. 7 is installed in the zone B. The surveillance camera 1c of the camera identification information 42bc of FIG. 7 is installed in the zone B.

図6および図7では、テーブルTB1,TB2は、サーバ2の記憶部23に記憶されるとしたが、これに限られない。テーブルTB1およびテーブルTB2の両方または一方は、サーバ2とは別体のデータベースに記憶されてもよい。以下では、テーブルTB1は、登録DB(DB:データベース)に記憶され、テーブルTB2は、サーバ2の記憶部23に記憶されるとする。登録DBは、例えば、サーバ2の一部と捉えてもよい。 In FIGS. 6 and 7, the tables TB1 and TB2 are stored in the storage unit 23 of the server 2, but the present invention is not limited to this. Table TB1 and / or one of table TB2 may be stored in a database separate from the server 2. In the following, it is assumed that the table TB1 is stored in the registration DB (DB: database) and the table TB2 is stored in the storage unit 23 of the server 2. The registration DB may be regarded as a part of the server 2, for example.

図8は、監視カメラシステムの動作例を示したシーケンス図である。端末装置3の制御部31は、オペレータの操作に応じて、サーバ2に対し、ゾーンA,Bと、監視カメラ1a〜1cとのグルーピング設定を行う(ステップS1)。すなわち、端末装置3の制御部31は、サーバ2に対し、ゾーンA,Bと、監視カメラ1a〜1cとの対応付けの設定を行う。これにより、サーバ2の記憶部23には、例えば、図7に示したテーブルTB2が記憶される。 FIG. 8 is a sequence diagram showing an operation example of the surveillance camera system. The control unit 31 of the terminal device 3 sets the grouping of the zones A and B and the surveillance cameras 1a to 1c for the server 2 according to the operation of the operator (step S1). That is, the control unit 31 of the terminal device 3 sets the server 2 to associate the zones A and B with the surveillance cameras 1a to 1c. As a result, for example, the table TB2 shown in FIG. 7 is stored in the storage unit 23 of the server 2.

端末装置3の制御部31は、オペレータの操作に応じて、登録DBに対し、ゾーンA,Bへの顔登録を行う(ステップS2a,S2b)。すなわち、端末装置3の制御部31は、登録DBに対し、ゾーンA,Bと、ゾーンA,Bに入室できる人の顔データとの対応付けの設定を行う。これにより、登録DBには、例えば、図6に示したテーブルTB1が記憶される。なお、登録DBの情報登録は、サーバ2を経由して行われる。また、端末装置3の制御部31は、登録DBに登録する顔データを、他のシステムの顔データベースから入手してもよい。 The control unit 31 of the terminal device 3 registers faces in zones A and B in the registration DB according to the operation of the operator (steps S2a and S2b). That is, the control unit 31 of the terminal device 3 sets the association between the zones A and B and the face data of the person who can enter the zones A and B in the registration DB. As a result, for example, the table TB1 shown in FIG. 6 is stored in the registration DB. The information registration of the registration DB is performed via the server 2. Further, the control unit 31 of the terminal device 3 may obtain the face data to be registered in the registration DB from the face database of another system.

ゾーンAの監視カメラ1aの撮像部11は、人を撮影したとする。監視カメラ1aの制御部12は、撮像部11が撮影した映像の中から人の顔を切り出し、切り出した顔の顔データと、監視カメラ1aのカメラ識別情報とをサーバ2に送信する(ステップS3)。 It is assumed that the imaging unit 11 of the surveillance camera 1a in zone A photographs a person. The control unit 12 of the surveillance camera 1a cuts out a human face from the image captured by the imaging unit 11, and transmits the face data of the cut out face and the camera identification information of the surveillance camera 1a to the server 2 (step S3). ).

サーバ2の制御部21は、ステップS3にて送信された顔データと、監視カメラ1aのカメラ識別情報とを受信する(ステップS4)。 The control unit 21 of the server 2 receives the face data transmitted in step S3 and the camera identification information of the surveillance camera 1a (step S4).

サーバ2の制御部21は、記憶部23のテーブルTB2を参照し、ステップS4にて受信したカメラ識別情報に対応するゾーン識別情報を取得する(ステップS5)。 The control unit 21 of the server 2 refers to the table TB2 of the storage unit 23, and acquires the zone identification information corresponding to the camera identification information received in step S4 (step S5).

図8の例では、サーバ2の制御部21は、ステップS4にて、監視カメラ1aのカメラ識別情報「1a」を受信している。従って、サーバ2の制御部21は、図7のテーブルTB2から、ゾーンAのゾーン識別情報「A」を取得する。これにより、サーバ2の制御部21は、ステップS4にて受信した顔データ51は、ゾーンAに設置された監視カメラ1aにおいて撮影されたものと特定(判定)できる。言い換えれば、サーバ2の制御部21は、ステップS4にて受信した顔データ51の顔の人は、ゾーンAに居ると特定できる。 In the example of FIG. 8, the control unit 21 of the server 2 receives the camera identification information “1a” of the surveillance camera 1a in step S4. Therefore, the control unit 21 of the server 2 acquires the zone identification information “A” of the zone A from the table TB2 of FIG. As a result, the control unit 21 of the server 2 can identify (determine) that the face data 51 received in step S4 has been captured by the surveillance camera 1a installed in the zone A. In other words, the control unit 21 of the server 2 can identify the person with the face of the face data 51 received in step S4 as being in the zone A.

サーバ2の制御部21は、ステップS5にて、ゾーンを特定すると、登録DBのテーブルTB1を参照して、特定したゾーンに対応する顔データを取得する。そして、サーバ2の制御部21は、テーブルTB2から取得した顔データと、ステップS4にて受信した顔データとを照合する(ステップS6)。 When the zone is specified in step S5, the control unit 21 of the server 2 refers to the table TB1 of the registration DB and acquires the face data corresponding to the specified zone. Then, the control unit 21 of the server 2 collates the face data acquired from the table TB2 with the face data received in step S4 (step S6).

図8の例では、サーバ2の制御部21は、ステップS5にて、顔データ51の顔の人は、ゾーンAに居ると特定している。従って、サーバ2の制御部21は、図6に示したテーブルTB1のゾーンAに対応する顔データ41ba,41bbと、ステップS4にて受信した顔データ51とを照合する。顔データ51は、図6に示したテーブルTB1のゾーンAに対応する顔データ41baに一致するので、サーバ2の制御部21は、顔照合が一致したと判定する。すなわち、サーバ2の制御部21は、顔データ51の人は、ゾーンAへの立ち入りが許可された人と判定する。 In the example of FIG. 8, the control unit 21 of the server 2 specifies in step S5 that the person with the face of the face data 51 is in the zone A. Therefore, the control unit 21 of the server 2 collates the face data 41ba and 41bb corresponding to the zone A of the table TB1 shown in FIG. 6 with the face data 51 received in step S4. Since the face data 51 matches the face data 41ba corresponding to the zone A of the table TB1 shown in FIG. 6, the control unit 21 of the server 2 determines that the face matching matches. That is, the control unit 21 of the server 2 determines that the person with the face data 51 is a person who is permitted to enter the zone A.

サーバ2の制御部21は、ステップS6の照合結果(顔照合OK)を端末装置3に送信する(ステップS7)。なお、サーバ2の制御部21は、顔照合OKを判定した場合、照合結果を端末装置3に送信しなくてもよい。言い換えれば、サーバ2の制御部21は、顔照合NGを判定した場合のみ、照合結果を端末装置3に送信してもよい。また、端末装置3の制御部31は、図8のステップS7において、顔照合OKの照合結果を受けると、その旨を表示装置に表示してもよい。 The control unit 21 of the server 2 transmits the collation result (face collation OK) in step S6 to the terminal device 3 (step S7). When the control unit 21 of the server 2 determines that the face collation is OK, the control unit 21 does not have to transmit the collation result to the terminal device 3. In other words, the control unit 21 of the server 2 may transmit the collation result to the terminal device 3 only when the face collation NG is determined. Further, when the control unit 31 of the terminal device 3 receives the collation result of the face collation OK in step S7 of FIG. 8, the control unit 31 may display to that effect on the display device.

ゾーンAの監視カメラ1aの撮像部11は、人を撮影したとする。監視カメラ1aの制御部12は、撮像部11が撮影した映像の中から人の顔を切り出し、切り出した顔の顔データと、監視カメラ1aのカメラ識別情報とをサーバ2に送信する(ステップS8)。 It is assumed that the imaging unit 11 of the surveillance camera 1a in zone A photographs a person. The control unit 12 of the surveillance camera 1a cuts out a human face from the image captured by the imaging unit 11, and transmits the face data of the cut out face and the camera identification information of the surveillance camera 1a to the server 2 (step S8). ).

サーバ2の制御部21は、ステップS8にて送信された顔データと、監視カメラ1aのカメラ識別情報とを受信する(ステップS9)。 The control unit 21 of the server 2 receives the face data transmitted in step S8 and the camera identification information of the surveillance camera 1a (step S9).

サーバ2の制御部21は、記憶部23のテーブルTB2を参照し、ステップS9にて受信したカメラ識別情報に対応するゾーン識別情報を取得する(ステップS10)。 The control unit 21 of the server 2 refers to the table TB2 of the storage unit 23, and acquires the zone identification information corresponding to the camera identification information received in step S9 (step S10).

図8の例では、サーバ2の制御部21は、ステップS9にて、監視カメラ1aのカメラ識別情報「1a」を受信している。従って、サーバ2の制御部21は、図7のテーブルTB2から、ゾーンAのゾーン識別情報「A」を取得する。これにより、サーバ2の制御部21は、ステップS9にて受信した顔データ52は、ゾーンAに設置された監視カメラ1aにおいて撮影されたものと特定できる。言い換えれば、サーバ2の制御部21は、ステップS9にて受信した顔データ52の顔の人は、ゾーンAに居ると特定できる。 In the example of FIG. 8, the control unit 21 of the server 2 receives the camera identification information “1a” of the surveillance camera 1a in step S9. Therefore, the control unit 21 of the server 2 acquires the zone identification information “A” of the zone A from the table TB2 of FIG. As a result, the control unit 21 of the server 2 can identify that the face data 52 received in step S9 is taken by the surveillance camera 1a installed in the zone A. In other words, the control unit 21 of the server 2 can identify the person with the face of the face data 52 received in step S9 as being in the zone A.

サーバ2の制御部21は、ステップS10にて、ゾーンを特定すると、登録DBのテーブルTB1を参照して、特定したゾーンに対応する顔データを取得する。そして、サーバ2の制御部21は、テーブルTB2から取得した顔データと、ステップS9にて受信した顔データとを照合する(ステップS11)。 When the zone is specified in step S10, the control unit 21 of the server 2 refers to the table TB1 of the registration DB and acquires the face data corresponding to the specified zone. Then, the control unit 21 of the server 2 collates the face data acquired from the table TB2 with the face data received in step S9 (step S11).

図8の例では、サーバ2の制御部21は、ステップS10にて、顔データ52の顔の人は、ゾーンAに居ると特定している。従って、サーバ2の制御部21は、図6に示したゾーンAに対応する顔データ41ba,41bbと、ステップS9にて受信した顔データ52とを照合する。顔データ52は、図6に示したゾーンAに対応する顔データ41ba,41bbに一致しないので、サーバ2の制御部21は、顔照合が一致しないと判定する。すなわち、サーバ2の制御部21は、顔データ52の人は、ゾーンAへの立ち入りが許可されていない人と判定する。 In the example of FIG. 8, the control unit 21 of the server 2 specifies in step S10 that the person with the face of the face data 52 is in the zone A. Therefore, the control unit 21 of the server 2 collates the face data 41ba and 41bb corresponding to the zone A shown in FIG. 6 with the face data 52 received in step S9. Since the face data 52 does not match the face data 41ba and 41bb corresponding to the zone A shown in FIG. 6, the control unit 21 of the server 2 determines that the face matching does not match. That is, the control unit 21 of the server 2 determines that the person with the face data 52 is not permitted to enter the zone A.

サーバ2の制御部21は、ステップS11の照合結果(顔照合NG)を端末装置3に送信する(ステップS12)。端末装置3の制御部31は、顔照合NGの照合結果を受けて、例えば、表示装置にアラートを表示する。なお、サーバ2の制御部21は、例えば、ゾーンAに設置されたスピーカ等の音声出力装置に、ステップS11の照合結果を送信してもよい。ゾーンAに設置された音声出力装置は、ステップS11の照合結果を受信すると、警告音等を出力してもよい。 The control unit 21 of the server 2 transmits the collation result (face collation NG) of step S11 to the terminal device 3 (step S12). The control unit 31 of the terminal device 3 receives the collation result of the face collation NG and displays an alert on the display device, for example. The control unit 21 of the server 2 may transmit the collation result of step S11 to, for example, an audio output device such as a speaker installed in the zone A. When the audio output device installed in the zone A receives the collation result in step S11, it may output a warning sound or the like.

以上説明したように、サーバ2の通信部22は、建物A1の複数のゾーンA〜Cを撮影する複数のカメラ1a〜1dから、顔画像データを受信する。制御部21は、通信部22が受信した顔画像データと、ゾーンへの立ち入りが許可された人物の登録顔画像データとを照合し、顔画像データの人物が撮影されたゾーンにおける、顔画像データの人物の立ち入りの許可および不許可を判定する。これにより、サーバ2は、ゾーンA〜Cごとに決められた人以外の人が、ゾーンA〜Cに立ち入っていないかを判定できる。 As described above, the communication unit 22 of the server 2 receives the face image data from the plurality of cameras 1a to 1d that capture the plurality of zones A to C of the building A1. The control unit 21 collates the face image data received by the communication unit 22 with the registered face image data of the person who is permitted to enter the zone, and the face image data in the zone in which the person of the face image data is photographed is collated. Judge the permission and denial of entry of the person. As a result, the server 2 can determine whether or not a person other than the person determined for each of the zones A to C has entered the zones A to C.

また、サーバ2は、複数の監視カメラ1a〜1dの映像を集積し、建物A1のゾーンごとの立ち入りを判定する。これにより、監視カメラシステムを利用するユーザは、建物A1のゾーンごとにおける人の立ち入りの設定をサーバ2に対して行えばよく、ゾーン設定が容易となる。 Further, the server 2 collects the images of the plurality of surveillance cameras 1a to 1d and determines the entry of each zone of the building A1. As a result, the user who uses the surveillance camera system only needs to set the entry of people in each zone of the building A1 to the server 2, and the zone setting becomes easy.

(変形例)
上記では、監視カメラ1a〜1dが人の顔を切り出し、顔データをサーバ2に送信したがこれに限られない。監視カメラ1a〜1dは、ゾーンの映像データをサーバ2に送信し、サーバ2が人の顔を検知して、切り出してもよい。この場合、監視カメラ1a〜1dからサーバ2に送信される映像データには、顔データが含まれていると捉えてもよい。
(Modification example)
In the above, the surveillance cameras 1a to 1d cut out the human face and transmit the face data to the server 2, but the present invention is not limited to this. The surveillance cameras 1a to 1d may transmit the video data of the zone to the server 2, and the server 2 may detect a human face and cut it out. In this case, the video data transmitted from the surveillance cameras 1a to 1d to the server 2 may be considered to include face data.

(第2の実施の形態)
第2の実施の形態では、人がゾーンに立ち入ってもよい時間も判定する。以下では、第1の実施の形態と異なる部分について説明する。
(Second Embodiment)
In the second embodiment, the time when a person may enter the zone is also determined. Hereinafter, a part different from the first embodiment will be described.

図9は、第2の実施の形態に係るサーバ2の記憶部23に記憶されるテーブルの一例を示した図である。図9に示すテーブルTB11は、例えば、監視カメラ1a〜1cが建物A1に設置されるときに、サーバ2の記憶部23に記憶される。テーブルTB11は、端末装置3によって作成され、サーバ2の記憶部23に記憶されてもよい。テーブルTB11の情報は、例えば、端末装置3によって追加、変更、または削除されてもよい。 FIG. 9 is a diagram showing an example of a table stored in the storage unit 23 of the server 2 according to the second embodiment. The table TB11 shown in FIG. 9 is stored in the storage unit 23 of the server 2, for example, when the surveillance cameras 1a to 1c are installed in the building A1. The table TB11 may be created by the terminal device 3 and stored in the storage unit 23 of the server 2. The information in the table TB11 may be added, changed, or deleted by, for example, the terminal device 3.

テーブルTB11は、図6で説明したテーブルTB1と同様に、ゾーン識別情報41aと、顔データ41bと、を有している。テーブルTB11は、ゾーンごとの入室が許可された人を示すとともに、その人のゾーンに滞在してもよい時間を示した情報と言ってもよい。例えば、テーブルTB11に示す時間は、その時間の行の顔データ41bの人が、その時間の列のゾーン識別情報41aが示すゾーンに入室できる時間を示している。 The table TB11 has zone identification information 41a and face data 41b, similarly to the table TB1 described with reference to FIG. The table TB11 may be said to indicate the person who is allowed to enter the room for each zone and the information indicating the time during which the person may stay in the zone. For example, the time shown in the table TB11 indicates the time when the person in the face data 41b in the row at that time can enter the zone indicated by the zone identification information 41a in the column of that time.

より具体的には、図9の顔データ41baの顔の人は、9:00から19:00の間であれば、ゾーンAに入室できる。図9の顔データ41baの顔の人は、13:00から17:00の間であれば、ゾーンBに入室できる。図9の顔データ41bbの顔の人は、9:00から19:00の間であれば、ゾーンAに入室できる。図9の顔データ41bbの顔の人は、一日中ゾーンBに入室できない。図9の顔データ41bcの顔の人は、一日中ゾーンAに入室できない。図9の顔データ41bcの顔の人は、15:00から17:00の間であれば、ゾーンBに入室できる。 More specifically, the person with the face of the face data 41ba in FIG. 9 can enter the zone A between 9:00 and 19:00. The person with the face of the face data 41ba in FIG. 9 can enter the zone B between 13:00 and 17:00. The person with the face of the face data 41bb in FIG. 9 can enter the zone A between 9:00 and 19:00. The person with the face of the face data 41bb in FIG. 9 cannot enter the zone B all day long. A person with a face of face data 41bc in FIG. 9 cannot enter Zone A all day long. A person with a face of face data 41 bc in FIG. 9 can enter zone B between 15:00 and 17:00.

上記では、テーブルTB11は、サーバ2の記憶部23に記憶されるとしたがこれに限られない。テーブルTB11は、登録DBに記憶されてもよい。 In the above, the table TB11 is stored in the storage unit 23 of the server 2, but the present invention is not limited to this. The table TB11 may be stored in the registration DB.

第2の実施の形態のサーバ2の動作は、第1の実施の形態に対し、図8で説明したステップS6の顔照合の処理が異なる。サーバ2の制御部21は、ステップS6の顔照合の処理において、ステップS4にて受信した顔データ51の人の、ゾーンに居てもよい時間を判定する。 The operation of the server 2 of the second embodiment is different from that of the first embodiment in the face matching process of step S6 described with reference to FIG. In the face matching process of step S6, the control unit 21 of the server 2 determines the time during which the person with the face data 51 received in step S4 may be in the zone.

例えば、サーバ2の制御部21は、ステップS5にて、顔データ51の顔の人は、ゾーンAに居ると特定している。従って、サーバ2の制御部21は、図9に示すゾーンAに対応する顔データ41ba,41bbと、ステップS4にて受信した顔データ51とを照合する。顔データ51は、図9に示したゾーンAに対応する顔データ41baに一致するので、サーバ2の制御部21は、顔照合が一致した顔データ41baのゾーンAに居てもよい時間(9:00から19:00)を判定する。サーバ2の制御部21は、現在時刻が9:00から19:00の間であれば、顔照合OKと判定する。一方、サーバ2の制御部21は、現在時刻が9:00から19:00の間でなければ、顔照合NGと判定する。 For example, the control unit 21 of the server 2 specifies in step S5 that the person with the face of the face data 51 is in the zone A. Therefore, the control unit 21 of the server 2 collates the face data 41ba and 41bb corresponding to the zone A shown in FIG. 9 with the face data 51 received in step S4. Since the face data 51 matches the face data 41ba corresponding to the zone A shown in FIG. 9, the control unit 21 of the server 2 may be in the zone A of the face data 41ba with the same face matching (9). : 00 to 19:00) is determined. If the current time is between 9:00 and 19:00, the control unit 21 of the server 2 determines that face matching is OK. On the other hand, the control unit 21 of the server 2 determines that the face matching is NG unless the current time is between 9:00 and 19:00.

以上説明したように、サーバ2の制御部21は、顔画像データの人物が撮影されたゾーンにおいて、顔画像データの人物が立ち入り許可された時間であるか否かを、顔画像データと現在時刻とを用いて判定する。これにより、サーバ2は、ゾーンA〜Cごとに決められた人以外の人が、ゾーンA〜Cに立ち入っていないかを判定できる。 As described above, the control unit 21 of the server 2 determines whether or not the person in the face image data is allowed to enter in the zone in which the person in the face image data is photographed with the face image data and the current time. Judgment is made using. As a result, the server 2 can determine whether or not a person other than the person determined for each of the zones A to C has entered the zones A to C.

(変形例)
ゾーンに居てもよい人の顔データおよび時間の登録は、端末装置3とは別の装置によって、サーバ2または登録DBに記憶されてもよい。
(Modification example)
The face data and time registration of the person who may be in the zone may be stored in the server 2 or the registration DB by a device different from the terminal device 3.

図10は、顔データおよび時間の登録における監視カメラシステムの動作例を示したシーケンス図である。図10に示す端末装置61は、例えば、映画館、レストラン、マンション、事務所、またはコンサート会場等の、ゾーンが設定された施設を予約する人によって使用される端末である。施設を予約する人が、端末装置61を用いて、顔データおよび施設のゾーンに立ち入る時間を登録する。図10に示す端末装置3は、例えば、映画館、レストラン、マンション、事務所、またはコンサート会場等の施設の管理者によって管理される。 FIG. 10 is a sequence diagram showing an operation example of the surveillance camera system in registering face data and time. The terminal device 61 shown in FIG. 10 is a terminal used by a person who reserves a facility in which a zone is set, such as a movie theater, a restaurant, a condominium, an office, or a concert hall. The person who reserves the facility uses the terminal device 61 to register the face data and the time to enter the zone of the facility. The terminal device 3 shown in FIG. 10 is managed by, for example, a manager of a facility such as a movie theater, a restaurant, a condominium, an office, or a concert hall.

端末装置61は、例えば、スマートホン、タブレット端末、またはパーソナルコンピュータ等であってもよい。端末装置61には、顔データおよび時間をサーバ2または登録DBに登録するアプリケーションが搭載されてもよい。アプリケーションは、各施設の管理者によって提供されてもよい。端末装置61は、図5に示したブロック構成と同様のブロック構成を有する。 The terminal device 61 may be, for example, a smart phone, a tablet terminal, a personal computer, or the like. The terminal device 61 may be equipped with an application for registering face data and time in the server 2 or the registration DB. The application may be provided by the administrator of each facility. The terminal device 61 has a block configuration similar to the block configuration shown in FIG.

以下、図10のシーケンスを説明する。図10では、施設に設置された監視カメラ1a〜1dの図示を省略している。 Hereinafter, the sequence of FIG. 10 will be described. In FIG. 10, the surveillance cameras 1a to 1d installed in the facility are not shown.

端末装置3の制御部31は、オペレータの操作に応じて、サーバ2に対し、ゾーンA,Bと、監視カメラ1a〜1cとのグルーピング設定を行う(ステップS21)。すなわち、端末装置3の制御部31は、サーバ2に対し、ゾーンA,Bと、監視カメラ1a〜1cとの対応付けの設定を行う。これにより、サーバ2の記憶部23には、例えば、図7に示したテーブルTB2が記憶される。 The control unit 31 of the terminal device 3 sets the grouping of the zones A and B and the surveillance cameras 1a to 1c for the server 2 according to the operation of the operator (step S21). That is, the control unit 31 of the terminal device 3 sets the server 2 to associate the zones A and B with the surveillance cameras 1a to 1c. As a result, for example, the table TB2 shown in FIG. 7 is stored in the storage unit 23 of the server 2.

ゾーンが設置された施設を予約する人(例えば、映画館を予約する人)は、例えば、端末装置61に顔データ、施設を利用する人の名前、利用するゾーンの情報(例えば、映画が上映される部屋の名前等)、およびゾーンに入る時間等の予約情報を入力する。端末装置61は、入力された予約情報をサーバ2に送信する(ステップS22)。 A person who reserves a facility in which a zone is installed (for example, a person who reserves a movie theater) has, for example, face data on a terminal device 61, the name of a person who uses the facility, and information on the zone to be used (for example, a movie is shown). Enter the reservation information such as the name of the room to be opened) and the time to enter the zone. The terminal device 61 transmits the input reservation information to the server 2 (step S22).

サーバ2の制御部21は、端末装置61から送信された予約情報に基づいて、登録DBに対し、顔登録を行う(ステップS23)。すなわち、サーバ2の制御部21は、登録DBにおいて、図9に示したテーブルTB11を生成する。なお、サーバ2の制御部21は、記憶部23において、テーブルTB11を生成してもよい。 The control unit 21 of the server 2 performs face registration in the registration DB based on the reservation information transmitted from the terminal device 61 (step S23). That is, the control unit 21 of the server 2 generates the table TB11 shown in FIG. 9 in the registration DB. The control unit 21 of the server 2 may generate the table TB11 in the storage unit 23.

サーバ2の制御部21は、ステップS22にて受信した予約情報を端末装置3に送信する(ステップS24)。端末装置3の管理者は、端末装置3が受信した予約情報によって、施設を利用する人の予約内容を把握できる。 The control unit 21 of the server 2 transmits the reservation information received in step S22 to the terminal device 3 (step S24). The administrator of the terminal device 3 can grasp the reservation contents of the person who uses the facility from the reservation information received by the terminal device 3.

このように、ゾーンが設定された施設を利用する人が、端末装置61を用いて、顔データおよびゾーンに立ち入る時間をサーバ2または登録DBに設定してもよい。 In this way, a person who uses the facility in which the zone is set may use the terminal device 61 to set the face data and the time to enter the zone in the server 2 or the registration DB.

なお、例えば、レストランを予約する人が、レストランの予約をする際に、端末装置61を用いて、顔データおよび予約時間をサーバ2または登録DBに登録してもよい。ゾーンは、レストランの食事を提供する部屋ごとに設定されてもよい。 For example, when a person who reserves a restaurant makes a reservation for a restaurant, the face data and the reservation time may be registered in the server 2 or the registration DB by using the terminal device 61. Zones may be set for each room serving restaurant meals.

また、例えば、マンションの住人が、端末装置61を用いて、来訪者の顔データおよび来訪時間をサーバ2または登録DBに登録してもよい。ゾーンは、マンションのエントランスごとおよびフロアごとに設定されてもよい。 Further, for example, the resident of the condominium may use the terminal device 61 to register the visitor's face data and the visit time in the server 2 or the registration DB. Zones may be set for each entrance of the condominium and for each floor.

また、例えば、事務所の所員が、端末装置61を用いて、来訪者の顔データおよび来訪時間をサーバ2または登録DBに登録してもよい。ゾーンは、事務所のエントランスごと、フロアごと、または部屋ごとに設定されてもよい。 Further, for example, an office worker may use the terminal device 61 to register the visitor's face data and the visit time in the server 2 or the registration DB. Zones may be set per office entrance, per floor, or per room.

また、例えば、コンサートを予約する人が、コンサートのチケットを予約する際に、端末装置61を用いて、顔データおよびコンサートを見る時間等をサーバ2または登録DBに設定してもよい。ゾーンは、コンサート会場の席のクラスごとおよびボックスごとに設定されてもよい。 Further, for example, when a person who reserves a concert reserves a ticket for the concert, the terminal device 61 may be used to set face data, a time to watch the concert, and the like in the server 2 or the registration DB. Zones may be set for each class of seats in the concert hall and for each box.

(第3の実施の形態)
会社等では、社員は、所持するカードによって、入室できるゾーンが区別される場合がある。例えば、或る社員は、或る部屋の入口に設けられているカードリーダにカードをかざすと、或る部屋に入室できるが、別の社員は、カードリーダにカードをかざしても、或る部屋に入室できない。第3の実施の形態では、このようなカードのカード情報を用いて、顔データの登録を行う。
(Third Embodiment)
In companies, etc., employees may be able to distinguish the zones in which they can enter depending on the card they have. For example, one employee can enter a room by holding a card over a card reader provided at the entrance of a room, but another employee can enter a room by holding the card over a card reader. I can't enter the room. In the third embodiment, face data is registered using the card information of such a card.

図11は、第3の実施の形態に係る監視カメラシステムの一例を示した図である。図11において、図1と同じものには同じ符号が付してある。図11では、建物A1の図示を省略している。 FIG. 11 is a diagram showing an example of the surveillance camera system according to the third embodiment. In FIG. 11, the same ones as those in FIG. 1 are designated by the same reference numerals. In FIG. 11, the illustration of the building A1 is omitted.

図11の監視カメラシステムは、図1に示した監視カメラシステムに対し、カードリーダ71a〜71cを有している。 The surveillance camera system of FIG. 11 has card readers 71a to 71c with respect to the surveillance camera system shown in FIG.

カードリーダ71aは、例えば、ゾーンAの入り口扉の横に設置されている。カードリーダ71aには、ゾーンAのゾーン識別情報が紐付けられている。 The card reader 71a is installed next to the entrance door of the zone A, for example. The zone identification information of the zone A is associated with the card reader 71a.

カードリーダ71bは、例えば、ゾーンBの入り口扉の横に設置されている。カードリーダ71bには、ゾーンBのゾーン識別情報が紐付けられている。 The card reader 71b is installed next to the entrance door of the zone B, for example. The zone identification information of the zone B is associated with the card reader 71b.

カードリーダ71cは、例えば、ゾーンCの入り口扉の横に設置されている。カードリーダ71cには、ゾーンCのゾーン識別情報が紐付けられている。 The card reader 71c is installed next to the entrance door of the zone C, for example. Zone identification information of zone C is associated with the card reader 71c.

カードリーダ71aは、例えば、社員が所持するカードと近距離無線通信を行う。カードリーダ71aは、カードリーダ71aにかざされたカードから情報を読み取り、カードを所持する者がゾーンAに入室できる社員か否かを判定する。カードリーダ71b,71cもカードリーダ71aと同様に、かざされたカードから情報を読み取り、カードを所持する者がゾーンB,Cに入室できる社員か否かを判定する。 The card reader 71a, for example, performs short-range wireless communication with a card possessed by an employee. The card reader 71a reads information from the card held over the card reader 71a, and determines whether or not the person holding the card is an employee who can enter the zone A. Similar to the card reader 71a, the card readers 71b and 71c also read information from the card held over and determine whether or not the person holding the card is an employee who can enter the zones B and C.

カードリーダ71aは、読み取ったカード情報から、カードを所持する者が、ゾーンAに入室できる者と判定した場合、ゾーンAの入り口扉を解錠する。一方、カードリーダ71aは、読み取ったカード情報から、カードを所持する者が、ゾーンAに入室できない者と判定した場合、ゾーンAの入り口扉を解錠しない。カードリーダ71b,71cもカードリーダ71aと同様に、読み取ったカード情報から、ゾーンB,Cの入り口扉の解錠を制御する。 When the card reader 71a determines from the read card information that the person holding the card can enter the zone A, the card reader 71a unlocks the entrance door of the zone A. On the other hand, if the card reader 71a determines from the read card information that the person holding the card cannot enter the zone A, the card reader 71a does not unlock the entrance door of the zone A. Similar to the card reader 71a, the card readers 71b and 71c also control the unlocking of the entrance doors of the zones B and C from the read card information.

社員が所持するカードには、社員の顔写真が付されている。カードリーダ71aは、カメラを備えている。カードリーダ71aは、ゾーンAの入り口扉を解錠する場合、カメラによって、カードに付されている社員の顔写真を撮影する(顔写真の静止画像を取得する)。そして、カードリーダ71aは、撮影した顔写真の顔データと、ゾーンAのゾーン識別情報とを、サーバ2に送信する。つまり、カードを所持する者が、カードを用いてゾーンAに入室できる場合、カードに付されている顔写真と、ゾーンAのゾーン識別情報とが紐付けられて、サーバ2に送信される。 A photograph of the employee's face is attached to the card possessed by the employee. The card reader 71a includes a camera. When unlocking the entrance door of Zone A, the card reader 71a takes a face photograph of an employee attached to the card by a camera (acquires a still image of the face photograph). Then, the card reader 71a transmits the face data of the photographed face photograph and the zone identification information of the zone A to the server 2. That is, when the person who holds the card can enter the zone A by using the card, the face photograph attached to the card and the zone identification information of the zone A are linked and transmitted to the server 2.

カードリーダ71b,71bもカードリーダ71aと同様に、カメラを備えている。カードリーダ71b,71cは、ゾーンB,Cの入り口扉を解錠する場合、カメラによって、カードに付されている社員の顔写真を撮影する。そして、カードリーダ71b,71cは、撮影した顔写真の顔データと、ゾーンB,Cのゾーン識別情報とを、サーバ2に送信する。 Like the card reader 71a, the card readers 71b and 71b also have a camera. When unlocking the entrance doors of zones B and C, the card readers 71b and 71c take a photograph of the employee's face attached to the card by a camera. Then, the card readers 71b and 71c transmit the face data of the photographed face photograph and the zone identification information of the zones B and C to the server 2.

図12は、カードリーダ71aのブロック構成例を示した図である。図12に示すように、カードリーダ71aは、撮像部81と、制御部82と、カード通信部83と、通信部84と、記憶部85と、を有している。 FIG. 12 is a diagram showing a block configuration example of the card reader 71a. As shown in FIG. 12, the card reader 71a includes an imaging unit 81, a control unit 82, a card communication unit 83, a communication unit 84, and a storage unit 85.

撮像部81は、例えば、レンズおよび撮像素子(図示せず)を有している。撮像部81のレンズは、撮像素子の受光面に被写体の像を結像する。レンズには、カードリーダ71aの設置場所または撮影用途等に応じて、様々な焦点距離または撮影範囲のレンズを用いることができる。 The image pickup unit 81 includes, for example, a lens and an image pickup device (not shown). The lens of the image pickup unit 81 forms an image of the subject on the light receiving surface of the image pickup device. As the lens, lenses having various focal lengths or shooting ranges can be used depending on the installation location of the card reader 71a, the shooting application, and the like.

撮像部81の撮像素子は、受光面に受けた光を電気信号に変換する。撮像素子は、例えば、CCDまたはCMOS等のイメージセンサである。撮像部81は、撮像素子の受光面において受けた光に応じた電気信号(アナログ信号)をデジタル信号に変換して、制御部82に出力する。 The image sensor of the image pickup unit 81 converts the light received on the light receiving surface into an electric signal. The image sensor is, for example, an image sensor such as a CCD or CMOS. The image pickup unit 81 converts an electric signal (analog signal) corresponding to the light received on the light receiving surface of the image pickup element into a digital signal, and outputs the digital signal to the control unit 82.

制御部82は、カードリーダ71a全体を制御する。制御部82は、例えば、CPUまたはDSPによって構成されてもよい。制御部82は、撮像部81から出力される映像から、人の顔を判別する。制御部82は、判別した人の顔を切り出し、切り出した顔の顔データ(静止画像)を、通信部84を介してサーバ2に送信する。 The control unit 82 controls the entire card reader 71a. The control unit 82 may be configured by, for example, a CPU or a DSP. The control unit 82 determines a human face from the image output from the image pickup unit 81. The control unit 82 cuts out the face of the determined person, and transmits the face data (still image) of the cut out face to the server 2 via the communication unit 84.

カード通信部83は、カードリーダ71aにかざされたカードと近距離無線通信を行う。 The card communication unit 83 performs short-range wireless communication with the card held over the card reader 71a.

通信部84は、サーバ2と通信する。通信部84は、例えば、イーサネットケーブル等のネットワークケーブルを介して、サーバ2と通信してもよい。また、通信部84は、例えば、Wi−Fi(登録商標)またはブルートゥース(登録商標)等の近距離無線通信を介して、サーバ2と通信してもよい。 The communication unit 84 communicates with the server 2. The communication unit 84 may communicate with the server 2 via a network cable such as an Ethernet cable. Further, the communication unit 84 may communicate with the server 2 via short-range wireless communication such as Wi-Fi (registered trademark) or Bluetooth (registered trademark).

記憶部85は、制御部82が動作するためのプログラムが記憶される。また、記憶部85には、制御部82が計算処理を行うためのデータ、または、制御部82が各部を制御するためのデータ等が記憶される。記憶部85は、RAM、ROM、フラッシュメモリ、およびHDDなどの記憶装置によって構成されてもよい。 The storage unit 85 stores a program for operating the control unit 82. Further, the storage unit 85 stores data for the control unit 82 to perform calculation processing, data for the control unit 82 to control each unit, and the like. The storage unit 85 may be composed of a storage device such as a RAM, a ROM, a flash memory, and an HDD.

以下では、説明を簡単にするため、ゾーンAとゾーンBとにおける入室者の検知について説明する。 In the following, for the sake of simplicity, the detection of occupants in Zone A and Zone B will be described.

図13は、サーバ2の記憶部23に記憶されるテーブルの一例を示した図である。テーブルTB21は、図6で説明したテーブルTB1と同様に、ゾーン識別情報41aと、顔データ41bと、を有している。 FIG. 13 is a diagram showing an example of a table stored in the storage unit 23 of the server 2. The table TB21 has zone identification information 41a and face data 41b, similarly to the table TB1 described with reference to FIG.

図13に示すテーブルTB21は、カードリーダ71a〜71cから送信される顔データと、ゾーン識別情報とに基づいて生成される。顔データとゾーン識別情報は、上記したように、人がゾーンA,Bに入室できた場合に、カードリーダ71a〜71cから送信される。従って、テーブルTB21は、ゾーンA,Bに入室できた人を示した情報と言ってもよい。 The table TB21 shown in FIG. 13 is generated based on the face data transmitted from the card readers 71a to 71c and the zone identification information. As described above, the face data and the zone identification information are transmitted from the card readers 71a to 71c when a person can enter the zones A and B. Therefore, the table TB21 can be said to be information indicating a person who has been able to enter the zones A and B.

例えば、顔データ41baの顔写真が付されたカードによって、人がゾーンAに入室したとする。この場合、サーバ2は、ゾーンAの入り口に設けられたカードリーダ71aから、顔データ41baと、ゾーン識別情報Aとを受信する。これにより、図13のテーブルTB21には、点線枠A11に示す情報が登録される。 For example, suppose a person enters Zone A with a card with a face photo of face data 41ba. In this case, the server 2 receives the face data 41ba and the zone identification information A from the card reader 71a provided at the entrance of the zone A. As a result, the information shown in the dotted line frame A11 is registered in the table TB21 of FIG.

また、顔データ41bbの顔写真が付されたカードによって、人がゾーンAに入室したとする。この場合、サーバ2は、ゾーンAの入り口に設けられたカードリーダ71aから、顔データ41bbと、ゾーン識別情報Aとを受信する。これにより、図13のテーブルTB21には、点線枠A12に示す情報が登録される。 Further, it is assumed that a person enters the zone A by a card with a face photograph of face data 41bb. In this case, the server 2 receives the face data 41bb and the zone identification information A from the card reader 71a provided at the entrance of the zone A. As a result, the information shown in the dotted line frame A12 is registered in the table TB21 of FIG.

また、顔データ41bcの顔写真が付されたカードによって、人がゾーンBに入室したとする。この場合、サーバ2は、ゾーンBの入り口に設けられたカードリーダ71bから、顔データ41bcと、ゾーン識別情報Bとを受信する。これにより、図13のテーブルTB21には、点線枠A13に示す情報が登録される。 Further, it is assumed that a person enters the zone B by a card with a face photograph of face data 41bc. In this case, the server 2 receives the face data 41bc and the zone identification information B from the card reader 71b provided at the entrance of the zone B. As a result, the information shown in the dotted line frame A13 is registered in the table TB21 of FIG.

図13では、テーブルTB21は、サーバ2の記憶部23に記憶されるとしたが、これに限られない。テーブルTB21は、登録DBに記憶されてもよい。以下では、テーブルTB21は、登録DBに記憶されるとする。 In FIG. 13, the table TB21 is stored in the storage unit 23 of the server 2, but the present invention is not limited to this. The table TB21 may be stored in the registration DB. In the following, it is assumed that the table TB21 is stored in the registration DB.

図14は、監視カメラシステムの動作例を示したシーケンス図である。図14では、ゾーンA,Bと、カメラ1a〜1cとのグルーピング設定(例えば、図8のステップS1の処理)は、完了しているとする。すなわち、サーバ2の記憶部23には、図7に示したテーブルTB2が記憶されているとする。図14では、ゾーンBに設置された監視カメラ1b,1cおよびカードリーダ71bの処理の説明を省略する。 FIG. 14 is a sequence diagram showing an operation example of the surveillance camera system. In FIG. 14, it is assumed that the grouping setting between the zones A and B and the cameras 1a to 1c (for example, the process of step S1 in FIG. 8) is completed. That is, it is assumed that the table TB2 shown in FIG. 7 is stored in the storage unit 23 of the server 2. In FIG. 14, the description of the processing of the surveillance cameras 1b and 1c and the card reader 71b installed in the zone B will be omitted.

カードリーダ71aは、かざされたカードのカード情報を取得する。カードリーダ71aは、取得したカード情報に基づいて、ゾーンAの入り口扉を解錠し、かざされたカードを撮影する。カードリーダ71aの制御部82は、撮影されたカードから、カードに付されている顔写真を切り出し、切り出した顔写真の顔データと、ゾーンAのゾーン識別情報とをサーバ2に送信する(ステップS31)。 The card reader 71a acquires the card information of the card held over. Based on the acquired card information, the card reader 71a unlocks the entrance door of zone A and photographs the card held over. The control unit 82 of the card reader 71a cuts out the face photo attached to the card from the photographed card, and transmits the face data of the cut out face photo and the zone identification information of the zone A to the server 2 (step). S31).

サーバ2の制御部21は、ステップS31にて送信された情報に基づいて、登録DBに対し、顔登録を行う(ステップS32)。例えば、サーバ2の制御部21は、登録DBのテーブルTB21に対し、図13に示した点線枠A11の情報を登録する。 The control unit 21 of the server 2 performs face registration in the registration DB based on the information transmitted in step S31 (step S32). For example, the control unit 21 of the server 2 registers the information of the dotted line frame A11 shown in FIG. 13 in the table TB21 of the registration DB.

ここで、ステップS31において、カードリーダ71aにかざされたカードは、盗難カードであったとする。例えば、図14に示す顔データ91の顔の人が、図14に示す顔データ92の顔の人になりすまし、盗難カードを用いて、ゾーンAに入室しているとする。 Here, it is assumed that the card held over the card reader 71a in step S31 is a stolen card. For example, it is assumed that the person with the face of the face data 91 shown in FIG. 14 impersonates the person with the face of the face data 92 shown in FIG. 14 and enters the zone A using a theft card.

ゾーンAの監視カメラ1aの撮像部11は、人(顔データ91の顔の人)を撮影したとする。監視カメラ1aの制御部12は、撮像部11が撮影した映像の中から人の顔を切り出し、切り出した顔の顔データと、監視カメラ1aのカメラ識別情報とをサーバ2に送信する(ステップS33)。 It is assumed that the imaging unit 11 of the surveillance camera 1a in zone A has photographed a person (a person with a face in face data 91). The control unit 12 of the surveillance camera 1a cuts out a human face from the image captured by the imaging unit 11, and transmits the face data of the cut out face and the camera identification information of the surveillance camera 1a to the server 2 (step S33). ).

サーバ2の制御部21は、ステップS33にて送信された顔データと、監視カメラ1aのカメラ識別情報とを受信する(ステップS34)。 The control unit 21 of the server 2 receives the face data transmitted in step S33 and the camera identification information of the surveillance camera 1a (step S34).

サーバ2の制御部21は、記憶部23のテーブルTB2を参照し、ステップS34にて受信したカメラ識別情報に対応するゾーン識別情報を取得する(ステップS35)。 The control unit 21 of the server 2 refers to the table TB2 of the storage unit 23, and acquires the zone identification information corresponding to the camera identification information received in step S34 (step S35).

図14の例では、サーバ2の制御部21は、ステップS33にて、監視カメラ1aのカメラ識別情報「1a」を受信している。従って、サーバ2の制御部21は、図7のテーブルTB2から、ゾーンAのゾーン識別情報「A」を取得する。これにより、サーバ2の制御部21は、ステップS34にて受信した顔データ91は、ゾーンAに設置された監視カメラ1aにおいて撮影されたものと特定できる。言い換えれば、サーバ2の制御部21は、ステップS34にて受信した顔データ91の顔の人は、ゾーンAに居ると特定できる。 In the example of FIG. 14, the control unit 21 of the server 2 receives the camera identification information “1a” of the surveillance camera 1a in step S33. Therefore, the control unit 21 of the server 2 acquires the zone identification information “A” of the zone A from the table TB2 of FIG. As a result, the control unit 21 of the server 2 can identify that the face data 91 received in step S34 is taken by the surveillance camera 1a installed in the zone A. In other words, the control unit 21 of the server 2 can identify the person with the face of the face data 91 received in step S34 as being in the zone A.

サーバ2の制御部21は、ステップS35にて、ゾーンを特定すると、登録DBのテーブルTB21を参照して、特定したゾーンに対応する顔データを取得する。そして、サーバ2の制御部21は、テーブルTB21から取得した顔データと、ステップS34にて受信した顔データとを照合する(ステップS36)。 When the zone is specified in step S35, the control unit 21 of the server 2 refers to the table TB21 of the registration DB and acquires the face data corresponding to the specified zone. Then, the control unit 21 of the server 2 collates the face data acquired from the table TB21 with the face data received in step S34 (step S36).

図14の例では、サーバ2の制御部21は、ステップS35にて、顔データ91の顔の人は、ゾーンAに居ると特定している。従って、サーバ2の制御部21は、図13に示したテーブルTB21のゾーンAに対応する顔データ41ba,41bbと、ステップS34にて受信した顔データ91とを照合する。顔データ91は、図13に示したゾーンAに対応する顔データ41ba,41bbに一致しないので、サーバ2の制御部21は、顔照合が一致しないと判定する。すなわち、サーバ2の制御部21は、顔データ91の人は、ゾーンAへの立ち入りが許可されていない人と判定する。 In the example of FIG. 14, the control unit 21 of the server 2 specifies in step S35 that the person with the face of the face data 91 is in the zone A. Therefore, the control unit 21 of the server 2 collates the face data 41ba and 41bb corresponding to the zone A of the table TB21 shown in FIG. 13 with the face data 91 received in step S34. Since the face data 91 does not match the face data 41ba and 41bb corresponding to the zone A shown in FIG. 13, the control unit 21 of the server 2 determines that the face matching does not match. That is, the control unit 21 of the server 2 determines that the person with the face data 91 is not permitted to enter the zone A.

サーバ2の制御部21は、ステップS36の照合結果を端末装置3に送信する(ステップS37)。端末装置3の制御部31は、顔照合NGの照合結果を受けて、例えば、表示装置にアラートを表示する。 The control unit 21 of the server 2 transmits the collation result of step S36 to the terminal device 3 (step S37). The control unit 31 of the terminal device 3 receives the collation result of the face collation NG and displays an alert on the display device, for example.

以上説明したように、サーバ2の通信部22は、複数のゾーンA〜Cの各々に対応して設けられたカードリーダ71a〜71cから、カードに付された顔写真の顔画像データを受信する。サーバ2の制御部21は、受信された顔画像データを、テーブルTB21の顔データとして記憶する。これにより、サーバ2は、ゾーンA〜Cごとに決められた人以外の人が、ゾーンA〜Cに立ち入っていないかを判定できる。 As described above, the communication unit 22 of the server 2 receives the facial image data of the facial photograph attached to the card from the card readers 71a to 71c provided corresponding to each of the plurality of zones A to C. .. The control unit 21 of the server 2 stores the received face image data as the face data of the table TB21. As a result, the server 2 can determine whether or not a person other than the person determined for each of the zones A to C has entered the zones A to C.

(変形例1)
カードリーダ71a〜71cは、カードに付されている顔写真を撮影し、顔写真の顔データをサーバ2に送信するとしたがこれに限られない。例えば、カードは、IC(Integrated Circuit)を搭載していてもよい。ICには、カードを所持する社員の顔データが記憶されていてもよい。カードリーダ71a〜71cは、カードに搭載されているICから顔データを取得し、サーバ2に送信してもよい。
(Modification example 1)
The card readers 71a to 71c are supposed to take a face photograph attached to the card and transmit the face data of the face photograph to the server 2, but the present invention is not limited to this. For example, the card may be equipped with an IC (Integrated Circuit). The face data of the employee who holds the card may be stored in the IC. The card readers 71a to 71c may acquire face data from the IC mounted on the card and transmit it to the server 2.

(変形例2)
カードリーダ71a〜71cは、カードから読み取った名前またはカードのカード識別情報をサーバ2に送信してもよい。サーバ2の制御部21は、カードリーダ71a〜71cから送信された名前またはカード識別情報を受信すると、カード情報を管理するサーバから、名前またはカード識別情報に対応する顔データを受信してもよい。そして、サーバ2の制御部21は、受信した顔データと、カードリーダ71a〜71cから受信したゾーン識別情報とに基づいて、図13に示したテーブルTB21を生成してもよい。なお、カード情報を管理するサーバには、カードを所持する人の顔データと、名前またはカード識別情報とが対応付けられて記憶されている。
(Modification 2)
The card readers 71a to 71c may transmit the name read from the card or the card identification information of the card to the server 2. When the control unit 21 of the server 2 receives the name or card identification information transmitted from the card readers 71a to 71c, the control unit 21 may receive the face data corresponding to the name or card identification information from the server that manages the card information. .. Then, the control unit 21 of the server 2 may generate the table TB21 shown in FIG. 13 based on the received face data and the zone identification information received from the card readers 71a to 71c. The server that manages the card information stores the face data of the person who holds the card in association with the name or the card identification information.

(変形例3)
カードリーダ71a〜71cを含む監視カメラシステムは、会社に設置される例について説明したがこれに限られない。カードリーダ71a〜71cを含む監視カメラシステムは、マンションまたは商業施設等に設置されてもよい。
(Modification example 3)
Surveillance camera systems including card readers 71a to 71c have been described as examples of being installed in a company, but are not limited thereto. Surveillance camera systems including card readers 71a to 71c may be installed in condominiums, commercial facilities, and the like.

(第4の実施の形態)
第4の実施の形態では、ゾーンごとにおいて、人の立ち入り監視の条件が異なる場合について説明する。例えば、監視カメラシステムは、或るゾーンでは、ブラックリスト方式で人の立ち入りを判定し、別のゾーンでは、ホワイトリスト方式で人の立ち入りを判定する。
(Fourth Embodiment)
In the fourth embodiment, a case where the conditions for on-site monitoring of people are different for each zone will be described. For example, a surveillance camera system uses a blacklist method to determine the entry of people in one zone and a whitelist method to determine the entry of people in another zone.

図15は、第4の実施の形態に係る監視カメラシステムの一例を示した図である。図15に示すように、監視カメラシステムは、監視カメラ101a,101bと、サーバ102と、端末装置103と、警報装置104a,104b,105a,105bと、を有している。図15には、監視カメラシステムの他に、建物A101の内部の平面図が示してある。 FIG. 15 is a diagram showing an example of the surveillance camera system according to the fourth embodiment. As shown in FIG. 15, the surveillance camera system includes surveillance cameras 101a, 101b, a server 102, a terminal device 103, and alarm devices 104a, 104b, 105a, 105b. FIG. 15 shows a plan view of the inside of the building A101 in addition to the surveillance camera system.

建物A101は、ゾーンA,Bを有している。ゾーンA,Bは、隣接している。建物A101は、例えば、建物A101の外からゾーンAに入るための入り口A102aと、ゾーンAを経由してゾーンBに入るための入り口A102bとを有している。ゾーンBには、ゾーンAを通過すると立ち入ることができる。 Building A101 has zones A and B. Zones A and B are adjacent to each other. The building A101 has, for example, an entrance A102a for entering the zone A from outside the building A101 and an entrance A102b for entering the zone B via the zone A. Zone B can be entered by passing through Zone A.

建物A101は、例えば、スーパまたはコンビニエンスストア等の店舗である。建物A101のゾーンAは、例えば、商品の売り場である。ゾーンBは、例えば、在庫を保管し、または、商品を加工するバックヤードである。 Building A101 is, for example, a store such as a supermarket or a convenience store. Zone A of building A101 is, for example, a sales floor for goods. Zone B is, for example, a backyard for storing inventory or processing goods.

監視カメラ101aは、建物A101のゾーンAに設置される。監視カメラ101bは、建物A101のゾーンBに設置される。 The surveillance camera 101a is installed in the zone A of the building A101. The surveillance camera 101b is installed in zone B of the building A101.

監視カメラ101a,101bは、ゾーンA,B内に居る人を撮影するよう建物A101に設置される。例えば、監視カメラ101aは、ゾーンA内の全体を撮影するように、ゾーンAの天井または壁等に設置される。監視カメラ101bは、ゾーンB内の全体を撮影するように、ゾーンBの天井または壁等に設置される。 Surveillance cameras 101a and 101b are installed in building A101 so as to photograph people in zones A and B. For example, the surveillance camera 101a is installed on the ceiling or wall of the zone A so as to capture the entire zone A. The surveillance camera 101b is installed on the ceiling or wall of the zone B so as to photograph the entire zone B.

サーバ102は、例えば、LANまたはインターネット等のネットワークによって、監視カメラ101a,101bと接続されている。サーバ102は、建物A101内に設置されてもよいし、建物A101とは別の場所に設置されてもよい。 The server 102 is connected to the surveillance cameras 101a and 101b by, for example, a network such as a LAN or the Internet. The server 102 may be installed in the building A101, or may be installed in a place different from the building A101.

サーバ102は、ゾーンAに立ち入ることができない人の顔データと、ゾーンBに立ち入ることができる人の顔データとを記憶(登録)している。言い換えれば、サーバ102は、ゾーンAに立ち入ることができない人のブラックリストと、ゾーンBに立ち入ることができる人のホワイトリストとを有している。サーバ102は、監視カメラ101a,101bが撮影した人の顔データと、登録されている顔データとの照合を行う。サーバ102は、照合結果を、端末装置103および警報装置104a,104b,105a,105bに送信する。 The server 102 stores (registers) the face data of a person who cannot enter the zone A and the face data of a person who can enter the zone B. In other words, the server 102 has a blacklist of people who cannot enter zone A and a whitelist of people who can enter zone B. The server 102 collates the face data of the person photographed by the surveillance cameras 101a and 101b with the registered face data. The server 102 transmits the collation result to the terminal device 103 and the alarm devices 104a, 104b, 105a, 105b.

端末装置103は、LANまたはインターネット等のネットワークによって、サーバ102と接続されている。端末装置103は、建物A101内に設置されてもよいし、建物A101とは別の場所に設置されてもよい。端末装置103は、例えば、パーソナルコンピュータ、スマートホン、またはタブレット端末等であってもよい。 The terminal device 103 is connected to the server 102 by a network such as a LAN or the Internet. The terminal device 103 may be installed in the building A101, or may be installed in a place different from the building A101. The terminal device 103 may be, for example, a personal computer, a smart phone, a tablet terminal, or the like.

警報装置104a,104bは、サーバ102から出力されるアラーム信号を受信する。警報装置104a,104bは、例えば、警報ランプである。警報装置104a,104bは、アラーム信号を受信すると発光する。警報装置104aは、ゾーンAに設置され、警報装置104bは、ゾーンBに設置される。 The alarm devices 104a and 104b receive the alarm signal output from the server 102. The alarm devices 104a and 104b are, for example, alarm lamps. The alarm devices 104a and 104b emit light when the alarm signal is received. The alarm device 104a is installed in zone A, and the alarm device 104b is installed in zone B.

警報装置105a,105bは、サーバ102から出力されるアラーム信号を、無線通信によって受信する。警報装置105a,105bは、例えば、建物A101のスタッフが所持する携帯型の警報装置である。警報装置105a,105bは、アラーム信号を受信すると振動する。また、警報装置105a,105bは、アラーム信号を受信すると発光または音を出力してもよい。図15では、警報装置105aは、ゾーンAに位置し、警報装置105bは、ゾーンBに位置しているが、これに限られない。警報装置105a,105bの位置は、警報装置105a,105bを所持するスタッフの移動に応じて変わる。 The alarm devices 105a and 105b receive the alarm signal output from the server 102 by wireless communication. The alarm devices 105a and 105b are, for example, portable alarm devices owned by the staff of the building A101. The alarm devices 105a and 105b vibrate when they receive an alarm signal. Further, the alarm devices 105a and 105b may output light emission or sound when receiving the alarm signal. In FIG. 15, the alarm device 105a is located in zone A, and the alarm device 105b is located in zone B, but is not limited thereto. The positions of the alarm devices 105a and 105b change according to the movement of the staff possessing the alarm devices 105a and 105b.

なお、監視カメラ101a,101bは、ゾーンA,Bに入室する人を撮影するように設置されてもよい。例えば、監視カメラ101aは、ゾーンAの入り口A102a付近を撮影するように設置されてもよい。監視カメラ101bは、ゾーンBの入り口A102b付近を撮影するように設置されてもよい。 The surveillance cameras 101a and 101b may be installed so as to photograph a person entering the zones A and B. For example, the surveillance camera 101a may be installed so as to photograph the vicinity of the entrance A102a of the zone A. The surveillance camera 101b may be installed so as to photograph the vicinity of the entrance A102b of the zone B.

また、ゾーンA,Bの各々には、複数の監視カメラが設置されてもよい。ゾーンA,Bの各々は、複数の監視カメラによって、ゾーンA,B内にいる人を撮影するように設置されてもよい。 Further, a plurality of surveillance cameras may be installed in each of the zones A and B. Each of the zones A and B may be installed so as to photograph a person in the zones A and B by a plurality of surveillance cameras.

また、監視カメラ101a,101bには、ゾーンA,Bに既に設置されている監視カメラが用いられてもよい。例えば、監視カメラ101a,101bには、ゾーンA,Bの映像を録画する録画システムの一部として、既にゾーンA,Bに設置されている監視カメラを用いてもよい。この場合、監視カメラ101a,101bの出力を、録画システムとサーバ102とに分岐させてもよい。 Further, as the surveillance cameras 101a and 101b, the surveillance cameras already installed in the zones A and B may be used. For example, for the surveillance cameras 101a and 101b, surveillance cameras already installed in the zones A and B may be used as a part of the recording system for recording the images in the zones A and B. In this case, the outputs of the surveillance cameras 101a and 101b may be branched to the recording system and the server 102.

また、ゾーンの数は、2つに限られない。ゾーンは、3以上であってもよい。3以上のゾーン各々に設置される監視カメラは、サーバ102に接続される。サーバ102は、3以上のゾーン各々において、ブラックリストおよびホワイトリストのいずれか一方を用いて、ゾーンへの人の立ち入りを判定する。 Also, the number of zones is not limited to two. The number of zones may be 3 or more. Surveillance cameras installed in each of the three or more zones are connected to the server 102. The server 102 uses either the blacklist or the whitelist in each of the three or more zones to determine the entry of a person into the zone.

また、監視カメラシステムは、監視カメラ101a,101bが撮影した映像データを録画するレコーダを備えてもよい。監視カメラシステムは、監視カメラ101a,101bが撮影した映像データをリアルタイムで表示するモニタリング装置を備えてもよい。モニタリング装置は、例えば、パーソナルコンピュータ、スマートホン、またはタブレット端末等であってもよい。 Further, the surveillance camera system may include a recorder that records video data captured by the surveillance cameras 101a and 101b. The surveillance camera system may include a monitoring device that displays video data captured by the surveillance cameras 101a and 101b in real time. The monitoring device may be, for example, a personal computer, a smart phone, a tablet terminal, or the like.

また、監視カメラ101a,101bは、図3で説明した監視カメラ1aと同様の構成を有し、その説明を省略する。サーバ102は、図4で説明したサーバ2と同様の構成を有し、その説明を省略する。端末装置103は、図5で説明した端末装置3と同様の構成を有し、その説明を省略する。 Further, the surveillance cameras 101a and 101b have the same configuration as the surveillance cameras 1a described with reference to FIG. 3, and the description thereof will be omitted. The server 102 has the same configuration as the server 2 described with reference to FIG. 4, and the description thereof will be omitted. The terminal device 103 has the same configuration as the terminal device 3 described with reference to FIG. 5, and the description thereof will be omitted.

以下では、建物A101を店舗として説明する。 Hereinafter, the building A101 will be described as a store.

図16は、監視カメラシステムの概略動作を説明する図である。図16において、図15と同じものには同じ符号が付してある。図16には、人の顔データ111〜113が示してある。 FIG. 16 is a diagram illustrating a schematic operation of the surveillance camera system. In FIG. 16, the same ones as in FIG. 15 are designated by the same reference numerals. FIG. 16 shows human face data 111-113.

顔データ111は、例えば、以前に万引きをした疑いのある人物または万引きを行った人物等の注意人物の顔データである。注意人物は、商品売り場であるゾーンAに立ち入ると、端末装置103および警報装置104a,104b,105a,105bに報知(アラーム信号が出力)される。これにより、例えば、店舗の従業員は、注意人物が商品売り場であるゾーンAに出現したことを認識でき、注意人物を監視できる。なお、注意人物は、バックヤードであるゾーンBに立ち入っても、端末装置103および警報装置104a,104b,105a,105bに報知される。 The face data 111 is, for example, face data of a person who is suspected of having shoplifted before or a person of caution such as a person who has shoplifted. When the caution person enters the zone A, which is the product sales floor, the terminal device 103 and the alarm devices 104a, 104b, 105a, and 105b are notified (alarm signals are output). Thereby, for example, the employee of the store can recognize that the attention person has appeared in the zone A which is the product sales floor, and can monitor the attention person. Even if the caution person enters the zone B, which is the backyard, the terminal device 103 and the alarm devices 104a, 104b, 105a, and 105b are notified.

顔データ112は、店舗と取引する業者の顔データである。業者は、商品売り場であるゾーンAに立ち入っても端末装置103および警報装置104a,104b,105a,105bに報知されないが、バックヤードのゾーンBに立ち入ると、端末装置103および警報装置104a,104b,105a,105bに報知される。これにより、例えば、店舗の従業員は、業者がバックヤードであるゾーンBに出現したことを認識でき、業者に対し、ゾーンBは関係者以外立ち入り禁止であることを伝えることができる。 The face data 112 is face data of a trader who deals with a store. Even if the trader enters the zone A, which is the product sales floor, the terminal device 103 and the alarm devices 104a, 104b, 105a, 105b are not notified, but when the trader enters the backyard zone B, the terminal device 103 and the alarm devices 104a, 104b, Notified to 105a and 105b. Thereby, for example, the employee of the store can recognize that the trader has appeared in the zone B which is the backyard, and can inform the trader that the zone B is off limits to anyone other than the persons concerned.

顔データ113は、店舗の従業員である。従業員は、商品売り場であるゾーンAおよびバックヤードであるゾーンBに立ち入っても、端末装置103および警報装置104a,104b,105a,105bに報知されない。すなわち、従業員は、ゾーンAおよびゾーンBを自由に行き来できる。 The face data 113 is an employee of the store. Even if an employee enters zone A, which is a product sales floor, and zone B, which is a backyard, the terminal device 103 and the alarm devices 104a, 104b, 105a, and 105b are not notified. That is, the employee can move freely between Zone A and Zone B.

サーバ102は、売り場であるゾーンAにおいては、ブラックリストを用いて、特定人物のゾーンAへの立ち入りを判定する。 In the zone A, which is the sales floor, the server 102 determines the entry of a specific person into the zone A by using the blacklist.

例えば、注意人物の顔データ111は、ブラックリストに登録される。従って、ブラックリストに登録された注意人物が、監視カメラ101aによって撮影された場合、監視カメラ101aによって撮影された注意人物の顔データと、ブラックリストに登録されている顔データ111とが一致し、サーバ102は、アラーム信号を端末装置103および警報装置104a,104b,105a,105bに出力する。 For example, the face data 111 of the attention person is registered in the blacklist. Therefore, when the attention person registered in the blacklist is photographed by the surveillance camera 101a, the face data of the attention person photographed by the surveillance camera 101a matches the face data 111 registered in the blacklist. The server 102 outputs an alarm signal to the terminal device 103 and the alarm devices 104a, 104b, 105a, 105b.

サーバ102は、バックヤードであるゾーンBにおいては、ホワイトリストを用いて、特定人物のゾーンBへの立ち入りを判定する。 The server 102 determines the entry of a specific person into the zone B by using the white list in the zone B which is the backyard.

例えば、従業員の顔データ113は、ホワイトリストに登録される。従って、ホワイトリストに登録されていない、従業員以外の人物が、監視カメラ101bによって撮影された場合、監視カメラ101bによって撮影された人物の顔データと、ホワイトリストに登録されている従業員の顔データ113とが一致しないため、サーバ102は、アラーム信号を端末装置103および警報装置104a,104b,105a,105bに出力する。 For example, the employee face data 113 is registered in the white list. Therefore, when a person other than the employee who is not registered in the white list is photographed by the surveillance camera 101b, the face data of the person photographed by the surveillance camera 101b and the face of the employee registered in the white list. Since the data 113 does not match, the server 102 outputs an alarm signal to the terminal device 103 and the alarm devices 104a, 104b, 105a, 105b.

すなわち、サーバ102は、ブラックリストに登録された人物がゾーンAに出現した場合、アラーム信号を端末装置103および警報装置104a,104b,105a,105bに出力する。また、サーバ102は、ホワイトリストに登録されていない人物がゾーンBに出現した場合、アラーム信号を端末装置103および警報装置104a,104b,105a,105bに出力する。 That is, when a person registered in the blacklist appears in the zone A, the server 102 outputs an alarm signal to the terminal device 103 and the alarm devices 104a, 104b, 105a, 105b. Further, when a person who is not registered in the white list appears in the zone B, the server 102 outputs an alarm signal to the terminal device 103 and the alarm devices 104a, 104b, 105a, 105b.

図17は、サーバ102の記憶部に記憶されるテーブルの一例を示した図である。図17に示すテーブルTB101は、例えば、監視カメラ101a,101bが建物A101に設置されるときに、サーバ102の記憶部に記憶される。テーブルTB101は、端末装置103によって作成され、サーバ102の記憶部に記憶されてもよい。また、テーブルTB101の情報は、例えば、端末装置103によって追加、変更、または削除されてもよい。 FIG. 17 is a diagram showing an example of a table stored in the storage unit of the server 102. The table TB101 shown in FIG. 17 is stored in the storage unit of the server 102, for example, when the surveillance cameras 101a and 101b are installed in the building A101. The table TB 101 may be created by the terminal device 103 and stored in the storage unit of the server 102. Further, the information in the table TB 101 may be added, changed, or deleted by the terminal device 103, for example.

テーブルTB101は、ゾーン識別情報121aと、カメラ識別情報121bと、を有している。ゾーン識別情報121aは、ゾーンA,Bを識別する識別情報である。例えば、ゾーン識別情報121aの「A」は、ゾーンAの識別情報を示す。ゾーン識別情報121aの「B」は、ゾーンBの識別情報を示す。 The table TB101 has zone identification information 121a and camera identification information 121b. The zone identification information 121a is identification information that identifies the zones A and B. For example, "A" of the zone identification information 121a indicates the identification information of the zone A. “B” of the zone identification information 121a indicates the identification information of the zone B.

カメラ識別情報121bは、監視カメラ101a,101bを識別する識別情報である。例えば、カメラ識別情報121bの「101a」は、監視カメラ101aの識別情報を示す。カメラ識別情報121bの「101b」は、監視カメラ101bの識別情報を示す。 The camera identification information 121b is identification information for identifying the surveillance cameras 101a and 101b. For example, "101a" of the camera identification information 121b indicates the identification information of the surveillance camera 101a. “101b” of the camera identification information 121b indicates the identification information of the surveillance camera 101b.

テーブルTB101は、監視カメラ101a,101bのゾーンにおける設置場所を示した情報と捉えてもよい。例えば、図17に示すカメラ識別情報「101a」の監視カメラ101aは、ゾーンAに設置されていることを示す。図17に示すカメラ識別情報「101b」の監視カメラ101bは、ゾーンBに設置されていることを示す。 The table TB101 may be regarded as information indicating the installation location in the zones of the surveillance cameras 101a and 101b. For example, it is shown that the surveillance camera 101a of the camera identification information “101a” shown in FIG. 17 is installed in the zone A. It is shown that the surveillance camera 101b of the camera identification information “101b” shown in FIG. 17 is installed in the zone B.

図18は、サーバ102の記憶部に記憶されるテーブルの一例を示した図である。図18に示すテーブルTB102は、例えば、監視カメラ101a,101bが建物A101に設置されるときに、サーバ102の記憶部に記憶される。テーブルTB102は、端末装置103によって作成され、サーバ102の記憶部に記憶されてもよい。また、テーブルTB102の情報は、例えば、端末装置103によって追加、変更、または削除されてもよい。 FIG. 18 is a diagram showing an example of a table stored in the storage unit of the server 102. The table TB 102 shown in FIG. 18 is stored in the storage unit of the server 102, for example, when the surveillance cameras 101a and 101b are installed in the building A101. The table TB 102 may be created by the terminal device 103 and stored in the storage unit of the server 102. Further, the information in the table TB 102 may be added, changed, or deleted by the terminal device 103, for example.

テーブルTB102は、ゾーン識別情報131aと、リスト情報131bと、顔データ131cと、を有している。ゾーン識別情報131aは、ゾーンA,Bを識別する識別情報である。例えば、ゾーン識別情報131aの「A」は、ゾーンAの識別情報を示す。ゾーン識別情報131aの「B」は、ゾーンBの識別情報を示す。 The table TB102 has zone identification information 131a, list information 131b, and face data 131c. The zone identification information 131a is identification information for identifying zones A and B. For example, "A" of the zone identification information 131a indicates the identification information of the zone A. “B” of the zone identification information 131a indicates the identification information of the zone B.

リスト情報131bは、対応するゾーンにおける判定種別を示す情報である。図18に示すBLは、ブラックリスト方式によって、対応するゾーンの立ち入りを判定することを示す。WLは、ホワイトリスト方式によって、対応するゾーンの立ち入りを判定することを示す。 The list information 131b is information indicating a determination type in the corresponding zone. BL shown in FIG. 18 indicates that the entry of the corresponding zone is determined by the blacklist method. WL indicates that the entry of the corresponding zone is determined by the white list method.

例えば、図18の例の場合、ゾーンAのリスト情報131bは、「BL」である。従って、ゾーンAでは、ブラックリスト方式によって、人の立ち入りが判定される。また、ゾーンBのリスト情報131bは、「WL」である。従って、ゾーンBでは、ホワイトリスト方式によって、人の立ち入りが判定される。 For example, in the case of the example of FIG. 18, the list information 131b of the zone A is “BL”. Therefore, in zone A, the entry of people is determined by the blacklist method. Further, the list information 131b of the zone B is "WL". Therefore, in zone B, the entry of people is determined by the white list method.

顔データ131cは、人の顔データである。顔データ132aは、例えば、図16で説明した顔データ113に対応し、従業員の顔データである。顔データ132bは、例えば、図16で説明した顔データ111に対応し、注意人物の顔データである。 The face data 131c is human face data. The face data 132a corresponds to, for example, the face data 113 described with reference to FIG. 16, and is the face data of an employee. The face data 132b corresponds to, for example, the face data 111 described with reference to FIG. 16, and is the face data of the attention person.

テーブルTB102は、ゾーンごとにおいて、顔データの人物がブラックリスト方式によって判定されるのか、ホワイトリスト方式によって判定されるのかを規定したテーブルと捉えてもよい。 The table TB102 may be regarded as a table that defines whether the person in the face data is determined by the blacklist method or the whitelist method for each zone.

例えば、テーブルTB102の顔データ132aの人は、ゾーンB(ホワイトリスト)に丸が付されている。従って、顔データ132aの人は、ゾーンBに立ち入ってもアラーム信号が出力されない。一方、図18のゾーンBの列に丸が付されていない人物およびテーブルTB102に顔データが登録されていない人物は、ゾーンBに立ち入るとアラーム信号が出力される。 For example, the person in the face data 132a of the table TB102 has a circle in the zone B (white list). Therefore, the person with the face data 132a does not output the alarm signal even if he / she enters the zone B. On the other hand, a person whose column B in FIG. 18 is not circled and a person whose face data is not registered in the table TB102 outputs an alarm signal when he / she enters zone B.

また、テーブルTB102の顔データ132bの人は、ゾーンA(ブラックリスト)に丸が付されている。従って、顔データ132bの人は、ゾーンAに立ち入るとアラーム信号が出力される。一方、図18のゾーンAの列に丸が付されていない人物およびテーブルTB102に顔データが登録されていない人物は、ゾーンAに立ち入ってもアラーム信号が出力されない。 In addition, the person in the face data 132b of the table TB102 is circled in the zone A (blacklist). Therefore, when the person with the face data 132b enters the zone A, an alarm signal is output. On the other hand, a person whose column A in FIG. 18 is not circled and a person whose face data is not registered in the table TB102 do not output an alarm signal even if he / she enters zone A.

なお、「人物がブラックリストに登録された」とは、その人物の顔データがテーブルTB102に登録され、リスト情報131bのブラックリストの列に情報(図18では丸)が登録されることを意味してもよい。また、「人物がホワイトリストに登録された」とは、その人物の顔データがテーブルTB102に登録され、リスト情報131bのホワイトリストの列に情報(図18では丸)が登録されることを意味してもよい。 In addition, "a person is registered in the blacklist" means that the face data of the person is registered in the table TB102 and the information (circle in FIG. 18) is registered in the blacklist column of the list information 131b. You may. Further, "a person is registered in the white list" means that the face data of the person is registered in the table TB102 and the information (circle in FIG. 18) is registered in the white list column of the list information 131b. You may.

図17および図18では、テーブルTB101,TB102は、サーバ102の記憶部に記憶されるとしたが、これに限られない。テーブルTB101およびテーブルTB102の両方または一方は、サーバ102とは別体のデータベースに記憶されてもよい。別体のデータベースは、サーバ102の一部と捉えてもよい。以下では、テーブルTB101,TB102は、登録DBに記憶されとする。 In FIGS. 17 and 18, the tables TB101 and TB102 are stored in the storage unit of the server 102, but the present invention is not limited to this. Both or one of the table TB101 and the table TB102 may be stored in a database separate from the server 102. The separate database may be regarded as a part of the server 102. In the following, the tables TB101 and TB102 are stored in the registration DB.

図19は、監視カメラシステムの動作例を示したシーケンス図である。端末装置103の制御部は、例えば、店舗の従業員等であるオペレータの操作に応じて、サーバ102を経由し、登録DBに対し、ゾーンA,Bと、監視カメラ101a,101bとの紐付けを行う(ステップS41,S42)。また、端末装置103の制御部は、オペレータの操作に応じて、サーバ102を経由し、登録DBに対し、ゾーンA,Bと、ブラックリストおよびホワイトリストとの紐付けを行う(ステップS41,S42)。 FIG. 19 is a sequence diagram showing an operation example of the surveillance camera system. The control unit of the terminal device 103 links the zones A and B with the surveillance cameras 101a and 101b to the registration DB via the server 102, for example, in response to an operation of an operator such as a store employee. (Steps S41 and S42). Further, the control unit of the terminal device 103 links the zones A and B with the blacklist and the whitelist to the registration DB via the server 102 in response to the operation of the operator (steps S41 and S42). ).

すなわち、端末装置103の制御部は、登録DBに対し、ゾーンA,Bと、監視カメラ101a,101bとの対応付けの設定を行う。これにより、登録DBには、例えば、図17に示したテーブルTB102が記憶される。また、端末装置103の制御部は、登録DBに対し、ゾーンA,Bと、ブラックリストおよびホワイトリストとの対応付けの設定を行う。これにより、登録DBには、例えば、図18に示したテーブルTB102のゾーン識別情報131aと、リスト情報131bとが記憶される。 That is, the control unit of the terminal device 103 sets the association between the zones A and B and the surveillance cameras 101a and 101b in the registration DB. As a result, for example, the table TB102 shown in FIG. 17 is stored in the registration DB. Further, the control unit of the terminal device 103 sets the association between the zones A and B with the blacklist and the whitelist in the registration DB. As a result, for example, the zone identification information 131a and the list information 131b of the table TB102 shown in FIG. 18 are stored in the registration DB.

端末装置103の制御部は、オペレータの操作に応じて、サーバ102を経由し、登録DBに対し、顔データを登録する(ステップS43,S44)。これにより、登録DBには、例えば、図18に示したテーブルTB102の顔データ131cが記憶される。 The control unit of the terminal device 103 registers the face data in the registration DB via the server 102 in response to the operation of the operator (steps S43 and S44). As a result, for example, the face data 131c of the table TB102 shown in FIG. 18 is stored in the registration DB.

端末装置103の制御部は、オペレータの操作に応じて、サーバ102を経由し、登録DBに登録した顔データと、ゾーンとの紐付けを行う(ステップS45,S46)。例えば、端末装置103の制御部は、登録DBに登録した顔データ132bをゾーンA(ブラックリスト)と紐付ける。また、端末装置103の制御部は、登録DBに登録した顔データ132aをゾーンB(ホワイトリスト)と紐付ける。これにより、登録DBには、例えば、図18に示したテーブルTB102の丸とバーとに関する情報が記憶される。 The control unit of the terminal device 103 links the face data registered in the registration DB with the zone via the server 102 according to the operation of the operator (steps S45 and S46). For example, the control unit of the terminal device 103 associates the face data 132b registered in the registration DB with the zone A (blacklist). Further, the control unit of the terminal device 103 associates the face data 132a registered in the registration DB with the zone B (white list). As a result, in the registration DB, for example, information regarding the circles and bars of the table TB102 shown in FIG. 18 is stored.

ゾーンAの監視カメラ101aの撮像部は、人を撮影したとする。監視カメラ101aの制御部は、撮像部が撮影した映像の中から人の顔を切り出し、切り出した顔の顔データと、監視カメラ101aのカメラ識別情報とをサーバ102に送信する(ステップS47)。 It is assumed that the imaging unit of the surveillance camera 101a in zone A photographs a person. The control unit of the surveillance camera 101a cuts out a human face from the image captured by the imaging unit, and transmits the face data of the cut out face and the camera identification information of the surveillance camera 101a to the server 102 (step S47).

サーバ102の制御部は、ステップS47にて送信された顔データと、登録DBに記憶されている顔データとを照合する(ステップS48)。 The control unit of the server 102 collates the face data transmitted in step S47 with the face data stored in the registration DB (step S48).

例えば、サーバ102の制御部は、登録DBのテーブルTB101を参照し、ステップS47にて送信されたカメラ識別情報に対応するゾーン識別情報を取得する。図19の例では、ステップS47にて、監視カメラ101aのカメラ識別情報「101a」が送信されている。従って、サーバ102の制御部は、図17のテーブルTB101から、ゾーンAのゾーン識別情報「A」を取得する。これにより、サーバ102の制御部は、ステップS47にて送信された顔データ141は、ゾーンAに設置された監視カメラ101aにおいて撮影されたものと特定(判定)できる。言い換えれば、サーバ102の制御部は、ステップS47にて送信された顔データ141の顔の人は、ゾーンAに居ると特定できる。 For example, the control unit of the server 102 refers to the table TB101 of the registration DB and acquires the zone identification information corresponding to the camera identification information transmitted in step S47. In the example of FIG. 19, the camera identification information “101a” of the surveillance camera 101a is transmitted in step S47. Therefore, the control unit of the server 102 acquires the zone identification information “A” of the zone A from the table TB101 of FIG. As a result, the control unit of the server 102 can identify (determine) that the face data 141 transmitted in step S47 has been captured by the surveillance camera 101a installed in the zone A. In other words, the control unit of the server 102 can identify the person with the face of the face data 141 transmitted in step S47 as being in the zone A.

サーバ102の制御部は、ゾーンを特定すると、登録DBのテーブルTB102を参照して、特定したゾーンに対応する顔データおよびリスト情報を取得する。そして、サーバ102の制御部は、テーブルTB102から取得した顔データと、ステップS47にて送信された顔データとを照合し、テーブルTB102から取得したリスト情報の方式(ブラックリスト方式またはホワイトリスト方式)に従って、人のゾーンA,Bへの立ち入りを判定する。 When the control unit of the server 102 specifies the zone, the control unit refers to the table TB102 of the registration DB and acquires the face data and the list information corresponding to the specified zone. Then, the control unit of the server 102 collates the face data acquired from the table TB102 with the face data transmitted in step S47, and a method of list information acquired from the table TB102 (blacklist method or whitelist method). According to this, the entry of a person into zones A and B is determined.

図19の例では、サーバ102の制御部は、顔データ141の顔の人は、ゾーンAに居ると特定している。ゾーンAのリスト情報は、ブラックリストである。従って、サーバ102の制御部は、図18に示したテーブルTB102のゾーンAに対応する顔データ132bと、ステップS47にて送信された顔データ141とを照合する。顔データ141は、図18に示したテーブルTB102の顔データ132bに一致するので、サーバ102の制御部は、顔照合が一致したと判定する。すなわち、サーバ102の制御部は、ステップS47にて送信された顔データ141の人は、ブラックリストに登録された人物と判定する。 In the example of FIG. 19, the control unit of the server 102 identifies that the person with the face of the face data 141 is in the zone A. The list information of zone A is a blacklist. Therefore, the control unit of the server 102 collates the face data 132b corresponding to the zone A of the table TB102 shown in FIG. 18 with the face data 141 transmitted in step S47. Since the face data 141 matches the face data 132b of the table TB102 shown in FIG. 18, the control unit of the server 102 determines that the face matching matches. That is, the control unit of the server 102 determines that the person with the face data 141 transmitted in step S47 is a person registered in the blacklist.

サーバ102の制御部は、ステップS48の照合結果(登録顔検知のアラーム信号)を端末装置103および警報装置104a,105a,105bに送信する(ステップS49)。なお、サーバ102の制御部は、登録顔検知を判定した場合、監視カメラ101aが撮影した顔データ141または顔データ141に一致したテーブルTB102に記憶されている顔データ132bを端末装置103に送信する。端末装置103の制御部は、サーバ102から送信された顔データ141または顔データ132bを表示装置に表示する。 The control unit of the server 102 transmits the collation result (alarm signal of registered face detection) of step S48 to the terminal device 103 and the alarm devices 104a, 105a, 105b (step S49). When the control unit of the server 102 determines the registered face detection, the control unit transmits the face data 141 captured by the surveillance camera 101a or the face data 132b stored in the table TB 102 matching the face data 141 to the terminal device 103. .. The control unit of the terminal device 103 displays the face data 141 or the face data 132b transmitted from the server 102 on the display device.

ゾーンAの監視カメラ101aの撮像部は、人を撮影したとする。監視カメラ101aの制御部は、撮像部が撮影した映像の中から人の顔を切り出し、切り出した顔の顔データと、監視カメラ101aのカメラ識別情報とをサーバ102に送信する(ステップS50)。 It is assumed that the imaging unit of the surveillance camera 101a in zone A photographs a person. The control unit of the surveillance camera 101a cuts out a human face from the image captured by the imaging unit, and transmits the face data of the cut out face and the camera identification information of the surveillance camera 101a to the server 102 (step S50).

サーバ102の制御部は、ステップS50にて送信された顔データと、登録DBに記憶されている顔データとを照合する(ステップS51)。 The control unit of the server 102 collates the face data transmitted in step S50 with the face data stored in the registration DB (step S51).

例えば、サーバ102の制御部は、登録DBのテーブルTB101を参照し、ステップS50にて送信されたカメラ識別情報に対応するゾーン識別情報を取得する。図19の例では、ステップS50にて、監視カメラ101aのカメラ識別情報「101a」が送信されている。従って、サーバ102の制御部は、図17のテーブルTB101から、ゾーンAのゾーン識別情報「A」を取得する。これにより、サーバ102の制御部は、ステップS50にて送信された顔データ142は、ゾーンAに設置された監視カメラ101aにおいて撮影されたものと特定できる。言い換えれば、サーバ102の制御部は、ステップS50にて送信された顔データ142の顔の人は、ゾーンAに居ると特定できる。 For example, the control unit of the server 102 refers to the table TB101 of the registration DB and acquires the zone identification information corresponding to the camera identification information transmitted in step S50. In the example of FIG. 19, the camera identification information “101a” of the surveillance camera 101a is transmitted in step S50. Therefore, the control unit of the server 102 acquires the zone identification information “A” of the zone A from the table TB101 of FIG. As a result, the control unit of the server 102 can identify that the face data 142 transmitted in step S50 has been captured by the surveillance camera 101a installed in the zone A. In other words, the control unit of the server 102 can identify the person with the face of the face data 142 transmitted in step S50 as being in the zone A.

サーバ102の制御部は、ゾーンを特定すると、登録DBのテーブルTB102を参照して、特定したゾーンに対応する顔データおよびリスト情報を取得する。そして、サーバ102の制御部は、テーブルTB102から取得した顔データと、ステップS50にて送信された顔データとを照合し、テーブルTB102から取得したリスト情報の方式に従って、人のゾーンA,Bへの立ち入りを判定する。 When the control unit of the server 102 specifies the zone, the control unit refers to the table TB102 of the registration DB and acquires the face data and the list information corresponding to the specified zone. Then, the control unit of the server 102 collates the face data acquired from the table TB102 with the face data transmitted in step S50, and moves to the zones A and B of the person according to the method of the list information acquired from the table TB102. Judge the entry of.

図19の例では、サーバ102の制御部は、顔データ142の顔の人は、ゾーンAに居ると特定している。ゾーンAのリスト情報は、ブラックリストである。従って、サーバ102の制御部は、図18に示したテーブルTB102のゾーンAに対応する顔データ132bと、ステップS50にて送信された顔データ142とを照合する。顔データ142は、図18に示したテーブルTB102の顔データ132bに一致しないので、サーバ102の制御部は、顔照合が一致しないと判定する。すなわち、サーバ102の制御部は、顔データ142の人は、ブラックリストに登録されていない人物と判定する。 In the example of FIG. 19, the control unit of the server 102 identifies that the person with the face of the face data 142 is in the zone A. The list information of zone A is a blacklist. Therefore, the control unit of the server 102 collates the face data 132b corresponding to the zone A of the table TB102 shown in FIG. 18 with the face data 142 transmitted in step S50. Since the face data 142 does not match the face data 132b of the table TB102 shown in FIG. 18, the control unit of the server 102 determines that the face matching does not match. That is, the control unit of the server 102 determines that the person with the face data 142 is not registered in the blacklist.

なお、顔データ142の人は、ブラックリストに登録されていない人物なので、サーバ102の制御部は、アラーム信号を端末装置103および警報装置104a,105a,105bに送信しない。 Since the person with face data 142 is not registered in the blacklist, the control unit of the server 102 does not transmit the alarm signal to the terminal device 103 and the alarm devices 104a, 105a, 105b.

ゾーンBの監視カメラ101bの撮像部は、人を撮影したとする。監視カメラ101bの制御部は、撮像部が撮影した映像の中から人の顔を切り出し、切り出した顔の顔データと、監視カメラ101bのカメラ識別情報とをサーバ102に送信する(ステップS52)。 It is assumed that the imaging unit of the surveillance camera 101b in zone B has photographed a person. The control unit of the surveillance camera 101b cuts out a human face from the image captured by the imaging unit, and transmits the face data of the cut out face and the camera identification information of the surveillance camera 101b to the server 102 (step S52).

サーバ102の制御部は、ステップS52にて送信された顔データと、登録DBに記憶されている顔データとを照合する(ステップS53)。 The control unit of the server 102 collates the face data transmitted in step S52 with the face data stored in the registration DB (step S53).

例えば、サーバ102の制御部は、登録DBのテーブルTB101を参照し、ステップS52にて送信されたカメラ識別情報に対応するゾーン識別情報を取得する。図19の例では、ステップS52にて、監視カメラ101bのカメラ識別情報「101b」が送信されている。従って、サーバ102の制御部は、図17のテーブルTB101から、ゾーンBのゾーン識別情報「B」を取得する。これにより、サーバ102の制御部は、ステップS52にて送信された顔データ143は、ゾーンBに設置された監視カメラ101bにおいて撮影されたものと特定できる。言い換えれば、サーバ102の制御部は、ステップS52にて送信された顔データ143の顔の人は、ゾーンBに居ると特定できる。 For example, the control unit of the server 102 refers to the table TB101 of the registration DB and acquires the zone identification information corresponding to the camera identification information transmitted in step S52. In the example of FIG. 19, the camera identification information “101b” of the surveillance camera 101b is transmitted in step S52. Therefore, the control unit of the server 102 acquires the zone identification information “B” of the zone B from the table TB101 of FIG. As a result, the control unit of the server 102 can identify that the face data 143 transmitted in step S52 was taken by the surveillance camera 101b installed in the zone B. In other words, the control unit of the server 102 can identify the person with the face of the face data 143 transmitted in step S52 as being in the zone B.

サーバ102の制御部は、ゾーンを特定すると、登録DBのテーブルTB102を参照して、特定したゾーンに対応する顔データおよびリスト情報を取得する。そして、サーバ102の制御部は、テーブルTB102から取得した顔データと、ステップS52にて送信された顔データとを照合し、テーブルTB102から取得したリスト情報の方式に従って、人のゾーンA,Bへの立ち入りを判定する。 When the control unit of the server 102 specifies the zone, the control unit refers to the table TB102 of the registration DB and acquires the face data and the list information corresponding to the specified zone. Then, the control unit of the server 102 collates the face data acquired from the table TB102 with the face data transmitted in step S52, and moves to the zones A and B of the person according to the method of the list information acquired from the table TB102. Judge the entry of.

図19の例では、サーバ102の制御部は、顔データ143の顔の人は、ゾーンBに居ると特定している。ゾーンBのリスト情報は、ホワイトリストである。従って、サーバ102の制御部は、図18に示したテーブルTB102のゾーンBに対応する顔データ132bと、ステップS52にて送信された顔データ143とを照合する。顔データ143は、図18に示したテーブルTB102の顔データ132aに一致しないので、サーバ102の制御部は、顔照合が一致しないと判定する。すなわち、サーバ102の制御部は、顔データ143の人は、ホワイトリストに登録されていない人物と判定する。 In the example of FIG. 19, the control unit of the server 102 identifies that the person with the face of the face data 143 is in the zone B. The list information of zone B is a white list. Therefore, the control unit of the server 102 collates the face data 132b corresponding to the zone B of the table TB102 shown in FIG. 18 with the face data 143 transmitted in step S52. Since the face data 143 does not match the face data 132a of the table TB102 shown in FIG. 18, the control unit of the server 102 determines that the face matching does not match. That is, the control unit of the server 102 determines that the person with the face data 143 is a person who is not registered in the white list.

サーバ102の制御部は、ステップS53の照合結果(未登録顔検知のアラーム信号)を端末装置103および警報装置104a,105a,105bに送信する(ステップS54)。なお、サーバ102の制御部は、未登録顔検知を判定した場合、監視カメラ101bが撮影した顔データ143を端末装置103に送信する。端末装置103の制御部は、サーバ102から送信された顔データ143を表示装置に表示する。 The control unit of the server 102 transmits the collation result (alarm signal for unregistered face detection) of step S53 to the terminal device 103 and the alarm devices 104a, 105a, 105b (step S54). When the control unit of the server 102 determines the unregistered face detection, the control unit transmits the face data 143 captured by the surveillance camera 101b to the terminal device 103. The control unit of the terminal device 103 displays the face data 143 transmitted from the server 102 on the display device.

ゾーンBの監視カメラ101bの撮像部は、人を撮影したとする。監視カメラ101bの制御部は、撮像部が撮影した映像の中から人の顔を切り出し、切り出した顔の顔データと、監視カメラ101bのカメラ識別情報とをサーバ102に送信する(ステップS55)。 It is assumed that the imaging unit of the surveillance camera 101b in zone B has photographed a person. The control unit of the surveillance camera 101b cuts out a human face from the image captured by the imaging unit, and transmits the face data of the cut out face and the camera identification information of the surveillance camera 101b to the server 102 (step S55).

サーバ102の制御部は、ステップS55にて送信された顔データと、登録DBに記憶されている顔データとを照合する(ステップS56)。 The control unit of the server 102 collates the face data transmitted in step S55 with the face data stored in the registration DB (step S56).

例えば、サーバ102の制御部は、登録DBのテーブルTB101を参照し、ステップS55にて送信されたカメラ識別情報に対応するゾーン識別情報を取得する。図19の例では、ステップS55にて、監視カメラ101bのカメラ識別情報「101b」が送信されている。従って、サーバ102の制御部は、図17のテーブルTB101から、ゾーンBのゾーン識別情報「B」を取得する。これにより、サーバ102の制御部は、ステップS55にて送信された顔データ144は、ゾーンBに設置された監視カメラ101bにおいて撮影されたものと特定できる。言い換えれば、サーバ102の制御部は、ステップS55にて送信された顔データ144の顔の人は、ゾーンBに居ると特定できる。 For example, the control unit of the server 102 refers to the table TB101 of the registration DB and acquires the zone identification information corresponding to the camera identification information transmitted in step S55. In the example of FIG. 19, the camera identification information “101b” of the surveillance camera 101b is transmitted in step S55. Therefore, the control unit of the server 102 acquires the zone identification information “B” of the zone B from the table TB101 of FIG. As a result, the control unit of the server 102 can identify that the face data 144 transmitted in step S55 is taken by the surveillance camera 101b installed in the zone B. In other words, the control unit of the server 102 can identify the person with the face of the face data 144 transmitted in step S55 as being in the zone B.

サーバ102の制御部は、ゾーンを特定すると、登録DBのテーブルTB102を参照して、特定したゾーンに対応する顔データおよびリスト情報を取得する。そして、サーバ102の制御部は、テーブルTB102から取得した顔データと、ステップS55にて送信された顔データとを照合し、テーブルTB102から取得したリスト情報の方式に従って、人のゾーンA,Bへの立ち入りを判定する。 When the control unit of the server 102 specifies the zone, the control unit refers to the table TB102 of the registration DB and acquires the face data and the list information corresponding to the specified zone. Then, the control unit of the server 102 collates the face data acquired from the table TB102 with the face data transmitted in step S55, and moves to the zones A and B of the person according to the method of the list information acquired from the table TB102. Judge the entry of.

図19の例では、サーバ102の制御部は、顔データ144の顔の人は、ゾーンBに居ると特定している。ゾーンBのリスト情報は、ホワイトリストである。従って、サーバ102の制御部は、図18に示したテーブルTB102のゾーンBに対応する顔データ132aと、ステップS55にて送信された顔データ144とを照合する。顔データ144は、図18に示したテーブルTB102の顔データ132aに一致するので、サーバ102の制御部は、顔照合が一致したと判定する。すなわち、サーバ102の制御部は、顔データ144の人は、ホワイトリストに登録された人物と判定する。 In the example of FIG. 19, the control unit of the server 102 identifies that the person with the face of the face data 144 is in the zone B. The list information of zone B is a white list. Therefore, the control unit of the server 102 collates the face data 132a corresponding to the zone B of the table TB102 shown in FIG. 18 with the face data 144 transmitted in step S55. Since the face data 144 matches the face data 132a of the table TB102 shown in FIG. 18, the control unit of the server 102 determines that the face matching matches. That is, the control unit of the server 102 determines that the person with the face data 144 is a person registered in the white list.

なお、顔データ144の人は、ホワイトリストに登録された人物なので、サーバ102の制御部は、アラーム信号を端末装置103および警報装置104a,105a,105bに送信しない。 Since the person with face data 144 is a person registered in the white list, the control unit of the server 102 does not transmit the alarm signal to the terminal device 103 and the alarm devices 104a, 105a, 105b.

図20は、ブラックリスト方式における判定方法を説明する図である。図20の矢印A111〜A113は、人がゾーンAに立ち入る様子を示している。また、図20には、テーブルTB102のゾーンA(ブラックリスト)に登録された顔データ151が示してある。また、図20には、ゾーンAに設置された監視カメラ101aが撮影した顔データ152〜156が示してある。 FIG. 20 is a diagram illustrating a determination method in the blacklist method. Arrows A111 to A113 in FIG. 20 show a person entering Zone A. Further, FIG. 20 shows the face data 151 registered in the zone A (blacklist) of the table TB102. Further, FIG. 20 shows face data 152 to 156 taken by the surveillance camera 101a installed in the zone A.

監視カメラ101aの制御部は、人の顔を検知すると顔画像を切り出し、切り出した顔画像の顔データをサーバ102に送信する。例えば、監視カメラ101aの制御部は、時刻tにおいて人の顔を検知した場合、顔データ152をサーバ102に送信する。 When the control unit of the surveillance camera 101a detects a human face, it cuts out a face image and transmits the face data of the cut out face image to the server 102. For example, when the control unit of the surveillance camera 101a detects a human face at time t, the control unit transmits the face data 152 to the server 102.

監視カメラ101aの制御部は、人の顔を検知した後、2秒後に、検知した人の顔データを2枚切り出し、サーバ102に送信する。例えば、監視カメラ101aの制御部は、時刻tの2秒後である時刻t+2において、2枚の顔データ153,154を連続して切り出し、サーバ102に送信する。2秒は一例であり、この秒数に限られない。 Two seconds after detecting the human face, the control unit of the surveillance camera 101a cuts out two pieces of the detected human face data and transmits the detected human face data to the server 102. For example, the control unit of the surveillance camera 101a continuously cuts out two face data 153 and 154 at time t + 2, which is 2 seconds after time t, and transmits them to the server 102. 2 seconds is an example and is not limited to this number of seconds.

また、監視カメラ101aの制御部は、人の顔を検知した後、4秒後に、検知した人の顔データを2枚切り出し、サーバ102に送信する。例えば、監視カメラ101aの制御部は、時刻tの4秒後である時刻t+4において、2枚の顔データ155,156を連続して切り出し、サーバ102に送信する。4秒は一例であり、この秒数に限られない。 Further, the control unit of the surveillance camera 101a cuts out two pieces of the detected human face data 4 seconds after detecting the human face and transmits the detected human face data to the server 102. For example, the control unit of the surveillance camera 101a continuously cuts out two face data 155 and 156 at time t + 4, which is 4 seconds after time t, and transmits them to the server 102. 4 seconds is an example and is not limited to this number of seconds.

サーバ102の制御部は、監視カメラ101aが送信した顔データと、テーブルTB102に記憶された顔データとの照合し、監視カメラ101aが送信した顔データが、テーブルTB102に記憶された顔データと一致するか否かを判定する。このとき、サーバ102の制御部は、監視カメラ101aが送信した顔データと、テーブルTB102に記憶された顔データとの類似度を算出し、算出した類似度が閾値を超えた場合、監視カメラ101aが送信した顔データは、テーブルTB102に記憶された顔データに一致したと判定する。 The control unit of the server 102 collates the face data transmitted by the surveillance camera 101a with the face data stored in the table TB102, and the face data transmitted by the surveillance camera 101a matches the face data stored in the table TB102. Determine whether or not to do so. At this time, the control unit of the server 102 calculates the similarity between the face data transmitted by the surveillance camera 101a and the face data stored in the table TB102, and when the calculated similarity exceeds the threshold value, the surveillance camera 101a It is determined that the face data transmitted by the user matches the face data stored in the table TB102.

なお、オペレータが端末装置103を用いて閾値を設定してもよい。閾値は、例えば、テーブルTB102に登録する顔データの精度(粗さ)に基づいて設定されてもよい。図20の例では、閾値は、1.04に設定されている。 The operator may set the threshold value using the terminal device 103. The threshold value may be set based on, for example, the accuracy (roughness) of the face data registered in the table TB102. In the example of FIG. 20, the threshold is set to 1.04.

例えば、サーバ102の制御部は、監視カメラ101aが送信した顔データ152と、テーブルTB102に記憶された顔データ151との類似度を算出する。図20の例において、顔データ152と顔データ151との類似度は0.80であり、閾値1.04を超えていない。従って、サーバ102の制御部は、顔データ152と顔データ151とは一致しないと判定する。 For example, the control unit of the server 102 calculates the degree of similarity between the face data 152 transmitted by the surveillance camera 101a and the face data 151 stored in the table TB 102. In the example of FIG. 20, the similarity between the face data 152 and the face data 151 is 0.80, which does not exceed the threshold value of 1.04. Therefore, the control unit of the server 102 determines that the face data 152 and the face data 151 do not match.

また、サーバ102の制御部は、監視カメラ101aが送信した顔データ153,154と、テーブルTB102に記憶された顔データ151との類似度を算出する。図20の例において、顔データ153と顔データ151との類似度は0.90であり、閾値1.04を超えていない。また、顔データ154と顔データ151との類似度は0.95であり、閾値1.04を超えていない。従って、サーバ102の制御部は、顔データ153,154と顔データ151とは一致しないと判定する。 Further, the control unit of the server 102 calculates the degree of similarity between the face data 153 and 154 transmitted by the surveillance camera 101a and the face data 151 stored in the table TB 102. In the example of FIG. 20, the similarity between the face data 153 and the face data 151 is 0.90, and does not exceed the threshold value of 1.04. Further, the degree of similarity between the face data 154 and the face data 151 is 0.95, which does not exceed the threshold value of 1.04. Therefore, the control unit of the server 102 determines that the face data 153, 154 and the face data 151 do not match.

また、サーバ102の制御部は、監視カメラ101aが送信した顔データ155と、テーブルTB102に記憶された顔データ151との類似度を算出する。図20の例において、顔データ155と顔データ151との類似度は1.15であり、閾値1.04を超えている。従って、サーバ102の制御部は、顔データ155と顔データ151とは一致していると判定する。すなわち、サーバ102の制御部は、監視カメラ101aが撮影した人物は、ブラックリストに登録された人物と判定する。 Further, the control unit of the server 102 calculates the degree of similarity between the face data 155 transmitted by the surveillance camera 101a and the face data 151 stored in the table TB 102. In the example of FIG. 20, the degree of similarity between the face data 155 and the face data 151 is 1.15, which exceeds the threshold value of 1.04. Therefore, the control unit of the server 102 determines that the face data 155 and the face data 151 match. That is, the control unit of the server 102 determines that the person photographed by the surveillance camera 101a is a person registered in the blacklist.

なお、サーバ102の制御部は、ブラックリスト判定においては、監視カメラ101aが撮影した顔データ155と、テーブルTB102に記憶された顔データ151との類似度が閾値を超えた時点で、アラーム信号を出力する。 In the blacklist determination, the control unit of the server 102 issues an alarm signal when the degree of similarity between the face data 155 captured by the surveillance camera 101a and the face data 151 stored in the table TB 102 exceeds the threshold value. Output.

図21は、ホワイトリスト方式における判定方法を説明する図である。図21の矢印A121〜A123は、人がゾーンBに立ち入る様子を示している。また、図21には、テーブルTB102のゾーンB(ホワイトリスト)に登録された顔データ161が示してある。また、図21には、ゾーンBに設置された監視カメラ101bが撮影した顔データ162〜166が示してある。 FIG. 21 is a diagram illustrating a determination method in the white list method. Arrows A121 to A123 in FIG. 21 show a person entering Zone B. Further, FIG. 21 shows face data 161 registered in zone B (white list) of the table TB102. Further, FIG. 21 shows face data 162 to 166 taken by the surveillance camera 101b installed in the zone B.

監視カメラ101bの制御部は、監視カメラ101aと同様に、顔画像を切り出し、顔データをサーバ102に送信する。 Similar to the surveillance camera 101a, the control unit of the surveillance camera 101b cuts out the face image and transmits the face data to the server 102.

図20で説明したブラックリスト判定では、サーバ102の制御部は、監視カメラ101aから顔データを受信すると、逐次類似度を算出し、算出した類似度が閾値を超えた時点で、監視カメラ101aから受信した顔データの人物はブラックリストに登録された人物であると判定する。 In the blacklist determination described with reference to FIG. 20, when the control unit of the server 102 receives the face data from the surveillance camera 101a, the control unit sequentially calculates the similarity, and when the calculated similarity exceeds the threshold value, the surveillance camera 101a is used. It is determined that the person in the received face data is a person registered in the blacklist.

一方、ホワイトリスト判定では、サーバ102の制御部は、一定数の一連の顔データを監視カメラ101bから受信してから、監視カメラ101bが撮影した人物がホワイトリストに登録された人物であるか否かを判定する。例えば、サーバ102の制御部は、監視カメラ101bから、5枚の一連の顔データ162〜166(同じ人物における顔データ162〜166)を受信すると、監視カメラ101bが撮影した5枚の顔データ162〜166の人物がホワイトリストに登録された人物であるか否かを判定する。 On the other hand, in the white list determination, the control unit of the server 102 receives a certain number of face data from the surveillance camera 101b, and then whether or not the person photographed by the surveillance camera 101b is a person registered in the white list. Is determined. For example, when the control unit of the server 102 receives a series of five face data 162 to 166 (face data 162 to 166 in the same person) from the surveillance camera 101b, the control unit receives five face data 162 captured by the surveillance camera 101b. It is determined whether or not the persons up to 166 are registered in the white list.

サーバ102の制御部は、5枚の顔データ162〜166を受信すると、受信した顔データ162〜166の各々と、テーブルTB102に記憶された顔データ161との類似度を算出する。サーバ102の制御部は、算出した類似度の平均値を算出し、算出した平均値に基づいて、監視カメラ101bが撮影した人物は、ホワイトリストに登録された人物であるか否かを判定してもよい。 When the control unit of the server 102 receives the five face data 162 to 166, the control unit calculates the degree of similarity between each of the received face data 162 to 166 and the face data 161 stored in the table TB 102. The control unit of the server 102 calculates the calculated average value of the similarity, and based on the calculated average value, determines whether or not the person photographed by the surveillance camera 101b is a person registered in the white list. You may.

例えば、サーバ102の制御部は、図21に示す顔データ162〜166の類似度0.50、0.30、0.35、0.20、0.25の平均値を算出し、算出した平均値が閾値1.04以下の場合、監視カメラ101bが撮影した人物は、ホワイトリストに登録された人物ではないと判定してもよい。なお、平均値の算出に用いる類似度は、5個に限られない。平均値の算出に用いる類似度の数は、可変されてもよく、例えば、端末装置103から設定されてもよい。 For example, the control unit of the server 102 calculates the average values of the similarity values of 0.50, 0.30, 0.35, 0.25, and 0.25 of the face data 162 to 166 shown in FIG. 21, and the calculated averages. When the value is 1.04 or less, it may be determined that the person photographed by the surveillance camera 101b is not a person registered in the white list. The degree of similarity used to calculate the average value is not limited to five. The number of similarities used in calculating the average value may be variable, and may be set from, for example, the terminal device 103.

また、サーバ102の制御部は、算出した類似度の中央値が閾値1.04以下の場合、監視カメラ101bが撮影した人物は、ホワイトリストに登録された人物ではないと判定してもよい。 Further, when the median value of the calculated similarity is 1.04 or less, the control unit of the server 102 may determine that the person photographed by the surveillance camera 101b is not a person registered in the white list.

このように、ホワイトリスト判定では、サーバ102の制御部は、一定数の一連の顔データを監視カメラ101bから受信してから、監視カメラ101bが撮影した人物がホワイトリストに登録された人物であるか否かを判定する。これにより、サーバ102の制御部は、ホワイトリスト判定の誤判定を抑制できる。 As described above, in the white list determination, the control unit of the server 102 receives a certain number of face data from the surveillance camera 101b, and then the person photographed by the surveillance camera 101b is a person registered in the white list. Judge whether or not. As a result, the control unit of the server 102 can suppress the erroneous determination of the white list determination.

例えば、ホワイトリストに登録された人物が監視カメラ101bによって撮影された場合でも、1枚目の顔データでは、類似度が低い場合がある。例えば、1枚目の顔データ162の顔は、ゾーンBの入り口A102bの扉によって一部が隠れ、類似度が低い場合がある。この場合、ホワイトリストに登録された人物であるにも関わらず、アラーム信号が出力される。 For example, even when a person registered in the white list is photographed by the surveillance camera 101b, the similarity may be low in the first face data. For example, the face of the first face data 162 may be partially hidden by the door of the entrance A102b of the zone B, and the similarity may be low. In this case, an alarm signal is output even though the person is registered in the white list.

しかし、上記したように、サーバ102の制御部は、一定数の一連の顔データを監視カメラ101bから受信してから、監視カメラ101bが撮影した人物がホワイトリストに登録された人物であるか否かを判定する。そのため、サーバ102の制御部は、1枚目の顔データ162の類似度が閾値以下であっても、アラーム信号を出力しない。これにより、サーバ102の制御部は、ホワイトリスト判定の誤判定を抑制できる。 However, as described above, the control unit of the server 102 receives a certain number of face data from the surveillance camera 101b, and then whether or not the person photographed by the surveillance camera 101b is a person registered in the white list. Is determined. Therefore, the control unit of the server 102 does not output the alarm signal even if the similarity of the first face data 162 is equal to or less than the threshold value. As a result, the control unit of the server 102 can suppress the erroneous determination of the white list determination.

図22は、ブラックリスト方式における判定処理例を示したシーケンス図である。端末装置103の制御部は、オペレータの操作に応じて、サーバ102を経由し、登録DBに対し、顔データを登録する(ステップS61,S62)。このとき、端末装置103の制御部は、オペレータの操作に応じて、閾値も送信する。これにより、登録DBには、例えば、図18に示したテーブルTB102の顔データ131cが記憶される。また、顔データ131cに付随して閾値が登録される。以下では、閾値を1.04とする。 FIG. 22 is a sequence diagram showing an example of determination processing in the blacklist method. The control unit of the terminal device 103 registers the face data in the registration DB via the server 102 in response to the operation of the operator (steps S61 and S62). At this time, the control unit of the terminal device 103 also transmits the threshold value according to the operation of the operator. As a result, for example, the face data 131c of the table TB102 shown in FIG. 18 is stored in the registration DB. In addition, a threshold value is registered along with the face data 131c. In the following, the threshold value is 1.04.

ゾーンAの監視カメラ101aの撮像部は、人を撮影したとする。監視カメラ101aの制御部は、撮像部が撮影した映像の中から人の顔を切り出し、切り出した顔の顔データと、監視カメラ101aのカメラ識別情報とをサーバ102に送信する(ステップS63)。 It is assumed that the imaging unit of the surveillance camera 101a in zone A photographs a person. The control unit of the surveillance camera 101a cuts out a human face from the image captured by the imaging unit, and transmits the face data of the cut out face and the camera identification information of the surveillance camera 101a to the server 102 (step S63).

サーバ102の制御部は、ステップS63にて送信された顔データと、登録DBに記憶されている顔データとを照合する(ステップS64)。登録DBに記憶されている顔データの取得方法は、図19のステップS48で説明した方法と同様であり、その説明を省略する。 The control unit of the server 102 collates the face data transmitted in step S63 with the face data stored in the registration DB (step S64). The method of acquiring the face data stored in the registration DB is the same as the method described in step S48 of FIG. 19, and the description thereof will be omitted.

サーバ102の制御部は、ステップS63にて送信された顔データと、登録DBに記憶されている顔データとのスコア(類似度)を算出する(ステップS65)。ここで、ステップS63にて送信された顔データのスコアは、0.80とする。スコア0.80は、閾値1.04を超えていないので、サーバ102の制御部は、アラーム信号を出力しない。 The control unit of the server 102 calculates the score (similarity) between the face data transmitted in step S63 and the face data stored in the registration DB (step S65). Here, the score of the face data transmitted in step S63 is set to 0.80. Since the score 0.80 does not exceed the threshold value 1.04, the control unit of the server 102 does not output the alarm signal.

ステップS63の顔データの送信後、2秒経過すると、監視カメラ101aの制御部は、2枚の顔データを送信する(ステップS66,S69)。 Two seconds after the transmission of the face data in step S63, the control unit of the surveillance camera 101a transmits two face data (steps S66 and S69).

ステップS66にて送信された顔データの照合およびスコア算出(ステップS67,S68)は、ステップS64,S65と同様であり、その説明を省略する。また、ステップS69にて送信された顔データの照合およびスコア算出(ステップS70,S71)は、ステップS64,S65と同様であり、その説明を省略する。 The face data collation and score calculation (steps S67 and S68) transmitted in step S66 are the same as in steps S64 and S65, and the description thereof will be omitted. Further, the face data collation and score calculation (steps S70 and S71) transmitted in step S69 are the same as in steps S64 and S65, and the description thereof will be omitted.

ステップS63の顔データの送信後、4秒経過すると、監視カメラ101aの制御部は、2枚の顔データを送信する(ステップS72,S76)。 Four seconds after the transmission of the face data in step S63, the control unit of the surveillance camera 101a transmits two face data (steps S72 and S76).

サーバ102の制御部は、ステップS72にて送信された顔データと、登録DBに記憶されている顔データとを照合する(ステップS73)。 The control unit of the server 102 collates the face data transmitted in step S72 with the face data stored in the registration DB (step S73).

サーバ102の制御部は、ステップS72にて送信された顔データと、登録DBに記憶されている顔データとのスコア(類似度)を算出する(ステップS74)。ここで、ステップS72にて送信された顔データのスコアは、1.15とする。スコア1.15は、閾値1.04を超えているので、サーバ102の制御部は、登録顔の検知を判定し、登録顔検知のアラーム信号を端末装置103に出力する(ステップS75)。 The control unit of the server 102 calculates the score (similarity) between the face data transmitted in step S72 and the face data stored in the registration DB (step S74). Here, the score of the face data transmitted in step S72 is 1.15. Since the score 1.15 exceeds the threshold value 1.04, the control unit of the server 102 determines the detection of the registered face and outputs the alarm signal of the registered face detection to the terminal device 103 (step S75).

ステップS76にて送信された顔データの照合およびスコア算出(ステップS77,S78)は、ステップS64,S65と同様であり、その説明を省略する。 The face data collation and score calculation (steps S77 and S78) transmitted in step S76 are the same as in steps S64 and S65, and the description thereof will be omitted.

図23は、ホワイトリスト方式における判定処理例を示したシーケンス図である。図23のステップS81,S82の顔登録処理は、図22のステップS61,S62と同様であり、その説明を省略する。また、図23のステップS83,S86,S89,S92,S95の顔データの送信処理は、図22のステップS63,S66,S69,S72,S76と同様であり、その説明を省略する。ただし、図23では、ゾーンBに設置された監視カメラ101bが、顔データをサーバ102に送信する。 FIG. 23 is a sequence diagram showing an example of determination processing in the white list method. The face registration process of steps S81 and S82 of FIG. 23 is the same as that of steps S61 and S62 of FIG. 22, and the description thereof will be omitted. Further, the process of transmitting face data in steps S83, S86, S89, S92, and S95 in FIG. 23 is the same as in steps S63, S66, S69, S72, and S76 in FIG. 22, and the description thereof will be omitted. However, in FIG. 23, the surveillance camera 101b installed in the zone B transmits the face data to the server 102.

図23のステップS84,S87,S90,S93,S96の顔照合処理は、図22のステップS64と同様であり、その説明を省略する。また、図23のステップS85,S88,S91,S94,S97のスコア算出処理は、図22のステップS65と同様であり、その説明を省略する。 The face matching process of steps S84, S87, S90, S93, and S96 of FIG. 23 is the same as that of step S64 of FIG. 22, and the description thereof will be omitted. Further, the score calculation process of steps S85, S88, S91, S94, and S97 of FIG. 23 is the same as that of step S65 of FIG. 22, and the description thereof will be omitted.

ホワイトリスト方式では、サーバ102の制御部は、監視カメラ101bから5枚の顔データを受信してから、監視カメラ101bが撮影した顔データの人物がホワイトリストに登録されているか否かの判定をする。 In the white list method, the control unit of the server 102 receives five face data from the surveillance camera 101b, and then determines whether or not the person with the face data captured by the surveillance camera 101b is registered in the white list. do.

ここで、ステップS83,S86,S89,S92,S95にて送信された顔データのスコアを、0.50,0.30,0.35,0.20,0.25とする。サーバ102の制御部は、例えば、5つのスコアの中央値を用いて、監視カメラ101bが送信した顔データの人物がホワイトリストに登録されているか否かの判定をする。図23の例では、中央値は、0.35であり、閾値1.04を超えていないので、サーバ102の制御部は、監視カメラ101bが撮影した顔データの人物はホワイトリストに登録されていないと判定する。 Here, the scores of the face data transmitted in steps S83, S86, S89, S92, and S95 are set to 0.50, 0.30, 0.35, 0.25, 0.25. The control unit of the server 102 uses, for example, the median of the five scores to determine whether or not the person in the face data transmitted by the surveillance camera 101b is registered in the white list. In the example of FIG. 23, the median value is 0.35 and the threshold value does not exceed 1.04. Therefore, in the control unit of the server 102, the person of the face data photographed by the surveillance camera 101b is registered in the white list. Judge that there is no.

サーバ102の制御部は、監視カメラ101bが撮影した顔データの人物がホワイトリストに登録されていないと判定すると、未登録検知のアラーム信号を端末装置103に送信する(ステップS98)。 When the control unit of the server 102 determines that the person in the face data captured by the surveillance camera 101b is not registered in the white list, the control unit transmits an alarm signal for unregistered detection to the terminal device 103 (step S98).

なお、図22および図23のシーケンスにおいて、監視カメラ101a,110bは、最初の顔データの送信後、2秒後に2枚の顔データをサーバ102に送信し、4秒後に2枚の顔データをサーバ102に送信したがこれに限られない。顔データを送信する秒数および枚数は、可変されてもよく、例えば、端末装置103から設定されてもよい。 In the sequence of FIGS. 22 and 23, the surveillance cameras 101a and 110b transmit the two face data to the server 102 2 seconds after the transmission of the first face data, and the two face data 4 seconds later. It was sent to the server 102, but it is not limited to this. The number of seconds and the number of face data to be transmitted may be variable, and may be set from, for example, the terminal device 103.

また、顔データを送信する秒数の数は、3以上であってもよい。例えば、監視カメラ101a,101bは、最初の顔データの送信後、2秒後、4秒後、6秒後と、3回顔データをサーバ102に送信してもよい。顔データを送信する秒数の数は、可変されてもよく、例えば、端末装置103から設定されてもよい。 Further, the number of seconds for transmitting face data may be 3 or more. For example, the surveillance cameras 101a and 101b may transmit the face data to the server 102 three times, two seconds later, four seconds later, and six seconds later after the transmission of the first face data. The number of seconds for transmitting face data may be variable, for example, may be set from the terminal device 103.

図24は、ブラックリスト方式によってアラーム信号が出力されたときの端末装置103の画面例を示した図である。ブラックリスト方式によってアラーム信号が出力されたとき、端末装置103の表示装置には、図24に示す画像が表示される。画像には、監視カメラ101aが撮影した閾値を超えた顔画像と、テーブルTB102に登録されている顔画像とが表示される。 FIG. 24 is a diagram showing a screen example of the terminal device 103 when an alarm signal is output by the blacklist method. When the alarm signal is output by the blacklist method, the image shown in FIG. 24 is displayed on the display device of the terminal device 103. As the image, a face image that exceeds the threshold value taken by the surveillance camera 101a and a face image registered in the table TB102 are displayed.

なお、図24に示すライブボタンがクリックされた場合、端末装置103の表示装置には、監視カメラ101aが撮影している現在の映像が表示される。再生ボタンがクリックされた場合、端末装置103の表示装置には、監視カメラ101aが撮影した人物がブラックリストに登録されていると判定されたときの前後の映像が再生される。 When the live button shown in FIG. 24 is clicked, the display device of the terminal device 103 displays the current image captured by the surveillance camera 101a. When the play button is clicked, the display device of the terminal device 103 reproduces the images before and after when it is determined that the person photographed by the surveillance camera 101a is registered in the blacklist.

図25は、ホワイトリスト方式によってアラーム信号が出力されたときの端末装置103の画面例を示した図である。ホワイトリスト方式によってアラーム信号が出力されたとき、端末装置103の表示装置には、図25に示す画像が表示される。画像には、監視カメラ101bが撮影した閾値を超えなかった顔画像が表示される。 FIG. 25 is a diagram showing a screen example of the terminal device 103 when an alarm signal is output by the white list method. When the alarm signal is output by the white list method, the image shown in FIG. 25 is displayed on the display device of the terminal device 103. As the image, a face image that does not exceed the threshold value taken by the surveillance camera 101b is displayed.

ホワイトリスト方式によってアラーム信号が出力された人物の顔データは、テーブルTB102に登録されていない。従って、端末装置103の表示装置には、未登録顔の人物が検出されたことを示す画像171が表示される。 The face data of the person whose alarm signal is output by the white list method is not registered in the table TB102. Therefore, the display device of the terminal device 103 displays an image 171 indicating that a person with an unregistered face has been detected.

なお、図25に示すライブボタンがクリックされた場合、端末装置103の表示装置には、監視カメラ101bが撮影している現在の様子が表示される。再生ボタンがクリックされた場合、端末装置103の表示装置には、監視カメラ101bが撮影した人物がホワイトリストに登録されていないと判定されたときの前後の映像が再生される。 When the live button shown in FIG. 25 is clicked, the display device of the terminal device 103 displays the current state of shooting by the surveillance camera 101b. When the play button is clicked, the display device of the terminal device 103 reproduces the images before and after when it is determined that the person photographed by the surveillance camera 101b is not registered in the white list.

端末装置103の表示装置には、ブラックリスト方式およびホワイトリスト方式に関わらず、アラーム信号が出力されたときの顔画像が表示されてもよい。 The display device of the terminal device 103 may display a face image when an alarm signal is output regardless of the blacklist method or the whitelist method.

図26は、アラーム信号が出力されたときの端末装置103の画面例を示した図である。図26に示す端末装置103の表示装置には、ブラックリスト方式によってアラーム信号が出力されたときの画像と、ホワイトリスト方式によってアラーム信号が出力されたときの画像とが表示されている。すなわち、端末装置103の表示装置には、売り場エリア(ゾーンA)にブラックリストに登録された人物が出現したときの画像と、従業員エリア(ゾーンB)にホワイトリストに登録されていない人物が出現したときの画像とが混在して表示される。 FIG. 26 is a diagram showing a screen example of the terminal device 103 when an alarm signal is output. The display device of the terminal device 103 shown in FIG. 26 displays an image when the alarm signal is output by the blacklist method and an image when the alarm signal is output by the white list method. That is, on the display device of the terminal device 103, an image when a person registered in the blacklist appears in the sales floor area (zone A) and a person not registered in the white list in the employee area (zone B) are displayed. The image when it appears is mixed and displayed.

以上説明したように、サーバ102は、ゾーンAに設置された監視カメラ101aから第1顔データを受信し、ゾーンBに設置された監視カメラ101bから第2顔データを受信する通信部を有する。また、サーバ102は、第1顔データと、ブラックリストに登録された登録顔データとを照合して、ブラックリストに登録された登録顔データの人物のゾーンAへの立ち入りを判定し、第2顔データと、ホワイトリストに登録された登録顔データとを照合して、ホワイトリストに登録されていない登録顔データの人物のゾーンBへの立ち入りを判定する制御部を有する。 As described above, the server 102 has a communication unit that receives the first face data from the surveillance camera 101a installed in the zone A and the second face data from the surveillance camera 101b installed in the zone B. Further, the server 102 collates the first face data with the registered face data registered in the blacklist, determines that the registered face data registered in the blacklist has entered the zone A, and determines that the person has entered the zone A. It has a control unit that collates face data with registered face data registered in the white list and determines that a person with registered face data not registered in the white list enters zone B.

これにより、サーバ102は、ゾーンごとにおいて、人の立ち入りを監視する条件が変わる場合でも、ゾーンへの人の立ち入りを適切に監視できる。例えば、サーバ102は、売り場であるゾーンAにおいては、注意人物の立ち入りを、ブラックリストを用いて判定し、バックヤードであるゾーンBにおいては、従業員以外の人物の立ち入りを、ホワイトリストを用いて判定し、ゾーンA,Bへの人の立ち入りを適切に監視できる。 As a result, the server 102 can appropriately monitor the entry of people into the zone even if the conditions for monitoring the entry of people change in each zone. For example, the server 102 determines the entry of a person of interest using a blacklist in zone A, which is a sales floor, and uses a whitelist to determine the entry of a person other than an employee in zone B, which is a backyard. It is possible to appropriately monitor the entry of people into zones A and B.

(変形例)
監視カメラシステムは、例えば、会社またはマンションに用いられてもよい。例えば、監視カメラシステムは、会社の入り口のゾーンを、ブラックリストを用いて判定し、建物内の各部署のゾーンを、ホワイトリストを用いて判定してもよい。また、例えば、監視カメラシステムは、マンションの入り口の共用ゾーンを、ブラックリストを用いて判定し、建物内の各階のゾーンを、ホワイトリストを用いて判定してもよい。
(Modification example)
Surveillance camera systems may be used, for example, in companies or condominiums. For example, the surveillance camera system may determine the zone at the entrance of the company by using a blacklist, and may determine the zone of each department in the building by using a whitelist. Further, for example, the surveillance camera system may determine the common zone at the entrance of the condominium by using a blacklist, and may determine the zone of each floor in the building by using a whitelist.

(第5の実施の形態)
第5の実施の形態では、第4の実施の形態で説明したゾーンBに、ホワイトリストに登録されていない人物が立ち入った場合、端末装置103からの指示に応じて、ゾーンBに立ち入ったその人物の顔データを、ホワイトリストに登録する。また、第5の実施の形態では、第4の実施の形態で説明したゾーンBに、ホワイトリストに登録されていない人物が立ち入った場合、端末装置103からの指示に応じて、ゾーンBに立ち入ったその人物の顔データを、ゾーンAのブラックリストに登録する。
(Fifth Embodiment)
In the fifth embodiment, when a person who is not registered in the white list enters the zone B described in the fourth embodiment, he / she enters the zone B in response to an instruction from the terminal device 103. Register the face data of a person in the white list. Further, in the fifth embodiment, when a person who is not registered in the white list enters the zone B described in the fourth embodiment, he / she enters the zone B in response to an instruction from the terminal device 103. The face data of the person is registered in the zone A blacklist.

図27は、第5の実施の形態に係る監視カメラシステムの一例を示した図である。図27において、図15と同じものには同じ符号が付してある。図27には、人の顔データ201が示してある。 FIG. 27 is a diagram showing an example of the surveillance camera system according to the fifth embodiment. In FIG. 27, the same ones as those in FIG. 15 are designated by the same reference numerals. FIG. 27 shows human face data 201.

顔データ201は、例えば、店舗の従業員である。従業員は、商品売り場であるゾーンAに立ち入ることができるため、ブラックリストには登録されていない。従業員は、バックヤードであるゾーンBに立ち入ることができるが、ホワイトリストに登録されていないとする。 The face data 201 is, for example, an employee of a store. Employees are not blacklisted because they can enter Zone A, which is the merchandise section. Employees can enter Zone B, the backyard, but are not whitelisted.

顔データ201の従業員は、ブラックリストに登録されていない。従って、顔データ201の従業員がゾーンAに立ち入っても、サーバ102の制御部は、アラーム信号を端末装置103および警報装置104a,104b,105a,105bに出力しない。 The employee of face data 201 is not blacklisted. Therefore, even if the employee of the face data 201 enters the zone A, the control unit of the server 102 does not output the alarm signal to the terminal device 103 and the alarm devices 104a, 104b, 105a, 105b.

顔データ201の従業員は、ホワイトリストに登録されていない。従って、顔データ201の従業員がゾーンBに立ち入ると、サーバ102の制御部は、アラーム信号を端末装置103および警報装置104a,104b,105a,105bに出力する。また、サーバ102の制御部は、監視カメラ101bが撮影した顔データ201を端末装置103に出力する。 Employees with face data 201 are not whitelisted. Therefore, when the employee of the face data 201 enters the zone B, the control unit of the server 102 outputs the alarm signal to the terminal device 103 and the alarm devices 104a, 104b, 105a, 105b. Further, the control unit of the server 102 outputs the face data 201 captured by the surveillance camera 101b to the terminal device 103.

端末装置103は、アラーム信号と、監視カメラ101bが撮影した顔データ201とを受信すると、受信した顔データ201の画像を表示装置に表示する。端末装置103を操作するオペレータは、端末装置103の表示装置に表示された顔データ201の人物が、例えば、ゾーンBに立ち入ることのできる従業員であるという確認が取れると、端末装置103を操作して、従業員の顔データ201をホワイトリストに登録するよう、サーバ102に指示する。 When the terminal device 103 receives the alarm signal and the face data 201 captured by the surveillance camera 101b, the terminal device 103 displays the image of the received face data 201 on the display device. The operator who operates the terminal device 103 operates the terminal device 103 when it is confirmed that the person of the face data 201 displayed on the display device of the terminal device 103 is, for example, an employee who can enter the zone B. Then, the server 102 is instructed to register the employee face data 201 in the white list.

サーバ102の制御部は、端末装置103からの登録指示に応じて、端末装置103の表示装置に表示された顔データ201をホワイトリストに登録する。すなわち、サーバ102の制御部は、アラーム信号の送信契機となった従業員の顔データ201をホワイトリストに登録する。これにより、サーバ102の制御部は、顔データ201の従業員が、次にゾーンBに立ち入っても、端末装置103および警報装置104a,104b,105a,105bにアラーム信号を出力しない。 The control unit of the server 102 registers the face data 201 displayed on the display device of the terminal device 103 in the white list in response to the registration instruction from the terminal device 103. That is, the control unit of the server 102 registers the employee face data 201 that triggered the transmission of the alarm signal in the white list. As a result, the control unit of the server 102 does not output an alarm signal to the terminal device 103 and the alarm devices 104a, 104b, 105a, 105b even if the employee of the face data 201 next enters the zone B.

監視カメラシステムの上記処理によって、端末装置103のオペレータは、ゾーンBに立ち入ることができる従業員の顔データを、例えば、従業員から受領しなくても、監視カメラ101bが撮影した顔データ201を用いて容易にホワイトリストに登録できる。また、従業員は、従業員の顔を撮影し、撮影した顔データを端末装置103に送信しなくてもよい。 By the above processing of the surveillance camera system, the operator of the terminal device 103 can obtain the face data 201 taken by the surveillance camera 101b without receiving the employee's face data that can enter the zone B, for example, from the employee. Can be easily whitelisted using. Further, the employee does not have to photograph the face of the employee and transmit the photographed face data to the terminal device 103.

なお、顔データ201は、最初、ホワイトリストに登録されていない。従って、顔データ201が、端末装置103によってホワイトリストに登録されるまでは、サーバ102から端末装置103および警報装置104a,104b,105a,105bにアラーム信号が送信される。 The face data 201 is not initially registered in the white list. Therefore, until the face data 201 is registered in the white list by the terminal device 103, the alarm signal is transmitted from the server 102 to the terminal device 103 and the alarm devices 104a, 104b, 105a, 105b.

図28は、第5の実施の形態に係る監視カメラシステムの一例を示した図である。図28において、図15と同じものには同じ符号が付してある。図28には、人の顔データ202が示してある。 FIG. 28 is a diagram showing an example of the surveillance camera system according to the fifth embodiment. In FIG. 28, the same ones as those in FIG. 15 are designated by the same reference numerals. FIG. 28 shows human face data 202.

顔データ202は、例えば、店舗に来店した人物の顔データである。来店者は、サーバ102のブラックリストおよびホワイトリストに登録されていないとする。 The face data 202 is, for example, face data of a person who has visited the store. It is assumed that the visitor is not registered in the blacklist and whitelist of the server 102.

顔データ202の来店者は、ブラックリストに登録されていない。従って、顔データ202の来店者がゾーンAに立ち入っても、サーバ102の制御部は、アラーム信号を端末装置103および警報装置104a,104b,105a,105bに出力しない。 Visitors to face data 202 are not blacklisted. Therefore, even if the visitor of the face data 202 enters the zone A, the control unit of the server 102 does not output the alarm signal to the terminal device 103 and the alarm devices 104a, 104b, 105a, 105b.

顔データ202の来店者は、ホワイトリストに登録されていない。従って、顔データ202の従業員がゾーンBに立ち入ると、サーバ102の制御部は、アラーム信号を端末装置103および警報装置104a,104b,105a,105bに出力する。また、サーバ102の制御部は、監視カメラ101bが撮影した顔データ202を端末装置103に出力する。 The visitor of the face data 202 is not registered in the white list. Therefore, when the employee of the face data 202 enters the zone B, the control unit of the server 102 outputs the alarm signal to the terminal device 103 and the alarm devices 104a, 104b, 105a, 105b. Further, the control unit of the server 102 outputs the face data 202 captured by the surveillance camera 101b to the terminal device 103.

端末装置103は、アラーム信号と、監視カメラ101bが撮影した顔データ202とを受信すると、受信した顔データ202の画像を表示装置に表示する。端末装置103を操作するオペレータは、端末装置103の表示装置に表示された顔データ202の人物が、例えば、ゾーンBに立ち入ることのできる従業員でないという確認が取れると、端末装置103を操作して、来店者の顔データ202をブラックリストに登録するよう、サーバ102に指示する。 When the terminal device 103 receives the alarm signal and the face data 202 captured by the surveillance camera 101b, the terminal device 103 displays the image of the received face data 202 on the display device. The operator who operates the terminal device 103 operates the terminal device 103 when it is confirmed that the person of the face data 202 displayed on the display device of the terminal device 103 is not an employee who can enter the zone B, for example. Then, the server 102 is instructed to register the visitor's face data 202 in the black list.

サーバ102の制御部は、端末装置103からの登録指示に応じて、端末装置103の表示装置に表示された顔データ202をブラックリストに登録する。すなわち、サーバ102の制御部は、アラーム信号の送信契機となった来店者の顔データ202をブラックリストに登録する。これにより、関係者以外が立ち入れないゾーンBに立ち入った来店者が、例えば、再来店してゾーンAに立ち入ると、サーバ102の制御部は、端末装置103および警報装置104a,104b,105a,105bにアラーム信号を出力する。店舗の従業員は、関係者以外が立ち入れないゾーンBに立ち入った来店者を監視することができる。 The control unit of the server 102 registers the face data 202 displayed on the display device of the terminal device 103 in the blacklist in response to the registration instruction from the terminal device 103. That is, the control unit of the server 102 registers the face data 202 of the visitor who triggered the transmission of the alarm signal in the blacklist. As a result, when a visitor who has entered the zone B, which is not accessible to anyone other than the persons concerned, returns to the store and enters the zone A, for example, the control unit of the server 102 sets the terminal device 103 and the alarm devices 104a, 104b, 105a, An alarm signal is output to 105b. Store employees can monitor visitors who enter Zone B, which is only accessible to those involved.

監視カメラシステムの上記処理によって、端末装置103のオペレータは、ゾーンAの立ち入りを監視したい人物の顔データを、例えば、従業員等から受領しなくても、監視カメラ101bが撮影した顔データ202を用いて容易にブラックリストに登録できる。また、従業員は、ゾーンAへの立ち入りを監視したい人物の顔を撮影し、撮影した顔データを端末装置103に送信しなくてもよい。 By the above processing of the surveillance camera system, the operator of the terminal device 103 can obtain the face data 202 captured by the surveillance camera 101b without receiving the face data of the person who wants to monitor the entry of the zone A from, for example, an employee or the like. Can be easily blacklisted using. Further, the employee does not have to photograph the face of the person who wants to monitor the entry into the zone A and transmit the photographed face data to the terminal device 103.

図29は、監視カメラシステムの動作例を示したシーケンス図である。図29は、図27で説明したホワイトリスト登録に対応するシーケンス図である。図29に示すステップS101〜S106の処理は、図19で説明したステップS41〜S46と同様であり、その説明を省略する。 FIG. 29 is a sequence diagram showing an operation example of the surveillance camera system. FIG. 29 is a sequence diagram corresponding to the white list registration described with reference to FIG. 27. The processing of steps S101 to S106 shown in FIG. 29 is the same as that of steps S41 to S46 described with reference to FIG. 19, and the description thereof will be omitted.

ゾーンBの監視カメラ101bの撮像部は、従業員を撮影したとする。従業員は、例えば、初めて建物A101の店舗に来訪した従業員であり、ホワイトリストに登録されていないとする。監視カメラ101bの制御部は、撮像部が撮影した映像の中から人の顔を切り出し、切り出した顔の顔データと、監視カメラ101bのカメラ識別情報とをサーバ102に送信する(ステップS107)。 It is assumed that the imaging unit of the surveillance camera 101b in zone B has photographed an employee. It is assumed that the employee is, for example, the employee who visits the store of the building A101 for the first time and is not registered in the white list. The control unit of the surveillance camera 101b cuts out a human face from the image captured by the imaging unit, and transmits the face data of the cut out face and the camera identification information of the surveillance camera 101b to the server 102 (step S107).

サーバ102の制御部は、ステップS107にて送信された顔データ206と、登録DBに記憶されている顔データとを照合する(ステップS108)。顔データの照合方法は、図19のステップS53で説明した方法と同様であり、その説明を省略する。なお、顔データ206の従業員は、ホワイトリストに登録されていないので、サーバ102の制御部は、顔データ206はホワイトリストに登録されていない(未登録顔検知)と判定する。 The control unit of the server 102 collates the face data 206 transmitted in step S107 with the face data stored in the registration DB (step S108). The face data collation method is the same as the method described in step S53 of FIG. 19, and the description thereof will be omitted. Since the employee of the face data 206 is not registered in the white list, the control unit of the server 102 determines that the face data 206 is not registered in the white list (unregistered face detection).

サーバ102の制御部は、ステップS108の照合結果(未登録顔検知のアラーム信号)を端末装置103および警報装置104a,105a,105bに送信する(ステップS109)。なお、サーバ102の制御部は、未登録顔検知を判定した場合、監視カメラ101bが撮影した顔データ206を端末装置103に送信する。端末装置103の制御部は、サーバ102から送信された顔データ206を表示装置に表示する。 The control unit of the server 102 transmits the collation result (alarm signal for unregistered face detection) in step S108 to the terminal device 103 and the alarm devices 104a, 105a, 105b (step S109). When the control unit of the server 102 determines the unregistered face detection, the control unit transmits the face data 206 captured by the surveillance camera 101b to the terminal device 103. The control unit of the terminal device 103 displays the face data 206 transmitted from the server 102 on the display device.

端末装置103の制御部は、オペレータから、顔データ206をホワイトリストに登録する操作を受付けると、顔登録指示をサーバ102に送信する(ステップS110)。 When the control unit of the terminal device 103 receives the operation of registering the face data 206 in the white list from the operator, the control unit transmits the face registration instruction to the server 102 (step S110).

サーバ102の制御部は、ステップS110にて送信された顔登録指示の受信に応じて、ステップS109のアラーム信号の送信契機となった顔データ206を登録DBのテーブルTB102に登録する(ステップS111)。 The control unit of the server 102 registers the face data 206 that triggered the transmission of the alarm signal in step S109 in the table TB102 of the registration DB in response to the reception of the face registration instruction transmitted in step S110 (step S111). ..

ゾーンBの監視カメラ101bの撮像部は、従業員を撮影したとする。従業員は、ステップS111の顔登録処理によって、ホワイトリストに登録された従業員である。監視カメラ101bの制御部は、撮像部が撮影した映像の中から人の顔を切り出し、切り出した顔の顔データと、監視カメラ101bのカメラ識別情報とをサーバ102に送信する(ステップS112)。 It is assumed that the imaging unit of the surveillance camera 101b in zone B has photographed an employee. The employee is an employee registered in the white list by the face registration process in step S111. The control unit of the surveillance camera 101b cuts out a human face from the image captured by the imaging unit, and transmits the face data of the cut out face and the camera identification information of the surveillance camera 101b to the server 102 (step S112).

サーバ102の制御部は、ステップS112にて送信された顔データ207と、登録DBに記憶されている顔データとを照合する(ステップS113)。顔データ207は、ステップS111にて登録DBのテーブルTB102に登録された顔データ206と一致する。従って、サーバ102の制御部は、顔データ207の従業員は、ホワイトリストに登録された人物と判定する。 The control unit of the server 102 collates the face data 207 transmitted in step S112 with the face data stored in the registration DB (step S113). The face data 207 matches the face data 206 registered in the table TB102 of the registration DB in step S111. Therefore, the control unit of the server 102 determines that the employee of the face data 207 is a person registered in the white list.

図30は、監視カメラシステムの動作例を示したシーケンス図である。図30は、図28で説明したブラックリスト登録に対応するシーケンス図である。図30に示すステップS121〜S126の処理は、図19で説明したステップS41〜S46と同様であり、その説明を省略する。 FIG. 30 is a sequence diagram showing an operation example of the surveillance camera system. FIG. 30 is a sequence diagram corresponding to the blacklist registration described with reference to FIG. 28. The processing of steps S121 to S126 shown in FIG. 30 is the same as that of steps S41 to S46 described with reference to FIG. 19, and the description thereof will be omitted.

ゾーンBの監視カメラ101bの撮像部は、来店者を撮影したとする。来店者は、ブラックリストおよびホワイトリストに登録されていないとする。監視カメラ101bの制御部は、撮像部が撮影した映像の中から人の顔を切り出し、切り出した顔の顔データと、監視カメラ101bのカメラ識別情報とをサーバ102に送信する(ステップS127)。 It is assumed that the imaging unit of the surveillance camera 101b in zone B has photographed a visitor. Visitors are not blacklisted or whitelisted. The control unit of the surveillance camera 101b cuts out a human face from the image captured by the imaging unit, and transmits the face data of the cut out face and the camera identification information of the surveillance camera 101b to the server 102 (step S127).

サーバ102の制御部は、ステップS127にて送信された顔データ208と、登録DBに記憶されている顔データとを照合する(ステップS128)。顔データの照合方法は、図19のステップS53で説明した方法と同様であり、その説明を省略する。なお、顔データ208の来店者は、ホワイトリストに登録されていないので、サーバ102の制御部は、顔データ208はホワイトリストに登録されていない(未登録顔検知)と判定する。 The control unit of the server 102 collates the face data 208 transmitted in step S127 with the face data stored in the registration DB (step S128). The face data collation method is the same as the method described in step S53 of FIG. 19, and the description thereof will be omitted. Since the visitor of the face data 208 is not registered in the white list, the control unit of the server 102 determines that the face data 208 is not registered in the white list (unregistered face detection).

サーバ102の制御部は、ステップS128の照合結果(未登録顔検知のアラーム信号)を端末装置103および警報装置104a,105a,105bに送信する(ステップS129)。なお、サーバ102の制御部は、未登録顔検知を判定した場合、監視カメラ101bが撮影した顔データ208を端末装置103に送信する。端末装置103の制御部は、サーバ102から送信された顔データ208を表示装置に表示する。 The control unit of the server 102 transmits the collation result (alarm signal for unregistered face detection) in step S128 to the terminal device 103 and the alarm devices 104a, 105a, 105b (step S129). When the control unit of the server 102 determines that the unregistered face has been detected, the control unit transmits the face data 208 captured by the surveillance camera 101b to the terminal device 103. The control unit of the terminal device 103 displays the face data 208 transmitted from the server 102 on the display device.

端末装置103の制御部は、オペレータから、顔データ208をブラックリストに登録する操作を受付けると、顔登録指示をサーバ102に送信する(ステップS130)。 When the control unit of the terminal device 103 receives the operation of registering the face data 208 in the blacklist from the operator, the control unit transmits the face registration instruction to the server 102 (step S130).

サーバ102の制御部は、ステップS130にて送信された顔登録指示の受信に応じて、ステップS129のアラーム信号の送信契機となった顔データ208を登録DBのテーブルTB102に登録する(ステップS131)。 The control unit of the server 102 registers the face data 208 that triggered the transmission of the alarm signal in step S129 in the table TB102 of the registration DB in response to the reception of the face registration instruction transmitted in step S130 (step S131). ..

ゾーンAの監視カメラ101aの撮像部は、来店者を撮影したとする。来店者は、ステップS131の顔登録処理によって、ブラックリストに登録された来店者である。監視カメラ101aの制御部は、撮像部が撮影した映像の中から人の顔を切り出し、切り出した顔の顔データと、監視カメラ101aのカメラ識別情報とをサーバ102に送信する(ステップS132)。 It is assumed that the imaging unit of the surveillance camera 101a in zone A has photographed a visitor. The visitor is a visitor registered in the blacklist by the face registration process in step S131. The control unit of the surveillance camera 101a cuts out a human face from the image captured by the imaging unit, and transmits the face data of the cut out face and the camera identification information of the surveillance camera 101a to the server 102 (step S132).

サーバ102の制御部は、ステップS132にて送信された顔データ209と、登録DBに記憶されている顔データとを照合する(ステップS133)。顔データ209は、ステップS131にて登録DBのテーブルTB102に登録された顔データ208と一致する。従って、サーバ102の制御部は、顔データ209の来店者は、ブラックリストに登録された人物と判定する。サーバ102の制御部は、ステップS133の照合結果(不審者通知のアラーム信号)を端末装置103および警報装置104a,105a,105bに送信する(ステップS134)。 The control unit of the server 102 collates the face data 209 transmitted in step S132 with the face data stored in the registration DB (step S133). The face data 209 matches the face data 208 registered in the table TB102 of the registration DB in step S131. Therefore, the control unit of the server 102 determines that the visitor of the face data 209 is a person registered in the blacklist. The control unit of the server 102 transmits the collation result (alarm signal of suspicious person notification) in step S133 to the terminal device 103 and the alarm devices 104a, 105a, 105b (step S134).

以上説明したように、サーバ102は、監視カメラ101aから受信した第1顔データと、ホワイトリストに登録された第1登録顔データとを照合して、第1登録顔データの人物以外の人物のゾーンBへの立ち入りを判定する制御部と、第1登録顔データの人物以外の人物のゾーンBへの立ち入りが判定された場合、アラーム信号を端末装置103に送信する通信部と、を備える。サーバ102の制御部は、アラーム信号を受信した端末装置103からの指示に応じて、アラーム信号の送信契機となった人物の第1顔データを、ホワイトリストに登録する。これにより、オペレータは、登録顔データのホワイトリストへの登録を容易にできる。 As described above, the server 102 collates the first face data received from the surveillance camera 101a with the first registered face data registered in the white list, and refers to a person other than the person in the first registered face data. It includes a control unit that determines entry into zone B, and a communication unit that transmits an alarm signal to the terminal device 103 when it is determined that a person other than the person of the first registered face data has entered zone B. The control unit of the server 102 registers the first face data of the person who triggered the transmission of the alarm signal in the white list in response to the instruction from the terminal device 103 that has received the alarm signal. As a result, the operator can easily register the registered face data in the white list.

また、サーバ102の制御部は、アラーム信号を受信した端末装置からの指示に応じて、アラーム信号の送信契機となった人物の第1顔データを、ブラックリストに登録する。これにより、オペレータは、登録顔データのブラックリストへの登録を容易にできる。 Further, the control unit of the server 102 registers the first face data of the person who triggered the transmission of the alarm signal in the blacklist in response to the instruction from the terminal device that received the alarm signal. This allows the operator to easily register the registered face data in the blacklist.

(第6の実施の形態)
第1の実施の形態では、サーバ2の制御部21は、テーブルTB2を参照し、顔データが撮影された人物のゾーンを特定する。そして、サーバ2の制御部21は、テーブルTB1を参照して、特定したゾーンに対応する顔データを取得し、取得した顔データと、監視カメラ1a〜1cが撮影した顔データとを照合する。
(Sixth Embodiment)
In the first embodiment, the control unit 21 of the server 2 refers to the table TB2 and identifies the zone of the person whose face data was photographed. Then, the control unit 21 of the server 2 refers to the table TB1 to acquire the face data corresponding to the specified zone, and collates the acquired face data with the face data captured by the surveillance cameras 1a to 1c.

これに対し、第6の実施の形態では、サーバ2の制御部21は、監視カメラ1a〜1cが撮影した顔データに基づいてテーブルTB1を参照し、顔データの人物の立ち入りが許可された許可ゾーンを取得する。そして、サーバ2の制御部21は、カメラ識別情報に基づいてテーブルTB2を参照し、顔データの人物が撮影された撮影ゾーンを取得し、許可ゾーンと撮影ゾーンとに基づいて顔データの人物の立ち入りの許可/不許可を判定する。 On the other hand, in the sixth embodiment, the control unit 21 of the server 2 refers to the table TB1 based on the face data captured by the surveillance cameras 1a to 1c, and permits the person to enter the face data. Get the zone. Then, the control unit 21 of the server 2 refers to the table TB2 based on the camera identification information, acquires the shooting zone in which the person in the face data is photographed, and obtains the shooting zone in which the person in the face data is photographed, and the control unit 21 of the face data is based on the permission zone and the shooting zone. Judge whether entry is permitted or not.

第6の実施の形態における監視カメラシステムの構成および各装置のブロック構成は、第1の実施の形態における監視カメラシステムの構成および各装置のブロック構成と同様であり、その説明を省略する。 The configuration of the surveillance camera system and the block configuration of each device in the sixth embodiment are the same as the configuration of the surveillance camera system and the block configuration of each device in the first embodiment, and the description thereof will be omitted.

図31は、第6の実施の形態に係る監視カメラシステムの動作例を示したシーケンス図である。図31のシーケンス図において、図8のシーケンス図の処理と同じ処理には、同じ符号が付してある。以下では、図8のシーケンス図の処理と異なる処理について説明する。 FIG. 31 is a sequence diagram showing an operation example of the surveillance camera system according to the sixth embodiment. In the sequence diagram of FIG. 31, the same processes as those of the sequence diagram of FIG. 8 are designated by the same reference numerals. Hereinafter, processing different from the processing of the sequence diagram of FIG. 8 will be described.

サーバ2の制御部21は、テーブルTB1に記憶されている顔データと、ステップS4にて受信した顔データ51とを照合する(ステップS141)。 The control unit 21 of the server 2 collates the face data stored in the table TB1 with the face data 51 received in step S4 (step S141).

サーバ2の制御部21は、ステップS141の照合により、ステップS4にて受信した顔データ51の人物の入室が許可された許可ゾーンを取得する(ステップS142)。 The control unit 21 of the server 2 acquires the permission zone in which the person of the face data 51 received in step S4 is permitted to enter the room by the collation in step S141 (step S142).

図31の例では、ステップS4にて受信した顔データ51は、図6に示したテーブルTB1の顔データ41baに一致する。顔データ41baに一致する顔データ51の人物は、図6に示したテーブルTB1より、ゾーンA,Bに入室できる。従って、ステップS4にて受信した顔データ51の人物の許可ゾーンは、ゾーンA,Bである。 In the example of FIG. 31, the face data 51 received in step S4 matches the face data 41ba of the table TB1 shown in FIG. A person with face data 51 that matches face data 41ba can enter zones A and B from the table TB1 shown in FIG. Therefore, the permitted zones of the person of the face data 51 received in step S4 are zones A and B.

サーバ2の制御部21は、ステップS4にて受信したカメラ識別情報に基づいて、テーブルTB2を参照し、ステップS4にて受信した顔データ51の撮影された撮影ゾーンを取得する(ステップS143)。 The control unit 21 of the server 2 refers to the table TB2 based on the camera identification information received in step S4, and acquires the photographed shooting zone of the face data 51 received in step S4 (step S143).

図31の例では、サーバ2の制御部21は、ステップS4にてカメラ識別情報「1a」を受信している。従って、サーバ2の制御部21は、ゾーンAを撮影ゾーンとして取得する。 In the example of FIG. 31, the control unit 21 of the server 2 receives the camera identification information “1a” in step S4. Therefore, the control unit 21 of the server 2 acquires the zone A as a shooting zone.

サーバ2の制御部21は、ステップS142にて取得した許可ゾーンと、ステップS143にて取得した撮影ゾーンとに基づいて、ステップS4にて受信した顔データ51の人物のゾーンA,Bへの立ち入りの許可を判定する。図8の例の場合、顔データ51の人物の許可ゾーンは、ゾーンA,Bである。また、顔データ51の人物の撮影ゾーンは、ゾーンAである。従って、顔データ51の人物は、ゾーンA,Bへの立ち入りが許可された人物であって、ゾーンAに居るので、サーバ2の制御部21は、顔データ51の人物は、ゾーンAへの立ち入りが許可された人物と判定する。すなわち、サーバ2の制御部21は、許可ゾーンに一致する撮影ゾーンが存在する場合、監視カメラによって撮影された人物は、撮影ゾーンへの立ち入りが許可された人物と判定する。 The control unit 21 of the server 2 enters the zones A and B of the person of the face data 51 received in step S4 based on the permission zone acquired in step S142 and the shooting zone acquired in step S143. Judge the permission of. In the case of the example of FIG. 8, the permission zones of the person of the face data 51 are zones A and B. The shooting zone of the person in the face data 51 is zone A. Therefore, since the person in the face data 51 is a person who is permitted to enter the zones A and B and is in the zone A, the control unit 21 of the server 2 determines that the person in the face data 51 enters the zone A. Judge as a person who is allowed to enter. That is, when the control unit 21 of the server 2 has a shooting zone that matches the permission zone, the person photographed by the surveillance camera is determined to be a person who is permitted to enter the shooting zone.

サーバ2の制御部21は、ゾーンA,Bへの立ち入り許可判定結果を端末装置3に送信する(ステップS144)。図31の例では、サーバ2の制御部21は、顔データ51の人物を、ゾーンAへの立ち入りが許可された人物と判定するので、立ち入りOKを示す情報を端末装置3に送信する。 The control unit 21 of the server 2 transmits the entry permission determination result to the zones A and B to the terminal device 3 (step S144). In the example of FIG. 31, the control unit 21 of the server 2 determines that the person in the face data 51 is a person who is permitted to enter the zone A, and therefore transmits information indicating that entry is OK to the terminal device 3.

サーバ2の制御部21は、テーブルTB1に記憶されている顔データと、ステップS8にて受信した顔データ52とを照合する(ステップS145)。 The control unit 21 of the server 2 collates the face data stored in the table TB1 with the face data 52 received in step S8 (step S145).

サーバ2の制御部21は、ステップS145の照合により、ステップS9にて受信した顔データ52の人物の入室が許可された許可ゾーンを取得する(ステップS146)。 The control unit 21 of the server 2 acquires the permission zone in which the person of the face data 52 received in step S9 is permitted to enter the room by the collation in step S145 (step S146).

図31の例では、ステップS9にて受信した顔データ52は、図6に示したテーブルTB1の顔データ41ba,41bb,41bcに一致しない。顔データ41ba,41bb,41bcに一致しない顔データ52の人物は、ゾーンA,Bに入室できない。従って、ステップS9にて受信した顔データ52の人物の許可ゾーンは無く、サーバ2の制御部21は、顔データ52の人物は、ゾーンA,Bへの立ち入りが許可されていない人物と判定する。 In the example of FIG. 31, the face data 52 received in step S9 does not match the face data 41ba, 41bb, 41bc of the table TB1 shown in FIG. A person with face data 52 that does not match face data 41ba, 41bb, 41bc cannot enter zones A and B. Therefore, there is no permission zone for the person in the face data 52 received in step S9, and the control unit 21 of the server 2 determines that the person in the face data 52 is not permitted to enter the zones A and B. ..

サーバ2の制御部21は、ゾーンA,Bへの立ち入り許可判定結果を端末装置3に送信する(ステップS147)。図31の例では、サーバ2の制御部21は、顔データ52の人物を、ゾーンA,Bへの立ち入りが許可されてない人物と判定するので、立ち入りNGを示す情報を端末装置3に送信する。 The control unit 21 of the server 2 transmits the entry permission determination result to the zones A and B to the terminal device 3 (step S147). In the example of FIG. 31, the control unit 21 of the server 2 determines that the person in the face data 52 is a person who is not permitted to enter the zones A and B, and therefore transmits information indicating an entry NG to the terminal device 3. do.

以上説明したように、サーバ2は、建物A1の複数のゾーンA〜Cの各々を撮影する監視カメラ1a〜1cから、顔データを受信する通信部22を備える。サーバ2は、複数の監視カメラ1a〜1c各々のカメラ識別情報と、複数のゾーンA〜Cとを紐付けたテーブルTB2と、登録顔データと、登録顔データの人物の立ち入りが許可されたゾーンA〜Cとを紐付けたテーブルTB1と、を備える。サーバ2は、顔データに基づいてテーブルTB1を参照して、顔データの人物の立ち入りが許可された許可ゾーンを取得してから、カメラ識別情報に基づいてテーブルTB2を参照して顔データの人物が撮影された撮影ゾーンを取得し、許可ゾーンと撮影ゾーンとに基づいて顔データの人物の立ち入りの許可/不許可を判定する制御部21を備える。これにより、サーバ2は、ゾーンA〜Cごとに決められた人以外の人が、ゾーンA〜Cに立ち入っていないかを判定できる。 As described above, the server 2 includes a communication unit 22 that receives face data from the surveillance cameras 1a to 1c that photograph each of the plurality of zones A to C of the building A1. The server 2 has a table TB2 in which the camera identification information of each of the plurality of surveillance cameras 1a to 1c and the plurality of zones A to C are linked, the registered face data, and the zone in which the registered face data is allowed to enter. It is provided with a table TB1 in which A to C are linked. The server 2 refers to the table TB1 based on the face data to acquire the permission zone where the person in the face data is permitted to enter, and then refers to the table TB2 based on the camera identification information to refer to the person in the face data. The control unit 21 is provided with a control unit 21 that acquires a shooting zone in which the photographed image is taken and determines whether or not to allow or disallow entry of a person in face data based on the permission zone and the shooting zone. As a result, the server 2 can determine whether or not a person other than the person determined for each of the zones A to C has entered the zones A to C.

(第7の実施の形態)
第7の実施の形態では、2つのテーブルにアクセスする端末装置が異なる。
(7th Embodiment)
In the seventh embodiment, the terminal devices that access the two tables are different.

図32は、第7の実施の形態に係る監視カメラシステムの一例を示した図である。図32に示すように、監視カメラシステムは、監視カメラ301a,301bと、サーバ302と、端末装置303,304と、を有している。 FIG. 32 is a diagram showing an example of the surveillance camera system according to the seventh embodiment. As shown in FIG. 32, the surveillance camera system includes surveillance cameras 301a and 301b, a server 302, and terminal devices 303 and 304.

図32には、監視カメラシステムの他に建物A301の内部の平面図が示してある。建物A301は、例えば、コンサート会場である。以下では、建物A301をコンサート会場として説明する。 FIG. 32 shows a plan view of the inside of the building A301 in addition to the surveillance camera system. Building A301 is, for example, a concert hall. In the following, the building A301 will be described as a concert hall.

建物A301は、ゾーンA,Bを有している。ゾーンAには、A席が設定される。ゾーンBには、B席が設定される。B席は、A席よりステージから遠い。A席とB席は、例えば、コンサート料金が異なる。 Building A301 has zones A and B. A seat is set in zone A. B seats are set in zone B. Seat B is farther from the stage than seat A. For example, the concert fee is different between the A seat and the B seat.

監視カメラ301aは、建物A301のゾーンAに設置される。監視カメラ301bは、建物A301のゾーンBに設置される。 The surveillance camera 301a is installed in zone A of the building A301. The surveillance camera 301b is installed in zone B of the building A301.

監視カメラ301a,301bは、ゾーンA,B内に居る人を撮影するよう建物A301に設置される。例えば、監視カメラ301aは、ゾーンA内の全体を撮影するように、ゾーンAの天井または壁等に設置される。監視カメラ301bは、ゾーンB内の全体を撮影するように、ゾーンBの天井または壁等に設置される。 Surveillance cameras 301a and 301b are installed in building A301 so as to photograph people in zones A and B. For example, the surveillance camera 301a is installed on the ceiling or wall of the zone A so as to capture the entire zone A. The surveillance camera 301b is installed on the ceiling or wall of the zone B so as to photograph the entire zone B.

サーバ302は、例えば、LANまたはインターネット等のネットワークによって、監視カメラ301a,301bと接続されている。サーバ302は、建物A301内に設置されてもよいし、建物A301とは別の場所に設置されてもよい。 The server 302 is connected to the surveillance cameras 301a and 301b by, for example, a network such as a LAN or the Internet. The server 302 may be installed in the building A301, or may be installed in a place different from the building A301.

サーバ302は、ゾーンA,Bに立ち入ることができる人の顔データを記憶(登録)している。言い換えれば、サーバ302は、ゾーンA,Bに立ち入ることができる人のホワイトリストを有している。サーバ302は、監視カメラ301a,301bが撮影した人の顔データと、登録されている顔データとの照合を行う。サーバ302は、照合結果を、端末装置303に送信する。 The server 302 stores (registers) face data of a person who can enter zones A and B. In other words, server 302 has a white list of people who can enter zones A and B. The server 302 collates the face data of the person photographed by the surveillance cameras 301a and 301b with the registered face data. The server 302 transmits the collation result to the terminal device 303.

端末装置303は、LANまたはインターネット等のネットワークによって、サーバ302と接続されている。端末装置303は、建物A301内に設置されてもよいし、建物A301とは別の場所に設置されてもよい。端末装置303は、例えば、パーソナルコンピュータ、スマートホン、またはタブレット端末等であってもよい。端末装置303は、例えば、コンサートを運営する会社のオペレータによって使用される。 The terminal device 303 is connected to the server 302 by a network such as a LAN or the Internet. The terminal device 303 may be installed in the building A301, or may be installed in a place different from the building A301. The terminal device 303 may be, for example, a personal computer, a smart phone, a tablet terminal, or the like. The terminal device 303 is used, for example, by an operator of a company that operates a concert.

端末装置303は、例えば、コンサートを運営する会社のオペレータによって使用される。オペレータは、端末装置303を用いて、監視カメラ301a,301bの設定に関する情報を入力する。例えば、オペレータは、端末装置303を用いて、ゾーンA,Bと監視カメラ301a,301bのグルーピング設定を行う。また、オペレータは、例えば、端末装置303を用いて、ゾーンA,Bに不適切な人が居ないかを監視する。例えば、オペレータは、端末装置303を用いて、ゾーンAに立ち入ることができない人がゾーンAに居ないかを監視する。また、オペレータは、端末装置303を用いて、ゾーンBに立ち入ることができない人がゾーンBに居ないかを監視する。 The terminal device 303 is used, for example, by an operator of a company that operates a concert. The operator uses the terminal device 303 to input information regarding the settings of the surveillance cameras 301a and 301b. For example, the operator uses the terminal device 303 to set the grouping of the zones A and B and the surveillance cameras 301a and 301b. Further, the operator uses, for example, the terminal device 303 to monitor whether there is an inappropriate person in the zones A and B. For example, the operator uses the terminal device 303 to monitor whether there is a person who cannot enter the zone A in the zone A. Further, the operator uses the terminal device 303 to monitor whether or not there is a person who cannot enter the zone B in the zone B.

端末装置304は、LANまたはインターネット等のネットワークによって、サーバ302と接続されている。端末装置304は、例えば、パーソナルコンピュータ、スマートホン、またはタブレット端末等であってもよい。 The terminal device 304 is connected to the server 302 by a network such as a LAN or the Internet. The terminal device 304 may be, for example, a personal computer, a smart phone, a tablet terminal, or the like.

端末装置304は、例えば、コンサートを視聴するユーザによって使用される。ユーザは、例えば、コンサートを視聴するため、端末装置304を用いて、コンサートのチケットを予約または購入する。 The terminal device 304 is used, for example, by a user who watches a concert. The user reserves or purchases a concert ticket, for example, using the terminal device 304 to watch the concert.

なお、ゾーンA,Bの各々には、複数の監視カメラが設置されてもよい。ゾーンA,Bの各々は、複数の監視カメラによって、ゾーンA,B内にいる人を撮影するように設置されてもよい。 A plurality of surveillance cameras may be installed in each of zones A and B. Each of the zones A and B may be installed so as to photograph a person in the zones A and B by a plurality of surveillance cameras.

また、監視カメラ301a,301bには、ゾーンA,Bに既に設置されている監視カメラが用いられてもよい。例えば、監視カメラ301a,301bには、ゾーンA,Bの映像を録画する録画システムの一部として、既にゾーンA,Bに設置されている監視カメラを用いてもよい。この場合、監視カメラ301a,301bの出力を、録画システムとサーバ302とに分岐させてもよい。 Further, as the surveillance cameras 301a and 301b, surveillance cameras already installed in the zones A and B may be used. For example, for the surveillance cameras 301a and 301b, surveillance cameras already installed in the zones A and B may be used as a part of the recording system for recording the images in the zones A and B. In this case, the outputs of the surveillance cameras 301a and 301b may be branched to the recording system and the server 302.

また、ゾーンの数は、2つに限られない。ゾーンは、3以上であってもよい。3以上のゾーン各々に設置される監視カメラは、サーバ302に接続される。サーバ302は、3以上のゾーン各々において、ブラックリストおよびホワイトリストのいずれか一方を用いて、ゾーンへの人の立ち入りを判定する。 Also, the number of zones is not limited to two. The number of zones may be 3 or more. Surveillance cameras installed in each of the three or more zones are connected to the server 302. The server 302 uses either the blacklist or the whitelist in each of the three or more zones to determine the entry of a person into the zone.

また、監視カメラシステムは、監視カメラ301a,301bが撮影した映像データを録画するレコーダを備えてもよい。監視カメラシステムは、監視カメラ301a,301bが撮影した映像データをリアルタイムで表示するモニタリング装置を備えてもよい。モニタリング装置は、例えば、パーソナルコンピュータ、スマートホン、またはタブレット端末等であってもよい。 Further, the surveillance camera system may include a recorder that records video data captured by the surveillance cameras 301a and 301b. The surveillance camera system may include a monitoring device that displays video data captured by the surveillance cameras 301a and 301b in real time. The monitoring device may be, for example, a personal computer, a smart phone, a tablet terminal, or the like.

また、監視カメラ301a,301bは、図3で説明した監視カメラ1aと同様の構成を有し、その説明を省略する。サーバ302は、図4で説明したサーバ2と同様の構成を有し、その説明を省略する。ただし、サーバ302の通信部は、端末装置303,304と通信する。端末装置303,304は、図5で説明した端末装置3と同様の構成を有し、その説明を省略する。 Further, the surveillance cameras 301a and 301b have the same configuration as the surveillance cameras 1a described with reference to FIG. 3, and the description thereof will be omitted. The server 302 has the same configuration as the server 2 described with reference to FIG. 4, and the description thereof will be omitted. However, the communication unit of the server 302 communicates with the terminal devices 303 and 304. The terminal devices 303 and 304 have the same configuration as the terminal device 3 described with reference to FIG. 5, and the description thereof will be omitted.

図33は、テーブルTB301のアクセス例を説明する図である。図33に示すテーブルTB301は、図7で説明したテーブルTB2と同様である。ただし、図7のテーブルTB2は、3つのカメラ識別情報を有しているが、図33のテーブルTB301は、2つのカメラ識別情報を有している点が異なる。また、図33に示すカメラ識別情報「a」は、監視カメラ301aのカメラ識別情報であり、カメラ識別情報「b」は、監視カメラ301bのカメラ識別情報である。 FIG. 33 is a diagram illustrating an access example of the table TB301. The table TB301 shown in FIG. 33 is the same as the table TB2 described in FIG. However, the table TB2 in FIG. 7 has three camera identification information, but the table TB301 in FIG. 33 is different in that it has two camera identification information. Further, the camera identification information "a" shown in FIG. 33 is the camera identification information of the surveillance camera 301a, and the camera identification information "b" is the camera identification information of the surveillance camera 301b.

端末装置303は、テーブルTB301にアクセスできる。端末装置304は、テーブルTB301にアクセスできない。テーブルTB301は、端末装置303によって作成され、サーバ302の記憶部23に記憶される。また、テーブルTB2の情報は、例えば、端末装置303によって追加、変更、または削除されてもよい。 The terminal device 303 can access the table TB301. The terminal device 304 cannot access the table TB301. The table TB301 is created by the terminal device 303 and stored in the storage unit 23 of the server 302. Further, the information in the table TB2 may be added, changed, or deleted by the terminal device 303, for example.

図34は、テーブルTB302のアクセス例を説明する図である。図34に示すテーブルTB302は、図9で説明したテーブルTB11と同様である。ただし、図34のテーブルTB301に登録されている時刻は、図9のテーブルTB11に登録されている時刻と異なっている。 FIG. 34 is a diagram illustrating an access example of the table TB302. The table TB302 shown in FIG. 34 is the same as the table TB11 described in FIG. However, the time registered in the table TB301 of FIG. 34 is different from the time registered in the table TB11 of FIG.

端末装置304は、テーブルTB302にアクセスできる。例えば、コンサートを視聴しようとするユーザは、端末装置304を用いて、ユーザの顔データ、席、および視聴しようとするコンサートの日時をテーブルTB302に登録できる。また、ユーザは、端末装置303を用いて、テーブルTB302の情報を追加、変更、または削除してもよい。 The terminal device 304 can access the table TB302. For example, a user who wants to watch a concert can use the terminal device 304 to register the user's face data, seats, and the date and time of the concert to be watched in the table TB302. In addition, the user may add, change, or delete the information in the table TB 302 by using the terminal device 303.

端末装置303は、テーブルTB302にアクセスできてもよい。例えば、権限を持ったオペレータは、端末装置303を用いて、テーブルTB302の情報を閲覧、追加、変更、または削除してもよい。 The terminal device 303 may be able to access the table TB 302. For example, an authorized operator may use the terminal device 303 to view, add, change, or delete information in table TB302.

テーブルTB301,TB302は、サーバ302の記憶部に記憶されてもよい。また、テーブルTB301およびテーブルTB302の両方または一方は、サーバ302とは別体のデータベースに記憶されてもよい。別体のデータベースは、サーバ302の一部と捉えてもよい。以下では、テーブルTB301,TB302は、登録DBに記憶されとする。 The tables TB301 and TB302 may be stored in the storage unit of the server 302. Further, both or one of the table TB301 and the table TB302 may be stored in a database separate from the server 302. The separate database may be considered as part of the server 302. In the following, the tables TB301 and TB302 are stored in the registration DB.

図35は、監視カメラシステムの動作例を示したシーケンス図である。端末装置303の制御部は、オペレータの操作に応じて、サーバ302を介して登録DBに対し、ゾーンA,Bと、監視カメラ301a,301bとのグルーピング設定を行う(ステップS151,S152)。すなわち、端末装置303の制御部は、登録DBに対し、ゾーンA,Bと、監視カメラ301a,301bとの対応付けの設定を行う。これにより、登録DBには、例えば、図33に示したテーブルTB301が記憶される。 FIG. 35 is a sequence diagram showing an operation example of the surveillance camera system. The control unit of the terminal device 303 sets the grouping of the zones A and B and the surveillance cameras 301a and 301b in the registration DB via the server 302 according to the operation of the operator (steps S151 and S152). That is, the control unit of the terminal device 303 sets the association between the zones A and B and the surveillance cameras 301a and 301b in the registration DB. As a result, for example, the table TB301 shown in FIG. 33 is stored in the registration DB.

コンサートを予約する人は、例えば、端末装置304に顔データ、名前、予約するゾーンの情報(コンサート会場の席の情報)、およびコンサート会場に入る時間等の予約情報を入力する。端末装置304は、入力された予約情報をサーバ302に送信する(ステップS153)。 A person who reserves a concert, for example, inputs face data, a name, information on a zone to be reserved (information on seats in a concert hall), and reservation information such as time to enter the concert hall in the terminal device 304. The terminal device 304 transmits the input reservation information to the server 302 (step S153).

サーバ302の制御部は、端末装置304から送信された予約情報に基づいて、登録DBに対し、顔登録を行う(ステップS154)。すなわち、サーバ302の制御部は、登録DBにおいて、図34に示したテーブルTB302を生成する。 The control unit of the server 302 performs face registration in the registration DB based on the reservation information transmitted from the terminal device 304 (step S154). That is, the control unit of the server 302 generates the table TB 302 shown in FIG. 34 in the registration DB.

例えば、図35の顔データ311の人物は、端末装置304を用いて、2019年xx月yy日の13:00から15:00に演奏されるコンサートを予約する。また、顔データ311の人物は、端末装置304を用いて、A席を予約する。この場合、テーブルTB302には、例えば、図34の点線枠A401に示す情報が記憶される。 For example, the person with face data 311 in FIG. 35 uses the terminal device 304 to reserve a concert to be performed from 13:00 to 15:00 on the yy day of xx month 2019. Further, the person with face data 311 reserves the A seat by using the terminal device 304. In this case, the information shown in the dotted line frame A401 of FIG. 34 is stored in the table TB302, for example.

サーバ302の制御部は、ステップS154の顔登録が完了すると、テーブルTB302に登録した予約情報を端末装置3に送信する(ステップS155)。端末装置303の管理者は、端末装置303が受信した予約情報によって、コンサート会場を予約した人の予約内容を把握できる。
端末装置303は、オペレータの操作に応じて、予約情報要求をサーバ302に送信する(ステップS156)。オペレータは、要求する予約情報として、例えば、日時または席(ゾーン)の情報を指定できる。
When the face registration in step S154 is completed, the control unit of the server 302 transmits the reservation information registered in the table TB 302 to the terminal device 3 (step S155). The administrator of the terminal device 303 can grasp the reservation contents of the person who reserved the concert hall from the reservation information received by the terminal device 303.
The terminal device 303 transmits the reservation information request to the server 302 in response to the operation of the operator (step S156). The operator can specify, for example, date and time or seat (zone) information as the requested reservation information.

サーバ302の制御部は、端末装置303から予約情報を受信すると、登録DBのテーブルTB302にアクセスし、予約情報を取得する(ステップS157)。 When the control unit of the server 302 receives the reservation information from the terminal device 303, it accesses the table TB302 of the registration DB and acquires the reservation information (step S157).

サーバ302の制御部は、テーブルTB302から取得した予約情報を端末装置303に送信する(ステップS158)。 The control unit of the server 302 transmits the reservation information acquired from the table TB 302 to the terminal device 303 (step S158).

以上説明したように、サーバ302は、建物A301の複数のゾーンA,Bの各々を撮影する監視カメラ301a,301bから、顔データを受信する通信部と、顔データと、ゾーンA,Bごとの立ち入りが許可された人物の登録顔データとを照合し、顔データが撮影されたゾーンにおける、顔データの人物の立ち入りの可否を判定する制御部と、を備える。通信部は、端末装置303から、監視カメラ301a,301bの設定に関する情報を受信し、端末装置304から、複数のゾーンA,Bのうちの少なくとも1つのゾーンへの立ち入り許可を求める人物の登録顔データを受信する。これにより、ゾーンへの立ち入りを求める人物が直接登録顔データを監視カメラシステムに登録でき、便利となる。 As described above, the server 302 has a communication unit that receives face data from surveillance cameras 301a and 301b that capture each of the plurality of zones A and B of the building A301, face data, and each of the zones A and B. It is provided with a control unit that collates with the registered face data of a person who is permitted to enter and determines whether or not the person in the face data can enter in the zone where the face data is photographed. The communication unit receives information regarding the settings of the surveillance cameras 301a and 301b from the terminal device 303, and requests the access permission from the terminal device 304 to at least one of the plurality of zones A and B. Receive data. This makes it convenient for a person who wants to enter the zone to directly register the registered face data in the surveillance camera system.

(変形例)
上記では、監視カメラシステムは、コンサート会場に適用されるとしたがこれに限られない。監視カメラシステムは、例えば、有料講座の会場、遊園地のアトラクション、映画館、新幹線等の列車、または飛行機等にも適用できる。
(Modification example)
In the above, the surveillance camera system is applied to the concert hall, but the present invention is not limited to this. The surveillance camera system can also be applied to, for example, paid lecture venues, amusement park attractions, movie theaters, trains such as the Shinkansen, or airplanes.

例えば、監視カメラシステムを有料講座の会場に適用する場合、サーバ302は、人が適切な席(ゾーン)に座っているか否かを判定する。サーバ302は、有料講座の空席状況を把握してもよい。また、サーバ302は、どの席に誰が座っているかを判定してもよい。また、サーバ302は、成績と席との相関関係を算出してもよい。また、サーバ302は、有料講座の講師ごとにおける出席率を算出してもよい。 For example, when applying a surveillance camera system to a venue for a paid course, the server 302 determines whether or not a person is sitting in an appropriate seat (zone). The server 302 may grasp the vacancy status of the paid course. Further, the server 302 may determine who is sitting in which seat. Further, the server 302 may calculate the correlation between the grade and the seat. Further, the server 302 may calculate the attendance rate for each instructor of the paid lecture.

また、監視カメラシステムを遊園地のアトラクションに適用する場合、監視カメラ301a,301bは、アトラクション(ゾーン)ごとに設置されてもよい。サーバ302は、人が適切なアトラクションに居るか否かを判定してもよい。 Further, when the surveillance camera system is applied to an attraction in an amusement park, the surveillance cameras 301a and 301b may be installed for each attraction (zone). Server 302 may determine if a person is at an appropriate attraction.

また、監視カメラシステムを映画館に適用する場合、監視カメラ301a,301bは、上映される部屋(ゾーン)ごとに設置されてもよい。サーバ302は、人が適切な部屋の席に座っているか否かを判定してもよい。 Further, when the surveillance camera system is applied to a movie theater, the surveillance cameras 301a and 301b may be installed in each room (zone) to be screened. The server 302 may determine if a person is sitting in an appropriate room seat.

また、監視カメラシステムを新幹線に適用する場合、監視カメラ301a,301bは、車両(ゾーン)ごとに設置されてもよい。サーバ302は、人が適切な車両の席に座っているか否かを判定してもよい。これにより、検札を簡素化できる。 Further, when the surveillance camera system is applied to the Shinkansen, the surveillance cameras 301a and 301b may be installed for each vehicle (zone). The server 302 may determine whether a person is sitting in a suitable vehicle seat. This makes it possible to simplify ticket inspection.

以上、実施の形態について説明した。上記の各実施の形態は組み合わされてもよい。 The embodiment has been described above. Each of the above embodiments may be combined.

上述の各実施の形態において、テーブルに登録される登録顔データは、例えば、社員カードに付された写真であってもよい。例えば、カードリーダは、カメラを備え、社員カードに付された写真を撮影し、サーバに送信してもよい。 In each of the above-described embodiments, the registered face data registered in the table may be, for example, a photograph attached to an employee card. For example, the card reader may be equipped with a camera, take a picture attached to the employee card, and send it to the server.

また、テーブルに登録される登録顔データは、レコーダに記憶された映像から取得されてもよい。例えば、オペレータは、レコーダに記憶された映像を端末装置で再生し、再生した映像から、テーブルに登録したい人物の顔を切り取り、切り取った顔の顔データをテーブルに登録してもよい。 Further, the registered face data registered in the table may be acquired from the video stored in the recorder. For example, the operator may play back the video stored in the recorder on the terminal device, cut out the face of the person to be registered in the table from the played back video, and register the face data of the cut face in the table.

また、テーブルに登録される登録顔データは、顔認証ゲートで撮影された顔データであってもよい。オペレータは、顔認証ゲートで撮影された顔データの画像を端末装置に表示し、表示した画像から、テーブルに登録したい人物の顔を切り取り、切り取った顔の顔データをテーブルに登録してもよい。 Further, the registered face data registered in the table may be face data taken by the face recognition gate. The operator may display the image of the face data taken by the face recognition gate on the terminal device, cut out the face of the person who wants to be registered in the table from the displayed image, and register the face data of the cut face in the table. ..

上述の実施の形態においては、各構成要素に用いる「・・・部」という表記は、「・・・回路(circuitry)」、「・・・デバイス」、「・・・ユニット」、又は、「・・・モジュール」といった他の表記に置換されてもよい。 In the above-described embodiment, the notation "... part" used for each component is "... circuitry", "... device", "... unit", or "... unit". It may be replaced with another notation such as "... module".

以上、図面を参照しながら実施の形態について説明したが、本開示はかかる例に限定されない。当業者であれば、特許請求の範囲に記載された範疇において、各種の変更例または修正例に想到し得ることは明らかである。そのような変更例または修正例についても、本開示の技術的範囲に属するものと了解される。また、本開示の趣旨を逸脱しない範囲において、実施の形態における各構成要素は任意に組み合わされてよい。 Although the embodiments have been described above with reference to the drawings, the present disclosure is not limited to such examples. It is clear to those skilled in the art that various modifications or modifications can be conceived within the scope of the claims. It is understood that such modifications or modifications also fall within the technical scope of the present disclosure. In addition, each component in the embodiment may be arbitrarily combined without departing from the gist of the present disclosure.

本開示はソフトウェア、ハードウェア、又は、ハードウェアと連携したソフトウェアで実現することが可能である。上記実施の形態の説明に用いた各機能ブロックは、部分的に又は全体的に、集積回路であるLSIとして実現され、上記実施の形態で説明した各プロセスは、部分的に又は全体的に、一つのLSI又はLSIの組み合わせによって制御されてもよい。LSIは個々のチップから構成されてもよいし、機能ブロックの一部または全てを含むように一つのチップから構成されてもよい。LSIはデータの入力と出力を備えてもよい。LSIは、集積度の違いにより、IC、システムLSI、スーパLSI、ウルトラLSIと呼称されることもある。 The present disclosure can be realized by software, hardware, or software linked with hardware. Each functional block used in the description of the above embodiment is partially or wholly realized as an LSI which is an integrated circuit, and each process described in the above embodiment is partially or wholly. It may be controlled by one LSI or a combination of LSIs. The LSI may be composed of individual chips, or may be composed of one chip so as to include a part or all of functional blocks. The LSI may include data input and output. LSIs may be referred to as ICs, system LSIs, super LSIs, and ultra LSIs depending on the degree of integration.

集積回路化の手法はLSIに限るものではなく、専用回路、汎用プロセッサ又は専用プロセッサで実現してもよい。また、LSI製造後に、プログラムすることが可能なFPGAや、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。本開示は、デジタル処理又はアナログ処理として実現されてもよい。 The method of making an integrated circuit is not limited to LSI, and may be realized by a dedicated circuit, a general-purpose processor, or a dedicated processor. Further, an FPGA that can be programmed after the LSI is manufactured, or a reconfigurable processor that can reconfigure the connection and settings of the circuit cells inside the LSI may be used. The present disclosure may be realized as digital processing or analog processing.

さらには、半導体技術の進歩または派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行ってもよい。バイオ技術の適用等が可能性としてありえる。 Furthermore, if an integrated circuit technology that replaces an LSI appears due to advances in semiconductor technology or another technology derived from it, it is naturally possible to integrate functional blocks using that technology. There is a possibility of applying biotechnology.

サーバが有すべき機能の処理内容を記述したプログラムが提供される。そのプログラムをコンピュータで実行することにより、上記処理機能がコンピュータ上で実現される。 A program that describes the processing contents of the functions that the server should have is provided. By executing the program on a computer, the above processing function is realized on the computer.

本開示の監視カメラシステムは、ゾーンごとに決められた人以外の人が、ゾーンに立ち入っていないかを判定する監視カメラシステムにおいて有用である。 The surveillance camera system of the present disclosure is useful in a surveillance camera system that determines whether or not a person other than a person determined for each zone has entered the zone.

1a〜1d,101a,101b,301a,301b 監視カメラ
2,102,302 サーバ
3,61,103,303,304 端末装置
11,81 撮像部
12,21,31,82 制御部
13,22,34,84 通信部
14,23,35,85 記憶部
32 入力部
33 表示部
41a,42a,121a,131a ゾーン識別情報
41b,41ba〜41bc,51,52,91,92,111〜113,131c,132a,132b,141〜144,151〜156,166〜166,201,202,206,207,208,209,311 顔データ
42b,42ba〜42bc,121b カメラ識別情報
71a〜71c カードリーダ
83 カード通信部
104a,104b,105a,105b 警報装置
131b リスト情報
TB1,TB2,TB11,TB21,TB101,TB102,TB301,TB302 テーブル
A〜C ゾーン
A1,A101,A301 建物
1a to 1d, 101a, 101b, 301a, 301b Surveillance camera 2,102,302 Server 3,61,103,303,304 Terminal device 11,81 Imaging unit 12,21,31,82 Control unit 13,22,34, 84 Communication unit 14, 23, 35, 85 Storage unit 32 Input unit 33 Display unit 41a, 42a, 121a, 131a Zone identification information 41b, 41ba to 41bc, 51, 52, 91, 92, 111-113, 131c, 132a, 132b, 141-144,151-156,166-166,201,202,206,207,208,209,311 Face data 42b, 42ba-42bc, 121b Camera identification information 71a-71c Card reader 83 Card communication unit 104a, 104b, 105a, 105b Alarm device 131b List information TB1, TB2, TB11, TB21, TB101, TB102, TB301, TB302 Tables A to C Zones A1, A101, A301 Buildings

Claims (8)

建物の複数のゾーンの各々を撮影するカメラから、顔画像データを受信する通信部と、
複数のカメラ各々のカメラ識別情報と、前記複数のゾーンとを紐付けた第1のテーブルと、
登録顔画像データと、前記登録顔画像データの人物の立ち入りが許可されたゾーンとを紐付けた第2のテーブルと、
前記顔画像データに基づいて前記第2のテーブルを参照し、前記顔画像データの人物の立ち入りが許可された許可ゾーンを取得してから、前記カメラ識別情報に基づいて前記第1のテーブルを参照して前記顔画像データの人物が撮影された撮影ゾーンを取得し、前記許可ゾーンと前記撮影ゾーンとに基づいて前記顔画像データの人物の立ち入りの許可/不許可を判定する制御部と、を有する、
情報処理装置。
A communication unit that receives face image data from a camera that shoots each of multiple zones of the building,
A first table in which the camera identification information of each of the plurality of cameras and the plurality of zones are linked, and
A second table in which the registered face image data and the zone in which the person is allowed to enter the registered face image data are linked, and
The second table is referred to based on the face image data, the permission zone in which the person is permitted to enter the face image data is acquired, and then the first table is referred to based on the camera identification information. A control unit that acquires a shooting zone in which a person in the face image data is photographed and determines permission / non-permission of entry of the person in the face image data based on the permission zone and the shooting zone. Have, have
Information processing device.
前記制御部は、前記許可ゾーンに一致する前記撮影ゾーンが存在する場合、前記顔画像データの人物の前記撮影ゾーンへの立ち入りの許可を判定する、
請求項1に記載の情報処理装置。
When the shooting zone corresponding to the permission zone exists, the control unit determines the permission of the person of the face image data to enter the shooting zone.
The information processing device according to claim 1.
前記制御部は、前記顔画像データに一致する前記登録顔画像データが前記第2のテーブルに登録されていない場合、前記顔画像データの人物の前記複数のゾーンへの立ち入りの不許可を判定する、
請求項1に記載の情報処理装置。
When the registered face image data matching the face image data is not registered in the second table, the control unit determines that the person is not allowed to enter the plurality of zones of the face image data. ,
The information processing device according to claim 1.
建物の複数のゾーンの各々を撮影するカメラから、顔画像データを受信し、
前記顔画像データに基づいて、登録顔画像データと、前記登録顔画像データの人物の立ち入りが許可されたゾーンとを紐付けた第2のテーブルを参照し、前記顔画像データの人物の立ち入りが許可された許可ゾーンを取得し、
前記顔画像データの人物を撮影したカメラのカメラ識別情報に基づいて、前記複数のカメラ各々のカメラ識別情報と、前記複数のゾーンとを紐付けた第1のテーブルを参照して前記顔画像データの人物が撮影された撮影ゾーンを取得し、
前記許可ゾーンと前記撮影ゾーンとに基づいて前記顔画像データの人物の立ち入りの許可/不許可を判定する、
判定方法。
Receives facial image data from a camera that captures each of the multiple zones of the building
Based on the face image data, the registered face image data and the second table in which the zone in which the person is allowed to enter the registered face image data are linked are referred to, and the person in the face image data can enter. Get the allowed allowed zone and
Based on the camera identification information of the camera that captured the person in the face image data, the face image data is referred to with reference to a first table in which the camera identification information of each of the plurality of cameras and the plurality of zones are linked. Get the shooting zone where the person was shot,
The permission / non-permission of the person in the face image data is determined based on the permission zone and the shooting zone.
Judgment method.
コンピュータに、
建物の複数のゾーンの各々を撮影するカメラから、顔画像データを受信し、
前記顔画像データに基づいて、登録顔画像データと、前記登録顔画像データの人物の立ち入りが許可されたゾーンとを紐付けた第2のテーブルを参照し、前記顔画像データの人物の立ち入りが許可された許可ゾーンを取得し、
前記顔画像データの人物を撮影したカメラのカメラ識別情報に基づいて、前記複数のカメラ各々のカメラ識別情報と、前記複数のゾーンとを紐付けた第1のテーブルを参照して前記顔画像データの人物が撮影された撮影ゾーンを取得し、
前記許可ゾーンと前記撮影ゾーンとに基づいて前記顔画像データの人物の立ち入りの許可/不許可を判定する、処理を実行させる、
プログラム。
On the computer
Receives facial image data from a camera that captures each of the multiple zones of the building
Based on the face image data, the registered face image data and the second table in which the zone in which the person is allowed to enter the registered face image data are linked are referred to, and the person in the face image data can enter. Get the allowed allowed zone and
Based on the camera identification information of the camera that captured the person in the face image data, the face image data is referred to with reference to a first table in which the camera identification information of each of the plurality of cameras and the plurality of zones are linked. Get the shooting zone where the person was shot,
Based on the permission zone and the shooting zone, the permission / denial of entry of the person in the face image data is determined, and the process is executed.
program.
建物の複数のゾーンの各々を撮影するカメラから、顔画像データを受信する通信部と、
複数のカメラ各々のカメラ識別情報と、前記複数のゾーンとを紐付けた第1の情報と、登録顔画像データと、前記登録顔画像データの人物の立ち入りが許可されたゾーンとを紐付けた第2の情報を保存するメモリと、
前記顔画像データに基づいて前記第2の情報を参照し、前記顔画像データの人物の立ち入りが許可された許可ゾーンを取得してから、前記カメラ識別情報に基づいて前記第1の情報を参照して前記顔画像データの人物が撮影された撮影ゾーンを取得し、前記許可ゾーンと前記撮影ゾーンとに基づいて前記顔画像データの人物の立ち入りの許可/不許可を判定する制御部と、を有する、
情報処理装置。
A communication unit that receives face image data from a camera that shoots each of multiple zones of the building,
The camera identification information of each of the plurality of cameras, the first information in which the plurality of zones are linked, the registered face image data, and the zone in which the person is allowed to enter the registered face image data are linked. A memory to store the second information and
The second information is referred to based on the face image data, the permission zone in which the person is permitted to enter the face image data is acquired, and then the first information is referred to based on the camera identification information. A control unit that acquires a shooting zone in which a person in the face image data is photographed and determines permission / non-permission of entry of the person in the face image data based on the permission zone and the shooting zone. Have, have
Information processing device.
建物の複数のゾーンの各々を撮影するカメラから、顔画像データを受信し、
前記顔画像データに基づいて、登録顔画像データと、前記登録顔画像データの人物の立ち入りが許可されたゾーンとを紐付けた第2の情報を参照し、前記顔画像データの人物の立ち入りが許可された許可ゾーンを取得し、
前記顔画像データの人物を撮影したカメラのカメラ識別情報に基づいて、前記複数のカメラ各々のカメラ識別情報と、前記複数のゾーンとを紐付けた第1の情報を参照して前記顔画像データの人物が撮影された撮影ゾーンを取得し、
前記許可ゾーンと前記撮影ゾーンとに基づいて前記顔画像データの人物の立ち入りの許可/不許可を判定する、
判定方法。
Receives facial image data from a camera that captures each of the multiple zones of the building
Based on the face image data, the registered face image data and the second information in which the registered face image data is associated with the zone where the person is allowed to enter are referred to, and the person in the face image data can enter. Get the allowed allowed zone and
Based on the camera identification information of the camera that captured the person in the face image data, the face image data is referred to with reference to the first information in which the camera identification information of each of the plurality of cameras and the plurality of zones are associated with each other. Get the shooting zone where the person was shot,
The permission / non-permission of the person in the face image data is determined based on the permission zone and the shooting zone.
Judgment method.
コンピュータに、
建物の複数のゾーンの各々を撮影するカメラから、顔画像データを受信し、
前記顔画像データに基づいて、登録顔画像データと、前記登録顔画像データの人物の立ち入りが許可されたゾーンとを紐付けた第2の情報を参照し、前記顔画像データの人物の立ち入りが許可された許可ゾーンを取得し、
前記顔画像データの人物を撮影したカメラのカメラ識別情報に基づいて、前記複数のカメラ各々のカメラ識別情報と、前記複数のゾーンとを紐付けた第1の情報を参照して前記顔画像データの人物が撮影された撮影ゾーンを取得し、
前記許可ゾーンと前記撮影ゾーンとに基づいて前記顔画像データの人物の立ち入りの許可/不許可を判定する、処理を実行させる、
プログラム。
On the computer
Receives facial image data from a camera that captures each of the multiple zones of the building
Based on the face image data, the registered face image data and the second information in which the registered face image data is associated with the zone where the person is allowed to enter are referred to, and the person in the face image data can enter. Get the allowed allowed zone and
Based on the camera identification information of the camera that captured the person in the face image data, the face image data is referred to with reference to the first information in which the camera identification information of each of the plurality of cameras and the plurality of zones are associated with each other. Get the shooting zone where the person was shot,
Based on the permission zone and the shooting zone, the permission / denial of entry of the person in the face image data is determined, and the process is executed.
program.
JP2021102415A 2019-07-03 2021-06-21 Information processing device, determination method, and program Active JP7201748B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021102415A JP7201748B2 (en) 2019-07-03 2021-06-21 Information processing device, determination method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019124579A JP6905553B2 (en) 2019-07-03 2019-07-03 Information processing device, registration method, judgment method, and program
JP2021102415A JP7201748B2 (en) 2019-07-03 2021-06-21 Information processing device, determination method, and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019124579A Division JP6905553B2 (en) 2019-01-21 2019-07-03 Information processing device, registration method, judgment method, and program

Publications (2)

Publication Number Publication Date
JP2021168153A true JP2021168153A (en) 2021-10-21
JP7201748B2 JP7201748B2 (en) 2023-01-10

Family

ID=74227997

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019124579A Active JP6905553B2 (en) 2019-01-21 2019-07-03 Information processing device, registration method, judgment method, and program
JP2021102415A Active JP7201748B2 (en) 2019-07-03 2021-06-21 Information processing device, determination method, and program

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2019124579A Active JP6905553B2 (en) 2019-01-21 2019-07-03 Information processing device, registration method, judgment method, and program

Country Status (1)

Country Link
JP (2) JP6905553B2 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004280477A (en) * 2003-03-17 2004-10-07 Casio Comput Co Ltd Facility usage management system, and program
JP2008141386A (en) * 2006-11-30 2008-06-19 Secom Co Ltd Monitoring system
JP2010026956A (en) * 2008-07-24 2010-02-04 Mitsubishi Electric Building Techno Service Co Ltd Remote management system of building equipment
JP2012226485A (en) * 2011-04-18 2012-11-15 Mitsubishi Electric Corp Monitoring device
JP2016110308A (en) * 2014-12-04 2016-06-20 Lykaon株式会社 Wandering prevention system
JP2018128970A (en) * 2017-02-10 2018-08-16 株式会社テイパーズ Non-stop face authentication system
WO2018193813A1 (en) * 2017-04-21 2018-10-25 パナソニックIpマネジメント株式会社 Staying state display system and staying state display method

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7634662B2 (en) * 2002-11-21 2009-12-15 Monroe David A Method for incorporating facial recognition technology in a multimedia surveillance system
JP2003109129A (en) * 2001-09-27 2003-04-11 Toshiba Corp Device, system and method for managing passage
JP4032908B2 (en) * 2002-10-01 2008-01-16 カシオ計算機株式会社 Visitor management system and program
JP2009098780A (en) * 2007-10-15 2009-05-07 Konica Minolta Holdings Inc Entry/exit control system and entry/exit control method

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004280477A (en) * 2003-03-17 2004-10-07 Casio Comput Co Ltd Facility usage management system, and program
JP2008141386A (en) * 2006-11-30 2008-06-19 Secom Co Ltd Monitoring system
JP2010026956A (en) * 2008-07-24 2010-02-04 Mitsubishi Electric Building Techno Service Co Ltd Remote management system of building equipment
JP2012226485A (en) * 2011-04-18 2012-11-15 Mitsubishi Electric Corp Monitoring device
JP2016110308A (en) * 2014-12-04 2016-06-20 Lykaon株式会社 Wandering prevention system
JP2018128970A (en) * 2017-02-10 2018-08-16 株式会社テイパーズ Non-stop face authentication system
WO2018193813A1 (en) * 2017-04-21 2018-10-25 パナソニックIpマネジメント株式会社 Staying state display system and staying state display method

Also Published As

Publication number Publication date
JP7201748B2 (en) 2023-01-10
JP6905553B2 (en) 2021-07-21
JP2021012415A (en) 2021-02-04

Similar Documents

Publication Publication Date Title
JP5871296B1 (en) Smart security digital system, method and program
US8208028B2 (en) Object verification device and object verification method
JP6557897B1 (en) Information processing apparatus, determination method, and program
JP2018173914A (en) Image processing system, imaging apparatus, learning model creation method, and information processing device
JP2005521975A (en) Operating method and system using video
JP2007060528A (en) Facility user management system and user management method
JP2007141184A (en) Outsider monitoring system
KR101034643B1 (en) System for managing and indicating a person of going and coming
WO2015140953A1 (en) Digital loss-defense security system, method, and program
US20210209909A1 (en) Information processing device and determination method
JPWO2016139758A1 (en) Digital future now security system, method and program
JPWO2020115890A1 (en) Information processing equipment, information processing methods, and programs
JPWO2019017440A1 (en) Admission management system and admission management method
JP2018067755A (en) Detection data management device
JP7439897B2 (en) Stay management device, stay management method, program and stay management system
JP6905553B2 (en) Information processing device, registration method, judgment method, and program
WO2017135310A1 (en) Passing number count device, passing number count method, program, and storage medium
JP6959300B2 (en) Information processing device, access judgment method, and program
JP6997140B2 (en) Information processing equipment, judgment method, and program
US11227132B1 (en) Controlled-environment facility location analytics system
JP2015153054A (en) Security area management system and security area management method
WO2022059223A1 (en) Video analyzing system and video analyzing method
JP2019114213A (en) Intruder detection device, intruder detection program, and intruder detection method
JP2006163788A (en) Visitor management method and management system
JP2002117426A (en) Report system for customer information, in-coming and out-going management system, report method for customer information, and in-coming and out-going management method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210621

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220830

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221026

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221222

R150 Certificate of patent or registration of utility model

Ref document number: 7201748

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150