JP2020119066A - Information processing device, determination method, and program - Google Patents

Information processing device, determination method, and program Download PDF

Info

Publication number
JP2020119066A
JP2020119066A JP2019007595A JP2019007595A JP2020119066A JP 2020119066 A JP2020119066 A JP 2020119066A JP 2019007595 A JP2019007595 A JP 2019007595A JP 2019007595 A JP2019007595 A JP 2019007595A JP 2020119066 A JP2020119066 A JP 2020119066A
Authority
JP
Japan
Prior art keywords
zone
person
image data
server
face image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019007595A
Other languages
Japanese (ja)
Other versions
JP6557897B1 (en
Inventor
崇 神尾
Takashi Kamio
崇 神尾
浩介 篠崎
Kosuke Shinozaki
浩介 篠崎
耕治 河本
Koji Kawamoto
耕治 河本
外舘 弘理
Hiromichi Sotodate
弘理 外舘
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2019007595A priority Critical patent/JP6557897B1/en
Application granted granted Critical
Publication of JP6557897B1 publication Critical patent/JP6557897B1/en
Priority to US16/745,806 priority patent/US11062578B2/en
Publication of JP2020119066A publication Critical patent/JP2020119066A/en
Priority to US17/210,138 priority patent/US20210209909A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide an information processing device and a determination method for determining whether a person other than the persons determined to be permitted to enter each zone has entered the zone.SOLUTION: An information processing device has: a communication unit for receiving face image data from cameras for photographing respective zones in a building; and a control unit for collating the face image data with the registered face image data of the persons permitted to enter each zone and for determining whether the entry of the person corresponding to the face image data is permitted or not in the zone in which the face image data is photographed.SELECTED DRAWING: Figure 1

Description

本開示は、情報処理装置および認証方法に関する。 The present disclosure relates to an information processing device and an authentication method.

従来、ゲートを通過するそれぞれの利用者に対して、顔認証による認証結果を報知・伝達することが可能な入退場管理システムが提供されている(例えば、特許文献1を参照)。 2. Description of the Related Art Conventionally, an entrance/exit management system capable of notifying and transmitting an authentication result by face authentication to each user who passes through a gate has been provided (for example, see Patent Document 1).

特開2018−92293号公報JP, 2008-92293, A

ところで、会社等では、例えば、フロアまたは部屋等のゾーンごとにおいて、立ち入ることができる人を区別している場合がある。例えば、人Aは、部屋Xおよび部屋Yに入室でき、人Bは、部屋Xに入室できるが、部屋Yには入室できないように区別している場合がある。このように、ゾーンごとにおいて、立ち入ることができる人を区別する施設等では、ゾーンごとに決められた人以外の人が、ゾーンに立ち入っていないか管理することが重要となる。 By the way, in a company or the like, for example, people who can enter may be distinguished in each zone such as a floor or a room. For example, a person A may enter room X and room Y, and a person B may enter room X but cannot enter room Y. As described above, in a facility or the like that distinguishes a person who can enter each zone, it is important to manage whether or not a person other than the person who is determined for each zone does not enter the zone.

本開示の非限定的な実施例は、ゾーンごとに決められた人以外の人が、ゾーンに立ち入っていないかを判定する情報処理装置の提供に資する。 The non-limiting example of the present disclosure contributes to the provision of an information processing device that determines whether or not a person other than the person determined for each zone is in the zone.

本開示の一態様に係る情報処理装置は、建物の複数のゾーンの各々を撮影するカメラから、顔画像データを受信する通信部と、前記顔画像データと、ゾーンごとの立ち入りが許可された人物の登録顔画像データとを照合し、前記顔画像データが撮影されたゾーンにおける、前記顔画像データの人物の立ち入りの許可/不許可を判定する制御部と、を有する。 An information processing apparatus according to an aspect of the present disclosure is a communication unit that receives face image data from a camera that captures each of a plurality of zones of a building, the face image data, and a person who is permitted to enter each zone. Of the registered face image data, and a control unit that determines whether or not the person in the face image data is allowed to enter the zone in which the face image data is captured.

本開示の一態様に係る判定方法は、建物の複数のゾーンの各々を撮影するカメラから、顔画像データを受信し、前記顔画像データと、ゾーンごとの立ち入りが許可された人物の登録顔画像データとを照合し、前記顔画像データが撮影されたゾーンにおける、前記顔画像データの人物の立ち入りの許可/不許可を判定する。 A determination method according to an aspect of the present disclosure receives face image data from a camera that captures each of a plurality of zones of a building, and the face image data and a registered face image of a person who is permitted to enter each zone. The data is collated, and permission/non-permission of the person of the face image data in the zone where the face image data is photographed is determined.

なお、これらの包括的または具体的な態様は、システム、装置、方法、集積回路、コンピュータプログラム、または、記録媒体で実現されてもよく、システム、装置、方法、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。 Note that these comprehensive or specific aspects may be realized by a system, a device, a method, an integrated circuit, a computer program, or a recording medium. The system, the device, the method, the integrated circuit, the computer program, and the recording medium. May be realized in any combination.

本開示の一態様によれば、ゾーンごとに決められた人以外の人が、ゾーンに立ち入っていないかを判定できる。 According to one aspect of the present disclosure, it is possible to determine whether or not a person other than the person determined for each zone is not in the zone.

本開示の一態様における更なる利点および効果は、明細書および図面から明らかにされる。かかる利点および/または効果は、いくつかの実施形態並びに明細書および図面に記載された特徴によってそれぞれ提供されるが、1つまたはそれ以上の同一の特徴を得るために必ずしも全てが提供される必要はない。 Further advantages and effects of one aspect of the present disclosure will be apparent from the specification and the drawings. Such advantages and/or effects are provided by the features described in several embodiments and in the specification and drawings, respectively, but not necessarily all to obtain one or more of the same features. There is no.

第1の実施の形態に係る監視カメラシステムの一例を示した図The figure which showed an example of the surveillance camera system which concerns on 1st Embodiment. ゾーンに設置された監視カメラの映像例を示した図Figure showing a video example of a surveillance camera installed in the zone 監視カメラのブロック構成例を示した図Figure showing a block configuration example of the surveillance camera サーバのブロック構成例を示した図Diagram showing an example of the server block configuration 端末装置のブロック構成例を示した図Diagram showing an example of the block configuration of the terminal device サーバの記憶部に記憶されるテーブルの一例を示した図The figure which showed an example of the table memorize|stored in the memory|storage part of a server. サーバの記憶部に記憶されるテーブルの一例を示した図The figure which showed an example of the table memorize|stored in the memory|storage part of a server. 監視カメラシステムの動作例を示したシーケンス図Sequence diagram showing an operation example of the surveillance camera system 第2の実施の形態に係るサーバの記憶部に記憶されるテーブルの一例を示した図The figure which showed an example of the table memorize|stored in the memory|storage part of the server which concerns on 2nd Embodiment. 顔データおよび時間の登録における監視カメラシステムの動作例を示したシーケンス図Sequence diagram showing an operation example of the surveillance camera system in registration of face data and time 第3の実施の形態に係る監視カメラシステムの一例を示した図The figure which showed an example of the surveillance camera system which concerns on 3rd Embodiment. カードリーダのブロック構成例を示した図Diagram showing an example of the block configuration of a card reader サーバの記憶部に記憶されるテーブルの一例を示した図The figure which showed an example of the table memorize|stored in the memory|storage part of a server. 監視カメラシステムの動作例を示したシーケンス図Sequence diagram showing an operation example of the surveillance camera system

以下、図面を適宜参照して、本発明の実施の形態について、詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings as appropriate. However, more detailed description than necessary may be omitted. For example, detailed description of well-known matters and duplicate description of substantially the same configuration may be omitted. This is for avoiding unnecessary redundancy in the following description and for facilitating understanding by those skilled in the art.

なお、添付図面および以下の説明は、当業者が本開示を十分に理解するために、提供されるのであって、これらにより特許請求の範囲に記載の主題を限定することは意図されていない。 It should be noted that the accompanying drawings and the following description are provided for those skilled in the art to fully understand the present disclosure, and are not intended to limit the subject matter described in the claims by these.

(第1の実施の形態)
図1は、第1の実施の形態に係る監視カメラシステムの一例を示した図である。図1に示すように、監視カメラシステムは、カメラ1a〜1dと、サーバ(情報処理装置)2と、端末装置3と、を有している。図1には、監視カメラシステムの他に、建物A1が示してある。建物A1は、例えば、会社、マンション、または商業施設等である。
(First embodiment)
FIG. 1 is a diagram showing an example of a surveillance camera system according to the first embodiment. As shown in FIG. 1, the surveillance camera system includes cameras 1a to 1d, a server (information processing device) 2, and a terminal device 3. FIG. 1 shows a building A1 in addition to the surveillance camera system. The building A1 is, for example, a company, an apartment, a commercial facility, or the like.

ゾーンA〜Cは、建物A1の部屋、エントランス、廊下、階段、フロア、またはエレベータ等であってもよい。また、ゾーンA〜Cは、建物A1が建っている敷地であってもよい。すなわち、ゾーンA〜Cは、人の立ち入り(進入)が許可されるか否かが判定される領域と捉えてもよい。ゾーンは、エリアと呼ばれてもよい。以下では、ゾーンA〜Cは、建物A1の部屋として説明する。 Zones A-C may be rooms, entrances, corridors, stairs, floors, elevators, etc. of building A1. The zones A to C may be the site where the building A1 is built. That is, the zones A to C may be regarded as areas where it is determined whether or not entry (entry) of a person is permitted. Zones may be referred to as areas. Below, zone A-C is demonstrated as a room of building A1.

監視カメラ1a〜1dは、ゾーンA〜Cに設置される。例えば、監視カメラ1aは、建物A1のゾーンAに設置される。監視カメラ1b,1cは、建物A1のゾーンBに設置される。監視カメラ1dは、建物A1のゾーンCに設置される。 The surveillance cameras 1a to 1d are installed in the zones A to C. For example, the surveillance camera 1a is installed in the zone A of the building A1. The surveillance cameras 1b and 1c are installed in the zone B of the building A1. The surveillance camera 1d is installed in the zone C of the building A1.

監視カメラ1a〜1dは、ゾーンA〜C内にいる人を撮影するように設置される。例えば、監視カメラ1a〜1dは、ゾーンA〜C内の全体を撮影するように設置される。 The surveillance cameras 1a to 1d are installed so as to photograph the persons in the zones A to C. For example, the surveillance cameras 1a to 1d are installed so as to capture images of the entire zones A to C.

図2は、ゾーンAに設置された監視カメラ1aの映像例を示した図である。監視カメラ1aは、例えば、図2に示すように、室内を広範囲にわたって撮影する。 FIG. 2 is a diagram showing an image example of the surveillance camera 1a installed in the zone A. The monitoring camera 1a captures an image of a room over a wide range, for example, as shown in FIG.

図1の説明に戻る。サーバ2は、例えば、LAN(Local Area Network)またはインターネット等のネットワークによって、監視カメラ1a〜1dと接続されている。サーバ2は、建物A1内に設置されてもよいし、建物A1とは別の場所に設置されてもよい。 Returning to the description of FIG. The server 2 is connected to the surveillance cameras 1a to 1d by a network such as a LAN (Local Area Network) or the Internet, for example. The server 2 may be installed in the building A1 or may be installed in a place different from the building A1.

サーバ2は、ゾーンA〜Cごとにおいて、ゾーンA〜Cに立ち入ることが(入室)できる人の顔の画像データ(以下、顔データと呼ぶことがある)を記憶(登録)している。サーバ2は、監視カメラ1a〜1dが撮影した人の顔データと、登録されている顔データとの照合を行う。サーバ2は、照合した結果を、端末装置3に送信する。 The server 2 stores (registers) image data of a face of a person who can enter (enter) the zones A to C (hereinafter sometimes referred to as face data) in each of the zones A to C. The server 2 collates the face data of the person photographed by the surveillance cameras 1a to 1d with the registered face data. The server 2 transmits the collated result to the terminal device 3.

端末装置3は、LANまたはインターネット等のネットワークによって、サーバ2と接続されている。端末装置3は、建物A1内に設置されてもよいし、建物A1とは別の場所に設置されてもよい。端末装置3は、例えば、パーソナルコンピュータ、スマートホン、またはタブレット端末等であってもよい。 The terminal device 3 is connected to the server 2 via a network such as a LAN or the Internet. The terminal device 3 may be installed in the building A1 or may be installed in a place different from the building A1. The terminal device 3 may be, for example, a personal computer, a smart phone, a tablet terminal, or the like.

なお、監視カメラ1a〜1dは、ゾーンA〜Cに入室する人を撮影するように設置されてもよい。例えば、監視カメラ1a〜1dは、ゾーンA〜Cの入り口付近を撮影するように設置されてもよい。 Note that the surveillance cameras 1a to 1d may be installed so as to capture an image of a person who enters the zones A to C. For example, the surveillance cameras 1a to 1d may be installed so as to capture images near the entrances of the zones A to C.

また、監視カメラ1a〜1dには、ゾーンA〜Cに既に設置されている監視カメラが用いられてもよい。例えば、監視カメラ1a〜1dには、ゾーンA〜Cの映像を録画する録画システムの一部として、既にゾーンA〜Cに設置されている監視カメラを用いてもよい。この場合、監視カメラ1a〜1dの出力を、録画システムとサーバ2とに分岐させてもよい。 Moreover, the monitoring cameras already installed in the zones A to C may be used as the monitoring cameras 1a to 1d. For example, as the surveillance cameras 1a to 1d, the surveillance cameras already installed in the zones A to C may be used as a part of the recording system for recording the images of the zones A to C. In this case, the outputs of the surveillance cameras 1a to 1d may be branched to the recording system and the server 2.

図3は、監視カメラ1aのブロック構成例を示した図である。図3に示すように、監視カメラ1aは、撮像部11と、制御部12と、通信部13と、記憶部14と、を有している。 FIG. 3 is a diagram showing a block configuration example of the surveillance camera 1a. As shown in FIG. 3, the surveillance camera 1 a includes an imaging unit 11, a control unit 12, a communication unit 13, and a storage unit 14.

撮像部11は、例えば、レンズおよび撮像素子(図示せず)を有している。撮像部11のレンズは、撮像素子の受光面に被写体の像を結像する。レンズには、監視カメラ1aの設置場所または撮影用途等に応じて、様々な焦点距離または撮影範囲のレンズを用いることができる。 The image pickup section 11 has, for example, a lens and an image pickup element (not shown). The lens of the image pickup unit 11 forms an image of a subject on the light receiving surface of the image pickup element. As the lens, lenses having various focal lengths or shooting ranges can be used depending on the installation location of the surveillance camera 1a or the shooting application.

撮像部11の撮像素子は、受光面に受けた光を電気信号に変換する。撮像素子は、例えば、CCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)等のイメージセンサである。撮像部11は、撮像素子の受光面において受けた光に応じた電気信号(アナログ信号)をデジタル信号に変換して、制御部12に出力する。 The image pickup device of the image pickup unit 11 converts the light received by the light receiving surface into an electric signal. The image sensor is, for example, an image sensor such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor). The image pickup unit 11 converts an electric signal (analog signal) corresponding to the light received on the light receiving surface of the image pickup element into a digital signal and outputs the digital signal to the control unit 12.

制御部12は、監視カメラ1a全体を制御する。制御部12は、例えば、CPU(Central Processing Unit)またはDSP(Digital Signal Processer)によって構成されてもよい。制御部12は、撮像部11から出力される映像から、人の顔を判別する。制御部12は、判別した人の顔を切り出し、切り出した顔の顔データ(静止画像)を、通信部13を介してサーバ2に送信する。 The control unit 12 controls the entire surveillance camera 1a. The control unit 12 may be configured by, for example, a CPU (Central Processing Unit) or a DSP (Digital Signal Processor). The control unit 12 determines the human face from the video output from the imaging unit 11. The control unit 12 cuts out the face of the determined person and transmits the face data (still image) of the cut-out face to the server 2 via the communication unit 13.

通信部13は、サーバ2と通信する。通信部13は、例えば、イーサネット(登録商標)ケーブル等のネットワークケーブル(有線)を介して、サーバ2と通信してもよい。また、通信部13は、例えば、Wi−Fi(登録商標)またはブルートゥース(登録商標)等の近距離無線通信を介して、サーバ2と通信してもよい。 The communication unit 13 communicates with the server 2. The communication unit 13 may communicate with the server 2 via, for example, a network cable (wired) such as an Ethernet (registered trademark) cable. The communication unit 13 may communicate with the server 2 via short-range wireless communication such as Wi-Fi (registered trademark) or Bluetooth (registered trademark).

記憶部14は、制御部12が動作するためのプログラムが記憶される。また、記憶部14には、制御部12が計算処理を行うためのデータ、または、制御部12が各部を制御するためのデータ等が記憶される。記憶部14は、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、およびHDD(Hard Disk Drive)などの記憶装置によって構成されてもよい。 The storage unit 14 stores a program for operating the control unit 12. In addition, the storage unit 14 stores data for the control unit 12 to perform calculation processing, data for the control unit 12 to control each unit, and the like. The storage unit 14 may be configured by a storage device such as a RAM (Random Access Memory), a ROM (Read Only Memory), a flash memory, and an HDD (Hard Disk Drive).

なお、監視カメラ1b〜1cは、監視カメラ1aと同様のブロック構成を有している。従って、監視カメラ1b〜1cのブロック構成の説明を省略する。 The monitoring cameras 1b to 1c have the same block configuration as the monitoring camera 1a. Therefore, the description of the block configuration of the surveillance cameras 1b to 1c is omitted.

図4は、サーバ2のブロック構成例を示した図である。図4に示すように、サーバ2は、制御部21と、通信部22と、記憶部23と、を有している。 FIG. 4 is a diagram showing a block configuration example of the server 2. As shown in FIG. 4, the server 2 has a control unit 21, a communication unit 22, and a storage unit 23.

制御部21は、サーバ2全体を制御する。制御部21は、例えば、CPUによって構成されてもよい。 The control unit 21 controls the entire server 2. The control unit 21 may be configured by a CPU, for example.

通信部22は、監視カメラ1a〜1dおよび端末装置3と通信する。通信部22は、例えば、イーサネットケーブル等のネットワークケーブルを介して、監視カメラ1a〜1dおよび端末装置3と通信してもよい。また、通信部22は、例えば、Wi−Fiまたはブルートゥース等の近距離無線通信を介して、監視カメラ1a〜1dおよび端末装置3と通信してもよい。 The communication unit 22 communicates with the surveillance cameras 1a to 1d and the terminal device 3. The communication unit 22 may communicate with the surveillance cameras 1a to 1d and the terminal device 3 via a network cable such as an Ethernet cable, for example. In addition, the communication unit 22 may communicate with the monitoring cameras 1a to 1d and the terminal device 3 via short-range wireless communication such as Wi-Fi or Bluetooth.

記憶部23は、制御部21が動作するためのプログラムが記憶される。また、記憶部23には、制御部21が計算処理を行うためのデータ、または、制御部21が各部を制御するためのデータ等が記憶される。記憶部23は、RAM、ROM、フラッシュメモリ、およびHDDなどの記憶装置によって構成されてもよい。 The storage unit 23 stores a program for operating the control unit 21. Further, the storage unit 23 stores data for the control unit 21 to perform calculation processing, data for the control unit 21 to control each unit, and the like. The storage unit 23 may be configured by a storage device such as a RAM, a ROM, a flash memory, and an HDD.

図5は、端末装置3のブロック構成例を示した図である。図5に示すように、端末装置3は、制御部31と、入力部32と、表示部33と、通信部34と、記憶部35と、を有している。 FIG. 5 is a diagram showing a block configuration example of the terminal device 3. As shown in FIG. 5, the terminal device 3 includes a control unit 31, an input unit 32, a display unit 33, a communication unit 34, and a storage unit 35.

制御部31は、端末装置3全体を制御する。制御部31は、例えば、CPUによって構成されてもよい。 The control unit 31 controls the entire terminal device 3. The control unit 31 may be configured by a CPU, for example.

入力部32は、例えば、キーボード、表示装置の画面上に重畳されたタッチパネル、またはマウス等の入力装置(図示せず)に接続されている。入力部32は、入力装置から出力された、ユーザの操作に応じた信号を受信し、制御部31に出力する。 The input unit 32 is connected to an input device (not shown) such as a keyboard, a touch panel superimposed on the screen of a display device, or a mouse, for example. The input unit 32 receives a signal output from the input device according to a user operation, and outputs the signal to the control unit 31.

表示部33は、端末装置3が備える表示装置(図示せず)に接続されている。表示部33は、制御部31から出力される画像データを表示装置に出力する。 The display unit 33 is connected to a display device (not shown) included in the terminal device 3. The display unit 33 outputs the image data output from the control unit 31 to the display device.

以下では、説明を簡単にするため、ゾーンAとゾーンBとにおける入室者の検知について説明する。図1で説明したように、ゾーンAには、監視カメラ1aが設置され、ゾーンBには、監視カメラ1b,1cが設置されている。 In the following, in order to simplify the explanation, the detection of the occupants in the zones A and B will be described. As described in FIG. 1, the monitoring camera 1a is installed in the zone A, and the monitoring cameras 1b and 1c are installed in the zone B.

図6は、サーバ2の記憶部23に記憶されるテーブルの一例を示した図である。図6に示すテーブルTB1は、例えば、監視カメラ1a〜1cが建物A1に設置されるときに、サーバ2の記憶部23に記憶される。テーブルTB1は、端末装置3によって作成され、サーバ2の記憶部23に記憶されてもよい。また、テーブルTB1の情報は、例えば、端末装置3によって追加、変更、または削除されてもよい。 FIG. 6 is a diagram showing an example of a table stored in the storage unit 23 of the server 2. The table TB1 illustrated in FIG. 6 is stored in the storage unit 23 of the server 2 when the monitoring cameras 1a to 1c are installed in the building A1, for example. The table TB1 may be created by the terminal device 3 and stored in the storage unit 23 of the server 2. Moreover, the information of the table TB1 may be added, changed, or deleted by the terminal device 3, for example.

テーブルTB1は、ゾーン識別情報41aと、顔データ41bと、を有している。ゾーン識別情報41aは、ゾーンA,Bを識別する識別情報である。例えば、テーブルTB1の「A」は、ゾーンAの識別情報を示す。テーブルTB1の「B」は、ゾーンBの識別情報を示す。顔データ41bは、人の顔データである。 The table TB1 has zone identification information 41a and face data 41b. The zone identification information 41a is identification information for identifying the zones A and B. For example, “A” in the table TB1 indicates the identification information of the zone A. “B” of the table TB1 indicates the identification information of the zone B. The face data 41b is human face data.

テーブルTB1は、ゾーンごとの入室が許可された人を示した情報と言ってもよい。例えば、テーブルTB1の丸が付されている行の顔データ41bの人は、丸が付されている列のゾーン識別情報41aが示すゾーンに入室できることを示している。また、テーブルTB1のバーが付されている行の顔データ41bの人は、バーが付されている列のゾーン識別情報41aが示すゾーンに入室できないことを示している。 The table TB1 may be said to be information indicating the persons who are permitted to enter the room for each zone. For example, the person in the face data 41b in the circled row of the table TB1 indicates that the person can enter the zone indicated by the zone identification information 41a in the circled column. Further, the person in the face data 41b in the row with the bar in the table TB1 indicates that he/she cannot enter the zone indicated by the zone identification information 41a in the column with the bar.

より具体的には、図6の顔データ41baの顔の人は、ゾーンA,Bに入室できる。図6の顔データ41bbの顔の人は、ゾーンAに入室できるが、ゾーンBには入室できない。図6の顔データ41bcの顔の人は、ゾーンAに入室できないが、ゾーンBに入室できる。 More specifically, the person with the face of the face data 41ba in FIG. 6 can enter the zones A and B. A person having a face of face data 41bb in FIG. 6 can enter the zone A but cannot enter the zone B. A person with a face of face data 41bc in FIG. 6 cannot enter the zone A, but can enter the zone B.

図7は、サーバ2の記憶部23に記憶されるテーブルの一例を示した図である。図7に示すテーブルTB2は、例えば、監視カメラ1a〜1cが建物A1に設置されるときに、サーバ2の記憶部23に記憶される。テーブルTB2は、端末装置3によって作成され、サーバ2の記憶部23に記憶されてもよい。また、テーブルTB2の情報は、例えば、端末装置3によって追加、変更、または削除されてもよい。 FIG. 7 is a diagram showing an example of a table stored in the storage unit 23 of the server 2. The table TB2 illustrated in FIG. 7 is stored in the storage unit 23 of the server 2 when the monitoring cameras 1a to 1c are installed in the building A1, for example. The table TB2 may be created by the terminal device 3 and stored in the storage unit 23 of the server 2. Further, the information of the table TB2 may be added, changed, or deleted by the terminal device 3, for example.

テーブルTB2は、ゾーン識別情報42aと、カメラ識別情報42bと、を有している。ゾーン識別情報42aは、ゾーンを識別する識別情報である。カメラ識別情報42bは、監視カメラ1a〜1cを識別する識別情報である。例えば、カメラ識別情報42bの「1a」は、監視カメラ1aの識別情報を示す。カメラ識別情報42bの「1b」は、監視カメラ1bの識別情報を示す。カメラ識別情報42bの「1c」は、監視カメラ1cの識別情報を示す。 The table TB2 has zone identification information 42a and camera identification information 42b. The zone identification information 42a is identification information that identifies a zone. The camera identification information 42b is identification information for identifying the surveillance cameras 1a to 1c. For example, “1a” of the camera identification information 42b indicates identification information of the surveillance camera 1a. “1b” of the camera identification information 42b indicates identification information of the surveillance camera 1b. “1c” of the camera identification information 42b indicates identification information of the surveillance camera 1c.

テーブルTB2は、監視カメラ1a〜1cのゾーンにおける設置場所を示した情報と言ってもよい。例えば、テーブルTB2の丸が付されている行のカメラ識別情報42bの監視カメラは、丸が付されている列のゾーン識別情報42aが示すゾーンに設置されていることを示している。また、テーブルTB2のバーが付されている行のカメラ識別情報42bの監視カメラは、バーが付されている列のゾーン識別情報42aが示すゾーンに設置されていないことを示している。 The table TB2 may be said to be information indicating the installation locations in the zones of the monitoring cameras 1a to 1c. For example, it indicates that the surveillance camera of the camera identification information 42b in the circled row of the table TB2 is installed in the zone indicated by the zone identification information 42a in the circled column. Further, it is indicated that the surveillance camera of the camera identification information 42b in the row with the bar in the table TB2 is not installed in the zone indicated by the zone identification information 42a in the column with the bar.

より具体的には、図7のカメラ識別情報42baの監視カメラ1aは、ゾーンAに設置されている。図7のカメラ識別情報42bbの監視カメラ1bは、ゾーンBに設置されている。図7のカメラ識別情報42bcの監視カメラ1cは、ゾーンBに設置されている。 More specifically, the surveillance camera 1a of the camera identification information 42ba of FIG. 7 is installed in the zone A. The surveillance camera 1b of the camera identification information 42bb of FIG. 7 is installed in the zone B. The surveillance camera 1c of the camera identification information 42bc of FIG. 7 is installed in the zone B.

図6および図7では、テーブルTB1,TB2は、サーバ2の記憶部23に記憶されるとしたが、これに限られない。テーブルTB1およびテーブルTB2の両方または一方は、サーバ2とは別体のデータベースに記憶されてもよい。以下では、テーブルTB1は、登録DB(DB:データベース)に記憶され、テーブルTB2は、サーバ2の記憶部23に記憶されるとする。登録DBは、例えば、サーバ2の一部と捉えてもよい。 Although the tables TB1 and TB2 are stored in the storage unit 23 of the server 2 in FIGS. 6 and 7, the present invention is not limited to this. The table TB1 and/or the table TB2 may be stored in a database separate from the server 2. Hereinafter, it is assumed that the table TB1 is stored in the registration DB (DB: database) and the table TB2 is stored in the storage unit 23 of the server 2. The registration DB may be regarded as a part of the server 2, for example.

図8は、監視カメラシステムの動作例を示したシーケンス図である。端末装置3の制御部31は、オペレータの操作に応じて、サーバ2に対し、ゾーンA,Bと、監視カメラ1a〜1cとのグルーピング設定を行う(ステップS1)。すなわち、端末装置3の制御部31は、サーバ2に対し、ゾーンA,Bと、監視カメラ1a〜1cとの対応付けの設定を行う。これにより、サーバ2の記憶部23には、例えば、図7に示したテーブルTB2が記憶される。 FIG. 8 is a sequence diagram showing an operation example of the surveillance camera system. The control unit 31 of the terminal device 3 sets the grouping of the zones A and B and the monitoring cameras 1a to 1c in the server 2 according to the operation of the operator (step S1). That is, the control unit 31 of the terminal device 3 sets the server 2 to associate the zones A and B with the monitoring cameras 1a to 1c. As a result, for example, the table TB2 shown in FIG. 7 is stored in the storage unit 23 of the server 2.

端末装置3の制御部31は、オペレータの操作に応じて、登録DBに対し、ゾーンA,Bへの顔登録を行う(ステップS2a,S2b)。すなわち、端末装置3の制御部31は、登録DBに対し、ゾーンA,Bと、ゾーンA,Bに入室できる人の顔データとの対応付けの設定を行う。これにより、登録DBには、例えば、図6に示したテーブルTB1が記憶される。なお、登録DBの情報登録は、サーバ2を経由して行われる。また、端末装置3の制御部31は、登録DBに登録する顔データを、他のシステムの顔データベースから入手してもよい。 The control unit 31 of the terminal device 3 performs face registration in the zones A and B in the registration DB according to the operation of the operator (steps S2a and S2b). That is, the control unit 31 of the terminal device 3 sets the correspondence between the zones A and B and the face data of the persons who can enter the zones A and B in the registration DB. As a result, for example, the table TB1 shown in FIG. 6 is stored in the registration DB. Information registration in the registration DB is performed via the server 2. The control unit 31 of the terminal device 3 may obtain the face data to be registered in the registration DB from the face database of another system.

ゾーンAの監視カメラ1aの撮像部11は、人を撮影したとする。監視カメラ1aの制御部12は、撮像部11が撮影した映像の中から人の顔を切り出し、切り出した顔の顔データと、監視カメラ1aのカメラ識別情報とをサーバ2に送信する(ステップS3)。 It is assumed that the imaging unit 11 of the monitoring camera 1a in the zone A has photographed a person. The control unit 12 of the monitoring camera 1a cuts out a human face from the image captured by the imaging unit 11, and transmits the face data of the cut-out face and the camera identification information of the monitoring camera 1a to the server 2 (step S3). ).

サーバ2の制御部21は、ステップS3にて送信された顔データと、監視カメラ1aのカメラ識別情報とを受信する(ステップS4)。 The control unit 21 of the server 2 receives the face data transmitted in step S3 and the camera identification information of the surveillance camera 1a (step S4).

サーバ2の制御部21は、記憶部23のテーブルTB2を参照し、ステップS4にて受信したカメラ識別情報に対応するゾーン識別情報を取得する(ステップS5)。 The control unit 21 of the server 2 refers to the table TB2 of the storage unit 23 and acquires the zone identification information corresponding to the camera identification information received in step S4 (step S5).

図8の例では、サーバ2の制御部21は、ステップS4にて、監視カメラ1aのカメラ識別情報「1a」を受信している。従って、サーバ2の制御部21は、図7のテーブルTB2から、ゾーンAのゾーン識別情報「A」を取得する。これにより、サーバ2の制御部21は、ステップS4にて受信した顔データ51は、ゾーンAに設置された監視カメラ1aにおいて撮影されたものと特定(判定)できる。言い換えれば、サーバ2の制御部21は、ステップS4にて受信した顔データ51の顔の人は、ゾーンAに居ると特定できる。 In the example of FIG. 8, the control unit 21 of the server 2 receives the camera identification information “1a” of the surveillance camera 1a in step S4. Therefore, the control unit 21 of the server 2 acquires the zone identification information “A” of the zone A from the table TB2 of FIG. Thereby, the control unit 21 of the server 2 can specify (determine) that the face data 51 received in step S4 is captured by the surveillance camera 1a installed in the zone A. In other words, the control unit 21 of the server 2 can specify that the person with the face of the face data 51 received in step S4 is in the zone A.

サーバ2の制御部21は、ステップS5にて、ゾーンを特定すると、登録DBのテーブルTB1を参照して、特定したゾーンに対応する顔データを取得する。そして、サーバ2の制御部21は、テーブルTB2から取得した顔データと、ステップS4にて受信した顔データとを照合する(ステップS6)。 When the zone is specified in step S5, the control unit 21 of the server 2 refers to the table TB1 of the registration DB and acquires the face data corresponding to the specified zone. Then, the control unit 21 of the server 2 collates the face data acquired from the table TB2 with the face data received in step S4 (step S6).

図8の例では、サーバ2の制御部21は、ステップS5にて、顔データ51の顔の人は、ゾーンAに居ると特定している。従って、サーバ2の制御部21は、図6に示したテーブルTB1のゾーンAに対応する顔データ41ba,41bbと、ステップS4にて受信した顔データ51とを照合する。顔データ51は、図6に示したテーブルTB1のゾーンAに対応する顔データ41baに一致するので、サーバ2の制御部21は、顔照合が一致したと判定する。すなわち、サーバ2の制御部21は、顔データ51の人は、ゾーンAへの立ち入りが許可された人と判定する。 In the example of FIG. 8, the control unit 21 of the server 2 specifies that the person with the face of the face data 51 is in the zone A in step S5. Therefore, the control unit 21 of the server 2 collates the face data 41ba and 41bb corresponding to the zone A of the table TB1 shown in FIG. 6 with the face data 51 received in step S4. Since the face data 51 matches the face data 41ba corresponding to the zone A of the table TB1 shown in FIG. 6, the control unit 21 of the server 2 determines that the face matching has matched. That is, the control unit 21 of the server 2 determines that the person having the face data 51 is a person who is permitted to enter the zone A.

サーバ2の制御部21は、ステップS6の照合結果(顔照合OK)を端末装置3に送信する(ステップS7)。なお、サーバ2の制御部21は、顔照合OKを判定した場合、照合結果を端末装置3に送信しなくてもよい。言い換えれば、サーバ2の制御部21は、顔照合NGを判定した場合のみ、照合結果を端末装置3に送信してもよい。また、端末装置3の制御部31は、図8のステップS7において、顔照合OKの照合結果を受けると、その旨を表示装置に表示してもよい。 The control unit 21 of the server 2 transmits the matching result (face matching OK) of step S6 to the terminal device 3 (step S7). In addition, the control part 21 of the server 2 does not need to transmit a collation result to the terminal device 3, when face collation OK is determined. In other words, the control unit 21 of the server 2 may transmit the matching result to the terminal device 3 only when the face matching NG is determined. Further, when the control unit 31 of the terminal device 3 receives the collation result of the face collation OK in step S7 of FIG. 8, it may display that fact on the display device.

ゾーンAの監視カメラ1aの撮像部11は、人を撮影したとする。監視カメラ1aの制御部12は、撮像部11が撮影した映像の中から人の顔を切り出し、切り出した顔の顔データと、監視カメラ1aのカメラ識別情報とをサーバ2に送信する(ステップS8)。 It is assumed that the imaging unit 11 of the monitoring camera 1a in the zone A has photographed a person. The control unit 12 of the surveillance camera 1a cuts out a person's face from the video imaged by the imaging unit 11, and transmits the face data of the cut-out face and the camera identification information of the surveillance camera 1a to the server 2 (step S8). ).

サーバ2の制御部21は、ステップS8にて送信された顔データと、監視カメラ1aのカメラ識別情報とを受信する(ステップS9)。 The control unit 21 of the server 2 receives the face data transmitted in step S8 and the camera identification information of the surveillance camera 1a (step S9).

サーバ2の制御部21は、記憶部23のテーブルTB2を参照し、ステップS9にて受信したカメラ識別情報に対応するゾーン識別情報を取得する(ステップS10)。 The control unit 21 of the server 2 refers to the table TB2 of the storage unit 23 and acquires the zone identification information corresponding to the camera identification information received in step S9 (step S10).

図8の例では、サーバ2の制御部21は、ステップS9にて、監視カメラ1aのカメラ識別情報「1a」を受信している。従って、サーバ2の制御部21は、図7のテーブルTB2から、ゾーンAのゾーン識別情報「A」を取得する。これにより、サーバ2の制御部21は、ステップS9にて受信した顔データ52は、ゾーンAに設置された監視カメラ1aにおいて撮影されたものと特定できる。言い換えれば、サーバ2の制御部21は、ステップS9にて受信した顔データ52の顔の人は、ゾーンAに居ると特定できる。 In the example of FIG. 8, the control unit 21 of the server 2 receives the camera identification information “1a” of the surveillance camera 1a in step S9. Therefore, the control unit 21 of the server 2 acquires the zone identification information “A” of the zone A from the table TB2 of FIG. As a result, the control unit 21 of the server 2 can specify that the face data 52 received in step S9 is taken by the surveillance camera 1a installed in the zone A. In other words, the control unit 21 of the server 2 can specify that the person with the face of the face data 52 received in step S9 is in the zone A.

サーバ2の制御部21は、ステップS10にて、ゾーンを特定すると、登録DBのテーブルTB1を参照して、特定したゾーンに対応する顔データを取得する。そして、サーバ2の制御部21は、テーブルTB2から取得した顔データと、ステップS9にて受信した顔データとを照合する(ステップS11)。 When the zone is specified in step S10, the control unit 21 of the server 2 refers to the table TB1 of the registration DB and acquires the face data corresponding to the specified zone. Then, the control unit 21 of the server 2 collates the face data acquired from the table TB2 with the face data received in step S9 (step S11).

図8の例では、サーバ2の制御部21は、ステップS10にて、顔データ52の顔の人は、ゾーンAに居ると特定している。従って、サーバ2の制御部21は、図6に示したゾーンAに対応する顔データ41ba,41bbと、ステップS9にて受信した顔データ52とを照合する。顔データ52は、図6に示したゾーンAに対応する顔データ41ba,41bbに一致しないので、サーバ2の制御部21は、顔照合が一致しないと判定する。すなわち、サーバ2の制御部21は、顔データ52の人は、ゾーンAへの立ち入りが許可されていない人と判定する。 In the example of FIG. 8, the control unit 21 of the server 2 specifies that the person with the face of the face data 52 is in the zone A in step S10. Therefore, the control unit 21 of the server 2 collates the face data 41ba and 41bb corresponding to the zone A shown in FIG. 6 with the face data 52 received in step S9. Since the face data 52 does not match the face data 41ba and 41bb corresponding to the zone A shown in FIG. 6, the control unit 21 of the server 2 determines that the face matching does not match. That is, the control unit 21 of the server 2 determines that the person of the face data 52 is a person who is not permitted to enter the zone A.

サーバ2の制御部21は、ステップS11の照合結果(顔照合NG)を端末装置3に送信する(ステップS12)。端末装置3の制御部31は、顔照合NGの照合結果を受けて、例えば、表示装置にアラートを表示する。なお、サーバ2の制御部21は、例えば、ゾーンAに設置されたスピーカ等の音声出力装置に、ステップS11の照合結果を送信してもよい。ゾーンAに設置された音声出力装置は、ステップS11の照合結果を受信すると、警告音等を出力してもよい。 The control unit 21 of the server 2 transmits the matching result (face matching NG) of step S11 to the terminal device 3 (step S12). The control unit 31 of the terminal device 3 receives the matching result of the face matching NG and displays an alert on the display device, for example. Note that the control unit 21 of the server 2 may transmit the matching result of step S11 to a voice output device such as a speaker installed in the zone A, for example. The voice output device installed in the zone A may output a warning sound or the like when receiving the verification result in step S11.

以上説明したように、サーバ2の通信部22は、建物A1の複数のゾーンA〜Cを撮影する複数のカメラ1a〜1dから、顔画像データを受信する。制御部21は、通信部22が受信した顔画像データと、ゾーンへの立ち入りが許可された人物の登録顔画像データとを照合し、顔画像データの人物が撮影されたゾーンにおける、顔画像データの人物の立ち入りの許可および不許可を判定する。これにより、サーバ2は、ゾーンA〜Cごとに決められた人以外の人が、ゾーンA〜Cに立ち入っていないかを判定できる。 As described above, the communication unit 22 of the server 2 receives face image data from the plurality of cameras 1a to 1d that capture the plurality of zones A to C of the building A1. The control unit 21 collates the face image data received by the communication unit 22 with the registered face image data of the person who is allowed to enter the zone, and the face image data in the zone where the person of the face image data is photographed. Determine the permission and non-permission of the person in. Thereby, the server 2 can determine whether or not a person other than the person determined for each of the zones A to C has entered the zones A to C.

また、サーバ2は、複数の監視カメラ1a〜1dの映像を集積し、建物A1のゾーンごとの立ち入りを判定する。これにより、監視カメラシステムを利用するユーザは、建物A1のゾーンごとにおける人の立ち入りの設定をサーバ2に対して行えばよく、ゾーン設定が容易となる。 In addition, the server 2 collects the images of the plurality of surveillance cameras 1a to 1d and determines the entry for each zone of the building A1. As a result, a user who uses the surveillance camera system only needs to set the entry of a person in each zone of the building A1 to the server 2, which facilitates zone setting.

(変形例)
上記では、監視カメラ1a〜1dが人の顔を切り出し、顔データをサーバ2に送信したがこれに限られない。監視カメラ1a〜1dは、ゾーンの映像データをサーバ2に送信し、サーバ2が人の顔を検知して、切り出してもよい。この場合、監視カメラ1a〜1dからサーバ2に送信される映像データには、顔データが含まれていると捉えてもよい。
(Modification)
In the above, the surveillance cameras 1a to 1d cut out a human face and transmit the face data to the server 2, but the present invention is not limited to this. The surveillance cameras 1a to 1d may transmit the image data of the zone to the server 2, and the server 2 may detect the face of the person and cut it out. In this case, the video data transmitted from the surveillance cameras 1a to 1d to the server 2 may be regarded as including face data.

(第2の実施の形態)
第2の実施の形態では、人がゾーンに立ち入ってもよい時間も判定する。以下では、第1の実施の形態と異なる部分について説明する。
(Second embodiment)
In the second embodiment, the time when a person can enter the zone is also determined. In the following, parts different from the first embodiment will be described.

図9は、第2の実施の形態に係るサーバ2の記憶部23に記憶されるテーブルの一例を示した図である。図9に示すテーブルTB11は、例えば、監視カメラ1a〜1cが建物A1に設置されるときに、サーバ2の記憶部23に記憶される。テーブルTB11は、端末装置3によって作成され、サーバ2の記憶部23に記憶されてもよい。テーブルTB11の情報は、例えば、端末装置3によって追加、変更、または削除されてもよい。 FIG. 9 is a diagram showing an example of a table stored in the storage unit 23 of the server 2 according to the second embodiment. The table TB11 illustrated in FIG. 9 is stored in the storage unit 23 of the server 2 when the monitoring cameras 1a to 1c are installed in the building A1, for example. The table TB11 may be created by the terminal device 3 and stored in the storage unit 23 of the server 2. The information of the table TB11 may be added, changed, or deleted by the terminal device 3, for example.

テーブルTB11は、図6で説明したテーブルTB1と同様に、ゾーン識別情報41aと、顔データ41bと、を有している。テーブルTB11は、ゾーンごとの入室が許可された人を示すとともに、その人のゾーンに滞在してもよい時間を示した情報と言ってもよい。例えば、テーブルTB11に示す時間は、その時間の行の顔データ41bの人が、その時間の列のゾーン識別情報41aが示すゾーンに入室できる時間を示している。 The table TB11 has the zone identification information 41a and the face data 41b, like the table TB1 described in FIG. The table TB11 may be said to be information indicating the person who is allowed to enter the room for each zone and the time when the person may stay in the zone. For example, the time shown in the table TB11 shows the time when the person of the face data 41b in the row of the time can enter the zone indicated by the zone identification information 41a in the column of the time.

より具体的には、図9の顔データ41baの顔の人は、9:00から19:00の間であれば、ゾーンAに入室できる。図9の顔データ41baの顔の人は、13:00から17:00の間であれば、ゾーンBに入室できる。図9の顔データ41bbの顔の人は、9:00から19:00の間であれば、ゾーンAに入室できる。図9の顔データ41bbの顔の人は、一日中ゾーンBに入室できない。図9の顔データ41bcの顔の人は、一日中ゾーンAに入室できない。図9の顔データ41bcの顔の人は、15:00から17:00の間であれば、ゾーンBに入室できる。 More specifically, the person with the face of the face data 41ba in FIG. 9 can enter the zone A from 9:00 to 19:00. A person whose face is shown in the face data 41ba in FIG. 9 can enter the zone B between 13:00 and 17:00. A person with a face of face data 41bb in FIG. 9 can enter the zone A between 9:00 and 19:00. A person with the face data 41bb in FIG. 9 cannot enter the zone B all day long. A person with the face data 41bc shown in FIG. 9 cannot enter the zone A all day long. The person with the face of the face data 41bc in FIG. 9 can enter the zone B between 15:00 and 17:00.

上記では、テーブルTB11は、サーバ2の記憶部23に記憶されるとしたがこれに限られない。テーブルTB11は、登録DBに記憶されてもよい。 In the above description, the table TB11 is stored in the storage unit 23 of the server 2, but it is not limited to this. The table TB11 may be stored in the registration DB.

第2の実施の形態のサーバ2の動作は、第1の実施の形態に対し、図8で説明したステップS6の顔照合の処理が異なる。サーバ2の制御部21は、ステップS6の顔照合の処理において、ステップS4にて受信した顔データ51の人の、ゾーンに居てもよい時間を判定する。 The operation of the server 2 of the second embodiment is different from that of the first embodiment in the face matching process of step S6 described in FIG. In the face matching process of step S6, the control unit 21 of the server 2 determines the time for which the person of the face data 51 received in step S4 may stay in the zone.

例えば、サーバ2の制御部21は、ステップS5にて、顔データ51の顔の人は、ゾーンAに居ると特定している。従って、サーバ2の制御部21は、図9に示すゾーンAに対応する顔データ41ba,41bbと、ステップS4にて受信した顔データ51とを照合する。顔データ51は、図9に示したゾーンAに対応する顔データ41baに一致するので、サーバ2の制御部21は、顔照合が一致した顔データ41baのゾーンAに居てもよい時間(9:00から19:00)を判定する。サーバ2の制御部21は、現在時刻が9:00から19:00の間であれば、顔照合OKと判定する。一方、サーバ2の制御部21は、現在時刻が9:00から19:00の間でなければ、顔照合NGと判定する。 For example, the control unit 21 of the server 2 specifies that the person having the face of the face data 51 is in the zone A in step S5. Therefore, the control unit 21 of the server 2 collates the face data 41ba and 41bb corresponding to the zone A shown in FIG. 9 with the face data 51 received in step S4. Since the face data 51 matches the face data 41ba corresponding to the zone A shown in FIG. 9, the control unit 21 of the server 2 may wait for the time (9 0:00 to 19:00) is determined. If the current time is between 9:00 and 19:00, the control unit 21 of the server 2 determines that face matching is OK. On the other hand, if the current time is not between 9:00 and 19:00, the control unit 21 of the server 2 determines that the face matching is NG.

以上説明したように、サーバ2の制御部21は、顔画像データの人物が撮影されたゾーンにおいて、顔画像データの人物が立ち入り許可された時間であるか否かを、顔画像データと現在時刻とを用いて判定する。これにより、サーバ2は、ゾーンA〜Cごとに決められた人以外の人が、ゾーンA〜Cに立ち入っていないかを判定できる。 As described above, the control unit 21 of the server 2 determines whether it is the time when the person of the face image data is permitted to enter the zone in which the person of the face image data is photographed, and the face image data and the current time. And is determined using. Thereby, the server 2 can determine whether or not a person other than the person determined for each of the zones A to C has entered the zones A to C.

(変形例)
ゾーンに居てもよい人の顔データおよび時間の登録は、端末装置3とは別の装置によって、サーバ2または登録DBに記憶されてもよい。
(Modification)
The registration of face data and time of a person who may be in the zone may be stored in the server 2 or the registration DB by a device other than the terminal device 3.

図10は、顔データおよび時間の登録における監視カメラシステムの動作例を示したシーケンス図である。図10に示す端末装置61は、例えば、映画館、レストラン、マンション、事務所、またはコンサート会場等の、ゾーンが設定された施設を予約する人によって使用される端末である。施設を予約する人が、端末装置61を用いて、顔データおよび施設のゾーンに立ち入る時間を登録する。図10に示す端末装置3は、例えば、映画館、レストラン、マンション、事務所、またはコンサート会場等の施設の管理者によって管理される。 FIG. 10 is a sequence diagram showing an operation example of the surveillance camera system in registration of face data and time. The terminal device 61 shown in FIG. 10 is a terminal used by a person who reserves a facility in which a zone is set, such as a movie theater, a restaurant, an apartment, an office, or a concert venue. The person who reserves the facility uses the terminal device 61 to register the face data and the time to enter the zone of the facility. The terminal device 3 illustrated in FIG. 10 is managed by a manager of a facility such as a movie theater, a restaurant, a condominium, an office, or a concert venue.

端末装置61は、例えば、スマートホン、タブレット端末、またはパーソナルコンピュータ等であってもよい。端末装置61には、顔データおよび時間をサーバ2または登録DBに登録するアプリケーションが搭載されてもよい。アプリケーションは、各施設の管理者によって提供されてもよい。端末装置61は、図5に示したブロック構成と同様のブロック構成を有する。 The terminal device 61 may be, for example, a smartphone, a tablet terminal, a personal computer, or the like. The terminal device 61 may be equipped with an application that registers face data and time in the server 2 or the registration DB. The application may be provided by the administrator of each facility. The terminal device 61 has a block configuration similar to that shown in FIG.

以下、図10のシーケンスを説明する。図10では、施設に設置された監視カメラ1a〜1dの図示を省略している。 The sequence of FIG. 10 will be described below. In FIG. 10, the monitoring cameras 1a to 1d installed in the facility are not shown.

端末装置3の制御部31は、オペレータの操作に応じて、サーバ2に対し、ゾーンA,Bと、監視カメラ1a〜1cとのグルーピング設定を行う(ステップS21)。すなわち、端末装置3の制御部31は、サーバ2に対し、ゾーンA,Bと、監視カメラ1a〜1cとの対応付けの設定を行う。これにより、サーバ2の記憶部23には、例えば、図7に示したテーブルTB2が記憶される。 The control unit 31 of the terminal device 3 sets the grouping of the zones A and B and the monitoring cameras 1a to 1c in the server 2 according to the operation of the operator (step S21). That is, the control unit 31 of the terminal device 3 sets the server 2 to associate the zones A and B with the monitoring cameras 1a to 1c. As a result, for example, the table TB2 shown in FIG. 7 is stored in the storage unit 23 of the server 2.

ゾーンが設置された施設を予約する人(例えば、映画館を予約する人)は、例えば、端末装置61に顔データ、施設を利用する人の名前、利用するゾーンの情報(例えば、映画が上映される部屋の名前等)、およびゾーンに入る時間等の予約情報を入力する。端末装置61は、入力された予約情報をサーバ2に送信する(ステップS22)。 A person who reserves a facility in which a zone is installed (for example, a person who reserves a movie theater) is, for example, face data, a name of a person who uses the facility, information of a zone to be used (for example, a movie is shown on the terminal device 61). Enter the reservation information such as the name of the room to be entered) and the time to enter the zone. The terminal device 61 transmits the input reservation information to the server 2 (step S22).

サーバ2の制御部21は、端末装置61から送信された予約情報に基づいて、登録DBに対し、顔登録を行う(ステップS23)。すなわち、サーバ2の制御部21は、登録DBにおいて、図9に示したテーブルTB11を生成する。なお、サーバ2の制御部21は、記憶部23において、テーブルTB11を生成してもよい。 The control unit 21 of the server 2 performs face registration in the registration DB based on the reservation information transmitted from the terminal device 61 (step S23). That is, the control unit 21 of the server 2 creates the table TB11 shown in FIG. 9 in the registration DB. The control unit 21 of the server 2 may generate the table TB11 in the storage unit 23.

サーバ2の制御部21は、ステップS22にて受信した予約情報を端末装置3に送信する(ステップS24)。端末装置3の管理者は、端末装置3が受信した予約情報によって、施設を利用する人の予約内容を把握できる。 The control unit 21 of the server 2 transmits the reservation information received in step S22 to the terminal device 3 (step S24). The manager of the terminal device 3 can grasp the reservation content of the person who uses the facility from the reservation information received by the terminal device 3.

このように、ゾーンが設定された施設を利用する人が、端末装置61を用いて、顔データおよびゾーンに立ち入る時間をサーバ2または登録DBに設定してもよい。 In this way, a person who uses the facility in which the zone is set may use the terminal device 61 to set the face data and the time to enter the zone in the server 2 or the registration DB.

なお、例えば、レストランを予約する人が、レストランの予約をする際に、端末装置61を用いて、顔データおよび予約時間をサーバ2または登録DBに登録してもよい。ゾーンは、レストランの食事を提供する部屋ごとに設定されてもよい。 Note that, for example, a person who reserves a restaurant may use the terminal device 61 to register the face data and the reservation time in the server 2 or the registration DB when making a reservation for the restaurant. Zones may be set for each room that serves meals in a restaurant.

また、例えば、マンションの住人が、端末装置61を用いて、来訪者の顔データおよび来訪時間をサーバ2または登録DBに登録してもよい。ゾーンは、マンションのエントランスごとおよびフロアごとに設定されてもよい。 Further, for example, the resident of the condominium may use the terminal device 61 to register the face data of the visitor and the visit time in the server 2 or the registration DB. The zone may be set for each entrance of the apartment and each floor.

また、例えば、事務所の所員が、端末装置61を用いて、来訪者の顔データおよび来訪時間をサーバ2または登録DBに登録してもよい。ゾーンは、事務所のエントランスごと、フロアごと、または部屋ごとに設定されてもよい。 Further, for example, a staff member of the office may use the terminal device 61 to register the face data of the visitor and the visit time in the server 2 or the registration DB. Zones may be established per office entrance, per floor, or per room.

また、例えば、コンサートを予約する人が、コンサートのチケットを予約する際に、端末装置61を用いて、顔データおよびコンサートを見る時間等をサーバ2または登録DBに設定してもよい。ゾーンは、コンサート会場の席のクラスごとおよびボックスごとに設定されてもよい。 Further, for example, when a person who reserves a concert reserves a ticket for the concert, the terminal device 61 may be used to set the face data and the time for viewing the concert in the server 2 or the registration DB. Zones may be set for each class and box of seats at a concert venue.

(第3の実施の形態)
会社等では、社員は、所持するカードによって、入室できるゾーンが区別される場合がある。例えば、或る社員は、或る部屋の入口に設けられているカードリーダにカードをかざすと、或る部屋に入室できるが、別の社員は、カードリーダにカードをかざしても、或る部屋に入室できない。第3の実施の形態では、このようなカードのカード情報を用いて、顔データの登録を行う。
(Third Embodiment)
In a company or the like, an employee may distinguish the zone in which he/she can enter the room, depending on the card he/she has. For example, one employee can enter a room by holding the card over the card reader installed at the entrance of the room, but another employee can hold the card over the card reader by holding the card over the room. Cannot enter the room. In the third embodiment, face data is registered using the card information of such a card.

図11は、第3の実施の形態に係る監視カメラシステムの一例を示した図である。図11において、図1と同じものには同じ符号が付してある。図11では、建物A1の図示を省略している。 FIG. 11 is a diagram showing an example of a surveillance camera system according to the third embodiment. 11, the same parts as those in FIG. 1 are designated by the same reference numerals. In FIG. 11, the illustration of the building A1 is omitted.

図11の監視カメラシステムは、図1に示した監視カメラシステムに対し、カードリーダ71a〜71cを有している。 The surveillance camera system in FIG. 11 has card readers 71a to 71c in addition to the surveillance camera system shown in FIG.

カードリーダ71aは、例えば、ゾーンAの入り口扉の横に設置されている。カードリーダ71aには、ゾーンAのゾーン識別情報が紐付けられている。 The card reader 71a is installed, for example, next to the entrance door of the zone A. Zone identification information of zone A is associated with the card reader 71a.

カードリーダ71bは、例えば、ゾーンBの入り口扉の横に設置されている。カードリーダ71bには、ゾーンBのゾーン識別情報が紐付けられている。 The card reader 71b is installed, for example, next to the entrance door of the zone B. Zone identification information of zone B is associated with the card reader 71b.

カードリーダ71cは、例えば、ゾーンCの入り口扉の横に設置されている。カードリーダ71cには、ゾーンCのゾーン識別情報が紐付けられている。 The card reader 71c is installed, for example, next to the entrance door of the zone C. Zone identification information of zone C is associated with the card reader 71c.

カードリーダ71aは、例えば、社員が所持するカードと近距離無線通信を行う。カードリーダ71aは、カードリーダ71aにかざされたカードから情報を読み取り、カードを所持する者がゾーンAに入室できる社員か否かを判定する。カードリーダ71b,71cもカードリーダ71aと同様に、かざされたカードから情報を読み取り、カードを所持する者がゾーンB,Cに入室できる社員か否かを判定する。 The card reader 71a, for example, performs short-distance wireless communication with a card carried by an employee. The card reader 71a reads information from the card held over the card reader 71a and determines whether the person who holds the card is an employee who can enter the zone A. Similar to the card reader 71a, the card readers 71b and 71c also read information from the swiped card and determine whether the person who has the card is an employee who can enter the zones B and C.

カードリーダ71aは、読み取ったカード情報から、カードを所持する者が、ゾーンAに入室できる者と判定した場合、ゾーンAの入り口扉を解錠する。一方、カードリーダ71aは、読み取ったカード情報から、カードを所持する者が、ゾーンAに入室できない者と判定した場合、ゾーンAの入り口扉を解錠しない。カードリーダ71b,71cもカードリーダ71aと同様に、読み取ったカード情報から、ゾーンB,Cの入り口扉の解錠を制御する。 From the read card information, the card reader 71a unlocks the entrance door of the zone A when it is determined that the person who has the card can enter the zone A. On the other hand, the card reader 71a does not unlock the entrance door of the zone A when it is determined from the read card information that the person who has the card cannot enter the zone A. Similarly to the card reader 71a, the card readers 71b and 71c also control unlocking of the entrance doors of the zones B and C based on the read card information.

社員が所持するカードには、社員の顔写真が付されている。カードリーダ71aは、カメラを備えている。カードリーダ71aは、ゾーンAの入り口扉を解錠する場合、カメラによって、カードに付されている社員の顔写真を撮影する(顔写真の静止画像を取得する)。そして、カードリーダ71aは、撮影した顔写真の顔データと、ゾーンAのゾーン識別情報とを、サーバ2に送信する。つまり、カードを所持する者が、カードを用いてゾーンAに入室できる場合、カードに付されている顔写真と、ゾーンAのゾーン識別情報とが紐付けられて、サーバ2に送信される。 The employee's card has a photograph of the employee's face attached. The card reader 71a includes a camera. When unlocking the entrance door of the zone A, the card reader 71a takes a photograph of the employee's face attached to the card by the camera (obtains a still image of the photograph of the face). Then, the card reader 71a transmits the face data of the taken face photograph and the zone identification information of the zone A to the server 2. That is, when the person who possesses the card can enter the zone A using the card, the facial photograph attached to the card and the zone identification information of the zone A are linked and transmitted to the server 2.

カードリーダ71b,71bもカードリーダ71aと同様に、カメラを備えている。カードリーダ71b,71cは、ゾーンB,Cの入り口扉を解錠する場合、カメラによって、カードに付されている社員の顔写真を撮影する。そして、カードリーダ71b,71cは、撮影した顔写真の顔データと、ゾーンB,Cのゾーン識別情報とを、サーバ2に送信する。 Like the card reader 71a, the card readers 71b and 71b also include a camera. When unlocking the entrance doors of the zones B and C, the card readers 71b and 71c take a photograph of the employee's face attached to the card by the camera. Then, the card readers 71b and 71c transmit the face data of the photographed face photograph and the zone identification information of the zones B and C to the server 2.

図12は、カードリーダ71aのブロック構成例を示した図である。図12に示すように、カードリーダ71aは、撮像部81と、制御部82と、カード通信部83と、通信部84と、記憶部85と、を有している。 FIG. 12 is a diagram showing a block configuration example of the card reader 71a. As shown in FIG. 12, the card reader 71a includes an imaging unit 81, a control unit 82, a card communication unit 83, a communication unit 84, and a storage unit 85.

撮像部81は、例えば、レンズおよび撮像素子(図示せず)を有している。撮像部81のレンズは、撮像素子の受光面に被写体の像を結像する。レンズには、カードリーダ71aの設置場所または撮影用途等に応じて、様々な焦点距離または撮影範囲のレンズを用いることができる。 The image pickup section 81 has, for example, a lens and an image pickup element (not shown). The lens of the image pickup unit 81 forms an image of the subject on the light receiving surface of the image pickup element. As the lens, lenses having various focal lengths or shooting ranges can be used depending on the installation place of the card reader 71a, the shooting application, or the like.

撮像部81の撮像素子は、受光面に受けた光を電気信号に変換する。撮像素子は、例えば、CCDまたはCMOS等のイメージセンサである。撮像部81は、撮像素子の受光面において受けた光に応じた電気信号(アナログ信号)をデジタル信号に変換して、制御部82に出力する。 The image pickup device of the image pickup unit 81 converts the light received by the light receiving surface into an electric signal. The image sensor is, for example, an image sensor such as CCD or CMOS. The image pickup unit 81 converts an electric signal (analog signal) corresponding to the light received on the light receiving surface of the image pickup element into a digital signal and outputs the digital signal to the control unit 82.

制御部82は、カードリーダ71a全体を制御する。制御部82は、例えば、CPUまたはDSPによって構成されてもよい。制御部82は、撮像部81から出力される映像から、人の顔を判別する。制御部82は、判別した人の顔を切り出し、切り出した顔の顔データ(静止画像)を、通信部84を介してサーバ2に送信する。 The control unit 82 controls the entire card reader 71a. The control unit 82 may be configured by a CPU or a DSP, for example. The control unit 82 determines the human face from the video output from the image capturing unit 81. The control unit 82 cuts out the face of the determined person and transmits the face data (still image) of the cut-out face to the server 2 via the communication unit 84.

カード通信部83は、カードリーダ71aにかざされたカードと近距離無線通信を行う。 The card communication unit 83 performs short-range wireless communication with the card held over the card reader 71a.

通信部84は、サーバ2と通信する。通信部84は、例えば、イーサネットケーブル等のネットワークケーブルを介して、サーバ2と通信してもよい。また、通信部84は、例えば、Wi−Fiまたはブルートゥース等の近距離無線通信を介して、サーバ2と通信してもよい。 The communication unit 84 communicates with the server 2. The communication unit 84 may communicate with the server 2 via a network cable such as an Ethernet cable, for example. The communication unit 84 may communicate with the server 2 via short-range wireless communication such as Wi-Fi or Bluetooth.

記憶部85は、制御部82が動作するためのプログラムが記憶される。また、記憶部85には、制御部82が計算処理を行うためのデータ、または、制御部82が各部を制御するためのデータ等が記憶される。記憶部85は、RAM、ROM、フラッシュメモリ、およびHDDなどの記憶装置によって構成されてもよい。 The storage unit 85 stores a program for operating the control unit 82. In addition, the storage unit 85 stores data for the control unit 82 to perform calculation processing, data for the control unit 82 to control each unit, and the like. The storage unit 85 may be configured by a storage device such as RAM, ROM, flash memory, and HDD.

以下では、説明を簡単にするため、ゾーンAとゾーンBとにおける入室者の検知について説明する。 In the following, in order to simplify the explanation, the detection of the occupants in the zones A and B will be described.

図13は、サーバ2の記憶部23に記憶されるテーブルの一例を示した図である。テーブルTB21は、図6で説明したテーブルTB1と同様に、ゾーン識別情報41aと、顔データ41bと、を有している。 FIG. 13 is a diagram showing an example of a table stored in the storage unit 23 of the server 2. The table TB21 has zone identification information 41a and face data 41b, like the table TB1 described in FIG.

図13に示すテーブルTB21は、カードリーダ71a〜71cから送信される顔データと、ゾーン識別情報とに基づいて生成される。顔データとゾーン識別情報は、上記したように、人がゾーンA,Bに入室できた場合に、カードリーダ71a〜71cから送信される。従って、テーブルTB21は、ゾーンA,Bに入室できた人を示した情報と言ってもよい。 The table TB21 shown in FIG. 13 is generated based on the face data transmitted from the card readers 71a to 71c and the zone identification information. As described above, the face data and the zone identification information are transmitted from the card readers 71a to 71c when the person can enter the zones A and B. Therefore, the table TB21 can be said to be information indicating the persons who have entered the zones A and B.

例えば、顔データ41baの顔写真が付されたカードによって、人がゾーンAに入室したとする。この場合、サーバ2は、ゾーンAの入り口に設けられたカードリーダ71aから、顔データ41baと、ゾーン識別情報Aとを受信する。これにより、図13のテーブルTB21には、点線枠A11に示す情報が登録される。 For example, it is assumed that a person enters the zone A with a card having a face photograph of the face data 41ba. In this case, the server 2 receives the face data 41ba and the zone identification information A from the card reader 71a provided at the entrance of the zone A. As a result, the information indicated by the dotted frame A11 is registered in the table TB21 of FIG.

また、顔データ41bbの顔写真が付されたカードによって、人がゾーンAに入室したとする。この場合、サーバ2は、ゾーンAの入り口に設けられたカードリーダ71aから、顔データ41bbと、ゾーン識別情報Aとを受信する。これにより、図13のテーブルTB21には、点線枠A12に示す情報が登録される。 Further, it is assumed that a person enters the zone A by using the card with the face photograph of the face data 41bb. In this case, the server 2 receives the face data 41bb and the zone identification information A from the card reader 71a provided at the entrance of the zone A. As a result, the information indicated by the dotted frame A12 is registered in the table TB21 of FIG.

また、顔データ41bcの顔写真が付されたカードによって、人がゾーンBに入室したとする。この場合、サーバ2は、ゾーンBの入り口に設けられたカードリーダ71bから、顔データ41bcと、ゾーン識別情報Bとを受信する。これにより、図13のテーブルTB21には、点線枠A13に示す情報が登録される。 Further, it is assumed that a person enters the zone B by using the card with the face photograph of the face data 41bc. In this case, the server 2 receives the face data 41bc and the zone identification information B from the card reader 71b provided at the entrance of the zone B. As a result, the information indicated by the dotted frame A13 is registered in the table TB21 of FIG.

図13では、テーブルTB21は、サーバ2の記憶部23に記憶されるとしたが、これに限られない。テーブルTB21は、登録DBに記憶されてもよい。以下では、テーブルTB21は、登録DBに記憶されるとする。 Although the table TB21 is stored in the storage unit 23 of the server 2 in FIG. 13, the present invention is not limited to this. The table TB21 may be stored in the registration DB. Below, the table TB21 is assumed to be stored in the registration DB.

図14は、監視カメラシステムの動作例を示したシーケンス図である。図14では、ゾーンA,Bと、カメラ1a〜1cとのグルーピング設定(例えば、図8のステップS1の処理)は、完了しているとする。すなわち、サーバ2の記憶部23には、図7に示したテーブルTB2が記憶されているとする。図14では、ゾーンBに設置された監視カメラ1b,1cおよびカードリーダ71bの処理の説明を省略する。 FIG. 14 is a sequence diagram showing an operation example of the surveillance camera system. In FIG. 14, it is assumed that the grouping settings of the zones A and B and the cameras 1a to 1c (for example, the process of step S1 in FIG. 8) are completed. That is, it is assumed that the table TB2 shown in FIG. 7 is stored in the storage unit 23 of the server 2. In FIG. 14, description of the processing of the monitoring cameras 1b and 1c and the card reader 71b installed in the zone B is omitted.

カードリーダ71aは、かざされたカードのカード情報を取得する。カードリーダ71aは、取得したカード情報に基づいて、ゾーンAの入り口扉を解錠し、かざされたカードを撮影する。カードリーダ71aの制御部82は、撮影されたカードから、カードに付されている顔写真を切り出し、切り出した顔写真の顔データと、ゾーンAのゾーン識別情報とをサーバ2に送信する(ステップS31)。 The card reader 71a acquires the card information of the swiped card. The card reader 71a unlocks the entrance door of the zone A on the basis of the acquired card information, and photographs the held card. The control unit 82 of the card reader 71a cuts out the face photograph attached to the card from the photographed card, and transmits the face data of the cut face photograph and the zone identification information of the zone A to the server 2 (step S31).

サーバ2の制御部21は、ステップS31にて送信された情報に基づいて、登録DBに対し、顔登録を行う(ステップS32)。例えば、サーバ2の制御部21は、登録DBのテーブルTB21に対し、図13に示した点線枠A11の情報を登録する。 The control unit 21 of the server 2 performs face registration in the registration DB based on the information transmitted in step S31 (step S32). For example, the control unit 21 of the server 2 registers the information of the dotted frame A11 shown in FIG. 13 in the table TB21 of the registration DB.

ここで、ステップS31において、カードリーダ71aにかざされたカードは、盗難カードであったとする。例えば、図14に示す顔データ91の顔の人が、図14に示す顔データ92の顔の人になりすまし、盗難カードを用いて、ゾーンAに入室しているとする。 Here, in step S31, the card held over the card reader 71a is assumed to be a stolen card. For example, it is assumed that the person with the face data 91 shown in FIG. 14 impersonates the person with the face data 92 shown in FIG. 14 and enters the zone A using the theft card.

ゾーンAの監視カメラ1aの撮像部11は、人(顔データ91の顔の人)を撮影したとする。監視カメラ1aの制御部12は、撮像部11が撮影した映像の中から人の顔を切り出し、切り出した顔の顔データと、監視カメラ1aのカメラ識別情報とをサーバ2に送信する(ステップS33)。 It is assumed that the imaging unit 11 of the monitoring camera 1a in the zone A has photographed a person (a person having a face in the face data 91). The control unit 12 of the surveillance camera 1a cuts out a person's face from the video imaged by the imaging unit 11, and transmits the face data of the cut-out face and the camera identification information of the surveillance camera 1a to the server 2 (step S33). ).

サーバ2の制御部21は、ステップS33にて送信された顔データと、監視カメラ1aのカメラ識別情報とを受信する(ステップS34)。 The control unit 21 of the server 2 receives the face data transmitted in step S33 and the camera identification information of the surveillance camera 1a (step S34).

サーバ2の制御部21は、記憶部23のテーブルTB2を参照し、ステップS34にて受信したカメラ識別情報に対応するゾーン識別情報を取得する(ステップS35)。 The control unit 21 of the server 2 refers to the table TB2 of the storage unit 23 and acquires the zone identification information corresponding to the camera identification information received in step S34 (step S35).

図14の例では、サーバ2の制御部21は、ステップS33にて、監視カメラ1aのカメラ識別情報「1a」を受信している。従って、サーバ2の制御部21は、図7のテーブルTB2から、ゾーンAのゾーン識別情報「A」を取得する。これにより、サーバ2の制御部21は、ステップS34にて受信した顔データ91は、ゾーンAに設置された監視カメラ1aにおいて撮影されたものと特定できる。言い換えれば、サーバ2の制御部21は、ステップS34にて受信した顔データ91の顔の人は、ゾーンAに居ると特定できる。 In the example of FIG. 14, the control unit 21 of the server 2 receives the camera identification information “1a” of the surveillance camera 1a in step S33. Therefore, the control unit 21 of the server 2 acquires the zone identification information “A” of the zone A from the table TB2 of FIG. Thereby, the control unit 21 of the server 2 can specify that the face data 91 received in step S34 is taken by the surveillance camera 1a installed in the zone A. In other words, the control unit 21 of the server 2 can specify that the person with the face of the face data 91 received in step S34 is in the zone A.

サーバ2の制御部21は、ステップS35にて、ゾーンを特定すると、登録DBのテーブルTB21を参照して、特定したゾーンに対応する顔データを取得する。そして、サーバ2の制御部21は、テーブルTB21から取得した顔データと、ステップS34にて受信した顔データとを照合する(ステップS36)。 When the zone is specified in step S35, the control unit 21 of the server 2 refers to the table TB21 of the registration DB and acquires the face data corresponding to the specified zone. Then, the control unit 21 of the server 2 collates the face data acquired from the table TB21 with the face data received in step S34 (step S36).

図14の例では、サーバ2の制御部21は、ステップS35にて、顔データ91の顔の人は、ゾーンAに居ると特定している。従って、サーバ2の制御部21は、図13に示したテーブルTB21のゾーンAに対応する顔データ41ba,41bbと、ステップS34にて受信した顔データ91とを照合する。顔データ91は、図13に示したゾーンAに対応する顔データ41ba,41bbに一致しないので、サーバ2の制御部21は、顔照合が一致しないと判定する。すなわち、サーバ2の制御部21は、顔データ91の人は、ゾーンAへの立ち入りが許可されていない人と判定する。 In the example of FIG. 14, the control unit 21 of the server 2 specifies that the person with the face of the face data 91 is in the zone A in step S35. Therefore, the control unit 21 of the server 2 collates the face data 41ba and 41bb corresponding to the zone A of the table TB21 shown in FIG. 13 with the face data 91 received in step S34. Since the face data 91 does not match the face data 41ba and 41bb corresponding to the zone A shown in FIG. 13, the control unit 21 of the server 2 determines that the face matching does not match. That is, the control unit 21 of the server 2 determines that the person of the face data 91 is a person who is not permitted to enter the zone A.

サーバ2の制御部21は、ステップS36の照合結果を端末装置3に送信する(ステップS37)。端末装置3の制御部31は、顔照合NGの照合結果を受けて、例えば、表示装置にアラートを表示する。 The control unit 21 of the server 2 transmits the matching result of step S36 to the terminal device 3 (step S37). The control unit 31 of the terminal device 3 receives the matching result of the face matching NG and displays an alert on the display device, for example.

以上説明したように、サーバ2の通信部22は、複数のゾーンA〜Cの各々に対応して設けられたカードリーダ71a〜71cから、カードに付された顔写真の顔画像データを受信する。サーバ2の制御部21は、受信された顔画像データを、テーブルTB21の顔データとして記憶する。これにより、サーバ2は、ゾーンA〜Cごとに決められた人以外の人が、ゾーンA〜Cに立ち入っていないかを判定できる。 As described above, the communication unit 22 of the server 2 receives the face image data of the face photograph attached to the card from the card readers 71a to 71c provided corresponding to each of the plurality of zones A to C. .. The control unit 21 of the server 2 stores the received face image data as face data in the table TB21. Thereby, the server 2 can determine whether or not a person other than the person determined for each of the zones A to C has entered the zones A to C.

(変形例1)
カードリーダ71a〜71cは、カードに付されている顔写真を撮影し、顔写真の顔データをサーバ2に送信するとしたがこれに限られない。例えば、カードは、IC(Integrated Circuit)を搭載していてもよい。ICには、カードを所持する社員の顔データが記憶されていてもよい。カードリーダ71a〜71cは、カードに搭載されているICから顔データを取得し、サーバ2に送信してもよい。
(Modification 1)
Although the card readers 71a to 71c take the face photograph attached to the card and transmit the face data of the face photograph to the server 2, the present invention is not limited to this. For example, the card may be equipped with an IC (Integrated Circuit). The IC may store face data of an employee who has a card. The card readers 71a to 71c may acquire face data from an IC mounted on the card and send it to the server 2.

(変形例2)
カードリーダ71a〜71cは、カードから読み取った名前またはカードのカード識別情報をサーバ2に送信してもよい。サーバ2の制御部21は、カードリーダ71a〜71cから送信された名前またはカード識別情報を受信すると、カード情報を管理するサーバから、名前またはカード識別情報に対応する顔データを受信してもよい。そして、サーバ2の制御部21は、受信した顔データと、カードリーダ71a〜71cから受信したゾーン識別情報とに基づいて、図13に示したテーブルTB21を生成してもよい。なお、カード情報を管理するサーバには、カードを所持する人の顔データと、名前またはカード識別情報とが対応付けられて記憶されている。
(Modification 2)
The card readers 71a to 71c may transmit the name read from the card or the card identification information of the card to the server 2. When receiving the name or the card identification information transmitted from the card readers 71a to 71c, the control unit 21 of the server 2 may receive the face data corresponding to the name or the card identification information from the server that manages the card information. .. Then, the control unit 21 of the server 2 may generate the table TB21 shown in FIG. 13 based on the received face data and the zone identification information received from the card readers 71a to 71c. In the server that manages the card information, the face data of the person who owns the card and the name or the card identification information are stored in association with each other.

(変形例3)
カードリーダ71a〜71cを含む監視カメラシステムは、会社に設置される例について説明したがこれに限られない。カードリーダ71a〜71cを含む監視カメラシステムは、マンションまたは商業施設等に設置されてもよい。
(Modification 3)
The monitoring camera system including the card readers 71a to 71c has been described as an example installed in a company, but the invention is not limited to this. The surveillance camera system including the card readers 71a to 71c may be installed in an apartment or a commercial facility.

上記の実施の形態の説明に用いた各機能ブロックは、典型的には集積回路であるLSIとして実現される。これらは個別に1チップ化されてもよいし、一部または全てを含むように1チップ化されてもよい。ここでは、LSIとしたが、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。 Each functional block used in the description of the above embodiment is typically realized as an LSI which is an integrated circuit. These may be individually made into one chip, or may be made into one chip so as to include some or all of them. The name used here is LSI, but it may also be called IC, system LSI, super LSI, or ultra LSI depending on the degree of integration.

また、集積回路化の手法はLSIに限るものではなく、専用回路または汎用プロセッサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)、又は、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。 Further, the method of circuit integration is not limited to LSI, and it may be realized by a dedicated circuit or a general-purpose processor. A field programmable gate array (FPGA) that can be programmed after the LSI is manufactured, or a reconfigurable processor capable of reconfiguring the connection and setting of circuit cells inside the LSI may be used.

さらには、半導体技術の進歩または派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行ってもよい。バイオ技術の適用等が可能性としてありえる。また、各実施の形態は組み合わされてもよい。 Furthermore, if integrated circuit technology comes out to replace LSI's as a result of the advancement of semiconductor technology or a derivative other technology, it is naturally also possible to carry out function block integration using this technology. The application of biotechnology is possible. Further, the respective embodiments may be combined.

本開示の監視カメラシステムは、ゾーンごとに決められた人以外の人が、ゾーンに立ち入っていないかを判定する監視カメラシステムにおいて有用である。 INDUSTRIAL APPLICABILITY The surveillance camera system of the present disclosure is useful in a surveillance camera system that determines whether or not a person other than the person determined for each zone is in the zone.

1a〜1d 監視カメラ
2 サーバ
3,61 端末装置
11,81 撮像部
12,21,31,82 制御部
13,22,34,84 通信部
14,23,35,85 記憶部
32 入力部
33 表示部
41a,42a ゾーン識別情報
41b,41ba〜41bc,51,52,91,92 顔データ
42b,42ba〜42bc カメラ識別情報
71a〜71c カードリーダ
83 カード通信部
A〜C ゾーン
A1 建物
1a to 1d Surveillance camera 2 Server 3,61 Terminal device 11,81 Imaging unit 12, 21, 31, 82 Control unit 13, 22, 34, 84 Communication unit 14, 23, 35, 85 Storage unit 32 Input unit 33 Display unit 41a, 42a Zone identification information 41b, 41ba to 41bc, 51, 52, 91, 92 Face data 42b, 42ba to 42bc Camera identification information 71a to 71c Card reader 83 Card communication unit A to C Zone A1 Building

本開示は、情報処理装置、判定方法、およびプログラムに関する。 The present disclosure relates to an information processing device , a determination method, and a program .

Claims (6)

建物の複数のゾーンの各々を撮影するカメラから、顔画像データを受信する通信部と、
前記顔画像データと、ゾーンごとの立ち入りが許可された人物の登録顔画像データとを照合し、前記顔画像データが撮影されたゾーンにおける、前記顔画像データの人物の立ち入りの許可/不許可を判定する制御部と、
を有する情報処理装置。
A communication unit that receives face image data from a camera that captures each of a plurality of zones of a building,
The face image data is compared with registered face image data of a person who is permitted to enter each zone, and permission/non-permission of entry of the person of the face image data in the zone where the face image data is photographed is determined. A control unit for judging,
Information processing device having a.
前記通信部は、前記顔画像データの人物を撮影したカメラからカメラ識別情報を受信し、
前記制御部は、複数のカメラの各々のカメラ識別情報と、前記複数のゾーンとを紐付けたテーブルを参照し、前記顔画像データの人物が撮影された撮影ゾーンを特定する、
請求項1に記載の情報処理装置。
The communication unit receives camera identification information from a camera that has photographed the person in the face image data,
The control unit refers to a table in which the camera identification information of each of a plurality of cameras and the plurality of zones are associated with each other, and identifies a shooting zone in which a person of the face image data is shot.
The information processing apparatus according to claim 1.
前記制御部は、
前記登録顔画像データと、前記登録顔画像データの人物の立ち入りが許可されたゾーンとを紐付けたテーブルを参照して、前記撮影ゾーンへの立ち入りが許可された人物の前記登録顔画像データを取得し、
取得した前記登録顔画像データと、前記顔画像データとを照合し、前記顔画像データの人物が前記撮影ゾーンにおいて、立ち入りが許可された人物であるか否かを判定する、
請求項2に記載の情報処理装置。
The control unit is
The registered face image data and the registered face image data of the person permitted to enter the photographing zone are referred to by referring to a table in which the zone of the registered face image data where the person is permitted to enter is linked. Acquired,
The acquired registered face image data is compared with the face image data, and it is determined whether or not the person in the face image data is a person who is permitted to enter the photographing zone.
The information processing apparatus according to claim 2.
前記通信部は、前記複数のゾーンの各々に対応して設けられたカードリーダから、カード顔画像データを受信し、
前記制御部は、前記カード顔画像データを前記登録画像データとして、前記登録顔画像データの人物の立ち入りが許可されたゾーンと紐付ける、
請求項3に記載の情報処理装置。
The communication unit receives card face image data from a card reader provided corresponding to each of the plurality of zones,
The control unit associates the card face image data as the registered image data with a zone of the registered face image data that is permitted to enter a person,
The information processing device according to claim 3.
前記制御部は、前記顔画像データの人物が撮影されたゾーンにおいて、前記顔画像データの人物が立ち入り許可された時間であるか否かを判定する、
請求項1から4のいずれか一項に記載の情報処理装置。
The control unit determines whether or not it is time for the person of the face image data to enter the zone in which the person of the face image data is photographed,
The information processing device according to any one of claims 1 to 4.
建物の複数のゾーンの各々を撮影するカメラから、顔画像データを受信し、
前記顔画像データと、ゾーンごとの立ち入りが許可された人物の登録顔画像データとを照合し、前記顔画像データが撮影されたゾーンにおける、前記顔画像データの人物の立ち入りの許可/不許可を判定する、
判定方法。
Receive face image data from a camera that captures each of multiple zones in the building,
The face image data is compared with registered face image data of a person who is permitted to enter each zone, and permission/non-permission of entry of the person of the face image data in the zone where the face image data is photographed is determined. judge,
Judgment method.
JP2019007595A 2019-01-21 2019-01-21 Information processing apparatus, determination method, and program Active JP6557897B1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019007595A JP6557897B1 (en) 2019-01-21 2019-01-21 Information processing apparatus, determination method, and program
US16/745,806 US11062578B2 (en) 2019-01-21 2020-01-17 Information processing device and determination method
US17/210,138 US20210209909A1 (en) 2019-01-21 2021-03-23 Information processing device and determination method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019007595A JP6557897B1 (en) 2019-01-21 2019-01-21 Information processing apparatus, determination method, and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019112786A Division JP2020119489A (en) 2019-06-18 2019-06-18 Information processing device, determination method, and program

Publications (2)

Publication Number Publication Date
JP6557897B1 JP6557897B1 (en) 2019-08-14
JP2020119066A true JP2020119066A (en) 2020-08-06

Family

ID=67614910

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019007595A Active JP6557897B1 (en) 2019-01-21 2019-01-21 Information processing apparatus, determination method, and program

Country Status (1)

Country Link
JP (1) JP6557897B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7036280B1 (en) * 2020-09-29 2022-03-15 日本電気株式会社 Servers, systems, server control methods, programs, terminals, and terminal control methods
JPWO2022059174A1 (en) * 2020-09-18 2022-03-24
US11670125B2 (en) 2021-01-06 2023-06-06 i-PRO Co., Ltd. Monitoring area setting device, monitoring area setting method, and alert notification method

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7342606B2 (en) 2019-10-23 2023-09-12 日本電気株式会社 Information processing device, access control method, and access control program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002279466A (en) * 2001-03-15 2002-09-27 Toshiba Corp Device and method for admission control
JP2008141386A (en) * 2006-11-30 2008-06-19 Secom Co Ltd Monitoring system
JP2014234637A (en) * 2013-06-03 2014-12-15 株式会社デンソーウェーブ Access control device and access control system
WO2016103332A1 (en) * 2014-12-22 2016-06-30 株式会社 テクノミライ Digital find security system, method, and program
CN108134920A (en) * 2017-11-28 2018-06-08 特斯联(北京)科技有限公司 A kind of intelligence system and method for realizing building visitor identification and current management

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002279466A (en) * 2001-03-15 2002-09-27 Toshiba Corp Device and method for admission control
JP2008141386A (en) * 2006-11-30 2008-06-19 Secom Co Ltd Monitoring system
JP2014234637A (en) * 2013-06-03 2014-12-15 株式会社デンソーウェーブ Access control device and access control system
WO2016103332A1 (en) * 2014-12-22 2016-06-30 株式会社 テクノミライ Digital find security system, method, and program
CN108134920A (en) * 2017-11-28 2018-06-08 特斯联(北京)科技有限公司 A kind of intelligence system and method for realizing building visitor identification and current management

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2022059174A1 (en) * 2020-09-18 2022-03-24
JP7268801B2 (en) 2020-09-18 2023-05-08 日本電気株式会社 Admission control device, admission control system, admission control method and admission control program
JP7416308B2 (en) 2020-09-18 2024-01-17 日本電気株式会社 Admission control device, admission control system, admission control method and admission control program
JP7036280B1 (en) * 2020-09-29 2022-03-15 日本電気株式会社 Servers, systems, server control methods, programs, terminals, and terminal control methods
US11670125B2 (en) 2021-01-06 2023-06-06 i-PRO Co., Ltd. Monitoring area setting device, monitoring area setting method, and alert notification method

Also Published As

Publication number Publication date
JP6557897B1 (en) 2019-08-14

Similar Documents

Publication Publication Date Title
JP6557897B1 (en) Information processing apparatus, determination method, and program
JP7400862B2 (en) information processing equipment
JP6624340B2 (en) Entrance management system and entrance management method
JP2004360200A (en) Entrance/exit management system
JP2018077552A (en) Gate control system and method thereof
JP2016126414A (en) Face collation system, and service providing method of amusement facility
JP7439897B2 (en) Stay management device, stay management method, program and stay management system
US20210209909A1 (en) Information processing device and determination method
JP2009104325A (en) Entering/leaving person management system
JP2020119489A (en) Information processing device, determination method, and program
JP2007213369A (en) Apparatus and method for biometric authentication
JP6920647B2 (en) Intercom system for apartments, control method and program of intercom system for apartments
WO2021191986A1 (en) Visit assistance device, visit assistance method, and non-transitory computer-readable medium storing program
JP6905553B2 (en) Information processing device, registration method, judgment method, and program
JP6997140B2 (en) Information processing equipment, judgment method, and program
JP6959300B2 (en) Information processing device, access judgment method, and program
JP2021111201A (en) Face authentication system and face authentication method
WO2021241207A1 (en) Store entry management device, store entry management system, store entry management method, and recording medium
JP7463798B2 (en) PHOTOGRAPHY MANAGEMENT DEVICE, BIOMETRIC AUTHENTICATION SYSTEM, PHOTOGRAPHY MANAGEMENT METHOD, AND PHOTOGRAPHY MANAGEMENT PROGRAM
JP7240360B2 (en) Information processing system, information processing method, and visitor management server
JP2022063783A (en) Control system, interphone system, entry/exit management system, face authentication system, control method, and program
JP2024056872A (en) Stay management device, stay management method, and program
WO2022080180A1 (en) Complex facility monitoring system, complex facility monitoring method, and complex facility monitoring program
WO2022064990A1 (en) Management system, management device, and program
JP7357192B2 (en) Intercom system, image output method for intercom system, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190130

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190130

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190423

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190524

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190604

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190624

R150 Certificate of patent or registration of utility model

Ref document number: 6557897

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

SZ03 Written request for cancellation of trust registration

Free format text: JAPANESE INTERMEDIATE CODE: R313Z03

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250