JP2023156968A - Specifying system, entrance and exit management system, and pos system - Google Patents

Specifying system, entrance and exit management system, and pos system Download PDF

Info

Publication number
JP2023156968A
JP2023156968A JP2022157182A JP2022157182A JP2023156968A JP 2023156968 A JP2023156968 A JP 2023156968A JP 2022157182 A JP2022157182 A JP 2022157182A JP 2022157182 A JP2022157182 A JP 2022157182A JP 2023156968 A JP2023156968 A JP 2023156968A
Authority
JP
Japan
Prior art keywords
person
smart device
server
user
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022157182A
Other languages
Japanese (ja)
Inventor
規之 鈴木
Noriyuki Suzuki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Asterisk Inc Japan
Original Assignee
Asterisk Inc Japan
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2022522641A external-priority patent/JPWO2023199455A1/ja
Application filed by Asterisk Inc Japan filed Critical Asterisk Inc Japan
Priority to JP2022157182A priority Critical patent/JP2023156968A/en
Publication of JP2023156968A publication Critical patent/JP2023156968A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Devices For Checking Fares Or Tickets At Control Points (AREA)
  • Cash Registers Or Receiving Machines (AREA)
  • Collating Specific Patterns (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)

Abstract

To specify a person without necessity of holding an IC card or the like.SOLUTION: The present invention is directed to a specifying system 100 having a smart device 10 and a server 20 that can be communicated with the smart device 10. The smart device 10 has an imaging unit for capturing an image of a person to generate an image of the person, and a transmitting unit for transmitting the image of the person to the server. The server 20 has a reception unit for receiving the image of the person from the smart device, a specifying unit for specifying the person based on the received image of the person, and a transmitting unit for transmitting information of the specified person to other system.SELECTED DRAWING: Figure 3

Description

本発明は、特定システム、入退場管理システム、及びPOSシステムに関するものである。 The present invention relates to a specific system, an entrance/exit management system, and a POS system.

従来、ゲートの開閉制御において顔認証を用いたシステムが開発されている。例えば、利用者が所持する無線タグ(遠隔型ICカード)から送信された識別子を受信する読取部と、その無線タグから受信した識別子に対応して登録されている顔特徴量を取得する取得部と、利用者を撮像する撮像部と、その撮像部で撮像した画像データから顔の特徴量を抽出する抽出部と、その抽出部で抽出された顔の特徴量と、その取得部で取得された顔特徴量とが一致するかを照合する顔照合部と、その顔照合部での照合の結果に応じて、ゲートの出口を開状態または閉状態とする開閉制御部と、を備えた顔認証システムが知られている。 BACKGROUND ART Conventionally, systems have been developed that use facial recognition to control the opening and closing of gates. For example, a reading unit receives an identifier transmitted from a wireless tag (remote IC card) owned by a user, and an acquisition unit acquires facial features registered in correspondence with the identifier received from the wireless tag. , an imaging unit that images the user, an extraction unit that extracts facial features from the image data captured by the imaging unit, facial features extracted by the extraction unit, and facial features acquired by the acquisition unit. a face matching unit that checks whether the facial features match the face matching unit; and an opening/closing control unit that opens or closes a gate exit depending on the matching result of the face matching unit. Authentication systems are known.

国際公開第WO2018/181968号公報International Publication No. WO2018/181968

ところで、上記従来技術では、利用者の無線タグから送信された識別子によって顔認証の対象者を絞り込むことが可能となるが、ゲートを通過する利用者は、ICカードを常に携帯する必要があるため、当該ICカードに含まれる個人情報を安全に管理するのは困難であった。このような問題点は、ICカードだけでなく、バーコードが印字された通行証などにも同様に生じるものである。 By the way, in the above-mentioned conventional technology, it is possible to narrow down the target persons for facial recognition based on the identifier transmitted from the user's wireless tag, but since the user passing through the gate must always carry an IC card. However, it has been difficult to safely manage the personal information contained in the IC card. Such problems occur not only with IC cards but also with pass cards on which barcodes are printed.

また、上記従来技術に関する問題点は、ゲートの開閉制御だけでなく、例えば、店舗における決済処理においても同様に生じうるものである。 Further, the problems related to the above-mentioned conventional technology may occur not only in gate opening/closing control, but also in, for example, payment processing at a store.

本発明は、ICカードなどを所持する必要がなくとも人物を特定しうる特定システム、入退場管理システム、及びPOSシステムを提供することを目的とする。 An object of the present invention is to provide an identification system, an entrance/exit management system, and a POS system that can identify a person without having to carry an IC card or the like.

本発明の特定システムは、スマートデバイスと、当該スマートデバイスと通信可能なサーバと、を備える特定システムであって、前記スマートデバイスは、人物を撮像し、人物の画像を生成する撮像部と、前記人物の画像を前記サーバに送信する送信部と、を備え、前記サーバは、前記スマートデバイスから前記人物の画像を受信する受信部と、前記受信した人物の画像に基づいて当該人物を特定する特定部と、を備え、特定した人物を他のシステムに送信する送信部と、を備えることを特徴とする。 A specific system of the present invention is a specific system comprising a smart device and a server capable of communicating with the smart device, wherein the smart device includes an imaging unit that captures an image of a person and generates an image of the person; a transmitting unit that transmits an image of a person to the server, the server includes a receiving unit that receives the image of the person from the smart device, and an identification unit that identifies the person based on the received image of the person. The system is characterized by comprising: a transmitting unit that transmits the identified person to another system.

また、前記スマートデバイスは、前記人物によるタッチ入力を受け付ける入力部を備え、前記タッチ入力が生じたときに、前記人物を撮像することを特徴とする。 Further, the smart device is characterized in that it includes an input unit that receives a touch input from the person, and captures an image of the person when the touch input occurs.

また、前記サーバは、前記人物に関する情報に基づいて、前記特定部によって特定された人物を認証する認証部を備えることを特徴とする。 Further, the server is characterized in that it includes an authentication section that authenticates the person specified by the identification section based on information regarding the person.

また、前記スマートデバイスは、前記人物によるタッチ入力を受け付ける入力部と、前記人物の画像とともに、前記タッチ入力によって入力された入力情報を前記サーバに送信する前記送信部と、を備え、前記サーバは、予め前記人物に対応付けて対比情報を記憶した記憶部と、前記スマートデバイスから入力情報を受信する前記受信部と、前記特定された人物に対応する対比情報を前記記憶部から抽出し、当該抽出した対比情報と前記受信した入力情報が同義である場合には当該特定された人物を認証する認証部と、を備えることを特徴とする。 Further, the smart device includes an input unit that receives a touch input by the person, and a transmission unit that transmits input information input by the touch input together with an image of the person to the server, and the server , a storage unit that stores comparison information in advance in association with the person; a reception unit that receives input information from the smart device; and a storage unit that extracts comparison information corresponding to the identified person from the storage unit; The present invention is characterized by comprising an authentication section that authenticates the identified person when the extracted comparison information and the received input information are synonymous.

また、前記スマートデバイスは、前記人物の生体情報を取得する取得部と、前記人物の画像とともに、前記取得した生体情報を前記サーバに送信する前記送信部と、を備え、前記サーバは、予め前記人物に対応付けて前記人物の生体情報を記憶した記憶部と、前記スマートデバイスから前記生体情報を受信する前記受信部と、前記特定された人物に対応する生体情報を前記記憶部から抽出し、当該抽出した生体情報と前記受信した生体情報を照合し、一致度が高い場合には当該特定された人物を認証する認証部と、を備えることを特徴とする。 Further, the smart device includes an acquisition unit that acquires biometric information of the person, and a transmission unit that transmits the acquired biometric information to the server together with an image of the person, and the server a storage unit that stores biometric information of the person in association with the person; a receiving unit that receives the biometric information from the smart device; and extracting biometric information corresponding to the identified person from the storage unit; The present invention is characterized by comprising an authentication unit that compares the extracted biometric information with the received biometric information and authenticates the identified person if the degree of matching is high.

また、特定エリアに前記人物が存在することを検出する検出部を備え、前記撮像部は、前記人物の存在が検出された場合に当該人物を撮像することを特徴とする。 Further, it is characterized in that it includes a detection unit that detects the presence of the person in a specific area, and the imaging unit takes an image of the person when the presence of the person is detected.

また、複数の前記サーバと、前記スマートデバイスから前記人物の画像が送信される度に、当該人物の画像を送信先となるサーバを振り分ける振分部と、を備えることを特徴とする。 Further, the present invention is characterized in that it includes a plurality of the servers and a distribution unit that distributes the image of the person to a server to which the image of the person is sent each time the image of the person is transmitted from the smart device.

また、前記サーバは、前記人物の特定履歴を記憶する記憶部を有することを特徴とする。 Further, the server is characterized in that it has a storage unit that stores the identification history of the person.

また、前記サーバは、インターネット上で提供されるクラウド型のサーバであることを特徴とする。 Further, the server is characterized in that it is a cloud-type server provided on the Internet.

また、前記サーバと通信可能なコンピュータを備え、前記コンピュータは、前記人物の特定に用いられる情報を前記サーバに送信することを特徴とする。 Further, the present invention is characterized in that it includes a computer capable of communicating with the server, and the computer transmits information used to identify the person to the server.

本発明の入退場管理システムは、上記の特定システムによって特定された人物の入退場を管理することを特徴とする。 The entrance/exit management system of the present invention is characterized by managing the entrance/exit of a person specified by the above-mentioned identification system.

本発明のPOSシステムは、上記の特定システムによって特定された人物の電子決済を実施することを特徴とする。 The POS system of the present invention is characterized in that it performs electronic payment for a person specified by the above-mentioned specific system.

本発明によれば、ICカードなどを所持する必要がなくとも人物を特定することができる。 According to the present invention, a person can be identified without having to carry an IC card or the like.

(A)本発明の第1実施形態に係る特定システムの構成図、(B)当該特定システムが備えるスマートデバイスの構成図、(C)当該特定システムが備える特定サーバの構成図(A) Configuration diagram of a specific system according to the first embodiment of the present invention, (B) Configuration diagram of a smart device included in the specific system, (C) Configuration diagram of a specific server included in the specific system 特定サーバが備えるテーブルの概要を示す図Diagram showing an overview of tables provided by a specific server 特定システムの処理のフロー図Flow diagram of specific system processing 第1実施形態の変形例3に係る特定システムの構成図Configuration diagram of a specific system according to modification 3 of the first embodiment 本発明の第2実施形態に係る入退場管理システムの概要を示す図A diagram showing an overview of an entrance/exit management system according to a second embodiment of the present invention 上記入退場管理システムと特定システムの構成図Configuration diagram of the above entrance/exit control system and specific system 上記入退場管理システムの入退場管理サーバが備えるテーブルの概要を示す図A diagram showing an overview of the tables provided in the entrance/exit management server of the entrance/exit management system mentioned above. 本発明の第3実施形態に係るPOSシステムと特定システムの構成図Configuration diagram of a POS system and specific system according to the third embodiment of the present invention

[第1実施形態] [First embodiment]

本発明の第1実施形態に係る特定システムを図面に基づいて説明する。図1に示すように、第1実施形態に係る特定システム100は、利用者(人物)に対して特定のサービスや利便性を提供するシステム(以下、「ユーザシステム2」という。)と協働するものであり、画像に基づいて特定した利用者(人物)の情報をユーザシステム2に提供する。当該特定システム100は、スマートデバイス10と、ネットワークNを介してスマートデバイス10と通信可能なサーバ20(以下、「特定サーバ20」という。)と、を備えている。 A specific system according to a first embodiment of the present invention will be described based on the drawings. As shown in FIG. 1, a specific system 100 according to the first embodiment collaborates with a system (hereinafter referred to as "user system 2") that provides specific services and convenience to users (persons). The user system 2 is provided with information on the user (person) identified based on the image. The specific system 100 includes a smart device 10 and a server 20 (hereinafter referred to as "specific server 20") that can communicate with the smart device 10 via a network N.

スマートデバイス10は、公知のスマートフォンやタブレット端末に代表される薄板状の情報処理端末であって、その正面側に、情報を表示する表示部および利用者(人物)からのタッチ入力を受け付ける入力部として機能するタッチパネルディスプレイ13と、利用者(人物)を撮像する撮像部として機能するカメラ14と、を備えている。当該タッチパネルディスプレイ13は、CPU11に接続されており、CPU11から入力された画像を表示させる。また、タッチパネルディスプレイ13は、利用者(人物)によってタッチ入力があった場合には、タッチされた位置座標をCPU11に入力する。カメラ14は、CPU11に接続されており、利用者(人物)を撮像して生成した画像(以下、「利用者画像」という。)をCPU11に入力する。 The smart device 10 is a thin plate-shaped information processing terminal represented by a known smartphone or tablet terminal, and has a display section that displays information and an input section that accepts touch input from a user (person) on its front side. The camera 14 includes a touch panel display 13 that functions as a camera, and a camera 14 that functions as an image capture unit that captures an image of a user (person). The touch panel display 13 is connected to the CPU 11 and displays images input from the CPU 11. Furthermore, when a touch input is made by a user (person), the touch panel display 13 inputs the touched position coordinates to the CPU 11. The camera 14 is connected to the CPU 11 and inputs to the CPU 11 an image generated by capturing a user (person) (hereinafter referred to as a "user image").

スマートデバイス10は、記憶部として機能するメモリ12を備えており、CPU11に実行させるプログラムを予め記憶している。CPU11は、当該プログラムを実行することで、カメラ14から入力された利用者画像から顔部分の画像(以下、「顔画像」という。)を抽出する抽出部として機能する。また、スマートデバイス10はネットワークNを介した特定サーバ20との通信を確立するためにネットワークモジュール15を備えており、CPU11は当該ネットワークモジュール15を介して顔画像を特定サーバ20へと送信する。このように、CPU11およびネットワークモジュール15は送信部として機能する。また、スマートデバイス10のメモリ12に記憶されたプログラムにはデバイスIDが定義されている。デバイスIDは、複数のスマートデバイス10を一意的に識別するための符号である。 The smart device 10 includes a memory 12 that functions as a storage section, and stores in advance a program to be executed by the CPU 11. By executing the program, the CPU 11 functions as an extraction unit that extracts a facial image (hereinafter referred to as a "facial image") from the user image input from the camera 14. Furthermore, the smart device 10 includes a network module 15 to establish communication with the specific server 20 via the network N, and the CPU 11 transmits the facial image to the specific server 20 via the network module 15. In this way, the CPU 11 and the network module 15 function as a transmitter. Further, a device ID is defined in the program stored in the memory 12 of the smart device 10. The device ID is a code for uniquely identifying multiple smart devices 10.

特定サーバ20は、ネットワークNを介したスマートデバイス10との通信を確立するためにネットワークモジュール23を備えている。当該ネットワークモジュール23は特定サーバ20のCPU21に接続されている。また、特定サーバ20は記憶部として機能するメモリ22を備えており、図2に示すように、当該メモリ22は利用者(人物)に関する情報(以下、「利用者情報」という。)が登録された利用者テーブルを備える。当該利用者テーブルは、利用者情報として利用者の各々に一意的に付与された識別情報(以下、「利用者ID」という。)が登録される利用者IDフィールド、及び利用者情報である利用者の氏名が登録される氏名フィールドを備える。 The specific server 20 includes a network module 23 to establish communication with the smart device 10 via the network N. The network module 23 is connected to the CPU 21 of the specific server 20. The specific server 20 also includes a memory 22 that functions as a storage unit, and as shown in FIG. A user table is provided. The user table includes a user ID field in which identification information uniquely assigned to each user (hereinafter referred to as "user ID") is registered as user information, and a user ID field that is registered as user information. A name field is provided in which the person's name is registered.

図1に戻り、特定サーバ20のメモリ22に特定プログラムが記憶されている。特定プログラムは、利用者(人物)を特定するための処理が定められたプログラムであり、当該プログラムをCPU21が実行することで、特定サーバ20は、スマートデバイス10から顔画像を受信する受信部、受信した顔画像に基づいて利用者(人物)を特定する特定部、特定した利用者(人物)に関する情報をユーザシステム2やスマートデバイス10に送信する送信部として機能する。 Returning to FIG. 1, a specific program is stored in the memory 22 of the specific server 20. The specific program is a program in which a process for identifying a user (person) is defined, and when the CPU 21 executes the program, the specific server 20 includes a receiving unit that receives a facial image from the smart device 10; It functions as a specifying unit that specifies a user (person) based on a received facial image, and a transmitting unit that transmits information regarding the specified user (person) to the user system 2 and smart device 10.

ここで、顔画像に基づく利用者の特定は、代表的には機械学習によって特定することができる。具体的には、上記ネットワークNに接続されているコンピュータ3(スマートフォン、タブレット端末、パソコン)から利用者の顔画像を特定サーバ20に送信し、特定サーバ20において、利用者IDと受信した顔画像を教師データとする機械学習を予め実施して学習済みモデルを生成しておく。そして、特定サーバ20は、スマートデバイス10から受信した顔画像を学習済みモデルに入力することで利用者IDを特定する。 Here, the identification of the user based on the face image can typically be performed by machine learning. Specifically, the computer 3 (smartphone, tablet terminal, personal computer) connected to the network N transmits the user's facial image to the specific server 20, and the specific server 20 transmits the user ID and the received facial image. Machine learning is performed in advance using training data to generate a trained model. The identification server 20 then identifies the user ID by inputting the facial image received from the smart device 10 into the learned model.

なお、顔画像に基づく利用者の特定態様は上記の機械学習に限られず、顔の特徴量に基づいて利用者を特定するものであっても構わない。具体的には、上記ネットワークNに接続されているコンピュータ3から受信した顔画像を解析して、顔画像に含まれている目、鼻、口、耳、輪郭などの相対的な位置や大きさなどの特徴量を算出し、当該特徴量を利用者の利用者IDに対応付けて記憶しておく。そして、特定サーバ20は、スマートデバイス10から受信した顔画像に基づいて特徴量を算出し、特徴量の一致度が高い利用者の利用者IDを特定する。全登録データを検索する必要はなく、特徴点などを索引として絞り込むことや、近侍近傍点探索手法などのアルゴリズムにより絞り込むことで、高速化をさせることも可能である。 Note that the method of identifying a user based on a face image is not limited to the above-mentioned machine learning, and may be one that identifies a user based on facial feature amounts. Specifically, the facial image received from the computer 3 connected to the network N is analyzed, and the relative positions and sizes of the eyes, nose, mouth, ears, contours, etc. included in the facial image are determined. The feature amount is calculated and stored in association with the user ID of the user. The identification server 20 then calculates the feature amount based on the facial image received from the smart device 10, and identifies the user ID of the user with a high degree of matching of the feature amount. It is not necessary to search all registered data, and it is possible to speed up the search by using feature points as an index or by using an algorithm such as the nearby point search method.

上記特定システム100は図3に示すフローにより処理を実行する。 The specific system 100 executes processing according to the flow shown in FIG.

スマートデバイス10のCPU11は表示処理(s10)を実行する。表示処理(s10)は、利用者に対して、タッチパネルディスプレイへのタッチ操作を促す画像を表示する処理である。 The CPU 11 of the smart device 10 executes display processing (s10). The display process (s10) is a process of displaying an image that prompts the user to perform a touch operation on the touch panel display.

スマートデバイス10のCPUは、上記の表示処理(s10)を実行した後に、確認処理(s11)を実行する。確認処理(s11)は、利用者のタッチパネルディスプレイへのタッチ操作を確認する処理である。当該確認処理において、タッチ操作が確認できない場合(No)には、CPU11は、確認処理(s11)を繰り返し実行する。一方、CPU11は、タッチ操作を確認した場合(Yes)には、撮像処理(s12)を実行する。 The CPU of the smart device 10 executes the confirmation process (s11) after executing the above display process (s10). The confirmation process (s11) is a process of confirming the user's touch operation on the touch panel display. In the confirmation process, if the touch operation cannot be confirmed (No), the CPU 11 repeatedly executes the confirmation process (s11). On the other hand, if the CPU 11 confirms the touch operation (Yes), it executes the imaging process (s12).

撮像処理(s12)は、利用者を撮像して利用者画像を生成する処理であり、CPU11はカメラ14に対して撮像開始コマンドを入力する。カメラ14は、撮像開始コマンドが入力されると、利用者を撮像して利用者の顔を含む利用者画像を生成し、当該利用者画像をCPU11へと入力する。なお、撮像処理(s12)において、タッチパネルディスプレイ13にガイドを表示しても構わない。ガイドは、例えば、撮像タイミングのカウントダウン表示や、利用者のリアルタイム画像を表示させるとともに、カメラ14の撮像エリアにおける利用者の顔の位置合わせ促すための位置合わせ画像である。CPU11は、カメラ14から利用者画像が入力されると、抽出処理(s13)を実行する。 The imaging process (s12) is a process of imaging a user to generate a user image, and the CPU 11 inputs an imaging start command to the camera 14. When the imaging start command is input, the camera 14 images the user, generates a user image including the user's face, and inputs the user image to the CPU 11 . Note that in the imaging process (s12), a guide may be displayed on the touch panel display 13. The guide is, for example, a countdown display of the imaging timing, a real-time image of the user, and an alignment image for prompting the user to align the user's face in the imaging area of the camera 14. When the user image is input from the camera 14, the CPU 11 executes an extraction process (s13).

抽出処理(s13)は、利用者画像に含まれている利用者の顔部分の画像を抽出する処理であり、CPU11は、例えば、顔の特徴(目、耳、鼻、口、及び/又は輪郭)に基づいて、利用者画像における顔部分を検出し、当該顔部分を抽出した顔画像を生成する。なお、顔部分の検出ができない場合には、再度撮像処理を実行することが好ましい。 The extraction process (s13) is a process of extracting an image of the user's face included in the user image, and the CPU 11 extracts, for example, facial features (eyes, ears, nose, mouth, and/or outline). ), a face part in the user image is detected, and a face image is generated by extracting the face part. Note that if the facial part cannot be detected, it is preferable to execute the imaging process again.

そして、CPU11は、生成した顔画像をデバイスIDと共に特定サーバ20へと送信する送信処理(s14)を実行する。 Then, the CPU 11 executes a transmission process (s14) of transmitting the generated face image together with the device ID to the specific server 20.

特定サーバ20のCPU21は、スマートデバイス10から顔画像およびデバイスIDを受信する(s21)と特定処理(s22)を実行する。特定処理(s22)は、受信した顔画像に基づいて利用者を特定する処理である。例えば、受信した顔画像を学習済みモデルに入力して利用者を特定する。 The CPU 21 of the specific server 20 receives the facial image and device ID from the smart device 10 (s21) and executes specific processing (s22). The identification process (s22) is a process of identifying the user based on the received facial image. For example, the user is identified by inputting the received facial image into a trained model.

特定サーバ20は特定処理(s22)の結果を、スマートデバイス10およびユーザシステム2に送信する送信処理(s23)を実行する。ここで、特定処理(s22)において、一人の利用者が特定できない場合(複数の利用者が特定された場合や、特定確度が低い場合)には、エラーをスマートデバイス10に送信する。スマートデバイス10はエラーを受信した場合(s15:Yes)には、撮像処理(s11)および抽出処理(s12)を繰り返し実行する。一方で、特定処理(s22)において一の利用者を特定した場合には、特定サーバ20は、当該利用者の情報(例えば利用者IDや氏名)をスマートデバイス10やユーザシステム2に送信する(s23)。 The specific server 20 executes a transmission process (s23) for transmitting the result of the specific process (s22) to the smart device 10 and the user system 2. Here, in the identification process (s22), if one user cannot be identified (if multiple users are identified or the identification accuracy is low), an error is sent to the smart device 10. When the smart device 10 receives an error (s15: Yes), it repeatedly executes the imaging process (s11) and the extraction process (s12). On the other hand, when one user is identified in the identification process (s22), the identification server 20 transmits information (for example, user ID and name) of the user to the smart device 10 or user system 2 ( s23).

本実施形態の特定システム100によれば、利用者はスマートデバイス10のタッチパネルディスプレイ13にタッチ操作を行うだけで、利用者を特定することができる。 According to the identification system 100 of this embodiment, the user can be identified simply by performing a touch operation on the touch panel display 13 of the smart device 10.

特定システム100の態様は上記の第1実施形態に限定されず、下記のような変形を加えたものであっても構わない。 The aspect of the specific system 100 is not limited to the first embodiment described above, and may be modified as described below.

[変形例1]
上記の実施形態において、特定システム100は特定された利用者の特定確度を向上させるべく認証処理を実行しても構わない。当該認証処理は下記の態様で実施することができる。
[Modification 1]
In the embodiment described above, the identification system 100 may perform authentication processing to improve the identification accuracy of the identified user. The authentication process can be performed in the following manner.

[変形例1-A]
本変形例1-Aは、特定された利用者の特定確度を、利用者のパスワードを加味することにより向上させる態様である。具体的には、スマートデバイス10は、撮像処理(s12)を実行する前に入力受付処理を実行する。入力受付処理は、利用者によるパスワード(入力情報)の入力を受け付ける処理であって、タッチパネルディスプレイ13にソフトウェアキーボードを表示させ、当該ソフトウェアキーボードによって入力された文字列をパスワードとして顔画像と共に特定サーバ20へ送信する。
[Modification 1-A]
This modification 1-A is an aspect in which the identification accuracy of the identified user is improved by taking the user's password into account. Specifically, the smart device 10 executes an input reception process before executing the imaging process (s12). The input reception process is a process of accepting the input of a password (input information) by the user, and displays a software keyboard on the touch panel display 13, and sends the character string input by the software keyboard to the specific server 20 along with the facial image as a password. Send to.

特定サーバ20は、図2(b)に示すように、そのメモリ22に認証テーブルを備えている。認証テーブルは、利用者フィールドと、パスワードフィールドと、を有している。利用者フィールドには、利用者IDなど利用者を識別するための情報が登録されている。また、パスワードフィールドは、利用者を認証するためのパスワード(対比情報)が登録されている。当該利用者IDやパスワードは、上記ネットワークNに接続されたコンピュータ3を用いて、利用者等(利用者又はユーザシステム2の管理者や提供者)によって事前に登録される。そして、特定サーバ20のCPU21は、特定処理(s22)を実行した後に認証処理を実行する。 The specific server 20 includes an authentication table in its memory 22, as shown in FIG. 2(b). The authentication table has a user field and a password field. Information for identifying a user, such as a user ID, is registered in the user field. Further, in the password field, a password (contrastive information) for authenticating the user is registered. The user ID and password are registered in advance by a user or the like (the user or the administrator or provider of the user system 2) using the computer 3 connected to the network N. Then, the CPU 21 of the specific server 20 executes the authentication process after executing the specific process (s22).

認証処理では、特定処理(s22)によって特定された利用者IDを検索キーとして認証テーブルからパスワード(対比情報)を抽出する。このとき、特定処理(s22)によって2以上の利用者(利用者ID)が特定されている場合には、特定されている全ての利用者IDに対応するパスワード(対比情報)を抽出する。そして、特定サーバ20のCPU21は、抽出したパスワード(対比情報)と受信したパスワード(入力情報)を対比し、同義である(一致している)パスワードに対応する利用者(利用者ID)を特定する。そして、当該認証処理を実行した後に上記の送信処理(s23)を実行する。 In the authentication process, a password (comparison information) is extracted from the authentication table using the user ID specified in the identification process (s22) as a search key. At this time, if two or more users (user IDs) are identified by the identification process (s22), passwords (comparison information) corresponding to all the identified user IDs are extracted. Then, the CPU 21 of the specific server 20 compares the extracted password (comparison information) and the received password (input information), and identifies the user (user ID) corresponding to the password that is synonymous (matches). do. Then, after executing the authentication process, the above-mentioned transmission process (s23) is executed.

[変形例1-B]
本変形例1-Bは、特定された利用者の特定確度を、利用者の生体情報を加味することにより向上させる態様である。当該生体情報は、利用者の指紋、掌紋、静脈、虹彩、耳介などの画像(以下、「生体画像」という)や、利用者の声紋情報などである。具体的には、スマートデバイス10は、上記第1実施形態の撮像処理(s12)(以下、「第1撮像処理(s12)」という。)を実行した後に、生体情報取得処理を実行する。
[Modification 1-B]
This modification 1-B is an aspect in which the identification accuracy of the identified user is improved by taking into account the user's biometric information. The biometric information includes images of the user's fingerprints, palm prints, veins, irises, auricles, etc. (hereinafter referred to as "biometric images"), and voiceprint information of the user. Specifically, the smart device 10 executes the biological information acquisition process after executing the imaging process (s12) of the first embodiment (hereinafter referred to as "first imaging process (s12)").

生体情報取得処理は、生体画像及び/又は音声情報を取得する処理である。
(1)例えば、スマートデバイス10は、指紋、掌紋、静脈などの生体画像を取得するスキャナと通信可能であり、生体情報取得処理において、スマートデバイス10のCPU11はスキャナに対して取得コマンドを入力する。スキャナは、取得コマンドが入力された時に利用者の指紋、掌紋、静脈などの生体画像を取得し、取得した生体画像をスマートデバイス10に入力する。当該処理により、スマートデバイス10は指紋、掌紋、静脈などの生体画像を取得することができる。
(2)また、スマートデバイス10は、虹彩や耳介などの生体画像を取得するカメラと通信可能であっても構わない。当該態様における生体情報取得処理では、スマートデバイス10のCPU11はカメラに対して取得コマンドを入力する。カメラは、取得コマンドが入力された時に利用者の虹彩や耳介などの生体画像を取得し、取得した生体画像をスマートデバイス10に入力する。当該処理により、スマートデバイス10は虹彩や耳介などの生体画像を取得することができる。
(3)また、スマートデバイス10は、声紋を取得するマイクモジュールを備えても構わない。当該マイクモジュールは、マイクと、マイクから出力された信号を増幅させる増幅回路と、増幅回路から出力された信号をデジタル信号に変換するアナログ-デジタル変換回路と、を備えており、マイクモジュールから出力された信号はスマートデバイス10のCPU11に入力される。当該態様における生体情報取得処理では、スマートデバイス10のCPU11は、マイクモジュールから入力された信号に基づいて音声情報を生成する。当該処理により、スマートデバイス10は声紋などの音声情報を取得することができる。
The biological information acquisition process is a process of acquiring biological images and/or audio information.
(1) For example, the smart device 10 can communicate with a scanner that acquires biometric images such as fingerprints, palm prints, veins, etc., and in biometric information acquisition processing, the CPU 11 of the smart device 10 inputs an acquisition command to the scanner. . The scanner acquires a biometric image of the user, such as a fingerprint, a palm print, or a vein, when an acquisition command is input, and inputs the acquired biometric image to the smart device 10. Through this process, the smart device 10 can acquire biometric images such as fingerprints, palm prints, and veins.
(2) Furthermore, the smart device 10 may be able to communicate with a camera that acquires biological images of the iris, the auricle, and the like. In the biological information acquisition process in this aspect, the CPU 11 of the smart device 10 inputs an acquisition command to the camera. The camera acquires a biological image of the user's iris, auricle, etc. when the acquisition command is input, and inputs the acquired biological image to the smart device 10. Through this processing, the smart device 10 can acquire biological images of the iris, the auricle, and the like.
(3) Furthermore, the smart device 10 may include a microphone module that acquires a voiceprint. The microphone module includes a microphone, an amplifier circuit that amplifies the signal output from the microphone, and an analog-to-digital conversion circuit that converts the signal output from the amplifier circuit into a digital signal. The generated signal is input to the CPU 11 of the smart device 10. In the biological information acquisition process in this aspect, the CPU 11 of the smart device 10 generates audio information based on the signal input from the microphone module. Through this process, the smart device 10 can acquire audio information such as a voiceprint.

スマートデバイス10のCPU11は、上記生体情報取得処理を実行すると、送信処理(s14)において顔画像と共に生体情報(生体画像や音声情報)を特定サーバ20に送信する。 When the CPU 11 of the smart device 10 executes the biometric information acquisition process, it transmits the biometric information (biometric image and voice information) together with the facial image to the specific server 20 in a transmission process (s14).

特定サーバ20は、登録処理(s20)において、新規利用者の生体情報を取得し、当該生体情報を教師データとする機械学習を実行し、学習済みモデルを生成する。そして、特定サーバ20のCPU21は、特定処理(s22)を実行した後に認証処理を実行する。当該認証処理では、スマートデバイス10から受信した生体情報を学習済みモデルに入力して、出力された利用者IDを特定処理(s22)によって取得した利用者IDと照合する。そして、利用者IDが一致した場合に、当該利用者IDを特定結果として出力する。 In the registration process (s20), the specific server 20 acquires the new user's biometric information, executes machine learning using the biometric information as training data, and generates a learned model. Then, the CPU 21 of the specific server 20 executes the authentication process after executing the specific process (s22). In the authentication process, the biometric information received from the smart device 10 is input into the trained model, and the output user ID is compared with the user ID obtained in the identification process (s22). Then, when the user IDs match, the user ID is output as the identification result.

[変形例1-C]
本変形例1-Cは、特定された利用者の特定確度を、マーカを加味することにより向上させる態様である。具体的には、スマートデバイス10は、第1撮像処理(s12)において、利用者の顔と利用者に付されたマーカを撮像する。当該利用者に付されたマーカとは、利用者が身につけている物品に表示されたマーク、文字列、色の組み合わせ、又は物品の形状である。そして、スマートデバイス10のCPUは、抽出処理(s13)において顔画像を生成するとともに、利用者画像に含まれるマーカを抽出してマーカ画像を生成し、顔画像とマーカ画像を特定サーバ20に送信する。
[Modification 1-C]
This modification 1-C is an aspect in which the identification accuracy of the identified user is improved by adding a marker. Specifically, the smart device 10 images the user's face and the marker attached to the user in the first imaging process (s12). The marker attached to the user is a mark, a character string, a combination of colors, or the shape of an article displayed on an article worn by the user. Then, the CPU of the smart device 10 generates a face image in the extraction process (s13), extracts the marker included in the user image to generate a marker image, and sends the face image and the marker image to the specific server 20. do.

特定サーバ20は、そのメモリ22に認証テーブルを備えている。認証テーブルは、利用者フィールドと、マーカフィールドと、を有している。マーカフィールドは、マーカの特徴点が登録されている。当該利用者IDやマーカの特徴点は、上記ネットワークNに接続されたコンピュータ3を用いて、利用者等(利用者又はユーザシステム2の管理者や提供者)によって事前に登録される。そして、特定サーバ20のCPUは、特定処理(s22)を実行した後に認証処理を実行する。 The specific server 20 includes an authentication table in its memory 22. The authentication table has a user field and a marker field. In the marker field, feature points of markers are registered. The user ID and the feature points of the marker are registered in advance by a user or the like (the user or the administrator or provider of the user system 2) using the computer 3 connected to the network N. Then, the CPU of the specific server 20 executes the authentication process after executing the specific process (s22).

認証処理では、特定処理によって特定された利用者IDを検索キーとして認証テーブルからマーカの特徴点を抽出する。そして、特定サーバ20のCPU21は、抽出した特徴点と受信したマーカ画像の特徴点を照合し、一致している場合には当該利用者IDを特定結果として出力する。 In the authentication process, the feature points of the marker are extracted from the authentication table using the user ID specified by the identification process as a search key. Then, the CPU 21 of the specific server 20 compares the extracted feature points with the feature points of the received marker image, and if they match, outputs the user ID as the identification result.

上記変形例1-A乃至1-Cの態様によれば、例えば、一卵性双生児など顔画像のみでは利用者を特定し難い場合や、顔に怪我を負ったことによって利用者の特定が困難な場合であっても、特定処理(s22)による特定結果を認証処理によって認証することができ、ユーザシステム2に対して確度の高い利用者の情報を提供することができる。また、特定処理(s22)の結果、複数の利用者が特定されたとしても、認証処理によって一人の利用者を特定することが可能である。 According to the aspects of Modifications 1-A to 1-C above, for example, it is difficult to identify the user based on facial images alone such as identical twins, or it is difficult to identify the user due to an injury to the face. Even in such a case, the identification result of the identification process (s22) can be authenticated by the authentication process, and highly accurate user information can be provided to the user system 2. Furthermore, even if multiple users are identified as a result of the identification process (s22), it is possible to identify one user through the authentication process.

上記変形例1-Aにおいて、ソフトウェアキーボードは、表示の都度、そのキー配列が異なるように表示させるのが好ましい。当該態様によれば、利用者の入力操作を見た第三者にパスワードが知られてしまうことを防止することができる。 In the above modification 1-A, it is preferable that the software keyboard is displayed with a different key arrangement each time it is displayed. According to this aspect, it is possible to prevent the password from being known to a third party who sees the user's input operation.

上記変形例1-Aでは、利用者によって指定されたパスワード(入力情報)に基づいて認証処理を実行しているが、入力情報はパスワードに限定されず合言葉であっても構わない。すなわち、個々の利用者によって指定された文字列により認証処理を実行することができる。 In the above modification 1-A, the authentication process is executed based on the password (input information) specified by the user, but the input information is not limited to the password and may be a password. That is, authentication processing can be performed using a character string specified by an individual user.

上記変形例1-Aでは、特定確度の向上を目的として認証処理を実行しているが、特定速度の向上を目的として認証処理と同様の処理を実行しても構わない。すなわち、特定サーバ20は、スマートデバイス10から受信した文字列に基づいて、利用者テーブルから利用者を選択した上で、選択された利用者の顔の特徴量とスマートデバイス10から受信した顔の特徴量を照合することにより、利用者を特定しても構わない。 In the above modification 1-A, the authentication process is executed for the purpose of improving the identification accuracy, but the same process as the authentication process may be executed for the purpose of improving the identification speed. That is, the specific server 20 selects a user from the user table based on the character string received from the smart device 10, and then combines the facial features of the selected user with the facial features received from the smart device 10. The user may be identified by comparing feature amounts.

上記変形例1-B(3)の生体情報取得処理において、スマートデバイス10は、「おはようございます」などの挨拶音声を発生させた上で、利用者の声紋を取得しても構わない。当該態様によれば、利用者は挨拶音声に応答するように音声を発するので、自然に利用者の音声を取得することができる。 In the biometric information acquisition process of the above modification 1-B(3), the smart device 10 may generate a greeting voice such as "Good morning" and then acquire the user's voiceprint. According to this aspect, since the user makes a sound in response to the greeting sound, the user's voice can be naturally acquired.

上記変形例1-A乃至1-Cによる認証処理は、ユーザシステム2からのリクエストに基づいて実施しても構わない。具体的には、本実施形態の特定システム100とユーザシステム2の連携の初期設定を行う場合に、ユーザシステム2から特定サーバ20に対して認証リクエストを送信し、特定サーバ20は当該認証リクエストに基づいてスマートデバイス10に対して、パスワード、生体情報、又はマーカの情報をリクエストする。スマートデバイス10は、当該リクエストを受信した場合に、上記変形例1-A乃至1-Cの態様でパスワード、生体情報、又はマーカを取得し、特定サーバ20に送信し、特定サーバ20はこれらの情報に基づいて認証処理を実行し特定した利用者の情報をユーザシステム2に送信する。 The authentication processing according to the above-described modifications 1-A to 1-C may be performed based on a request from the user system 2. Specifically, when initializing the cooperation between the specific system 100 and the user system 2 of this embodiment, the user system 2 sends an authentication request to the specific server 20, and the specific server 20 responds to the authentication request. Based on this, a password, biometric information, or marker information is requested from the smart device 10. When the smart device 10 receives the request, the smart device 10 acquires the password, biometric information, or marker in the manner of Modifications 1-A to 1-C above and transmits it to the specific server 20. The authentication process is executed based on the information and the information of the identified user is transmitted to the user system 2.

また、利用者ごとに変形例1-A乃至1-Cの認証処理を選択して実行しても構わない。具体的には、図2に示すように、上記利用者テーブルに認証フィールドを設け、当該認証フィールドに認証処理の種別(以下、「認証種別」という。)を登録する。特定サーバ20のCPUは、特定処理によって出力された利用者に対応する認証種別を利用者テーブルで確認し、当該認証種別に応じた認証処理を実行して、最終的に利用者を特定する。当該変形態様によれば、利用者に見合った認証処理を実行することができる。また、利用者を認証種別でグルーピングすることができ、グループに見合った認証処理を実行することができる。 Further, the authentication processes of Modifications 1-A to 1-C may be selected and executed for each user. Specifically, as shown in FIG. 2, an authentication field is provided in the user table, and the type of authentication process (hereinafter referred to as "authentication type") is registered in the authentication field. The CPU of the specific server 20 checks the authentication type corresponding to the user output by the specific process in the user table, executes the authentication process according to the authentication type, and finally specifies the user. According to this modification, it is possible to perform authentication processing that is appropriate for the user. Furthermore, users can be grouped by authentication type, and authentication processing suitable for the group can be executed.

[変形例2]
上記特定システム100は、利用者の特定履歴を記録するものであっても構わない。
[Modification 2]
The identification system 100 may record the user's identification history.

[変形例2-A]
例えば、図2(c)に示すように、特定サーバ20は、そのメモリに履歴テーブルを備える。履歴テーブルは、利用者フィールド、日時フィールド、及びデバイスフィールドを備える。利用者フィールドは特定処理(s22)によって特定された利用者の利用者IDなど利用者に関する情報が登録される。日時フィールドは特定処理(s22)を実施した日時が登録される。デバイスフィールドは特定処理(s22)に用いた顔画像の送信元となるスマートデバイス10のデバイスIDが登録される。
[Modification 2-A]
For example, as shown in FIG. 2(c), the specific server 20 includes a history table in its memory. The history table includes a user field, a date/time field, and a device field. In the user field, information related to the user, such as the user ID of the user specified by the identification process (s22), is registered. The date and time when the specific process (s22) was performed is registered in the date and time field. In the device field, the device ID of the smart device 10 that is the source of the facial image used in the identification process (s22) is registered.

[変形例2-B]
また、特定サーバ20は特定処理(s22)に用いた顔画像を記録しても構わない。具体的には、特定サーバ20は、受信した顔画像に対して識別番号(以下、「顔画像識別番号」という。)を付与して、当該顔画像をメモリ22に保存するとともに、上記の履歴テーブルに顔画像識別番号を登録する顔画像フィールド(図2(c))を設ける。また、特定処理において複数の顔画像(以下、「顔画像群」という。)を用いた場合には、顔画像群に対して識別番号(以下、顔画像群識別番号という。)を付与して顔画像群をメモリ22に保存するとともに、上記の履歴テーブルの顔画像フィールドに当該顔画像群識別番号を登録する。なお、メモリ22にされる顔画像や顔画像群は圧縮されたものであっても構わない。また、顔画像や顔画像群は、保存された後に所定期間が経過した場合に、消去されたり、間引きされても構わない。
[Modification 2-B]
Further, the specific server 20 may record the face image used in the specific process (s22). Specifically, the specific server 20 assigns an identification number (hereinafter referred to as "facial image identification number") to the received facial image, stores the facial image in the memory 22, and records the above-mentioned history. A face image field (FIG. 2(c)) is provided in the table to register a face image identification number. In addition, when multiple facial images (hereinafter referred to as "facial image group") are used in identification processing, an identification number (hereinafter referred to as facial image group identification number) is assigned to the facial image group. The facial image group is stored in the memory 22, and the facial image group identification number is registered in the facial image field of the history table. Note that the face image or face image group stored in the memory 22 may be compressed. Further, a face image or a group of face images may be deleted or thinned out after a predetermined period of time has passed after being saved.

[変形例2-C]
また、特定サーバ20は、受信処理(s21)を実行する度に、受信した顔画像をメモリ22に保存しても構わない。当該態様によれば、利用者以外の人物による使用履歴を保存することができ、防犯対策となる。
[Modification 2-C]
Moreover, the specific server 20 may store the received face image in the memory 22 every time it executes the reception process (s21). According to this aspect, the history of use by a person other than the user can be saved, which serves as a crime prevention measure.

[変形例3]
上記特定システム100は、図4に示すように、複数の特定サーバ20a,20b,20cと、複数のスマートデバイス10a,10b,10cと、複数のスマートデバイス10a,10b,10cから顔画像や生体情報が送信される度に、送信先特定サーバ20a,20b,20cを負荷の軽い特定サーバ20a,20b,20cに振り分ける振分部として機能するロードバランサー30と、を備えても構わない。当該変形態様によれば、複数のスマートデバイス10a,10b,10cを用いる場合に1つの特定サーバ20に係る処理負担を分散させることができるので、システム障害の発生を防止することができる。
[Modification 3]
As shown in FIG. 4, the identification system 100 collects facial images and biological information from a plurality of identification servers 20a, 20b, 20c, a plurality of smart devices 10a, 10b, 10c, and a plurality of smart devices 10a, 10b, 10c. It is also possible to include a load balancer 30 that functions as a distribution unit that distributes the destination specifying servers 20a, 20b, 20c to the specific servers 20a, 20b, 20c with a light load each time a message is transmitted. According to this modification, when a plurality of smart devices 10a, 10b, and 10c are used, the processing load on one specific server 20 can be distributed, so it is possible to prevent system failures from occurring.

[変形例4]
上記スマートデバイス10は、有線通信または無線通信によって周辺装置と接続可能であっても構わない。以下、周辺装置と通信可能に接続されたスマートデバイス10について説明する。
[Modification 4]
The smart device 10 may be connectable to peripheral devices through wired or wireless communication. The smart device 10 that is communicably connected to peripheral devices will be described below.

[変形例4-A]
図1に示すように、スマートデバイス10は赤外線カメラ4と接続されても構わない。当該変形態様におけるスマートデバイス10のCPU11は、上記撮像処理(s12)において、スマートデバイス10が有するカメラ14(以下、「可視光カメラ12」という。)および周辺装置である赤外線カメラ4に対して撮像コマンドを入力する。そして、スマートデバイス10のCPU11は、可視光カメラ14および赤外線カメラ4から入力された利用者画像を比較して、より鮮明に利用者が映る利用者画像を選択し、抽出処理(s14)を実行する。当該変形態様によれば、より鮮明な利用者画像に基づいて顔画像が生成され、当該鮮明な顔画像に基づいて特定処理が実行されるので特定確度を向上させることができる。
[Modification 4-A]
As shown in FIG. 1, the smart device 10 may be connected to an infrared camera 4. In the above-mentioned image capturing process (s12), the CPU 11 of the smart device 10 in the modified embodiment performs image capture using the camera 14 (hereinafter referred to as "visible light camera 12") possessed by the smart device 10 and the infrared camera 4 which is a peripheral device. Enter the command. Then, the CPU 11 of the smart device 10 compares the user images input from the visible light camera 14 and the infrared camera 4, selects a user image that shows the user more clearly, and executes the extraction process (s14). do. According to this modification, a face image is generated based on a clearer user image, and identification processing is executed based on the clearer face image, so that identification accuracy can be improved.

[変形例4-B]
図1に示すように、スマートデバイス10は人感センサ5と接続されても構わない。人感センサ5は、スマートデバイス10の正面側における人物の存在を検出する検出部として機能するものであり、人物が検出された場合に検出信号をスマートデバイス10に入力する。当スマートデバイス10は、上記第1実施形態の表示処理(s10)および確認処理(s11)に代えて、人感センサ5から検出信号が入力された場合に撮像処理を実行する。当該変形態様によれば、利用者の両手が塞がっており、スマートデバイス10に対してタッチ操作ができない状況下でも、撮像処理(s12)が実行されるので、利用者を特定することが可能となる。
[Modification 4-B]
As shown in FIG. 1, the smart device 10 may be connected to the human sensor 5. The human sensor 5 functions as a detection unit that detects the presence of a person in front of the smart device 10, and inputs a detection signal to the smart device 10 when a person is detected. The smart device 10 executes an imaging process when a detection signal is input from the human sensor 5 instead of the display process (s10) and confirmation process (s11) of the first embodiment. According to this modification, even in a situation where the user's hands are occupied and touch operations cannot be performed on the smart device 10, the imaging process (s12) is executed, so it is possible to identify the user. Become.

[実施例4-C]
スマートデバイス10は、特定サーバ20から受信した利用者IDが適切である場合には、Bluetooth(登録商標)通信を介して、家電やドアの電気錠を制御しても構わない。
[Example 4-C]
If the user ID received from the specific server 20 is appropriate, the smart device 10 may control a home appliance or an electric door lock via Bluetooth (registered trademark) communication.

[変形例5]
上記特定サーバ20は、スマートデバイス10を管理可能であっても構わない。具体的には、図2(D)に示すように、特定サーバ20は、スマートデバイス10の状態が登録されるデバイス管理テーブルを備える。デバイス管理テーブルは、デバイスIDが登録されるデバイスIDフィールドと、スマートデバイス10の設置場所が登録される設置場所フィールドと、スマートデバイス10のIPアドレスが登録されるアドレスフィールドと、スマートデバイス10が有するGPSの値が登録されるGPSフィールドと、を備えている。当該デバイスIDフィールド、設置場所フィールド、及びアドレスフィールドの値は、スマートデバイス10が設置される際の初期設定において登録される。GPSフィールドの値は、スマートデバイス10が特定サーバ20に対して顔画像を送信する際に、当該顔画像と共に送信される。また、特定サーバ20が定期的にスマートデバイス10に対してGPSの値の送信をリクエストし、スマートデバイス10は当該リクエストに応じてGPSの値を特定サーバ20に送信しても構わない。
[Modification 5]
The specific server 20 may be able to manage the smart device 10. Specifically, as shown in FIG. 2(D), the specific server 20 includes a device management table in which the status of the smart device 10 is registered. The device management table has a device ID field in which the device ID is registered, an installation location field in which the installation location of the smart device 10 is registered, an address field in which the IP address of the smart device 10 is registered, and the smart device 10. A GPS field in which a GPS value is registered. The values of the device ID field, installation location field, and address field are registered during initial settings when the smart device 10 is installed. The value of the GPS field is transmitted together with the facial image when the smart device 10 transmits the facial image to the specific server 20 . Further, the specific server 20 may periodically request the smart device 10 to transmit the GPS value, and the smart device 10 may transmit the GPS value to the specific server 20 in response to the request.

特定サーバ20のCPU21は、定期的にデバイス管理テーブルの値を確認する。ここで、GPSの値に変化が生じた場合には、特定サーバ20のCPU21は、ネットワークNを介して通信可能な管理者のコンピュータ4にアラートを送信するとともに、当該GPSの値を管理者のコンピュータ4に送信する。また、特定サーバ20のCPU21は、GPSの値に変化が生じているスマートデバイス10からの通信接続を解除してもよい。 The CPU 21 of the specific server 20 periodically checks the values in the device management table. Here, when a change occurs in the GPS value, the CPU 21 of the specific server 20 sends an alert to the administrator's computer 4 that can communicate via the network N, and also updates the GPS value to the administrator's computer 4. Send to computer 4. Further, the CPU 21 of the specific server 20 may disconnect the communication connection from the smart device 10 whose GPS value has changed.

当該変形態様によれば、スマートデバイス10の盗難が生じたことを管理者に通報することができる。また、GPSの位置情報に基づいて、盗難されたスマートデバイス10の所在を明らかにすることができる。 According to this modification, it is possible to notify the administrator that the smart device 10 has been stolen. Furthermore, the location of the stolen smart device 10 can be revealed based on the GPS location information.

[変形例6]
スマートデバイス10と特定サーバ20の通信ネットワークNはローカルエリアネットワークであっても良いし、インターネット通信回線であっても良い。インターネット通信回線を介してスマートデバイス10と特定サーバ20が通信する場合には、スマートデバイス10は携帯電話網を介したネットワークを用いることができる。また、特定サーバ20はインターネット通信回線においてクラウドとして提供されるサーバであっても構わない。また、スマートデバイス10と特定サーバ20は有線接続によって通信可能であっても構わない。
[Modification 6]
The communication network N between the smart device 10 and the specific server 20 may be a local area network or an Internet communication line. When the smart device 10 and the specific server 20 communicate via the Internet communication line, the smart device 10 can use a network via a mobile phone network. Further, the specific server 20 may be a server provided as a cloud over an Internet communication line. Furthermore, the smart device 10 and the specific server 20 may be able to communicate through a wired connection.

上記第1実施形態における特定システムにおいて抽出部(抽出処理)は必須の構成ではなく、スマートデバイス10は利用者画像を特定サーバ20に送信し、特定サーバ20は利用者画像に基づいて利用者(人物)を特定しても構わない。 The extraction unit (extraction process) is not an essential component in the specific system in the first embodiment, and the smart device 10 sends the user image to the specific server 20, and the specific server 20 identifies the user ( It does not matter if the person (person) is specified.

上記第1実施形態および変形例の特定システム100は、種々のユーザシステム2と連携することができる。ユーザシステム2としては、代表的には、建物への入退場システムや、クレジット決済システムが挙げられる。以下、第2実施形態として入退場システムとの連携態様を説明し、第3実施形態としてPOSシステムとの連携態様を説明する。 The identification system 100 of the first embodiment and the modified example described above can cooperate with various user systems 2. Typical examples of the user system 2 include a building entry/exit system and a credit card payment system. Hereinafter, a mode of cooperation with an entrance/exit system will be explained as a second embodiment, and a mode of cooperation with a POS system will be explained as a third embodiment.

[第2実施形態]
入退場管理システム200は、図5、図6に示すように、建物のエントランスに設けられた自動ドア210と、建物内のテナントに設けられた手動ドア220と、自動ドア210および手動ドア220と通信可能な入退場管理サーバ230と、を備えている。
[Second embodiment]
As shown in FIGS. 5 and 6, the entrance/exit management system 200 includes an automatic door 210 installed at the entrance of a building, a manual door 220 installed at a tenant in the building, and an automatic door 210 and a manual door 220. The entrance/exit management server 230 with which communication is possible is provided.

自動ドア210は、一対のドア211の開閉を制御する制御装置212を備えている。制御装置212は、ネットワークNに接続するためのネットワークモジュールを備えており、当該ネットワークモジュールを介して入退場管理サーバ230と通信可能となっている。 The automatic door 210 includes a control device 212 that controls opening and closing of the pair of doors 211. The control device 212 includes a network module for connecting to the network N, and can communicate with the entrance/exit management server 230 via the network module.

手動ドア220は、手動で開け閉めされるドア221と、ドア221の施錠や解錠を切り替える電気錠と、電気錠を制御する制御装置222と、備えている。制御装置222は、ネットワークNに接続するためのネットワークモジュールを備えており、当該ネットワークモジュールを介して入退場管理サーバ230と通信可能となっている。 The manual door 220 includes a door 221 that is manually opened and closed, an electric lock that locks and unlocks the door 221, and a control device 222 that controls the electric lock. The control device 222 includes a network module for connecting to the network N, and can communicate with the entrance/exit management server 230 via the network module.

入退場管理サーバ230は、利用者の入退場を管理するサーバであり、図7に示すように、そのメモリには利用者管理テーブルおよびドアテーブルが設けられている。利用者管理テーブルは、当該建物の利用者を管理するテーブルであり、利用者IDが登録される利用者IDフィールド、利用者の氏名が登録される氏名フィールド、及び当該利用者が所属するテナントのテナントIDが登録されるテナントフィールドを備えている。また、ドア管理テーブルは、建物内のドア211,221の設定を管理するテーブルであり、ドアが設けられているテナントのテナントIDが登録されるテナントフィールドと、当該ドアの制御装置のIPアドレスが登録されるアドレスフィールドと、当該ドアに設置されているスマートデバイス10のデバイスIDが登録されるデバイスフィールドと、を備えている。 The entrance/exit management server 230 is a server that manages entrance/exit of users, and as shown in FIG. 7, a user management table and a door table are provided in its memory. The user management table is a table for managing users of the building, and includes a user ID field in which the user ID is registered, a name field in which the user's name is registered, and the tenant to which the user belongs. It has a tenant field in which a tenant ID is registered. The door management table is a table that manages the settings of the doors 211 and 221 in the building, and includes a tenant field in which the tenant ID of the tenant where the door is installed and the IP address of the control device for the door are registered. It includes an address field to be registered and a device field to which the device ID of the smart device 10 installed at the door is registered.

ここで、本実施形態では、自動ドア210が設けられている壁面の外側に第1スマートデバイス10a(デバイスID=t0001)が設置されており、また、自動ドア210が設けられている壁面の内側に第2スマートデバイス10b(デバイスID=t0002)が設置されている。さらに、テナントAの手動ドア220の壁面外側に第3スマートデバイス10c(デバイスID=t0003)が設置されており、また、テナントAの手動ドア220の壁面内側に第4スマートデバイス10d(デバイスID=t0004)が設置されている。さらに、テナントBの手動ドア220の壁面外側に第5スマートデバイス10e(デバイスID=t0005)が設置されており、また、テナントBの手動ドア220の壁面内側に第6スマートデバイス10f(デバイスID=t0006)が設置されている。なお、建物内の他のテナントについても同様に手動ドア220の内外にスマートデバイス10が設置されている。また、他のフロアの部屋についても同様に、手動ドア220の内外にスマートデバイス10が設置されている。 Here, in this embodiment, the first smart device 10a (device ID=t0001) is installed on the outside of the wall surface where the automatic door 210 is installed, and the first smart device 10a (device ID=t0001) is installed inside the wall surface where the automatic door 210 is installed. A second smart device 10b (device ID=t0002) is installed. Furthermore, a third smart device 10c (device ID=t0003) is installed on the outside of the wall of tenant A's manual door 220, and a fourth smart device 10d (device ID=t0003) is installed on the inside of the wall of tenant A's manual door 220. t0004) is installed. Furthermore, a fifth smart device 10e (device ID=t0005) is installed on the outside of the wall of tenant B's manual door 220, and a sixth smart device 10f (device ID=t0005) is installed on the inside of the wall of tenant B's manual door 220. t0006) is installed. Note that smart devices 10 are similarly installed inside and outside the manual door 220 for other tenants in the building. Similarly, smart devices 10 are installed inside and outside the manual door 220 in rooms on other floors.

特定サーバ20は、上記ネットワークNを介して、上記第1スマートデバイス10a乃至第6スマートデバイス10fと通信可能となっている。スマートデバイス10a乃至スマートデバイス10fのCPU11は、第1実施形態と同様に、表示処理(s10)、確認処理(s11)、撮像処理(s12)、及び抽出処理(s13)を実行し、特定サーバ20に対して利用者の顔画像とデバイスIDを送信する。特定サーバ20は、第1実施形態と同様に、特定処理(s22)および送信処理(s23)を実行し、当該利用者の利用者IDおよびデバイスIDを入退場管理サーバ230に送信する。 The specific server 20 is capable of communicating with the first smart device 10a to the sixth smart device 10f via the network N. Similar to the first embodiment, the CPUs 11 of the smart devices 10a to 10f execute display processing (s10), confirmation processing (s11), imaging processing (s12), and extraction processing (s13), and The user's face image and device ID are sent to. Similar to the first embodiment, the identification server 20 executes identification processing (s22) and transmission processing (s23), and transmits the user ID and device ID of the user to the entrance/exit management server 230.

入退場管理サーバ230のCPUは、受信した利用者IDに対応するテナントIDを利用者管理テーブルから抽出する。また、入退場管理サーバ230は、受信したデバイスIDに対応するテナントIDをドア管理テーブルから抽出する。そして、入退場管理サーバ230のCPUは、抽出したテナントID同士を照合する。照合した結果、テナントIDが一致した場合には、当該テナントIDに対応するIPアドレスをドア管理テーブルから抽出し、当該IPアドレスに向けて解錠コマンドを送信する。なお、ドア管理テーブルから抽出されたテナントIDがエントランスの自動ドア210を示す場合には、上記照合を行うことなく、当該テナントIDに対応するIPアドレスを抽出し、当該IPアドレスに向けて開放コマンドを送信する。 The CPU of the entrance/exit management server 230 extracts the tenant ID corresponding to the received user ID from the user management table. Furthermore, the entrance/exit management server 230 extracts the tenant ID corresponding to the received device ID from the door management table. Then, the CPU of the entrance/exit management server 230 compares the extracted tenant IDs. As a result of the comparison, if the tenant IDs match, the IP address corresponding to the tenant ID is extracted from the door management table, and an unlock command is sent to the IP address. Note that if the tenant ID extracted from the door management table indicates the automatic door 210 at the entrance, the IP address corresponding to the tenant ID is extracted without performing the above verification, and an open command is sent to the IP address. Send.

自動ドア210の制御装置212が開放コマンドを受信した場合には、当該制御装置212は一対のドア211を開放させる。また、手動ドア220の制御装置222が開放コマンドを受信した場合には、電気錠に解錠信号を入力する。これにより手動ドア220の鍵が解錠される。 When the control device 212 of the automatic door 210 receives the opening command, the control device 212 opens the pair of doors 211. Furthermore, when the control device 222 of the manual door 220 receives an open command, it inputs an unlock signal to the electric lock. This unlocks the manual door 220.

一方、特定処理(s22)において利用者が特定できない場合や、特定処理(s22)において抽出したテナントIDが一致しない場合には、スマートデバイス10に対してエラーを送信する。スマートデバイス10は、エラーを受信すると、警備員への電話を開始してスマートデバイス10を介して警備員と通話ができるようになる。他には、スマートデバイス10は、エラーを受信すると、生体情報の取得を開始する。これにより、生体情報に基づいて利用者を特定することが可能となる。 On the other hand, if the user cannot be identified in the identification process (s22) or if the tenant IDs extracted in the identification process (s22) do not match, an error is sent to the smart device 10. When the smart device 10 receives the error, it starts calling the security guard and becomes able to talk to the security guard via the smart device 10. Otherwise, when the smart device 10 receives an error, it starts acquiring biometric information. This makes it possible to identify the user based on biometric information.

本実施形態によれば、利用者はスマートデバイス10のタッチパネルデイスプレイ13に対してタッチ操作を行うだけで、自動ドア210が開放されてリ、手動ドア220の施錠を解除することができる。 According to this embodiment, by simply performing a touch operation on the touch panel display 13 of the smart device 10, the user can open the automatic door 210 and unlock the manual door 220.

上記特定サーバ20は、特定処理(s22)を実行した後、特定した利用者IDをスマートデバイス10に送信しても構わない。スマートデバイス10は、利用者IDを受信すると、当該利用者IDに対応する利用者の氏名を利用者テーブルから抽出し、「滋賀太郎さん、おはようございます。」の音声など、特定結果をスピーカーから出力したり、タッチパネルディスプレイ13に表示する。これにより、利用者に対して特定結果を知らせることができる。 The identification server 20 may transmit the identified user ID to the smart device 10 after executing the identification process (s22). Upon receiving the user ID, the smart device 10 extracts the name of the user corresponding to the user ID from the user table, and outputs the specific result from the speaker, such as a voice saying "Good morning, Taro Shiga." It is output or displayed on the touch panel display 13. This makes it possible to notify the user of the identification results.

本実施形態において、スマートデバイス10を各ドアに設置する場合には、テナントID、IPアドレス、デバイスIDを符号化したシンボルをスマートデバイス10に読み込ませても構わない。スマートデバイス10はシンボルをカメラで読み取って、自己の端末プロパティとしてこれらの情報を設定する。 In this embodiment, when the smart device 10 is installed at each door, the smart device 10 may read a symbol in which the tenant ID, IP address, and device ID are encoded. The smart device 10 reads the symbol with a camera and sets this information as its own terminal properties.

なお、入退場管理サーバ230は、警備会社のコンピュータ3とも通信可能であり、警備会社のコンピュータ3から受信した緊急情報に基づいて、全てのドアに対して開放コマンドを送信しても構わない。これにより、緊急時に建物内のドアを開けて、警察官や警備スタッフの出入りが可能になる。 The entrance/exit management server 230 can also communicate with the computer 3 of the security company, and may send an open command to all doors based on the emergency information received from the computer 3 of the security company. This will allow police officers and security staff to enter and exit the building by opening the doors in the event of an emergency.

また、スマートデバイス10は、上記の表示処理において、緊急モードに移行するためのボタンを表示しても構わない。当該ボタンが警察官や警備スタッフによって押された場合には、パスワードなどの文字列やQRコードの入力を求める画面を表示する。そして、警察官や警備スタッフがパスワードやQRコードを入力すると、スマートデバイス10は、緊急開放コマンドを特定サーバ20に送信する。特定サーバ20は、受信した緊急開放コマンドを入退場管理サーバ230に転送する。入退場管理サーバ230は当該緊急開放コマンドに基づいて開放コマンドを各ドアに送信する。これにより、緊急時に建物内のドアを開けて、警察官や警備スタッフの出入りが可能になる。 Furthermore, in the above display process, the smart device 10 may display a button for transitioning to the emergency mode. When the button is pressed by a police officer or security staff, a screen will be displayed requesting the input of a character string such as a password or a QR code. Then, when a police officer or security staff enters a password or QR code, the smart device 10 sends an emergency release command to the specific server 20. The specific server 20 transfers the received emergency opening command to the entrance/exit management server 230. The entrance/exit management server 230 transmits an opening command to each door based on the emergency opening command. This will allow police officers and security staff to enter and exit the building by opening the doors in the event of an emergency.

また、スマートデバイス10を通じて警察や警備会社に電話が可能であっても構わない。具体的には、スマートデバイス10は、タッチパネルディスプレイ13に電話ボタンを表示させ、当該電話ボタンが押された場合に警察や警備会社に発信する。なお、当該電話は、通話のみだけでなく、テレビ電話であっても構わない。 Furthermore, it may be possible to make a call to the police or a security company through the smart device 10. Specifically, the smart device 10 displays a telephone button on the touch panel display 13, and makes a call to the police or security company when the telephone button is pressed. Note that the telephone call may be not only a telephone call but also a video telephone call.

なお、上記実施形態ではドアの内外にスマートデバイス10を設置しているが、ドアの外側にのみスマートデバイス10を設置しても構わない。 In the above embodiment, the smart device 10 is installed inside and outside the door, but the smart device 10 may be installed only outside the door.

[第3実施形態]
第3実施形態に係るPOSシステム300は、小売店における商品の売上を商品の種類ごとに集計・分析するシステムであり、商品に付されたJANコードから商品識別情報を読み取る読取装置310と、読取装置310に対応して設けられたレジ装置320と、レジ装置320と通信可能なPOSサーバ330と、を備えている。当該POSシステム300では、読取装置310によって読み取られた商品識別情報に基づいてレジ装置320が会計情報を生成し、精算後に会計情報がPOSサーバ330へと送信され、POSサーバ330にて商品の売上が集計される。
[Third embodiment]
A POS system 300 according to the third embodiment is a system that aggregates and analyzes product sales at a retail store for each product type, and includes a reader 310 that reads product identification information from a JAN code attached to a product, It includes a cash register device 320 provided corresponding to the device 310 and a POS server 330 that can communicate with the cash register device 320. In the POS system 300, the cash register 320 generates accounting information based on the product identification information read by the reader 310, and after payment, the accounting information is sent to the POS server 330, and the POS server 330 records the product sales. are totaled.

ここで、上記のPOSシステムは、ネットワークNを介して本発明の特定システム100と通信可能であり、特定システム100から受信した利用者の情報に基づいて、クレジット決済が可能となっている。具体的には、POSサーバ330は、利用者IDに対応付けて、クレジット決済に用いられる情報が記憶されている。例えば、POSサーバ330は、そのメモリにクレジットテーブルを備えている。クレジットテーブルは、利用者IDが登録される利用者IDフィールド、利用者の氏名が登録される氏名フィールド、クレジットカードの番号が登録されるカード番号フィールド、クレジットカードの有効期限が登録される期限フィールドを備えている。これらの各フィールドへの登録は、利用者が利用申請を行う際に登録される。 Here, the above-mentioned POS system can communicate with the specific system 100 of the present invention via the network N, and based on the user information received from the specific system 100, credit card payment is possible. Specifically, the POS server 330 stores information used for credit card payments in association with user IDs. For example, POS server 330 includes a credit table in its memory. The credit table has a user ID field where the user ID is registered, a name field where the user's name is registered, a card number field where the credit card number is registered, and an expiry date field where the credit card expiration date is registered. It is equipped with Registration in each of these fields is made when the user applies for use.

特定システム100のスマートデバイス10は、上記読取装置310およびレジ装置320が配置されているレジカウンターに設けられており、レジ装置320と有線または無線にて接続されている。スマートデバイス10は、レジ装置320から特定リクエストが入力されると、上記撮像処理(s12)、抽出処理(s13)、入力受付処理(変形例1-A)、及び送信処理(s15)を実行する。特定サーバ20は、スマートデバイス10から受信した顔画像に特定処理(s22)を実行し、スマートデバイス10から受信したパスワードに基づいて認証処理を実行することで、特定処理によって出力された利用者IDを認証し、当該利用者IDをスマートデバイス10へ送信する。スマートデバイス10は、利用者IDを受信すると当該利用者IDをレジ装置320へと送信する。なお、特定サーバ20は、スマートデバイス10を介さずに直接レジ装置320へ利用者IDを送信しても構わない。 The smart device 10 of the specific system 100 is provided at a checkout counter where the reading device 310 and the cash register device 320 are arranged, and is connected to the cash register device 320 by wire or wirelessly. When a specific request is input from the cash register device 320, the smart device 10 executes the above-mentioned imaging process (s12), extraction process (s13), input reception process (modification 1-A), and transmission process (s15). . The identification server 20 performs identification processing (s22) on the face image received from the smart device 10, and performs authentication processing based on the password received from the smart device 10, thereby identifying the user ID output by the identification processing. and transmits the user ID to the smart device 10. Upon receiving the user ID, the smart device 10 transmits the user ID to the cash register device 320. Note that the specific server 20 may directly transmit the user ID to the cash register device 320 without going through the smart device 10.

レジ装置320は、受信した利用者IDに対応するクレジット情報の送信をPOSサーバ330にリクエストし、POSサーバ330からクレジット情報を取得する。そして、レジ端末は、取得したクレジット情報に基づいて、クレジット会社に対してクレジット決済の申請を実行する。 The cash register device 320 requests the POS server 330 to transmit credit information corresponding to the received user ID, and acquires the credit information from the POS server 330. The cash register terminal then applies for credit card payment to the credit company based on the acquired credit information.

本実施形態によれば、クレジットカードを提示することなくクレジット決済が可能となる。 According to this embodiment, credit card payments can be made without presenting a credit card.

上記第2実施形態の入退場管理システム200や第3実施形態のPOSシステム300だけでなく、本発明の特定システム100は他のユーザシステム2と連携可能である。 In addition to the entrance/exit management system 200 of the second embodiment and the POS system 300 of the third embodiment, the specific system 100 of the present invention can cooperate with other user systems 2.

例えば、会員情報を管理する会員管理システムと連携可能である。会員管理システムは、会員アプリがインストールされた会員のスマートフォンと、ネットワークNを介してスマートフォンと通信可能な管理サーバと、を備えている。スマートフォンのCPUは、会員アプリを起動すると、会員情報をそのタッチパネルディスプレイに表示させるとともに、当該会員情報を変更可能に構成する。会員によって、変更された会員情報が入力されると、変更後の会員情報が管理サーバに送信され、管理サーバに登録されている会員情報が更新される。ここで、会員の顔画像についても変更可能となっている。会員の顔画像が変更された場合には、管理サーバは変更後の顔画像を会員情報に含めて登録すると、変更後の顔画像を特定サーバ20に送信する。特定サーバ20は受信した顔画像に基づいて上記の登録処理を実行する。これにより、年齢とともに顔の特徴点が変わってきたとしたとしても、会員(利用者)が自分でメンテナンスを実行することができる。 For example, it can be linked with a member management system that manages member information. The member management system includes a member's smartphone on which a member application is installed, and a management server that can communicate with the smartphone via network N. When the CPU of the smartphone starts the member application, the CPU displays member information on the touch panel display and configures the member information to be changeable. When the member inputs the changed member information, the changed member information is sent to the management server, and the member information registered in the management server is updated. Here, the member's face image can also be changed. When the member's face image is changed, the management server includes the changed face image in the member information and registers it, and then sends the changed face image to the specific server 20. The specific server 20 executes the above registration process based on the received facial image. This allows members (users) to carry out maintenance on their own even if facial features change with age.

10 スマートデバイス
11 CPU
12 メモリ
13 タッチパネルディスプレイ
14 カメラ
20 特定サーバ
21 CPU
22 メモリ
100 特定システム
200 入退場管理システム
300 POSシステム

10 Smart device 11 CPU
12 Memory 13 Touch panel display 14 Camera 20 Specific server 21 CPU
22 Memory 100 Specific system 200 Entrance/exit management system 300 POS system

Claims (13)

スマートデバイスと、当該スマートデバイスと通信可能なサーバと、を備える特定システムであって、
前記スマートデバイスは、
人物を撮像し、当該人物の画像を生成する撮像部と、
前記人物の画像を前記サーバに送信する送信部と、
を備え、
前記サーバは、
前記スマートデバイスから前記人物の画像を受信する受信部と、
前記受信した人物の画像に基づいて当該人物を特定する特定部と、
を備え、
前記特定した人物を他のシステムに送信する送信部と、
を備える、特定システム。
A specific system comprising a smart device and a server capable of communicating with the smart device,
The smart device includes:
an imaging unit that captures an image of a person and generates an image of the person;
a transmitting unit that transmits the image of the person to the server;
Equipped with
The server is
a receiving unit that receives an image of the person from the smart device;
an identification unit that identifies the person based on the received image of the person;
Equipped with
a transmitter that transmits the identified person to another system;
A specific system comprising:
前記スマートデバイスは、前記人物によるタッチ入力を受け付ける入力部を備え、
前記タッチ入力が生じたときに、前記人物を撮像することを特徴とする、請求項1に記載の特定システム。
The smart device includes an input unit that receives touch input from the person,
The identification system according to claim 1, wherein the identification system captures an image of the person when the touch input occurs.
前記サーバは、前記人物に関する情報に基づいて、前記特定部によって特定された人物を認証する認証部を備える、請求項1に記載の特定システム。 The identification system according to claim 1, wherein the server includes an authentication unit that authenticates the person specified by the identification unit based on information regarding the person. 前記スマートデバイスは、
前記人物によるタッチ入力を受け付ける入力部と、
前記人物の画像とともに、前記タッチ入力によって入力された入力情報を前記サーバに送信する前記送信部と、
を備え、
前記サーバは、
予め前記人物に対応付けて対比情報を記憶した記憶部と、
前記スマートデバイスから入力情報を受信する前記受信部と、
前記特定された人物に対応する対比情報を前記記憶部から抽出し、当該抽出した対比情報と前記受信した入力情報が同義である場合には当該特定された人物を認証する認証部と、
を備える、請求項1に記載の特定システム。
The smart device includes:
an input unit that accepts touch input from the person;
the transmitter that transmits input information input by the touch input to the server together with the image of the person;
Equipped with
The server is
a storage unit that stores comparison information in advance in association with the person;
the receiving unit that receives input information from the smart device;
an authentication unit that extracts comparison information corresponding to the identified person from the storage unit and authenticates the identified person if the extracted comparison information and the received input information are synonymous;
The identification system according to claim 1, comprising:
前記スマートデバイスは、
前記人物の生体情報を取得する取得部と、
前記人物の画像とともに、前記取得した生体情報を前記サーバに送信する前記送信部と、
を備え、
前記サーバは、
予め前記人物に対応付けて前記人物の生体情報を記憶した記憶部と、
前記スマートデバイスから前記生体情報を受信する前記受信部と、
前記特定された人物に対応する生体情報を前記記憶部から抽出し、当該抽出した生体情報と前記受信した生体情報を照合し、一致度が高い場合には当該特定された人物を認証する認証部と、
を備える、請求項1に記載の特定システム。
The smart device includes:
an acquisition unit that acquires biometric information of the person;
the transmission unit that transmits the acquired biometric information to the server together with the image of the person;
Equipped with
The server is
a storage unit that stores biometric information of the person in advance in association with the person;
the receiving unit that receives the biological information from the smart device;
an authentication unit that extracts biometric information corresponding to the identified person from the storage unit, collates the extracted biometric information with the received biometric information, and authenticates the identified person if the degree of matching is high; and,
The identification system according to claim 1, comprising:
特定エリアに前記人物が存在することを検出する検出部を備え、
前記撮像部は、前記人物の存在が検出された場合に当該人物を撮像することを特徴とする、請求項1に記載の特定システム。
comprising a detection unit that detects the presence of the person in a specific area,
The identification system according to claim 1, wherein the imaging unit takes an image of the person when the presence of the person is detected.
複数の前記サーバと、
前記スマートデバイスから前記人物の画像が送信される度に、当該人物の画像を送信先となるサーバを振り分ける振分部と、
を備える、請求項1に記載の特定システム。
a plurality of said servers;
a distribution unit that distributes an image of the person to a destination server each time an image of the person is transmitted from the smart device;
The identification system according to claim 1, comprising:
前記サーバは、前記人物の特定履歴を記憶する記憶部を有することを特徴とする、請求項1に記載の特定システム。 The identification system according to claim 1, wherein the server includes a storage unit that stores identification history of the person. 前記サーバは、インターネット上で提供されるクラウド型のサーバである、請求項1の特定システム。 The specific system according to claim 1, wherein the server is a cloud-type server provided on the Internet. 前記サーバと通信可能なコンピュータを備え、
前記コンピュータは、前記人物の特定に用いられる情報を前記サーバに送信することを特徴とする、請求項1に記載の特定システム。
comprising a computer capable of communicating with the server,
The identification system according to claim 1, wherein the computer transmits information used to identify the person to the server.
請求項1から請求項10に記載のサーバ。 A server according to any one of claims 1 to 10. 請求項1から請求項10に記載の特定システムによって特定された人物の入退場を管理する入退場管理システム。 An entry/exit management system for managing entry/exit of a person specified by the identification system according to any one of claims 1 to 10. 請求項1から請求項10に記載の特定システムによって特定された人物の電子決済を実施するPOSシステム。

A POS system that performs electronic payment for a person specified by the specific system according to any one of claims 1 to 10.

JP2022157182A 2022-04-13 2022-09-29 Specifying system, entrance and exit management system, and pos system Pending JP2023156968A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022157182A JP2023156968A (en) 2022-04-13 2022-09-29 Specifying system, entrance and exit management system, and pos system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022522641A JPWO2023199455A1 (en) 2022-04-13 2022-04-13
JP2022157182A JP2023156968A (en) 2022-04-13 2022-09-29 Specifying system, entrance and exit management system, and pos system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2022522641A Division JPWO2023199455A1 (en) 2022-04-13 2022-04-13

Publications (1)

Publication Number Publication Date
JP2023156968A true JP2023156968A (en) 2023-10-25

Family

ID=88469755

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022157182A Pending JP2023156968A (en) 2022-04-13 2022-09-29 Specifying system, entrance and exit management system, and pos system

Country Status (1)

Country Link
JP (1) JP2023156968A (en)

Similar Documents

Publication Publication Date Title
JP6246403B1 (en) Admission management system
US9426432B2 (en) Remote interactive identity verification of lodging guests
JP2020530144A (en) Door access control method, door access control device, system and storage medium
JP5471533B2 (en) Visitor entrance / exit management system
US11496471B2 (en) Mobile enrollment using a known biometric
KR102243963B1 (en) System for managing attendance using face recognition
MX2015000169A (en) Biometric validation method and biometric terminal.
WO2021053882A1 (en) User authentication device and recording medium
US20220351562A1 (en) Reception terminal
TWI610273B (en) Automatic visitor system and host thereof
KR20090041619A (en) Entrance and exit control system
WO2023199455A1 (en) Identification system, entry/exit management system, and pos system
JP2005036523A (en) Electronic lock control system and method, and portable information terminal and authentication device used for the same
JP2023156968A (en) Specifying system, entrance and exit management system, and pos system
TWI771819B (en) Authentication system, authentication device, authentication method, and program product
JP2022117025A (en) Method for personal identification, program, and information system
US20210248850A1 (en) Management system and data center
TW201800652A (en) Door access control system with automatic unlocking function and unlocking method thereof that comprises a door lock controller and an electronic device carried by a user such that when the electronic device is approaching the door lock controller, the door lock controller, upon identifying the user, automatically unlock the door lock
CN112489274A (en) Access control method and system
TWM512176U (en) Improved personal access management device
JP7164675B1 (en) Access control system
KR102639356B1 (en) Identity Authentication System and Method Using Face Recognition
EP4002166A1 (en) Method and system for biometric authentication for large numbers of enrolled persons
Thakur et al. IoT Based Portable Smart Lock
JP2005004253A (en) Personal identification system